Total Pageviews

Friday, 31 July 2015

vps备份网站的mysql数据到邮箱/ftp空间




无论现在做什么,都要先学会未雨绸缪.

其实,关于网上的有很多种方法备份vps的mysql和数据.但是往往都不是很理想.
首先我觉得备份数据一定要满足一下几点:

    支持低成本备份mysql:网站数据其实并不会经常改动,经常要备份的主要是mysql,所谓的低成本就是自动化,而且可以发送到免费的邮箱.
    mysql必须是分卷备份的:不要把N个数据库合并成一个sql文件,那样我不会恢复.
    如果你网站很大图片很多,那么还得随时可以备份到ftp.

不过终于在Cat上找到了这个备份的方法,还是相当靠谱的..贴出代码先~

    首先安装mutt:

    yum install sendmail mutt

    vi AutoBackupToFtp.sh

    #!/bin/bash
    #你要修改的地方从这里开始
    MYSQL_USER=root                             #mysql用户名
    MYSQL_PASS=123456                      #mysql密码
    MAIL_TO=cat@hostloc.com                 #数据库发送到的邮箱
    FTP_USER=cat                              #ftp用户名
    FTP_PASS=123456                         #ftp密码
    FTP_IP=imcat.in                          #ftp地址
    FTP_backup=backup                          #ftp上存放备份文件的目录,这个要自己得ftp上面建的
    WEB_DATA=/home/www                          #要备份的网站数据
    #如果不需要ftp功能请注释掉FTP_USER,FTP_IP.ftp.backup
    #你要修改的地方从这里结束
   
    #定义数据库的名字和旧数据库的名字
    DataBakName=Data_$(date +"%Y%m%d").tar.gz
    WebBakName=Web_$(date +%Y%m%d).tar.gz
    OldData=Data_$(date -d -5day +"%Y%m%d").tar.gz
    OldWeb=Web_$(date -d -5day +"%Y%m%d").tar.gz
    #删除本地3天前的数据
    rm -rf /home/backup/Data_$(date -d -3day +"%Y%m%d").tar.gz /home/backup/Web_$(date -d -3day +"%Y%m%d").tar.gz
    cd /home/backup
    #导出数据库,一个数据库一个压缩文件
    for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do
        (/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz)
    done
    #压缩数据库文件为一个文件
    tar zcf /home/backup/$DataBakName /home/backup/*.sql.gz
    rm -rf /home/backup/*.sql.gz
    #发送数据库到Email,如果数据库压缩后太大,请注释这行
    echo "主题:数据库备份" | mutt -a /home/backup/$DataBakName -s "内容:数据库备份" $MAIL_TO
    #压缩网站数据
    tar zcf /home/backup/$WebBakName $WEB_DATA
    #上传到FTP空间,删除FTP空间5天前的数据
    ftp -v -n $FTP_IP << END
    user $FTP_USER $FTP_PASS
    type binary
    cd $FTP_backup
    delete $OldData
    delete $OldWeb
    put $DataBakName
    put $WebBakName
    bye
    END

    chmod +x AutoBackupToFtp.sh
    利用crontab 实现每天00:00自动备份网站文件和数据库上传到FTP空间

    crontab -e

    00 00 * * * /home/AutoBackupToFtp.sh

一切都很顺利,但是也遇到了一点小麻烦,在cat博客里面也有人问道.
执行

./AutoBackupToFtp.sh

以后却出现

mysqldump: Got error: 1044: Access denied for user 'root'@'localhost' to database 'information_schema' when using LOCK TABLES

在http://blog.csdn.net/jamesjun/article/details/3290976找到解决办法,是因为没有LOCK TABLES的权限,于是查看mysqldump的帮助,加上参数–skip-lock-tables

mysqldump --opt -h192. 168.0 . 156  -uUsername -pPassword --skip-lock-tables databaseName>database.sql

还有就是会提示:

tar: Removing leading `/' from member names

其实大家不用在意这个,根据鸟哥的说法-http://linux.vbird.org/linux_basic/0240tarcompress.php:

    『tar: Removing leading `/’ from member names(移除了檔名開頭的 `/’ )』所告知的情況!

    那為什麼要拿掉根目錄呢?主要是為了安全!我們使用 tar 備份的資料可能會需要解壓縮回來使用, 在 tar 所記錄的檔名 (就是我們剛剛使用 tar -jtvf 所察看到的檔名) 那就是解壓縮後的實際檔名。 如果拿掉了根目錄,假設你將備份資料在 /tmp 解開,那麼解壓縮的檔名就會變成『/tmp/etc/xxx』。 但『如果沒有拿掉根目錄,解壓縮後的檔名就會是絕對路徑, 亦即解壓縮後的資料一定會被放置到 /etc/xxx 去!』如此一來,你的原本的 /etc/ 底下的資料, 就會被備份資料所覆蓋過去了!