对于站长来说,数据就是命根子。我们都以捡便宜的心态在寻找低价高速的VPS,有时候也许会忽略数据的备份,而并不是每一个VPS提供商都靠谱,也许在某一天就跑路了,万一数据没有备份,那岂不是悲剧了?
接下来介绍一个自动备份文件和数据库到FTP空间的办法,这样就可以确保数据不会因为主机商跑路而丢失了。
首先,我们需要安装Email发送组件,以保证数据库文件可以发送到您的邮箱:
yum install sendmail mutt
接下来,我们编写一个名字为backup.sh的脚本:
vi backup.sh
脚本的内容如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 |
#!/bin/bash #你要修改的地方从这里开始 MYSQL_USER=root #mysql用户名 MYSQL_PASS=password #mysql密码 MAIL_TO=name@yourmail.com #数据库发送到的邮箱 FTP_USER=name #ftp用户名 FTP_PASS=password #ftp密码 FTP_IP=123.234.345.456 #ftp地址 FTP_backup=backup #ftp上存放备份文件的目录,这个要自己在ftp上面新建的 WEB_DATA= /home/wwwroot #要备份的网站文件目录 #你要修改的地方从这里结束 #定义数据库的名字和旧数据库的名字 DataBakName=Data_$( date + "%Y%m%d" ). tar .gz WebBakName=Web_$( date +%Y%m%d). tar .gz OldData=Data_$( date -d -5day + "%Y%m%d" ). tar .gz OldWeb=Web_$( date -d -5day + "%Y%m%d" ). tar .gz #删除本地3天前的数据 rm -rf /home/backup/Data_ $( date -d -3day + "%Y%m%d" ). tar .gz /home/backup/Web_ $( date -d -3day + "%Y%m%d" ). tar .gz cd /home/backup #导出数据库,一个数据库一个压缩文件 for db in ` /usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs `; do ( /usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz) done #压缩数据库文件为一个文件 tar zcf /home/backup/ $DataBakName /home/backup/ *.sql.gz rm -rf /home/backup/ *.sql.gz #发送数据库到Email,如果数据库压缩后太大,请注释这行 echo "主题:数据库备份" | mutt -a /home/backup/ $DataBakName -s "内容:您的数据库备份" $MAIL_TO #压缩网站数据 tar zcf /home/backup/ $WebBakName $WEB_DATA #上传到FTP空间,删除FTP空间5天前的数据 ftp - v -n $FTP_IP << END user $FTP_USER $FTP_PASS type binary cd $FTP_backup delete $OldData delete $OldWeb put $DataBakName put $WebBakName bye END |
给脚本添加执行权限:
chmod +x /root/backup.sh
添加系统crontab任务实现每天自动运行脚本:
crontab -e
输入以下内容:
00 00 * * * /root/backup.sh
其中00 00为时间分/小时,可自行修改,例如:30 12 ***,就是每天12.30运行这个脚本。