咱们以备份线上数据库文件为例(各种log文件也可以),本地系统是Ubuntu:
一。假设已经有一个数据库,且是自建的跟做事器同一台主机,每天会有定时脚本备份并压缩保存到固定文件夹(如宝塔的定时任务,保存到/www/backup/database 文件夹),但是硬盘空间有限,选择保存份数时就不能选很多份了,那么其他保存日期的db文件就由本地做事器保存,既达到了多重备份的目的又节省了做事器硬盘空间;对付备份工具是每天增长飞快的各种log文件,尤为得当。
二。

1)确定好备份工具和线上文件目录后,咱们开始动工了。文件目录和工具暂设/www/backup/database下以.gz结尾的打包过的数据库文件。
2)编写本地定时命令,例,每天一点半备份线上IP为x.x.x.x的目录/www/backup/database 到本地的 /www/backup 目录下,过程输出咱们以追加的办法写入到/www/wwwlogs/db_backup.log里面,缺点信息也写入到/www/wwwlogs/db_backup_error.log里面,命令如下:
crontab -e #打开Linux定时器编辑界面
30 1 rsync -tvzr 用户名@线上IP :/www/backup/database /www/backup >> /www/wwwlogs/db_backup.log 2>>/www/wwwlogs/db_backup_error.log
note:rsync如果是ssh模式的,建议把本地公钥提前放入到线上做事器的.ssh/authorized_keys文件内,就不用输入密码了;如果线上做事器是ubuntu,最好查看一下远程机器是否安装ssh做事(ubuntu 没有默认安装ssh) 命令:ssh host ,如果显示
ssh: Could not resolve hostname host: Name or service not known便是没装的安装ssh 命令 sudo apt-get install openssh-server然后关闭ubuntu的防火墙 ufw disable3)运行过后,如无意外,本地已经有 www/backup/database/n个.gz开头的压缩文件,到这任务已经完成了一大半了,是不是很大略?不过有个小问题?本地的数据如果可以删,我可以掌握保留份数么?份数的功能线上的宝塔面板,准确说是线上的脚本已经有了,问题是,线上空间有限啊,我又想多留几份,以备不测呢?那就自己写一个脚本掌握呗!
说到这,这种小小的运维任务就不劳烦各大编程措辞了,我的习气是用PHP搞定它,shell和Python嘛,你爱用哪个用哪个,不才以为PHP搞大略运维还是挺适宜的,非常稳定,大略,没有烦人的缩进和突如其来的运行时缺点,哈哈~
贴上一段小脚本,文件名:manage_db_backup.php
<?php$conf_len = 18;$file_arr = glob( "/www/backup/database/.gz" );if(count( $file_arr)> $conf_len ){foreach( $file_arr as $v ){ $time_cut_line = date('Ymd',strtotime('-'.$conf_len.'days')); $v_time = substr( end(explode('/',$v)) ,16,8 ); $v_time<$time_cut_line && unlink($v);}}else{echo 'no delete files',PHP_EOL;}$file_arr2 = glob( "/www/backup/database/.gz" );echo 'delete,';print_r( array_diff($file_arr,$file_arr2) );echo PHP_EOL;?>
以上脚本加入Linux定时器,命令:
30 2 php manage_db_backup.php >> /www/server/manage_db_backup.log 2>&1
运行结果类似于
大功告成!
是不是很大略?