找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 85|回复: 13

dropbox自动上传备份 并自动分日期删除远程过期文件

[复制链接]

8

主题

78

回帖

210

积分

中级会员

积分
210
发表于 2012-5-3 23:47:11 | 显示全部楼层 |阅读模式
本帖最后由 suwubee 于 2012-5-4 09:57 编辑

使用前请参考dropbox_uploader的使用办法,因为最下面是用dropbox uploader上传的,需申请dropbox api[ol]
  • #!/bin/bash
  • DROPBOX_DIR="/XXX"
  • MYSQL_USER="root"
  • MYSQL_PASS="XXX"
  • YM_DATA=/usr/XXX
  • BACK_DATA=/XXX
  • DATA=/XXX
  • #定义数据库的名字和旧数据库的名字
  • DataBakName=Data_$(date +"%Y%m%d").tar.gz
  • WebBakName=Web_$(date +%Y%m%d).tar.gz
  • YMName=ym_$(date +%Y%m%d).tar.gz
  • OldData=Data_$(date -d -3day +"%Y%m%d").tar.gz
  • OldWeb=Web_$(date -d -3day +"%Y%m%d").tar.gz
  • OldYM=YM_$(date -d -3day +"%Y%m%d").tar.gz
  • #删除本地3天前的数据
  • rm -rf $BACK_DATA/$OldData $BACK_DATA/$OldWeb $BACK_DATA/$OldYM
  • cd $BACK_DATA
  • #使用命令导出SQL数据库,并且按数据库分个压缩
  • for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do
  •     (/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz)
  • done
  • #压缩数据库文件合并为一个压缩文件
  • tar zcf $BACK_DATA/$DataBakName $BACK_DATA/*.sql.gz
  • rm -rf $BACK_DATA/*.sql.gz
  • #压缩网站数据
  • cd $DATA
  • tar zcf $BACK_DATA/$WebBakName ./*
  • #压缩域名信息,建议LNMP整个VPS迁移的话备份下这些子域名配置文件
  • cd $YM_DATA
  • tar zcf $BACK_DATA/$YMName ./*
  • cd $BACK_DATA
  • #开始上传
  • sh dropbox_uploader.sh upload  $BACK_DATA/$DataBakName $DROPBOX_DIR/$DataBakName
  • sh dropbox_uploader.sh upload  $BACK_DATA/$WebBakName $DROPBOX_DIR/$WebBakName
  • sh dropbox_uploader.sh upload  $BACK_DATA/$YMName $DROPBOX_DIR/$YMName
  • #开始删除远程3天前的文件
  • sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldData
  • sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldWeb
  • sh dropbox_uploader.sh delete $DROPBOX_DIR/$OldYM
  • echo -e "Thank you! all down"[/ol]复制代码api目前有个限制,关于太大的文件无法上传。大文件我传到30M左右就挂了。
    此外阿里云的脚本已经完成,但是鉴于是国内机器,不便国外备份。
    请关注此帖,正在考虑最佳方案。

    我的博客:http://bing.sudake.cn/

    经常会写错变量,不好意思。已修改~
  • 回复

    使用道具 举报

    690

    主题

    6390

    回帖

    1万

    积分

    论坛元老

    积分
    14884
    发表于 2012-5-3 23:50:45 | 显示全部楼层
    技术贴留名
    回复

    使用道具 举报

    376

    主题

    771

    回帖

    2704

    积分

    金牌会员

    积分
    2704
    发表于 2012-5-3 23:51:39 | 显示全部楼层
    本帖最后由 云生 于 2012-5-3 23:54 编辑

    收藏,
    30M 就不能上传这怎么行啊。
    数据库一压缩,很快就超过30M了
    回复

    使用道具 举报

    3

    主题

    212

    回帖

    451

    积分

    中级会员

    积分
    451
    发表于 2012-5-4 00:07:22 | 显示全部楼层
    api据说是有限制,但不应该传30多M就有问题,我传80多M的文件都可以呀.
    回复

    使用道具 举报

    31

    主题

    157

    回帖

    431

    积分

    中级会员

    积分
    431
    发表于 2012-5-4 00:42:02 | 显示全部楼层
    何苦啊。dropbox本来就能保存30天的不同的版本
    根本没必要去删除

    api和网页上传最大都是300m
    回复

    使用道具 举报

    105

    主题

    1646

    回帖

    3641

    积分

    论坛元老

    积分
    3641
    发表于 2012-5-4 01:07:58 | 显示全部楼层
    收藏
    回复

    使用道具 举报

    31

    主题

    404

    回帖

    925

    积分

    高级会员

    积分
    925
    发表于 2012-5-4 01:24:37 | 显示全部楼层
    量小非君子呀。。30M不够。。。80M也不够啊..
    回复

    使用道具 举报

    2

    主题

    299

    回帖

    628

    积分

    高级会员

    积分
    628
    发表于 2012-5-4 01:36:43 | 显示全部楼层
    MARK
    回复

    使用道具 举报

    75

    主题

    1108

    回帖

    2493

    积分

    金牌会员

    积分
    2493
    发表于 2012-5-4 01:37:29 | 显示全部楼层
    数据这么重要为什么都不买 备份空间啊g grive 有沒有類似的方法來備份?
    回复

    使用道具 举报

    0

    主题

    1

    回帖

    4

    积分

    新手上路

    积分
    4
    发表于 2012-5-4 01:43:03 | 显示全部楼层
    数据库一压缩,很快就超过30M了
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    Archiver|手机版|小黑屋|Discuz! X

    GMT+8, 2025-1-11 14:57 , Processed in 0.020226 second(s), 4 queries , Gzip On, Redis On.

    Powered by Discuz! X3.5

    © 2001-2024 Discuz! Team.

    快速回复 返回顶部 返回列表