shell脚本日志清理和压缩

简介:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
我的博客已迁移到xdoujiang.com请去那边和我交流
1、日志结构
/opt/online/ {123com,abccom} /log/online [1-9]/[a-z]
 
2、变量说明
#是否开启压缩功能(0:关闭,1:开启;若关闭压缩功能,则compressdayn无效)
needcompress=1
删除14天以前的日志
deldayn=14
前1天
lastdayn=1
服务类型
allsvrtype= "online1 online2 online3"
压缩5天前的日志
compressdayn=5
 
3、计划任务使用方法:
将该脚本本身copy到 /opt/online 下;
crontab 中配置成:
#30 0 * * * cd /opt/online && chmod +x cleanlog.sh && ./cleanlog.sh >/dev/null 2>&1
 
cat  cleanlog.sh
#!/bin/bash
#--------------------------------------------------  
#Created:2015-05-18
#Author:jimmygong
#Mail:jimmygong@taomee.com
#Function:
#Version:1.0
#--------------------------------------------------
allsvrtype= "online1 online2 online3"
deldayn=14
needcompress=1
compressdayn=5
lastdayn=1
 
alldomain= "123com abccom"
allsubdir= "a b c d e f g h i j k l m n o p q r s t u v w x y z"
rootdir= "/opt/online"
dirtobedelname= "tobedel"
 
lastday=` date  -d  "$lastdayn days ago"  +%Y%m%d`
compressday=` date  -d  "$compressdayn days ago"  +%Y%m%d`
delday=` date  -d  "$deldayn days ago"  +%Y%m%d`
 
function  cleandir ()
{
     local  ldir= "$1"
     local  lfiles=
     local  lfile=
 
     lfiles=` ls  -1 $ldir |  xargs `
     for  lfile  in  $lfiles
     do
         rm  -f $ldir/$lfile
     done
}
 
function  compressdir ()
{
     local  ldir= "$1"
     local  lfiles=
     local  lfile=
     local  lcompressedtarget= "$ldir/$compressday.tar.gz"
     # to prevent duplicate-compress
     if  [[ -f $lcompressedtarget ]]
     then
         return
     fi
     tar  zcvf $ldir. tar .gz $ldir
     if  [[ $? - ne  0 ]] ;  then
         return
     fi
     lfiles=` ls  -1 $ldir |  xargs `
     for  lfile  in  $lfiles
     do
         rm  -f $ldir/$lfile
     done
     if  [[ -f $ldir. tar .gz ]] ;  then
         mv  $ldir. tar .gz $lcompressedtarget
     fi
}
 
function  handleonelogdir ()
{
     local  ldir= "$1"
     local  lscandir= "$ldir/$dirtobedelname"
     local  lmvdir= "$lscandir/$lastday"
     local  lones=
     local  lone=
     local  lonefull=
     mkdir  -p $lscandir
     # remove
     lones=` ls  -1 $lscandir |  grep  $delday |  xargs `
     for  lone  in  $lones
     do
         lonefull= "$lscandir/$lone"
         if  [[ -d $lonefull ]] ;  then
             cleandir $lonefull
             rm  -rf $lonefull
         elif  [[ -f $lonefull ]] ;  then
             rm  -f $lonefull
         fi
     done
     # compress
     if  [[ $needcompress - eq  1 ]]
     then
         lones=` ls  -1 $lscandir |  grep  $compressday |  xargs `
         for  lone  in  $lones
         do
             lonefull= "$lscandir/$lone"
             if  [[ -d $lonefull ]]
             then
                 compressdir $lonefull
             elif  [[ -f $lonefull ]]
             then
                 tar  zcvf $lonefull. tar .gz $lonefull
             fi
         done
     fi
     # move last day's data
     mkdir  -p $lmvdir
     lones=` ls  -1 $ldir |  grep  $lastday |  xargs `
     for  lone  in  $lones
     do
         mv  $ldir/$lone $lmvdir
     done
}
 
for  domain  in  $alldomain
do
     domaindir= "$rootdir/$domain"
     if  [[ ! -d $domaindir ]]
     then
         continue
     fi
     for  svrtp  in  $allsvrtype
     do
         svrtplogdir= "$domaindir/log/$svrtp"
         if  [[ ! -d $svrtplogdir ]]
         then
             continue
         fi
         for  sub  in  $allsubdir
         do
             svrtplogsubdir= "$svrtplogdir/$sub"
             if  [[ ! -d $svrtplogsubdir ]]
             then
                 continue
             fi
             handleonelogdir  "$svrtplogsubdir"
         done
     done
done
 
exit  0









本文转自 xdoujiang 51CTO博客,原文链接:http://blog.51cto.com/7938217/1652898,如需转载请自行联系原作者
相关实践学习
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
【涂鸦即艺术】基于云应用开发平台CAP部署AI实时生图绘板
目录
相关文章
|
Java Shell
「sh脚步模版自取」测试线排查的三个脚本:启动、停止、重启、日志保存
「sh脚步模版自取」测试线排查的三个脚本:启动、停止、重启、日志保存
261 1
|
监控 数据挖掘 数据安全/隐私保护
Python脚本:自动化下载视频的日志记录
Python脚本:自动化下载视频的日志记录
|
存储 消息中间件 大数据
大数据-70 Kafka 高级特性 物理存储 日志存储 日志清理: 日志删除与日志压缩
大数据-70 Kafka 高级特性 物理存储 日志存储 日志清理: 日志删除与日志压缩
295 1
|
缓存 监控 算法
分析慢日志文件来优化 PHP 脚本的性能
分析慢日志文件来优化 PHP 脚本的性能
|
Java Shell Linux
【Linux入门技巧】新员工必看:用Shell脚本轻松解析应用服务日志
关于如何使用Shell脚本来解析Linux系统中的应用服务日志,提供了脚本实现的详细步骤和技巧,以及一些Shell编程的技能扩展。
594 0
【Linux入门技巧】新员工必看:用Shell脚本轻松解析应用服务日志
|
运维 监控 数据可视化
自动化运维:使用Python脚本进行日志分析
【8月更文挑战第31天】当系统出现问题时,我们通常会查看日志寻找线索。然而,手动阅读大量日志既费时又易出错。本文将介绍如何使用Python脚本自动分析日志,快速定位问题,提高运维效率。我们将从简单的日志读取开始,逐步深入到复杂的正则表达式匹配和错误统计,最后实现一个自动化的日志监控系统。无论你是新手还是老手,这篇文章都将为你提供有价值的参考。让我们一起探索如何用代码解放双手,让运维工作变得更加轻松吧!
1241 0
|
7月前
|
存储 安全 Unix
七、Linux Shell 与脚本基础
别再一遍遍地敲重复的命令了,把它们写进Shell脚本,就能一键搞定。脚本本质上就是个存着一堆命令的文本文件,但要让它“活”起来,有几个关键点:文件开头最好用#!/usr/bin/env bash来指定解释器,并用chmod +x给它执行权限。执行时也有讲究:./script.sh是在一个新“房间”(子Shell)里跑,不影响你;而source script.sh是在当前“房间”里跑,适合用来加载环境变量和配置文件。
632 9
|
7月前
|
存储 Shell Linux
八、Linux Shell 脚本:变量与字符串
Shell脚本里的变量就像一个个贴着标签的“箱子”。装东西(赋值)时,=两边千万不能有空格。用单引号''装进去的东西会原封不动,用双引号""则会让里面的$变量先“变身”再装箱。默认箱子只能在当前“房间”(Shell进程)用,想让隔壁房间(子进程)也能看到,就得给箱子盖个export的“出口”戳。此外,Shell还自带了$?(上条命令的成绩单)和$1(别人递进来的第一个包裹)等许多特殊箱子,非常有用。
660 3
|
关系型数据库 MySQL Shell
MySQL 备份 Shell 脚本:支持远程同步与阿里云 OSS 备份
一款自动化 MySQL 备份 Shell 脚本,支持本地存储、远程服务器同步(SSH+rsync)、阿里云 OSS 备份,并自动清理过期备份。适用于数据库管理员和开发者,帮助确保数据安全。
|
10月前
|
Shell
Shell脚本循环控制:shift、continue、break、exit指令
使用这些命令可以让你的Shell脚本像有生命一样动起来。正确使用它们,你的脚本就能像一场精心编排的舞蹈剧目,既有旋律的起伏,也有节奏的跳跃,最终以一场惊艳的表演结束。每一个动作、每一个转折点,都准确、优雅地完成所需要表达的逻辑。如此,你的脚本不只是冰冷的代码,它透过终端的界面,跳着有节奏的舞蹈,走进观众——使用者的心中。
357 60
下一篇
开通oss服务