Python脚本优化-----Zabbix多行日志监控
2021-04-02 09:25
标签:alt lag sys ace param pytho lse user mamicode python3 npar.py /u03/z.txt ‘(ORA-|REEOR),(04030|02011)‘ 2 import os import sys logtxt="logtxt.txt" def read_txt(files,start_line): def wirte_log(lines): def read_log(): def deal_read_log(files, keyword, interval_line): if name == ‘main‘: 接下来就是添加监控了 在agent的conf 文件里面添加UserParameter 到这里监控就完成了 Python脚本优化-----Zabbix多行日志监控 标签:alt lag sys ace param pytho lse user mamicode 原文地址:https://blog.51cto.com/14483703/2519876 通过使用zabbix 日志监控 我发现一个问题 例如oracle的日志有报错的情况 ,通常不会去手动清理 这样的话当第二次有日志写进来的时候 zabbix的机制是回去检查全部日志,这样的话之前已经告警过的错误日志,又会被检查到,这样就会出现重复告警,而且zabbix的日志监控只能读到匹配当前行关键字的数据,感觉不太灵活, 比如我想要匹配到的关键字之后再当前关键字的下N行再去匹配另一个关键字这个时候就比较麻烦,在这里给大家推荐一个有效,便捷解决的方式。
通过Python脚本实现日志监控 要求 1 记录脚本检查日志位置,避免下次触发脚本的时候出现重复告警 2 关键字匹配支持正则 3 支持多个关键字查询,例如第一个关键字匹配到当之后在这个关键字的下N行再去匹配第二个关键字 具体传参格式
第一个参数是日志路径 第二个参数是关键字 第三个参数为 匹配到第一个表达式这种的关键字后再去地 N(2)行去匹配第二个关键词(04030|02011)具体脚本实现如下
data =[]
data.append("")
with open(str(files)+"", "r", encoding=‘UTF-8‘) as f:
for line in f.readlines():
line = line.strip(‘\n‘) #去掉列表中每一个元素的换行符
data.append(line)
#记录本次的行数
wirte_log(len(data)-1)
if len(data)>start_line:
return data[start_line-1:]
else:
print("开始行数大于文本文件总行数!")
global logtxt
with open(logtxt,"w") as file: #”w"代表着每次运行都覆盖内容
file.write(str(lines))
global logtxt
if not os.path.exists(logtxt):
with open(logtxt,"w") as file: #”w"代表着每次运行都覆盖内容
file.write(str(1))
with open(logtxt+"", "r", encoding=‘UTF-8‘) as f:
s_lines = f.readlines()
print("从第"+str(s_lines[0])+"行开始")
return s_lines[0]
keywords = keyword.replace("(","").replace(")","").replace("‘","").replace(‘"‘,‘"‘).split(‘,‘)
start_keywords=keywords[0].split("|")
end_keywords = keywords[1].split("|")
start_line=read_log()
lines_data = read_txt(files,int(start_line))
for_line=1
while(for_line
files = sys.argv[1]
if ‘.log‘ in files:
logtxt=files.replace(".log","_log.txt")
else:
logtxt=files.replace(".txt","_log.txt")
#files="ora.txt"
keywords = sys.argv[2]
#keywords="‘((04030|04000),ORA-)‘"
# 上下关联行数
interval_line = int(sys.argv[3])
#interval_line=10
deal_read_log(files, keywords, interval_line)
文章标题:Python脚本优化-----Zabbix多行日志监控
文章链接:http://soscw.com/index.php/essay/71329.html