摘要:項目的一個需求是解析的日志文件。項目中已經按照業務規則對日志文件進行了處理命名規則如下并且所有的日志文件存放在統一路徑下。模塊使用緩存,所以會耗費內存,耗費量與要解析的文件相關。剩下的工作就是根據業務需要,對獲得的基本信息進行處理。
項目的一個需求是解析nginx的日志文件。
簡單的整理如下:
首先要明確自己的Nginx的日志格式,這里采用默認Nginx日志格式:
log_format main "$remote_addr - $remote_user [$time_local] "$request" " "$status $body_bytes_sent "$http_referer" " ""$http_user_agent" "$http_x_forwarded_for"";
其中一條真實記錄樣例如下:
172.22.8.207 - - [16/Dec/2014:17:57:35 +0800] "GET /report?DOmjjuS6keWJp+WculSQAgdUkAIPODExMzAwMDJDN0FC HTTP/1.1" 200 0 "-" "XXXXXXX/1.0.16; iPhone/iOS 8.1.2; ; 8DA77E2F91D0"
其中,客戶端型號信息用XXXXXXX代替。
項目中已經按照業務規則對Nginx日志文件進行了處理命名規則如下:
ID-ID-YYMMDD-hhmmss
并且所有的日志文件存放在統一路徑下。
解決思路這里使用Python的glob模塊來獲取日志文件path
import glob def readfile(path): return glob.glob(path + "*-*-*-*")獲取日志文件中每一行的內容
使用Python的linecache模塊來獲取文件行的內容
import linecache def readline(path): return linecache.getlines(path)
注意:linecache模塊使用了緩存,所以存在以下問題:
在使用linecache模塊讀取文件內容以后,如果文件發生了變化,那么需要使用linecache.updatecache(filename)來更新緩存,以獲取最新變化。
linecache模塊使用緩存,所以會耗費內存,耗費量與要解析的文件相關。最好在使用完畢后執行linecache.clearcache()清空一下緩存。
當然,作為優化,這里可以利用生成器來進行優化。暫且按下不表。
處理日志條目一條日志信息就是一個特定格式的字符串,因此使用正則表達式來解析,這里使用Python的re模塊。
下面,一條一條建立規則:
ip = r"?P解析[d.]*" date = r"?P d+" month = r"?P w+" year = r"?P d+" log_time = r"?P
p = re.compile(r"(%s) - - [(%s)/(%s)/(%s):(%s) [S]+] "(%s)?[s]?(%s)?.*?" (%s) (%s) "(%s)" "(%s).*?"" %( ip, date, month, year, log_time, method, request, status, bodyBytesSent, refer, userAgent ), re.VERBOSE) m = re.findall(p, logline)
這樣,就可以得到日志條目中各個要素的原始數據。
得到日志原始數據之后,需要根據業務要求,對原始數據進行格式及內容轉化。
這里需要處理的內容包括:時間,request,userAgent
在日志信息原始數據中存在Dec這樣的信息,利用Python的time模塊可以方便的進行解析
import time def parsetime(date, month, year, log_time): time_str = "%s%s%s %s" %(year, month, date, log_time) return time.strptime(time_str, "%Y%b%d %H:%M:%S")解析request
在日志信息原始數據中得到的request的內容格式為:
/report?XXXXXX
這里只需要根據協議取出XXXXXX即可。
這里仍然采用Python的re模塊
import re def parserequest(rqst): param = r"?P.*" p = re.compile(r"/report?(%s)" %param, re.VERBOSE) return re.findall(p, rqst)
接下來需要根據業務協議解析參數內容。這里需要先利用base64模塊解碼,然后再利用struct模塊解構內容:
import struct import base64 def parseparam(param): decodeinfo = base64.b64decode(param) s = struct.Struct("!x" + bytes(len(decodeinfo) - (1 + 4 + 4 + 12)) + "xii12x") return s.unpack(decodeinfo)解析userAgent
在日志信息原始數據中userAgent數據的格式為:
XXX; XXX; XXX; XXX
根據業務要求,只需要取出最后一項即可。
這里采用re模塊來解析。
import re def parseuseragent(useragent): agent = r"?P.*" p = re.compile(r".*;.*;.*;(%s)" %agent, re.VERBOSE) return re.findall(p, useragent)
至此,nginx日志文件解析基本完成。
剩下的工作就是根據業務需要,對獲得的基本信息進行處理。
(完)
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/37530.html
摘要:項目的一個需求是解析的日志文件。項目中已經按照業務規則對日志文件進行了處理命名規則如下并且所有的日志文件存放在統一路徑下。模塊使用緩存,所以會耗費內存,耗費量與要解析的文件相關。剩下的工作就是根據業務需要,對獲得的基本信息進行處理。 項目的一個需求是解析nginx的日志文件。 簡單的整理如下: 日志規則描述 首先要明確自己的Nginx的日志格式,這里采用默認Nginx日志格式: ...
摘要:通過通過入庫后使用進行查詢的方式可以通過如下種圖片來查看在上圖中主要是查看日志中請求狀態碼的總數量。 原文地址: http://52sox.com/use-mongodb-... 在項目開發過程中,總是離不開日志解析的工作,雖然有些時候覺得確實挺繁瑣的,但是靜下心來會發現有時候也是挺有趣的1件工作。 在這里,我們要從日志文件中找出IP訪問最多的10條記錄,然后判斷其是否合法,從而采取...
摘要:通過通過入庫后使用進行查詢的方式可以通過如下種圖片來查看在上圖中主要是查看日志中請求狀態碼的總數量。 原文地址: http://52sox.com/use-mongodb-... 在項目開發過程中,總是離不開日志解析的工作,雖然有些時候覺得確實挺繁瑣的,但是靜下心來會發現有時候也是挺有趣的1件工作。 在這里,我們要從日志文件中找出IP訪問最多的10條記錄,然后判斷其是否合法,從而采取...
摘要:通過通過入庫后使用進行查詢的方式可以通過如下種圖片來查看在上圖中主要是查看日志中請求狀態碼的總數量。 原文地址: http://52sox.com/use-mongodb-... 在項目開發過程中,總是離不開日志解析的工作,雖然有些時候覺得確實挺繁瑣的,但是靜下心來會發現有時候也是挺有趣的1件工作。 在這里,我們要從日志文件中找出IP訪問最多的10條記錄,然后判斷其是否合法,從而采取...
閱讀 2331·2021-11-24 10:27
閱讀 3576·2019-08-30 15:55
閱讀 3341·2019-08-30 15:53
閱讀 2342·2019-08-29 17:27
閱讀 1428·2019-08-26 13:47
閱讀 3547·2019-08-26 10:28
閱讀 913·2019-08-23 15:59
閱讀 2850·2019-08-23 15:19