国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

利用MongoDB分析Nginx日志

LiuZh / 2217人閱讀

摘要:通過通過入庫后使用進行查詢的方式可以通過如下種圖片來查看在上圖中主要是查看日志中請求狀態碼的總數量。

原文地址:

http://52sox.com/use-mongodb-...

在項目開發過程中,總是離不開日志解析的工作,雖然有些時候覺得確實挺繁瑣的,但是靜下心來會發現有時候也是挺有趣的1件工作。
在這里,我們要從日志文件中找出IP訪問最多的10條記錄,然后判斷其是否合法,從而采取對應的措施。

日志解析流程

正常情況下,關于Nginx日志解析的流程如下所示:

一般情況下我們會對要解析的日志提前進行切分,常用的方式是按照日期,然后保存1個星期的日志。然后接下來就是日志的解析了,在這個過程中會使用到一些工具或編程語言,例如awk、grep、perl、python。
最后的入庫和可視化處理一般視業務而定,沒有強制的要求。

日志查詢的解決方案

而關于Nginx日志解析的常用解決方案主要有如下4種方式:

通過awk和grep進行解析

通過Postgresql外聯表進行日志的映射

通過Python與MongoDB的組合來進行日志查詢

通過ELK這個開源套件進行查詢

其中Postgresql外聯表的方式在之前公司的時候已經使用過,當然是對公司多個3GB大小的日志進行處理。而第1種和第4種解決方案沒有太多的實踐的經驗,這里我們主要來看第2種解決方案。

日志格式

關于日志解析處理,我們比較常用的方式是使用正則表達式來進行匹配,而常用的1個庫是nginxparser,我們可以直接通過pip進行安裝。當然還有其他的方式來進行解析,這個要視業務而定。
在日志解析中,比較重要的是日志的格式,默認情況下Nginx的日志格式如下:

log_format  main  "$remote_addr - $remote_user [$time_local] "$request" "
                   "$status $body_bytes_sent "$http_referer" "
                   ""$http_user_agent" "$http_x_forwarded_for""
                   "$upstream_addr $upstream_response_time $request_time;

下面我們來看實際業務中的1個應用。之前公司有1個搶微信紅包的活動,當然有用戶反映好幾天都無法搶到1個紅包。因此,我們團隊成員認為可能在這個過程中存在作弊的現象,因此便決定對Nginx的日志進行解析。詳細內容可以點擊優化微信紅包搶購系統。
下面是1條真實的日志的記錄:

101.226.89.14 - - [10/Jul/2016:07:28:32 +0800] "GET /pocketmoney-2016-XiKXCpCK.html HTTP/1.1" 302 231 "-" "Mozilla/5.0 (Linux; Android 5.1; OPPO R9tm Build/LMY47I) AppleWebKit/537.36 (KHTML, like Gecko) Version/4.0 Chrome/37.0.0.0 Mobile MQQBrowser/6.2 TBS/036548 Safari/537.36 MicroMessenger/6.3.22.821 NetType/WIFI Language/zh_CN"
日志分析 通過awk進行解析

接著,我們來看下如何使用awk解析出IP訪問最多的記錄,關于awk語法可以參考進行學習:

dog@dog-pc:~$ awk "{a[$1]++}END{for(i in a)print i,a[i]}" nginx.log |sort -t " " -k2 -rn|head -n 10
111.167.50.208 26794
183.28.6.143 16244
118.76.216.77 9560
14.148.114.213 3609
183.50.96.127 3377
220.115.235.21 3246
222.84.160.249 2905
121.42.0.16 2212
14.208.240.200 2000
14.17.37.143 1993

默認情況下,awk以空格作為分隔符號,因此$1將獲取到Nginx默認格式中的遠程地址。在這里,我們通過定義1個字段,使用IP作為鍵名,如果對應的鍵名存在則將其數量加1處理。最后我們遍歷這個字典,之后通過數量進行排序,最后通過head獲取10條記錄。
當然這種操作方式是有較大誤差的,因為我們沒有指定狀態碼等其他條件,下面我們來看根據狀態碼和請求方式這2個條件后過濾的數據:

dog@dog-pc:~$ awk "{if($9>0 && $9==200 && substr($6,2)== "GET") a[$1]++}END{for(i in a)print i,a[i]}" nginx.log|sort -t " " -k2 -rn|head -n 10
222.84.160.249 2856
183.28.6.143 2534
116.1.127.110 1625
14.208.240.200 1521
14.17.37.143 1335
219.133.40.13 1014
219.133.40.15 994
14.17.37.144 988
14.17.37.161 960
183.61.51.195 944

這樣我們就可以將這10個IP進行分析,考慮下一步的操作,比如通過iptables組合禁止該IP的訪問或限制其訪問的次數等。

通過Postgresql

通過Postgresql入庫后使用SQL進行查詢的方式可以通過如下2種圖片來查看:

在上圖中主要是查看日志中請求狀態碼的總數量。而下圖是對狀態碼為200的前10條IP的篩選:

可以看到基本上與上面awk解析的方式一致。

通過MongoDB進行查詢

我們知道,MongoDB是1個文檔型數據庫,通過這個數據庫我們輔助解決關系型數據庫一些不太擅長的工作。
在Python中,主要的MongoDB客戶端驅動是PyMongo,我們可以通過如下的方式建立1個連接:

In [1]: from pymongo import MongoClient
In [2]: client = MongoClient()

由于這里我們使用的是默認的端口和地址,因此在MongoClient類中不傳入任何的參數。
在這里,我們先說下我們插入到MongoDB中日志的格式:

{
    "status": 302, //HTTP狀態碼
    "addr": "101.226.89.14", //遠程IP地址
    "url": "-",
    "req": "/pocketmoney-2016-XiCXCpCK.html", //請求的地址
    "agent": "Mozilla/5.0 (Linux; Android 5.1; OPPO R9tm Build/LMY47I) AppleWebKit/537.36 (KHTML, like Gecko) Version/4.0 Chrome/37.0.0.0 Mobile MQQBrowser/6.2 TBS/036548 Safari/537.36 MicroMessenger/6.3.22.821 NetType/WIFI Language/zh_CN", //請求的user-agent
    "referer": "NetType/WIFI",
    "t": "2016/07/10 06:28:32", //請求的時間
    "size": 231, //響應的大小
    "method": "GET", //請求的方法
    "user": "-" //用戶名稱
}

在這里我們通過Python進行解析后,組裝成如上的格式后插入到MongoDB中,在這里主要用到的是MongoDB文檔對象的insert_one方法插入1條記錄。

db = client["log"]
col = db["nginx"]
data = {}
...
col.insert_one(data)

接著我們開始對上述的記錄進行查詢操作,主要是通過MongoDB提供的map-reduce來實現聚合操作,其對應的Python代碼為:

In [3]: db = client["log"]
In [4]: col = db["nginx"]
In [5]: pipeline = [
    ...: {"$match":{"status":200}},
    ...: {"$group":{"_id":"$addr","count":{"$sum":1}}},
    ...: {"$sort":{"count":-1}},
    ...: {"$limit":10}
    ...: ]
In [6]: list(col.aggregate(pipeline))
Out[6]: 
[{u"_id": u"222.84.160.249", u"count": 2856},
 {u"_id": u"183.28.6.143", u"count": 2534},
 {u"_id": u"116.1.127.110", u"count": 1625},
 {u"_id": u"14.208.240.200", u"count": 1521},
 {u"_id": u"14.17.37.143", u"count": 1335},
 {u"_id": u"219.133.40.13", u"count": 1014},
 {u"_id": u"219.133.40.15", u"count": 994},
 {u"_id": u"14.17.37.144", u"count": 988},
 {u"_id": u"14.17.37.161", u"count": 960},
 {u"_id": u"183.61.51.195", u"count": 944}]

可以看到這個過程與之前的2種方式得到的結果是一致的。

關于可視化處理

關于可視化處理,我們可以選擇一些Javascript的庫,例如:

百度的Echarts

d3.js及其衍生的庫

對于Python,可視化處理可以使用如下的一些庫:

matplotlib

pandas

當然還有一些其他的庫這里就不一一敘述了。
下面是1個使用百度Echart繪制的界面:

看起來還是挺漂亮的。

參考文章:

http://api.mongodb.com/python...

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/44325.html

相關文章

  • 利用MongoDB分析Nginx日志

    摘要:通過通過入庫后使用進行查詢的方式可以通過如下種圖片來查看在上圖中主要是查看日志中請求狀態碼的總數量。 原文地址: http://52sox.com/use-mongodb-... 在項目開發過程中,總是離不開日志解析的工作,雖然有些時候覺得確實挺繁瑣的,但是靜下心來會發現有時候也是挺有趣的1件工作。 在這里,我們要從日志文件中找出IP訪問最多的10條記錄,然后判斷其是否合法,從而采取...

    edgardeng 評論0 收藏0
  • 利用MongoDB分析Nginx日志

    摘要:通過通過入庫后使用進行查詢的方式可以通過如下種圖片來查看在上圖中主要是查看日志中請求狀態碼的總數量。 原文地址: http://52sox.com/use-mongodb-... 在項目開發過程中,總是離不開日志解析的工作,雖然有些時候覺得確實挺繁瑣的,但是靜下心來會發現有時候也是挺有趣的1件工作。 在這里,我們要從日志文件中找出IP訪問最多的10條記錄,然后判斷其是否合法,從而采取...

    Ajian 評論0 收藏0
  • 使用XHProf分析PHP性能瓶頸(二)

    摘要:上一篇文章里,我們介紹了如何基于擴展來分析性能,并記錄到日志里,最后使用擴展自帶的在里展示出來。本次測試中,實際使用了擴展切換為擴展后里看不到數據,原因未知。雖然來自但已經很久不更新,官方源已經顯示此包已廢棄,不再維護。 上一篇文章里,我們介紹了如何基于xhprof擴展來分析PHP性能,并記錄到日志里,最后使用xhprof擴展自帶的UI在web里展示出來。本篇文章將講述2個知識點: ...

    Worktile 評論0 收藏0
  • 從應用到平臺 - 云服務架構的演進過程

    摘要:應用的研發上線運維運營形成閉環,順利完成從對內服務到公共平臺的升級。從功能角度,只能支持靜態方式設置反向代理,然后,而平臺有服務對應的后端服務和端口是有動態調整需求。架構上是基礎組件需要進行升級,數據訪問層日志監控系統等。 介紹 ? ? ? ?MaxLeap早期是一家研發、運營移動應用和手機游戲公司,發展過程中積累了很多通用組件。這些組件很大程度幫公司在移動研發過程中節省了時間和成本,...

    LiangJ 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<