国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Celery實際使用與內存泄漏問題(面試)

0x584a / 770人閱讀

摘要:結論執行完任務不釋放內存與原一直沒有被銷毀有關,因此可以適當配置小點,而任務并發數與配置項有關,每增加一個必然增加內存消耗,同時也影響到一個何時被銷毀,因為是均勻調度任務至每個,因此也不宜配置過大,適當配置。

1.實際使用

? 監控task的執行結果:任務id,結果,traceback,children,任務狀態

? 配置 backend="redis://127.0.0.1:6379/5"給Celery的app對象,直接在redis中查看

? 還可以

? 健壯celerycelery -A proj worker -l info

?  proj  tree
├── __init__.py 
├── celery.py | app=Clery("proj",include=["proj.tasks"])
                app.config_from_object("proj.config")
                if __name__==__main__: app.start()
├── config.py |  CELERY_RESULT_BACKEND = "redis://127.0.0.1:6379/6"
                BROKER_URL = "redis://127.0.0.1:6379/5"      
└── tasks.py  |  @app.task            # 注意這個文件名必須是tasks.py
                def add(x, y): return x + y             

? tasks可以有多個在celery.py中添加一行代碼加載任務函數

? app.autodiscover_tasks(["proj.sms", "proj.email"])

? Scheduler計劃定時任務:celery -A proj worker -B -l info

#config.py
CELERY_TIMEZONE = "Asia/Shanghai" # 指定時區
from datetime import timedelta
CELERYBEAT_SCHEDULE = {
    "add-every-30-seconds": {
         "task": "proj.tasks.add", # 指定要執行的函數任務
         "schedule": timedelta(seconds=30), # 指定計劃時間間隔30s執行一次task
         "args": (16, 16)
    },
}

? celery.schedules import crontab定時周期任務:(比如每周一執行一次 )

? 只需要修改 "schedule": crontab(hour=7, minute=30, day_of_week=1),

2.celery擴展使用

? 指定隊列名:

? 啟動加上-Q參數 celery -A proj worker --loglevel=info -Q "testq"

? 跑任務時 add.delay(3,4,queue="testq")

? 指定開啟的worker進程數:單個Celery進程每分鐘就可以處理數百萬個任務

? 底層是調用的Python的multiprocessing模塊中的Pool進程池思想來做

? 啟動加上-c參數 celery -A proj worker --loglevel=info -c 2 2個worker進程來同時搶任務

? 圖像化查看broker里面的數據,查看任務狀態,以及任務的詳細信息:flower的webUI

? pip install flower 注意創建celery實例app時指定的broker設置的redis/5

? 任意目錄執行 celery flower --port=5555 --broker=redis://localhost:6379/5

3.DJango-celery模式(嵌入到大型DJango項目中)

? 應用: django調用celery跑異步任務,常見場景有注冊成功,發送郵件可以異步來防止網絡IO阻塞,以及耗時間的任務,可以在WEB應用中使用這種異步方式

安裝django-celery==3.1.17celery==3.1.17對應

創建celery必須的數據庫表結構 python manage.py migrate

django項目的settings.py文件中追加如下內容:backend,任務執行結果超時時間,worker并發數也就是 -c 指定的數據,指定任務周期存儲在orm數據庫中

在django的app應用目錄下創建tasks.py任務文件@task def add(x,y):

開啟django服務和celery服務,雖然耦合了,還要開python manage.py celery worker --loglevel=info

4.內存泄漏問題

celery內存泄露分析

celery配置項如下

CELERYD_CONCURRENCY = 2??????celery worker并發數
CELERYD_MAX_TASKS_PER_CHILD = 5???每個worker最大執行任務數

?
執行celery -A ansibleAPI.celery worker啟動celery,通過ps -ef | grep celery可以看到兩個celery worker進程(8226,8228)。

利用celery worker進行某個任務,當worker沒有執行到最大任務時(即銷毀重建),每執行一次任務占用內存必然有所增加,任務數為9,10時(celery均勻調度,并發數*最大任務數),分別有原8228 worker被銷毀,重新創建9386 worker及原8226 worker被銷毀,重新創建9564 worker,此時,運行第9次時,占用總內存有所下降,運行第10次時,總內存回到初如值,同樣任務執行第19、20次情況類似。

celery并發計算規則
celery任務并發只與celery配置項CELERYD_CONCURRENCY 有關,與CELERYD_MAX_TASKS_PER_CHILD沒有關系,即CELERYD_CONCURRENCY=2,只能并發2個worker,此時任務處理較大的文件時,執行兩次可以看到兩個task任務并行執行,而執行第三個任務時,開始排隊,直到兩個worker執行完畢。

結論
celery執行完任務不釋放內存與原worker一直沒有被銷毀有關,因此CELERYD_MAX_TASKS_PER_CHILD可以適當配置小點,而任務并發數與CELERYD_CONCURRENCY配置項有關,每增加一個worker必然增加內存消耗,同時也影響到一個worker何時被銷毀,因為celery是均勻調度任務至每個worker,因此也不宜配置過大,適當配置。

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/43680.html

相關文章

  • 【進階1-5期】JavaScript深入之4類常見內存泄漏及如何避免

    摘要:本期推薦文章類內存泄漏及如何避免,由于微信不能訪問外鏈,點擊閱讀原文就可以啦。四種常見的內存泄漏劃重點這是個考點意外的全局變量未定義的變量會在全局對象創建一個新變量,如下。因為老版本的是無法檢測節點與代碼之間的循環引用,會導致內存泄漏。 (關注福利,關注本公眾號回復[資料]領取優質前端視頻,包括Vue、React、Node源碼和實戰、面試指導) 本周正式開始前端進階的第一期,本周的主題...

    red_bricks 評論0 收藏0
  • Android&Java面試題大全—金九銀十面試必備

    摘要:需要校驗字節信息是否符合規范,避免惡意信息和不規范數據危害運行安全。具有相同哈希值的鍵值對會組成鏈表。通過在協議下添加了一層協議對數據進行加密從而保證了安全。常見的非對稱加密包括等。 類加載過程 Java 中類加載分為 3 個步驟:加載、鏈接、初始化。 加載。 加載是將字節碼數據從不同的數據源讀取到JVM內存,并映射為 JVM 認可的數據結構,也就是 Class 對象的過程。數據源可...

    renweihub 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<