国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

django開發-使用celery搭建分布式(多節點)任務隊列

ConardLi / 3679人閱讀

摘要:今天介紹一下如何在項目中使用搭建一個有兩個節點的任務隊列一個主節點一個子節點主節點發布任務,子節點收到任務并執行。

今天介紹一下如何在django項目中使用celery搭建一個有兩個節點的任務隊列(一個主節點一個子節點;主節點發布任務,子節點收到任務并執行。搭建3個或者以上的節點就類似了),使用到了celery,rabbitmq。這里不會多帶帶介紹celery和rabbitmq中的知識了。

1.項目基礎環境:
兩個ubuntu18.04虛擬機、python3.6.5、django2.0.4、celery3.1.26post2

2.主節點django項目結構:

3.settings.py中關于celery的配置:

</>復制代碼

  1. import djcelery
  2. # 此處的Queue和Exchange都涉及到RabbitMQ中的概念,這里不做介紹
  3. from kombu import Queue, Exchange
  4. djcelery.setup_loader()
  5. BROKER_URL = "amqp://test:test@192.168.43.6:5672/testhost"
  6. CELERY_RESULT_BACKEND = "amqp://test:test@192.168.43.6:5672/testhost"
  7. CELERY_TASK_RESULT_EXPIRES=3600
  8. CELERY_TASK_SERIALIZER="json"
  9. CELERY_RESULT_SERIALIZER="json"
  10. # CELERY_ACCEPT_CONTENT = ["json", "pickle", "msgpack", "yaml"]
  11. CELERY_DEFAULT_EXCHANGE = "train"
  12. CELERY_DEFAULT_EXCHANGE_TYPE = "direct"
  13. CELERY_IMPORTS = ("proj.celery1.tasks", )
  14. CELERY_QUEUES = (
  15. Queue("train", routing_key="train"),
  16. Queue("predict", routing_key="predict"),
  17. )

4.celery.py中的配置:

</>復制代碼

  1. # coding:utf8
  2. from __future__ import absolute_import
  3. import os
  4. from celery import Celery
  5. from django.conf import settings
  6. # set the default Django settings module for the "celery" program.
  7. os.environ.setdefault("DJANGO_SETTINGS_MODULE", "proj.settings")
  8. app = Celery("proj")
  9. # Using a string here means the worker will not have to
  10. # pickle the object when using Windows.
  11. app.config_from_object("django.conf:settings")
  12. # app.autodiscover_tasks(lambda: settings.INSTALLED_APPS)
  13. app.autodiscover_tasks(settings.INSTALLED_APPS)
  14. @app.task(bind=True)
  15. def debug_task(self):
  16. print("Request: {0!r}".format(self.request))

5.proj/init.py中的配置:

</>復制代碼

  1. from __future__ import absolute_import
  2. from .celery import app as celery_app

6.celery1/tasks.py:(主節點中的任務不會執行,只執行子節點中的任務)

</>復制代碼

  1. from __future__ import absolute_import
  2. from celery import task
  3. @task
  4. def do_train(x, y):
  5. return x + y

7.celery1/views.py:

</>復制代碼

  1. from .tasks import do_train
  2. class Test1View(APIView):
  3. def get(self, request):
  4. try:
  5. # 這里的queue和routing_key也涉及到RabiitMQ中的知識
  6. # 關鍵,在這里控制向哪個queue中發送任務,子節點通過這個執行對應queue中的任務
  7. ret = do_train.apply_async(args=[4, 2], queue="train", routing_key="train")
  8. # 獲取結果
  9. data = ret.get()
  10. except Exception as e:
  11. return Response(dict(msg=str(e), code=10001))
  12. return Response(dict(msg="OK", code=10000, data=data))

8.子節點目錄結構:

9.子節點中celery1/celery.py:

</>復制代碼

  1. from __future__ import absolute_import
  2. from celery import Celery
  3. CELERY_IMPORTS = ("celery1.tasks", )
  4. app = Celery("myapp",
  5. # 此處涉及到RabbitMQ的知識,RabbitMQ是對應主節點上的
  6. broker="amqp://test:test@192.168.43.6:5672/testhost",
  7. backend="amqp://test:test@192.168.43.6:5672/testhost",
  8. include=["celery1.tasks"])
  9. app.config_from_object("celery1.config")
  10. if __name__ == "__main__":
  11. app.start()

10.子節點中celery1/config.py:

</>復制代碼

  1. from __future__ import absolute_import
  2. from kombu import Queue,Exchange
  3. from datetime import timedelta
  4. CELERY_TASK_RESULT_EXPIRES=3600
  5. CELERY_TASK_SERIALIZER="json"
  6. CELERY_RESULT_SERIALIZER="json"
  7. CELERY_ACCEPT_CONTENT = ["json","pickle","msgpack","yaml"]
  8. CELERY_DEFAULT_EXCHANGE = "train"
  9. # exchange type可以看RabbitMQ中的相關內容
  10. CELERY_DEFAULT_EXCHANGE_TYPE = "direct"
  11. CELERT_QUEUES = (
  12. Queue("train",exchange="train",routing_key="train"),
  13. )

11.子節點celery1/tasks.py:(這個是要真正執行的task,每個節點可以不同)

</>復制代碼

  1. from __future__ import absolute_import
  2. from celery1.celery import app
  3. import time
  4. from celery import task
  5. @task
  6. def do_train(x, y):
  7. """
  8. 訓練
  9. :param data:
  10. :return:
  11. """
  12. time.sleep(3)
  13. return dict(data=str(x+y),msg="train")

12.啟動子節點中的celery:
celery1是項目,-Q train表示從train這個queue中接收任務

</>復制代碼

  1. celery -A celery1 worker -l info -Q train

13.啟動主節點中的django項目:

</>復制代碼

  1. python manage.py runserver

14.使用Postman請求對應的view

</>復制代碼

  1. 請求url:http://127.0.0.1:8000/api/v1/celery1/test/
  2. 返回的結果是:
  3. {
  4. "msg": "OK",
  5. "code": 10000,
  6. "data": {
  7. "data": "6",
  8. "msg": "train"
  9. }
  10. }

15.遇到的問題:
1)celery隊列報錯: AttributeError: ‘str’ object has no attribute ‘items’
解決:將redis庫從3.0回退到了2.10,pip install redis==2.10
解決方法參考鏈接:https://stackoverflow.com/que...

今天就說到這里,如有疑問,歡迎交流。

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/42714.html

相關文章

  • Django使用celery 異步發送短信驗證碼

    摘要:介紹應用舉例是一個基于開發的分布式異步消息任務隊列,通過它可以輕松的實現任務的異步處理,如果你的業務場景中需要用到異步任務,就可以考慮使用你想對臺機器執行一條批量命令,可能會花很長時間,但你不想讓你的程序等著結果返回,? celery 1.celery介紹 1.1 celery應用舉例 Celery 是一個 基于python開發的分布式異步消息任務隊列,通過...

    everfly 評論0 收藏0
  • celery 使用

    摘要:使用消息來通信,流程為客戶端添加消息到隊列來初始化一個任務,然后消息隊列系統把消息分發給工作進程。可以包含多個工作進程和消息系統,來保證高可用性和進行水平擴展。保存結果可以使用很多例如的,,。 celery是一個簡單的、靈活的、可靠的分布式系統,提供了工具來維護這樣一個系統,用于處理大量的信息(實時信息、定時任務安排),是一個任務隊列,易于使用,易于和其他語言進行配合。 任務隊列 任務...

    GraphQuery 評論0 收藏0
  • Celery任務隊列

    摘要:文檔中文文檔官方文檔定時服務與結合使用簡介是一個自帶電池的的任務隊列。追蹤任務在不同狀態間的遷移,并檢視返回值。 文檔 中文文檔 官方文檔 celery定時服務、celery與django結合使用 簡介 Celery 是一個自帶電池的的任務隊列。它易于使用,所以你可以無視其所解決問題的復雜程度而輕松入門。它遵照最佳實踐設計,所以你的產品可以擴展,或與其他語言集成,并且它自帶了在生產...

    Lorry_Lu 評論0 收藏0
  • Djangocelery使用項目實例

      小編寫這篇文章的主要目的,主要是給大家去進行講解Django項目實例情況,包括celery的一些具體使用情況介紹,學習這些的話,對我們的工作和生活幫助還是很大的,但是怎么樣才能夠更快的進行上手呢?下面就一個具體實例給大家進行解答。  1、django應用Celery  django框架請求/響應的過程是同步的,框架本身無法實現異步響應。  但是我們在項目過程中會經常會遇到一些耗時的任務,比如:...

    89542767 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<