国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

python多進程控制學習

EdwardUp / 1897人閱讀

摘要:另外,返回的兩個如果一個是數據那么另外一個就只能接收數據了已經執行到子進程等待所有子進程跑完下面打印向傳輸的信息輸出為三在進行并發編程時,應盡量避免使用共享狀態,因為多進程同時修改數據會導致數據破壞。

前言:

python多進程,經常在使用,卻沒有怎么系統的學習過,官網上面講得比較細,結合自己的學習,整理記錄下
官網:https://docs.python.org/3/library/multiprocessing.html
multiprocessing簡介

multiprocessing是python自帶的多進程模塊,可以大批量的生成進程,在服務器為多核CPU時效果更好,類似于threading模塊。相對于多線程,多進程由于獨享內存空間,更穩定安全,在運維里面做些批量操作時,多進程有更多適用的場景

multiprocessing包提供了本地和遠程兩種并發操作,有效的避開了使用子進程而不是全局解釋鎖的線程,因此,multiprocessing可以有效利用到多核處理

Process類

在multiporcessing中,通過Process類對象來批量產生進程,使用start()方法來啟動這個進程

1.語法
multiprocessing.Process(group=None,target=None,name=None,args=(),kwargs={},*)

group: 這個參數一般為空,它只是為了兼容threading.Tread
target: 這個參數就是通過run()可調用對象的方法,默認為空,表示沒有方法被調用
name: 表示進程名
args: 傳給target調用方法的tuple(元組)參數
kwargs: 傳給target調用方法的dict(字典)參數

2.Process類的方法及對象

run()
該方法是進程的運行過程,可以在子類中重寫此方法,一般也很少去重構

start()
啟動進程,每個進程對象都必須被該方法調用

join([timeout])
等待進程終止,再往下執行,可以設置超時時間

name
可以獲取進程名字,多個進程也可以是相同的名字

is_alive()
返回進程是否還存活,True or False,進程存活是指start()開始到子進程終止

daemon
守護進程的標記,一個布爾值,在start()之后設置該值,表示是否后臺運行
注意:如果設置了后臺運行,那么后臺程序不運行再創建子進程

pid
可以獲取進程ID

exitcode
子進程退出時的值,如果進程還沒有終止,值將是None,如果是負值,表示子進程被終止

terminate()
終止進程,如果是Windows,則使用terminateprocess(),該方法對已經退出和結束的進程,將不會執行

以下為一個簡單的例子:

#-*- coding:utf8 -*- 
import multiprocessing
import time

def work(x):
   time.sleep(1)
   print time.ctime(),"這是子進程[{0}]...".format(x)

if __name__ == "__main__":
    for i in range(5):
        p = multiprocessing.Process(target=work,args=(i,))
        print "啟動進程數:{0}".format(i)
        p.start()
        p.deamon = True

當然也可以顯示每個進程的ID

#-*- coding:utf8 -*- 
import multiprocessing
import time
import os

def work(x):
   time.sleep(1)
   ppid = os.getppid()
   pid  = os.getpid()
   print time.ctime(),"這是子進程[{0},父進程:{1},子進程:{2}]...".format(x,ppid,pid)

if __name__ == "__main__":
    for i in range(5):
        p = multiprocessing.Process(target=work,args=(i,))
        print "啟動進程數:{0}".format(i)
        p.start()
        p.deamon = True

但在實際使用的過程中,并不只是并發完就可以了,比如,有30個任務,由于服務器資源有限,每次并發5個任務,這里還涉及到30個任務怎么獲取的問題,另外并發的進程任務執行時間很難保證一致,尤其是需要時間的任務,可能并發5個任務,有3個已經執行完了,2個還需要很長時間執行,總不能等到這兩個進程執行完了,再繼續執行后面的任務,因此進程控制就在此有了使用場景,可以利用Process的方法和一些multiprocessing的包,類等結合使用

進程控制及通信常用類 一、Queue類

類似于python自帶的Queue.Queue,主要用在比較小的隊列上面
語法:

multiprocessing.Queue([maxsize])

類方法:
qsize()
返回隊列的大致大小,因為多進程或者多線程一直在消耗隊列,因此該數據不一定正確

empty()
判斷隊列是否為空,如果是,則返回True,否則False

full()
判斷隊列是否已滿,如果是,則返回True,否則False

put(obj[, block[, timeout]])
將對象放入隊列,可選參數block為True,timeout為None

get()
從隊列取出對象

#-*- coding:utf8 -*-
from multiprocessing import Process, Queue

def f(q):
    q.put([42,None,"hi"])

if __name__ == "__main__":
    q = Queue()
    p = Process(target=f, args=(q,))
    p.start()
    print q.get()  #打印內容: [42,None,"hi"]
    p.join()
二、Pipe類

pipe()函數返回一對對象的連接,可以為進程間傳輸消息,在打印一些日志、進程控制上面有一些用處,Pip()對象返回兩個對象connection,代表兩個通道,每個connection對象都有send()和recv()方法,需要注意的是兩個或以上的進程同時讀取或者寫入同一管道,可能會導致數據混亂,測試了下,是直接覆蓋了。另外,返回的兩個connection,如果一個是send()數據,那么另外一個就只能recv()接收數據了

#-*- coding:utf8 -*-
from multiprocessing import Process, Pipe
import time
def f(conn,i):
    print "[{0}]已經執行到子進程:{1}".format(time.ctime(),i)
    time.sleep(1)
    w = "[{0}]hi,this is :{1}".format(time.ctime(),i)
    conn.send(w)
    conn.close()

if __name__ == "__main__":
    reader = []
    parent_conn, child_conn = Pipe()
    for i in range(4):
        p = Process(target=f, args=(child_conn,i))
        p.start()
        reader.append(parent_conn)
        p.deamon=True

    # 等待所有子進程跑完
    time.sleep(3)
    print "
[{0}]下面打印child_conn向parent_conn傳輸的信息:".format(time.ctime())
    for i in reader:
        print i.recv()

輸出為:

三、Value,Array

在進行并發編程時,應盡量避免使用共享狀態,因為多進程同時修改數據會導致數據破壞。但如果確實需要在多進程間共享數據,multiprocessing也提供了方法Value、Array

from multiprocessing import Process, Value, Array

def f(n, a):
    n.value = 3.1415927
    for i in range(len(a)):
        a[i] = -a[i]

if __name__ == "__main__":
    num = Value("d",0.0)
    arr = Array("i", range(10))

    p = Process(target=f, args=(num, arr))
    p.start()
    p.join()

    print num.value
    print arr[:]

*print
3.1415927
[0, -1, -2, -3, -4, -5, -6, -7, -8, -9]*

四、Manager進程管理模塊

Manager類管理進程使用得較多,它返回對象可以操控子進程,并且支持很多類型的操作,如: list, dict, Namespace、lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value, Array,因此使用Manager基本上就夠了

from multiprocessing import Process, Manager

def f(d, l):
    d[1] = "1"
    d["2"] = 2
    d[0.25] = None
    l.reverse()

if __name__ == "__main__":
    with Manager() as manager:
        d = manager.dict()
        l = manager.list(range(10))

        p = Process(target=f, args=(d, l))
        p.start()
        p.join() #等待進程結束后往下執行
        print d,"
",l

輸出:
{0.25: None, 1: "1", "2": 2}
[9, 8, 7, 6, 5, 4, 3, 2, 1, 0]
可以看到,跟共享數據一樣的效果,大部分管理進程的方法都集成到了Manager()模塊了

五、對多進程控制的應用實例
    #-*- coding:utf8 -*-
    from multiprocessing import Process, Queue
    import time
    
    def work(pname,q):
        time.sleep(1)
        print_some = "{0}|this is process: {1}".format(time.ctime(),pname)
        print print_some
        q.put(pname)
    
    if __name__ == "__main__":
        p_manag_num = 2  # 進程并發控制數量2
        # 并發的進程名
        q_process = ["process_1","process_2","process_3","process_4","process_5"]
        q_a = Queue() # 將進程名放入隊列
        q_b = Queue() # 將q_a的進程名放往q_b進程,由子進程完成
    
        for i in q_process:
            q_a.put(i)
    
        p_list = [] # 完成的進程隊列
        while not q_a.empty():
            if len(p_list) <= 2:
                pname=q_a.get()
                p = Process(target=work, args=(pname,q_b))
                p.start()
                p_list.append(p)
                print pname
    
            for p in p_list:
                if not p.is_alive():
                    p_list.remove(p)
    
        # 等待5秒,預估執行完后看隊列通信信息
        # 當然也可以循環判斷隊列里面的進程是否執行完成
        time.sleep(5)
        print "打印p_b隊列:"
        while not q_b.empty():
            print q_b.get()

執行結果:

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/44890.html

相關文章

  • 實戰案例分享:利用Python實現多任務進

    摘要:效率高當然,對于爬蟲這種密集型任務來說,多線程和多進程影響差別并不大。對于計算密集型任務來說,的多進程相比多線程,其多核運行效率會有成倍的提升。 一、進程介紹 進程...

    MudOnTire 評論0 收藏0
  • Python中的協

    摘要:協程的基本行為協程包含四種狀態等待開始執行。協程中重要的兩個方法調用方把數據提供給協程。注意使用調用協程時會自動預激,因此與裝飾器不兼容標準庫中的裝飾器不會預激協程,因此能兼容句法。因此,終止協程的本質在于向協程發送其無法處理的異常。 導語:本文章記錄了本人在學習Python基礎之控制流程篇的重點知識及個人心得,打算入門Python的朋友們可以來一起學習并交流。 本文重點: 1、掌握協...

    shinezejian 評論0 收藏0
  • Python 學習筆記 關于協

    摘要:協程定義協程是指一個過程,這個過程與調用方協作,產出由調用方提供的值。當得到控制權時,會阻塞,同時等待終止。終止協程的方法該方法致使生成器在暫停的表達式處拋出異常。 協程 定義:協程是指一個過程,這個過程與調用方協作,產出由調用方提供的值。(協程中必定含有一條yield語句) 協程與生成器類似,都是定義體內包含yield關鍵字的函數。不過,在協程中,yield通常出現在表達式的右邊(例...

    VishKozus 評論0 收藏0
  • Python中的并發處理之使用asyncio包

    摘要:并發用于制定方案,用來解決可能但未必并行的問題。在協程中使用需要注意兩點使用鏈接的多個協程最終必須由不是協程的調用方驅動,調用方顯式或隱式在最外層委派生成器上調用函數或方法。對象可以取消取消后會在協程當前暫停的處拋出異常。 導語:本文章記錄了本人在學習Python基礎之控制流程篇的重點知識及個人心得,打算入門Python的朋友們可以來一起學習并交流。 本文重點: 1、了解asyncio...

    tuniutech 評論0 收藏0
  • Python(真才實學,想學的進來)

    摘要:所以與多線程相比,線程的數量越多,協程性能的優勢越明顯。值得一提的是,在此過程中,只有一個線程在執行,因此這與多線程的概念是不一樣的。 真正有知識的人的成長過程,就像麥穗的成長過程:麥穗空的時候,麥子長得很快,麥穗驕傲地高高昂起,但是,麥穗成熟飽滿時,它們開始謙虛,垂下麥芒。 ——蒙田《蒙田隨筆全集》 上篇論述了關于python多線程是否是雞肋的問題,得到了一些網友的認可,當然也有...

    lykops 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<