国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

記一次性能優化的心酸歷程【Flask+Gunicorn+pytorch+多進程+線程池,一頓操作猛如

seasonley / 4721人閱讀

摘要:本文只是記錄我優化的心酸歷程。優化的目標就是在訓練完成之后將這部分占用的顯存釋放掉。而用的是使用創建子進程,不被運行時所支持。第三階段全局線程池釋放子進程的方式也不行了。只能回到前面的線程方式了。在項目啟動之后就創建一個全局線程池。

您好,我是碼農飛哥,感謝您閱讀本文,歡迎一鍵三連哦
本文只是記錄我優化的心酸歷程。無他,唯記錄爾。。。。。小伙伴們可圍觀,可打call,可以私信與我交流。
干貨滿滿,建議收藏,需要用到時常看看。 小伙伴們如有問題及需要,歡迎踴躍留言哦~ ~ ~。

問題背景

現有一個古詩自動生成的訓練接口,該接口通過Pytorch來生訓練模型(即生成古詩)為了加速使用到了GPU,但是訓練完成之后GPU未能釋放。故此需要進行優化,即在古詩生成完成之后釋放GPU。
該項目是一個通過Flask搭建的web服務,在服務器上為了實現并發采用的是gunicorn來啟動應用。通過pythorch來進行古詩訓練。項目部署在一個CentOS的服務器上。

系統環境

軟件版本
flask0.12.2
gunicorn19.9.0
CentOS 6.6帶有GPU的服務器,不能加機器
pytorch1.7.0+cpu

因為特殊的原因這里之后一個服務器供使用,故不能考慮加機器的情況。

優化歷程

pytorch在訓練模型時,需要先加載模型model和數據data,如果有GPU顯存的話我們可以將其放到GPU顯存中加速,如果沒有GPU的話則只能使用CPU了。
由于加載模型以及數據的過程比較慢。所以,我這邊將加載過程放在了項目啟動時加載

import torchdevice = "cuda" if torch.cuda.is_available() else "cpu"model = GPT2LMHeadModel.from_pretrained(os.path.join(base_path, "model"))model.to(device)model.eval()

這部分耗時大約在6秒左右。cuda表示使用torch的cuda。模型數據加載之后所占的GPU顯存大小大約在1370MB。優化的目標就是在訓練完成之后將這部分占用的顯存釋放掉。

小小分析一波

現狀是項目啟動時就加載模型model和數據data的話,當模型數據在GPU中釋放掉之后,下次再進行模型訓練的話不就沒有模型model和數據data了么?如果要釋放GPU的話,就需要考慮如何重新加載GPU。
所以,模型model和數據data不能放在項目啟動的時候加載,只能放在調用訓練的函數時加載,但是由于加載比較慢,所以只能放在一個異步的子線程或者子進程中運行。
所以,我這邊首先將模型數據的加載過程以及訓練放在了一個多帶帶的線程中執行。

第一階段:直接上torch.cuda.empty_cache()清理。

GPU沒釋放,那就釋放唄。這不是很簡單么?百度一波pytorch怎么釋放GPU顯存。


輕點一下,即找到了答案。那就是在訓練完成之后torch.cuda.empty_cache()代碼加上之后再運行,發現并沒啥卵用!!!!,CV大法第一運用失敗
這到底是啥原因呢?我們后面會分析到!!!

第二階段(創建子進程加載模型并進行訓練)

既然子線程加載模型并進行訓練不能釋放GPU的話,那么我們能不能轉變一下思路。創建一個子進程來加載模型數據并進行訓練,
當訓練完成之后就將這個子進程殺掉,它所占用的資源(主要是GPU顯存)不就被釋放了么?
這思路看起來沒有絲毫的毛病呀。說干就干。

  1. 定義加載模型數據以及訓練的方法 training。(代碼僅供參考)
def training(queue):    manage.app.app_context().push()    current_app.logger.error("基礎加載開始")    with manage.app.app_context():        device = "cuda" if torch.cuda.is_available() else "cpu"        current_app.logger.error("device1111開始啦啦啦")        model.to(device)        current_app.logger.error("device2222")        model.eval()        n_ctx = model.config.n_ctx        current_app.logger.error("基礎加載完成")		#訓練方法		result_list=start_train(model,n_ctx,device)        current_app.logger.error("完成訓練")        #將訓練方法返回的結果放入隊列中        queue.put(result_list)
  1. 創建子進程執行training方法,然后通過阻塞的方法獲取訓練結果
from torch import multiprocessing as mpdef sub_process_train():	#定義一個隊列獲取訓練結果    train_queue = mp.Queue()    training_process = mp.Process(target=training, args=(train_queue))    training_process.start()    current_app.logger.error("子進程執行")    # 等訓練完成    training_process.join()    current_app.logger.error("執行完成")    #獲取訓練結果    result_list = train_queue.get()    current_app.logger.error("獲取到數據")    if training_process.is_alive():        current_app.logger.error("子進程還存活")        #殺掉子進程        os.kill(training_process.pid, signal.SIGKILL)    current_app.logger.error("殺掉子進程")    return result_list
  1. 因為子進程要阻塞獲取執行結果,所以需要定義一個線程去執行sub_process_train方法以保證訓練接口可以正常返回。
import threadingthreading.Thread(target=sub_process_train).start()

代碼寫好了,見證奇跡的時候來了。
首先用python manage.py 啟動一下,看下結果,運行結果如下,報了一個錯誤,從錯誤的提示來看就是不能在forked的子進程中重復加載CUDA。"Cannot re-initialize CUDA in forked subprocess. " + msg) RuntimeError: Cannot re-initialize CUDA in forked subprocess. To use CUDA with multiprocessing, you must use the "spawn" start method

這里有問題,就是 forked 是啥,spawn 又是啥?這里就需要了解創建子進程的方式了。
通過torch.multiprocessing.Process(target=training, args=(train_queue)) 創建一個子進程
fork和spawn是構建子進程的不同方式,區別在于
1. fork: 除了必要的啟動資源,其余的變量,包,數據等都集成自父進程,也就是共享了父進程的一些內存頁,因此啟動較快,但是由于大部分都是用的自父進程數據,所有是不安全的子進程。
2. spawn:從頭構建一個子進程,父進程的數據拷貝到子進程的空間中,擁有自己的Python解釋器,所有需要重新加載一遍父進程的包,因此啟動叫慢,但是由于數據都是自己的,安全性比較高。
回到剛剛那個報錯上面去。為啥提示要不能重復加載。
這是因為Python3中使用 spawn啟動方法才支持在進程之間共享CUDA張量。而用的multiprocessing 是使用 fork 創建子進程,不被 CUDA 運行時所支持。
所以,只有在創建子進程之前加上mp.set_start_method("spawn") 方法。即

def sub_process_train(prefix, length):    try:        mp.set_start_method("spawn")    except RuntimeError:        pass    train_queue = mp.Queue()    training_process = mp.Process(target=training, args=(train_queue))    ##省略其他代碼

再次通過 python manage.py 運行項目。運行結果圖1和圖2所示,可以看出可以正確是使用GPU顯存,在訓練完成之后也可以釋放GPU。


一切看起來都很prefect。 But,But。通過gunicorn啟動項目之后,再次調用接口,則出現下面結果。

用gunicorn啟動項目子進程竟然未執行,這就很頭大了。不加mp.set_start_method(‘spawn’) 方法模型數據不能加載,
加上這個方法子進程不能執行,真的是一個頭兩個大

第三階段(全局線程池+釋放GPU)

子進程的方式也不行了。只能回到前面的線程方式了。前面創建線程的方式都是直接通過直接new一個新線程的方式,當同時運行的線程數過多的話,則很容易就會出現GPU占滿的情況,從而導致應用崩潰。所以,這里采用全局線程池的方式來創建并管理線程,然后當線程執行完成之后釋放資源。

  1. 在項目啟動之后就創建一個全局線程池。大小是2。保證還有剩余的GPU。
from multiprocessing.pool import ThreadPoolpool = ThreadPool(processes=2)
  1. 通過線程池來執行訓練
  pool.apply_async(func=async_produce_poets)
  1. 用線程加載模型和釋放GPU
def async_produce_poets():    try:        print("子進程開始" + str(os.getpid())+" "+str(threading.current_thread().ident))        start_time = int(time.time())        manage.app.app_context().push()        device = "cuda" if torch.cuda.is_available() else "cpu"        model = GPT2LMHeadModel.from_pretrained(os.path.join(base_path, "model"))        model.to(device)        model.eval()        n_ctx = model.config.n_ctx        result_list=start_train(model,n_ctx,device)        #將模型model轉到cpu        model = model.to("cpu")        #刪除模型,也就是刪除引用        del model        #在使用其釋放GPU。        torch.cuda.empty_cache()        train_seconds = int(time.time() - start_time)        current_app.logger.info("訓練總耗時是={0}".format(str(train_seconds)))    except Exception as e:        manage.app.app_context().push()

這一番操作之后,終于達到了理想的效果。

這里因為使用到了gunicorn來啟動項目。所以gunicorn 相關的知識必不可少。在CPU受限的系統中采用sync的工作模式比較理想。
詳情可以查看gunicorn的簡單總結

問題分析,前面第一階段直接使用torch.cuda.empty_cache() 沒能釋放GPU就是因為沒有刪除掉模型model。模型已經加載到了GPU了。

總結

本文從實際項目的優化入手,記錄優化方面的方方面面。希望對讀者朋友們有所幫助。

參考

multiprocessing fork() vs spawn()

粉絲專屬福利

軟考資料:實用軟考資料

面試題:5G 的Java高頻面試題

學習資料:50G的各類學習資料

脫單秘籍:回復【脫單】

并發編程:回復【并發編程】

											?? 驗證碼 可通過搜索下方 公眾號 獲取?? 

?

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/123383.html

相關文章

  • CentOS 下使用 Pipenv + Gunicorn + Supervisor 部署 Flask

    摘要:根據中華人民共和國信息產業部第十二次部務會議審議通過的非經營性互聯網信息服務備案管理辦法精神,在中華人民共和國境內提供非經營性互聯網信息服務,應當辦理備案。未經備案,不得在中華人民共和國境內從事非經營性互聯網信息服務。 當我們開發了一個簡單的 Flask 程序,想把項目部署上線,我們可以選擇傳統的部署方式或者云部署方式把項目部署上線。在本文中,筆者將使用 阿里云輕量應用服務器 安裝 C...

    anyway 評論0 收藏0
  • 基于Flask-Angular項目組網架構與部署

    摘要:基于網,分享項目的組網架構和部署。項目組網架構架構說明流項目訪問分為兩個流,通過分兩個端口暴露給外部使用數據流用戶訪問網站。通過進行配置,使用作為異步隊列來存儲任務,并將處理結果存儲在中。 基于Raindrop網,分享項目的組網架構和部署。 項目組網架構 showImg(https://cloud.githubusercontent.com/assets/7239657/1015704...

    kelvinlee 評論0 收藏0
  • 如何在 virtualenv 環境下搭建 Python Web

    摘要:生產環境下,自帶的服務器,無法滿足性能要求。配置前面我們已經在系統環境下安裝了安裝好的二進制文件放在文件夾下,接下來使用來管理。參考文章探針安裝部署部署筆記在生產環境上部署使用詳解本文系工程師編譯整理。 由于字數的限制,其實本篇文章的全標題為 《如何在 virtualenv 環境下 Django + Nginx + Gunicorn+ Supervisor 搭建 Python Web》...

    roland_reed 評論0 收藏0
  • 如何在 virtualenv 環境下搭建 Python Web

    摘要:生產環境下,自帶的服務器,無法滿足性能要求。配置前面我們已經在系統環境下安裝了安裝好的二進制文件放在文件夾下,接下來使用來管理。參考文章探針安裝部署部署筆記在生產環境上部署使用詳解本文系工程師編譯整理。 由于字數的限制,其實本篇文章的全標題為 《如何在 virtualenv 環境下 Django + Nginx + Gunicorn+ Supervisor 搭建 Python Web》...

    godiscoder 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<