摘要:因為自己在上的里面第四周的要用到,然后這個似乎是基于后端的。然而版太慢了,跑個馬爾科夫蒙特卡洛要個小時,簡直不能忍了。為了不把環境搞壞,我在里面新建了一個環境。
因為自己在上Coursera的Advanced Machine Learning, 里面第四周的Assignment要用到PYMC3,然后這個似乎是基于theano后端的。然而CPU版TMD太慢了,跑個馬爾科夫蒙特卡洛要10個小時,簡直不能忍了。所以妥妥換gpu版。
為了不把環境搞壞,我在Anaconda里面新建了一個環境。(關于Anaconda,可以看我之前翻譯的文章)
Conda Create -n theano-gpu python=3.4
(theano GPU版貌似不支持最新版,保險起見裝了舊版)
conda install theano pygpu
這里面會涉及很多依賴,應該conda會給你搞好,缺什么的話自己按官方文檔去裝。
然后至于Cuda和Cudnn的安裝,可以看我寫的關于TF安裝的教程
和TF不同的是,Theano不分gpu和cpu版,用哪個看配置文件設置,這一點是翻博客了解到的:
配置好Theano環境之后,只要 C:Users你的用戶名 的路徑下添加 .theanorc.txt 文件。
.theanorc.txt 文件內容:
[global] openmp=False device = cuda floatX = float32 base_compiler = C:Program Files (x86)Microsoft Visual Studio 12.0VCin allow_input_downcast=True [lib] cnmem = 0.75 [blas] ldflags= [gcc] cxxflags=-IC:UserslyhAnaconda2MinGW [nvcc] fastmath = True flags = -LC:UserslyhAnaconda2libs compiler_bindir = C:Program Files (x86)Microsoft Visual Studio 12.0VCin flags = -arch=sm_30
注意在新版本中,聲明用gpu從device=gpu改為device=cuda
然后測試是否成功:
from theano import function, config, shared, tensor import numpy import time vlen = 10 * 30 * 768 # 10 x #cores x # threads per core iters = 1000 rng = numpy.random.RandomState(22) x = shared(numpy.asarray(rng.rand(vlen), config.floatX)) f = function([], tensor.exp(x)) print(f.maker.fgraph.toposort()) t0 = time.time() for i in range(iters): r = f() t1 = time.time() print("Looping %d times took %f seconds" % (iters, t1 - t0)) print("Result is %s" % (r,)) if numpy.any([isinstance(x.op, tensor.Elemwise) and ("Gpu" not in type(x.op).__name__) for x in f.maker.fgraph.toposort()]): print("Used the cpu") else: print("Used the gpu")
輸出:
[GpuElemwise{exp,no_inplace}((float32, vector)>), HostFromGpu(gpuarray)(GpuElemwise{exp,no_inplace}.0)] Looping 1000 times took 0.377000 seconds Result is [ 1.23178029 1.61879349 1.52278066 ..., 2.20771813 2.29967761 1.62323296] Used the gpu
到這里就算配好了
然后在作業里面,顯示Quadro卡啟用
但是還是有個warning
WARNING (theano.tensor.blas): Using NumPy C-API based implementation for BLAS functions.
這個真不知道怎么處理
然后后面運行到:
with pm.Model() as logistic_model: # Since it is unlikely that the dependency between the age and salary is linear, we will include age squared # into features so that we can model dependency that favors certain ages. # Train Bayesian logistic regression model on the following features: sex, age, age^2, educ, hours # Use pm.sample to run MCMC to train this model. # To specify the particular sampler method (Metropolis-Hastings) to pm.sample, # use `pm.Metropolis`. # Train your model for 400 samples. # Save the output of pm.sample to a variable: this is the trace of the sampling procedure and will be used # to estimate the statistics of the posterior distribution. #### YOUR CODE HERE #### pm.glm.GLM.from_formula("income_more_50K ~ sex+age + age_square + educ + hours", data, family=pm.glm.families.Binomial()) with logistic_model: trace = pm.sample(400, step=[pm.Metropolis()]) #nchains=1 works for gpu model ### END OF YOUR CODE ###
這里出現的報錯:
GpuArrayException: cuMemcpyDtoHAsync(dst, src->ptr + srcoff, sz, ctx->mem_s): CUDA_ERROR_INVALID_VALUE: invalid argument
這個問題最后github大神解決了:
So njobs will spawn multiple chains to run in parallel. If the model uses the GPU there will be a conflict. We recently added nchains where you can still run multiple chains. So I think running pm.sample(niter, nchains=4, njobs=1) should give you what you want.
我把:
trace = pm.sample(400, step=[pm.Metropolis()]) #nchains=1 works for gpu model
加上nchains就好了,應該是并行方面的問題
trace = pm.sample(400, step=[pm.Metropolis()],nchains=1, njobs=1) #nchains=1 works for gpu model
另外
plot_traces(trace, burnin=200)
出現pm.df_summary報錯,把pm.df_summary 換成 pm.summary就好了,也是github搜出來的。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/41781.html
摘要:因為自己在上的里面第四周的要用到,然后這個似乎是基于后端的。然而版太慢了,跑個馬爾科夫蒙特卡洛要個小時,簡直不能忍了。為了不把環境搞壞,我在里面新建了一個環境。 因為自己在上Coursera的Advanced Machine Learning, 里面第四周的Assignment要用到PYMC3,然后這個似乎是基于theano后端的。然而CPU版TMD太慢了,跑個馬爾科夫蒙特卡洛要10個...
摘要:檢查目錄以及其下的目錄是否被添加進環境變量。導入版本時,提示缺少模塊,用的函數繪制模型失敗八成是沒有安裝下面兩個包里面的無法識別八成是安裝了加速版的,此版本支持的核心,把改成進時提示找不到解壓直接覆蓋目錄的文件夾。 L.C.提醒我補上配置的坑 1.配置gpu版本的keras(tensorflow/theano)真xx難!對計算的時間要求不高,就弄個cpu慢吞吞訓練算了,怎么安裝cpu版...
摘要:下圖總結了絕大多數上的開源深度學習框架項目,根據項目在的數量來評級,數據采集于年月初。然而,近期宣布將轉向作為其推薦深度學習框架因為它支持移動設備開發。該框架可以出色完成圖像識別,欺詐檢測和自然語言處理任務。 很多神經網絡框架已開源多年,支持機器學習和人工智能的專有解決方案也有很多。多年以來,開發人員在Github上發布了一系列的可以支持圖像、手寫字、視頻、語音識別、自然語言處理、物體檢測的...
閱讀 2228·2019-08-30 10:51
閱讀 785·2019-08-30 10:50
閱讀 1462·2019-08-30 10:49
閱讀 3129·2019-08-26 13:55
閱讀 1590·2019-08-26 11:39
閱讀 3412·2019-08-26 11:34
閱讀 1936·2019-08-23 18:30
閱讀 3380·2019-08-23 18:22