導航:首頁 > 源碼編譯 > vasp編譯gpu加速版

vasp編譯gpu加速版

發布時間:2022-04-01 18:26:49

Ⅰ opencv_python4.1如何GPU加速,需不需要重新編譯之類的

需要重新編譯opencv 的,最後getCudaEnabledDeviceCount();這個函數返回值大於零才行 // first.cpp : 定義控制台應用程序的入口點。 // #include "stdafx.h" #include #include "opencv2/opencv.hpp" #include "opencv2/gpu/gpu.hpp" #pragma co..

Ⅱ 為什麼編譯出的 gromacs 多 GPU 加速效果不好

一個可能的原因是 boost 的版本較低。

改進辦法是執行如下命令

# sudo apt-get install libboost-all-dev

然後按照文章步驟安裝就可以了,為了便於閱覽,我們把步驟也貼在這里:

機器操作系統為 Ubuntu14.04,安裝了 CUDA7.5。

在家目錄下建立 gromacs 目錄做為工作目錄下,拷貝了 4 個安裝包:

openmpi-1.6.5.tar.gz

fftw-3.3.3.tar.gz

cmake-2.8.9.tar

gromacs-5.0.4.tar.gz

1.安裝 openmpi

$cd ~/gromacs

$tar –xvf openmpi-1.6.5.tar.gz

$cd openmpi-1.6.5

$./configure --prefix=/opt/openmpi

$sudo make

$sudo make install

2.安裝 fftw

$cd ~/gromacs

$tar –xvf fftw-3.3.3.tar.gz

$cd fftw-3.3.3

$./configure --prefix=/opt/fftw –enable-float –enable-shared

$sudo make

$sudo make install

3.安裝 cmake

$cd ~/gromacs

$tar xvf cmake-2.8.9.tar

$cd cmake-2.8.9

$./bootstrap

$sudo make

$sudo make install

4.編譯 gromacs GPU 版本

$cd ~/gromacs

$mkdir build-gpu

$cd build-gpu

$sudo cmake .. -DFFTWF_LIBRARY=/opt/fftw/lib/libfftw3f.so -DFFTWF_INCLUDE_DIR=/opt/fftw/include -DGMX_MPI=ON –DGMX_GPU=ON -DCMAKE_INSTALL_PREFIX=/opt/gromacs-5.0.4-gpu

$sudo make

$sudo make install

步驟 4 編譯 gromacs 時,cmake 步驟如果有如下提示信息的話,說明 boost 版本低:

Ⅲ 有哪位大神用過ansys的GPU加速功能的

我用過,經常用,你有什麼要問的?

Anys的GPU加速目前只支持開普勒架構的nVidia Qurado K5000以上級別的顯卡,或者時Tesla運算卡,如果你想拿游戲顯卡來做GPU加速,請繞道。。。。

Ⅳ Quadro P2000怎麼開啟AE2017顯卡加速這可是專業顯卡,不支持GPU加速有點過分了!

目前官方還不支持P2000,以下顯卡則通過AE2017的認證:

我們是麗台DAILI,有問題HI。

Ⅳ PR2020 GPU加速改為CUDA視頻黑屏,GPU加速改為opencl才不黑 有沒有大神知道怎麼回事

如果你不用CPU核顯回放的話,請把首選項〉媒體〉啟用加速 intel h.264解碼去掉,然後重啟下Pr。

Ⅵ tensorflow怎麼gpu加速

安裝GPU版本的tensorflow就可以了pipinstall--upgrade還需要安裝GPU加速包,下載CUDA和cuDNN的安裝包了,注意版本號分別是CUDA8.0和cuDNN5.1。如果都安裝成功,運行程序時會自動使用GPU計算

Ⅶ tensorflow gpu版本運行時怎麼知道有沒有調用gpu以及cuda加速

首先需要看你的PC配置是否夠,TF的GPU模式只支持N卡,然後計算能力高於3.0,具體可以查:安裝教程可以參考:Ubuntu16.04上gtx1080的cuda安裝July172016目前tensorflow是一個非常流行的深度學習計算框架,常規硬體及系統的安裝方法官方的doc已經說的很清楚了,但是因為系統是ubuntu16.04,顯卡是GTX1080,所以不可避免的要折騰起來。在上一篇已經在16.04上安裝好了驅動。接下來其實重點安裝的是CUDA和cuDNN.首先說為什麼要安裝CUDA和cuDNN,關於採用GPU計算比CPU有速度有多少提升的benchmark找找就有,這次重點是怎麼讓tensorflow充分用的上GTX1080能力。具體的就是如何把支持GTX1080的CUDA和cuDNN裝起來,然後讓tensorflow認識我們新裝的CUDA和cuDNN。首先總體說下安裝步驟:1首先要注冊NVIDIAdeveloper的帳號,分別下載CUDA和cuDNN2確認准備gcc版本,安裝依賴庫sudoapt-getinstallfreegl3安裝CUDA4解壓cuDNN5clonetensorflow源碼,configure配置6編譯安裝7最後一哆嗦,測試!准備工作在正式開始前,需要做幾個准備工作,主要是大概先看下文檔cudaFAQtensorflow的安裝文檔cuda-gpu的支持列表/計算能力/FAQcudnn5.1有多牛cudatookit下載頁面CUDA_Installation_Guide_linux.pdfcudnnUserGuide文檔看過之後接下來就是實際動手的過程:1注冊NVIDIAdeveloper的帳號,分別下載CUDA和cuDNN1.1下載CUDA打開cudatoolkit下載頁面,GTX1080要用的是CUDA8。先點擊JOIN,注冊帳號。完了後,再回到cudatoolkit下載頁面。選擇linux,x86-64,ubuntu,16.04,runfile(local)1.2下載cuDNN進入cudnn的下載頁,一堆調查,日誌寫時下載的是[DownloadcuDNNv5(May27,2016),forCUDA8.0RC],點開選linux,不出意外的話這個就是下載地址.2確認GCC版本,安裝依賴庫確認本機gcc版本,16.04默認的是gcc5,這里安裝需要的最高是gcc4.9。接下來就安裝配置gcc4.9.2.1安裝gcc4.9,並修改系統默認為4.9sudoapt-getinstallgcc-4.9gcc-4.9g++-4.9g++-4.9gcc--versionsudoupdate-alternatives--install/usr/bin/g++g++/usr/bin/g++-4.910sudoupdate-alternatives--install/usr/bin/cccc/usr/bin/gcc30sudoupdate-alternatives--setcc/usr/bin/gccsudoupdate-alternatives--install/usr/bin/c++c++/usr/bin/g++30sudoupdate-alternatives--setc++/usr/bin/g++gcc--version2.2一個小依賴sudoapt-getinstallfreegl3安裝CUDA需要注意的是這個地方有個選擇安裝低版本驅動的地方,選n大致的安裝流程如下:3.1安裝CUDAchmod+x/cuda_8.0.27_linux.run./cuda_8.0.27_linux.run.?accept/decline/quit:-x86_64361.62?(y)es/(n)o/(q)uit:nInstalltheCUDA8.0Toolkit?(y)es/(n)o/(q)uit:yEnterToolkitLocation[defaultis/usr/local/cuda-8.0]:/usr/local/cuda?(y)es/(n)o/(q)uit:yInstalltheCUDA8.0Samples?(y)es/(n)o/(q)uit:yEnterCUDASamplesLocation[defaultis/home/h]:/home/h/Documents/cuda_samples.3.2寫入環境變數vim~/.bashrc#添加下面變數exportPATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}exportLD_LIBRARY_PATH=/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}3.3安裝好後簡單驗證a.進入剛配置時指定的cudasample所在文件夾,NVIDIA_CUDA-8.0_Samples/b.cd0_Simple/asyncAPI;sudomakec.NVIDIA_CUDA-8.0_Samples/0_Simple/asyncAPI$./asyncAPI[./asyncAPI]-Starting…GPUDevice0:逗GeForceGTX1080地withcomputecapability6.1CUDAdevice[GeForceGTX1080]timespentexecutingbytheGPU:10.94timespentbyCPUinCUDAcalls:0.安裝cuDNNh@h:~/Downloads$tarxvzfcudnn-8.0-linux-x64-v5.0-ga.tgzcuda/include/cudnn.hcuda/lib64/libcudnn.socuda/lib64/libcudnn.so.5cuda/lib64/libcudnn.so.5.0.5cuda/lib64/libcudnn_static.ah@h:~/Downloads$sudocp-Rcuda/lib64/usr/local/cuda/lib64h@h:~/Downloads$sudomkdir-p/usr/local/cuda/includeh@h:~/Downloads/cuda$sudocpinclude/cudnn.h/usr/local/cuda/include/sudochmoda+r/usr/local/cuda/include/cudnn.h/usr/local/cuda/lib64/libcudnn*5clone,configuretensorflow5.1clone源碼$gitclone5.2configure配置整個配置流程應該跟下面的基本一樣的h@h:~/Downloads/tensorflow$cd./tensorflow/h@h:~/Downloads/tensorflow$./.[Defaultis/usr/bin/python]:***?[y/N]N******?[y/N]y***thehostcompiler.[Defaultis/usr/bin/gcc]:**.RefertoREADME.mdformoredetails.[Defaultis/usr/local/cuda]:/usr/local/cuda-8.0****.[Leaveemptytousesystemdefault]:5.0.5****.0.5libraryisinstalled.RefertoREADME.mdformoredetails.[Defaultis/usr/local/cuda-8.0]:/usr/local/cuda**Pleasespecifyalistofcomma-.:**rbuildtimeandbinarysize.[Defaultis:"3.5,5.2"]:6.1**編譯安裝6.1編譯工具Bazel安裝配置先看一眼文檔然後就執行下面的流程:#安裝java1.8sudoadd-apt-repositoryppa:webupd8team/javasudoapt-getupdatesudoapt-getinstalloracle-java8-installer#安裝好後車參考下java-version#添加源echo"deb[arch=amd64]stablejdk1.8"|sudotee/etc/apt/sources.list.d/bazel.listcurl|sudoapt-keyadd-#下載sudoapt-getupdate&&sudoapt-getinstallbazel#升級sudoapt-getupgradebazel6.2編譯tensorflow的pip版本並安裝$bazelbuild-copt//tensorflow/tools/pip_package:build_pip_package#TobuildwithGPUsupport:$bazelbuild-copt--config=cuda//tensorflow/tools/pip_package:build_pip_package$bazel-bin/tensorflow/tools/pip_package/build_pip_package/tmp/tensorflow_pkg#Thenameofthe..#注意編譯完成後生成的文件名字和官方doc裡面的是不一定一致的$sudopipinstall/tmp/tensorflow_pkg/tensorflow-0.*-linux_x86_64.whli6700k32g編譯時間:只編譯代碼不帶pipINFO:Elapsedtime:967.271s,CriticalPath:538.38sbazel-bin/tensorflow/tools/pip_package/build_pip_packageINFO:Elapsedtime:65.183s,CriticalPath:48.587最後測試前面都整完了,現在該測試了,注意前面有兩個動態鏈接庫的位置,cuDNN在/usr/local/cuda/lib64,而cuda在/usr/local/cuda-8.0/lib64,所以這個時候的bashrc應該這么寫:exportPATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}exportLD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/cuda-8.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}寫完後,source~/.bashrccdtensorflow/tensorflow/models/image/mnistpythonconvolutional.py成功的話會出現流暢的跑動:h@h:~/Downloads/tensorflow/tensorflow/models/image/mnist$pythonconvolutional.pyItensorflow/stream_executor/dso_loader.cc:108].solocallyItensorflow/stream_executor/dso_loader.cc:108].so.5.0.5locallyItensorflow/stream_executor/dso_loader.cc:108].solocallyItensorflow/stream_executor/dso_loader.cc:108].so.1locallyItensorflow/stream_executor/dso_loader.cc:108].solocallyExtractingdata/train-images-idx3-ubyte.gzExtractingdata/train-labels-idx1-ubyte.gzExtractingdata/t10k-images-idx3-ubyte.gzExtractingdata/t10k-labels-idx1-ubyte.gzItensorflow/stream_executor/cuda/cuda_gpu_executor.cc:925](-1),,/core/common_runtime/gpu/gpu_init.cc:102]Founddevice0withproperties:name:GeForceGTX1080major:6minor:1memoryClockRate(GHz)1.8475pciBusID0000:01:00.0Totalmemory:7.92GiBFreememory:7.41GiBItensorflow/core/common_runtime/gpu/gpu_init.cc:126]DMA:0Itensorflow/core/common_runtime/gpu/gpu_init.cc:136]0:YItensorflow/core/common_runtime/gpu/gpu_device.cc:838]CreatingTensorFlowdevice(/gpu:0)->(device:0,name:GeForceGTX1080,pcibusid:0000:01:00.0)Initialized!Step0(epoch0.00),8.4msMinibatchloss:12.054,learningrate:0.010000Minibatcherror:90.6%Validationerror:84.6%Minibatcherror:0.0%Validationerror:0.7%Step8500(epoch9.89),4.7msMinibatchloss:1.601,learningrate:0.006302Minibatcherror:0.0%Validationerror:0.9%Testerror:0.8%

Ⅷ 如何使用硬體加速或者GPU,使程序運行加速

DXVA是視頻硬體加速的統稱,不僅僅是視頻數據解碼(包括H261,MPEG1,MPEG2,H263,MPEG4), 還有Alpha blending, Picture resampling等。但對於播放時CPU利用率影響最大的,則是視頻解碼,尤其是HDTV的解碼。對於低端系統來說,讓GPU來負責硬體解碼是不二之選。但使用硬體解碼,在整個功能上也受到很多限制,尤其是解壓以後的視頻數據的後期處理(如deinterlace,銳化,去馬賽克). 因此對於追求畫質的燒友,寧可放棄硬體解碼,當然代價是需要升級整個系統。稍後再談。

硬體解碼生效的時候,系統是怎麼運轉的呢?現在我們有兩個處理器,CPU和GPU。他們通過PCI/AGP/PCIE匯流排交換數據。
1。CPU從文件系統里讀出原始數據(DirectSHow的源濾鏡),分離出壓縮的視頻數據(分離器)。放在系統內存中。 GPU 發呆
2。CPU把壓縮視頻數據交給GPU, 這時匯流排上開始忙了,壓縮數據從系統內存拷貝到顯卡上的顯存里。
3. CPU要求 GPU開始硬體解碼,現在 CPU進入發呆期,GPU開始忙。當然CPU會定期查詢一下GPU忙的怎麼樣了。
4。GPU開始用自己的電路解碼視頻數據(已經在顯存里了),解壓後的數據還是放在顯存裡面。CPU繼續發呆。
5. 視頻數據剛解碼完成以後還不能立刻拿去顯示,因為還需要後期處理,如deinterlace, 3:2pulldown,等等。GPU再用自己的後期處理電路來進行處理。CPU還是發呆
6。後期處理以後的未壓縮數據拿去顯示到屏幕上, GPU再開始忙視頻的縮放,亮度,gamma等事情。CPU還是閑
7. GPU終於忙完了,下面的視頻數據在哪裡?通知CPU,GPU先歇會。 CPU又開始忙了,回到第1步。

上面可以看到,硬體解碼生效的時候,CPU真的可以很閑,但是為了讓它生效,有些條件必須滿足。最關鍵的原因是,與CPu->系統內存和GPU->顯卡顯存比起來,PCI、AGP、PCIE匯流排是龜速。PCI是133MB/S, AGP8X是2.1GB/S, PCIE16X是4GB/S, 而CPU-系統內存,GPU-顯存則快若干倍。有興趣的可以把不同時代的內存匯流排和AGP/PCIE匯流排速度進行一下對比。因為CPU和GPU互連的匯流排很慢,因此,視頻數據(無論是解壓前還是解壓後)一旦交給GPU,GPU就要負責把它處理完,直到最終顯示。
如果在前面1-5步里有哪一步GPU不能做或你不讓它做,視頻硬體解碼就不生效,CPU要負責。
當然,你可能會問,也許CPU很慢,說不定在龜速匯流排上傳輸數據,GPU分擔一部分工作,還是比全部CPU做要快呢? 也許如此,但在Directshow架構里,代表視頻數據處理各環節的濾鏡(分離器,解碼器,後期處理,渲染器)需要協商出一個大家都接受的視頻數據存儲方式,如果某個濾鏡說我只能在系統內存里玩,大家都得要在內存里玩,GPU和顯存只好放棄。

閱讀全文

與vasp編譯gpu加速版相關的資料

熱點內容
友友車友軟體免加密 瀏覽:89
java多進程編程 瀏覽:902
12864液晶與單片機的連接 瀏覽:27
伺服器上的bmc是什麼 瀏覽:634
伺服器怎麼測量網路延遲 瀏覽:605
打掃衛生解壓視頻vlog 瀏覽:275
半封閉活塞製冷壓縮機 瀏覽:401
如何刪除存檔的文件夾 瀏覽:835
基於單片機的參考文獻 瀏覽:915
壓縮空氣管道安全 瀏覽:770
哪個英語app比較好 瀏覽:219
進貨app怎麼樣 瀏覽:519
c語言編譯軟體免費嗎 瀏覽:252
怎麼把appstotre改成中文 瀏覽:443
html如何連接伺服器 瀏覽:572
linux下如何創建文件 瀏覽:699
三洋空調壓縮機參數 瀏覽:202
加密貓背後的故事 瀏覽:254
陝西不聽命令 瀏覽:369
怎麼把皮皮蝦app表情弄到微信 瀏覽:292