[討論] GPU 迭代計算 觀念以及做法

作者: kanonehilber (隱居處)   2017-09-27 13:40:03
不好意思,前幾天才來問現在又跑來問了,還是很多東西搞不太清楚
我要算的題目跟這個很類似
https://en.wikipedia.org/wiki/Standard_map
從一組初始位置(p_0, theta_0)開始,每一次操作就是代入那個關係式一次,不過還需要
一點隨機過程,最後結果大概是這樣
p_n+1 = p_n + K sin(theta_n) + D * 隨機數
theta_n+1 = theta_n + p_n+1
目標是要有幾萬個不同的初始位置(隨機的初始位置),然後分別操作一兩百萬次
用MATLAB寫出來大概是這樣
turns=200; % 操作次數
ne=10000; % 初始位置數量
lp=gpuArray(zeros(ne,2));
rseed=1;
rand('seed',rseed)
randn('seed',rseed)
lp(:,1,:) = (rand(ne,1))*2*pi; % 產生隨機初始位置 theta
lp(:,2,:) = (rand(ne,1)-0.5)*0.1; % 產生隨機初始位置 p
k=gpuArray(0.5);
dn=gpuArray(0.001);
tic;
for i=1:turns
lp(:,2) = lp(:,2) + k*sin(lp(:,1))+dn*randn(ne,1,'gpuArray');
lp(:,1) = mod(lp(:,1) + lp(:,2),2*pi); % 讓結果在2 pi以內
end
t=toc;
t
figure(1)
plot(lp(:,1),lp(:,2),'.');
===============
不用GPU版本
turns=200;
ne=10000;
lp=zeros(ne,2);
rseed=1;
rand('seed',rseed)
randn('seed',rseed)
lp(:,1,:) = (rand(ne,1))*2*pi;
lp(:,2,:) = (rand(ne,1)-0.5)*0.1;
k=0.5;
dn=0.001;
tic;
for i=1:turns
lp(:,2) = lp(:,2) + k*sin(lp(:,1))+dn*randn(ne,1);
lp(:,1) = mod(lp(:,1) + lp(:,2),2*pi);
end
t=toc;
t
figure(1)
plot(lp(:,1),lp(:,2),'.');
我看上一篇文章說盡量不要用for loop,要用內建函數,不過我輸入methods gpuArray好
像沒有找到類似的函數,我找的關鍵字是iteration、recursive和nest這類的關鍵字,所
以我還是先暫時用for來寫,發現ne大約小於10000的時候不用gpu比較快,但是隨著ne的
增加,gpu的速度幾乎不變,甚至ne=1e6計算速度都跟ne=1e4差不多,而使用cpu計算的計
算時間跟ne大致上成正比增加,所以gpu運算在ne很大的時候可以大幅縮短計算時間,以
我的電腦為例ne=1e6大概可以快快要兩個數量級
不過我需要的不是ne很大(ne大約幾萬就可以了,不會超過10萬),而是操作次數turns很
大(需要上百萬),目前這種寫法增加turns用gpu算時間是隨turns成正比增加,請問該如
何優化這個程式,看起來就是不要用for,可是我也不知該如何處理
其實我是因為現在這個研究主題從其他人那裏拿了他用MATLAB寫的程式才開始使用MATLAB
,現在還有很多MATLAB觀念都搞不太清楚,謝謝各位版有指教
作者: sunev (Veritas)   2017-09-27 18:21:00
lp直接拆成兩個變數可能方便一些,theta不需要mod還有你是要用cpu還是要用gpu ?
作者: kanonehilber (隱居處)   2017-09-27 18:48:00
想用gpu,其實寫成這樣也是參考別人原本用cpu的算法寫的
作者: sunev (Veritas)   2017-09-27 20:20:00
這邊出現的for是迭代,沒什麼好方法,也無法平行化有一個隱性的for已經被你用(:,1)的方式處理了如果你極端追求速度,matlab不會是最好的選擇gpu一個核心做事的速度有可能比cpu慢,所以還是要跑了才知道,另外matlab把compile和execute混在一起,加上不是open source,所以不適合去做細緻的分析,這也是我不推薦你用matlab的原因。
作者: kanonehilber (隱居處)   2017-09-28 04:21:00
原來如此 了解了 謝啦

Links booklink

Contact Us: admin [ a t ] ucptt.com