GPUで自動二値化を実装中です
Boltzmanです.
まだ完成してはいませんが, 中間報告です.
現在, GPUを用いた大津の手法による自動閾値決定二値化アルゴリズムを実装中です.
GPUプログラミングは初めてなので, どのようなコードがGPUと相性がいいのか模索しながらの実装となっています.
とりあえず現時点で一応動きはしたものを以下に載せます.
まだまだ改良の余地が多く, 現在全体を改めて見直している最中です. 特に, 上のコードではnumやsumを愚直に計算してしまっているため, この辺りを何とかしたいです.
また本当はif文を使いたくなかったのですが, m1, m2を計算する際にゼロ割が生じるケースがあり, それによって分離度がNaNになってしまうと最大値を求める際に支障をきたすため, NaNを消すためにif文を導入しました. 他に良い方法はないだろうか…
最大値の算出はmax.computeのようになっていますが, こちらもやはり全体を書き換えている最中です.
上のコードでは, 2n番目と2n+1番目を比較して, 大きいほうをn番目に格納し, それを繰り返すことで最大値がn=0に格納されるようにしています.
このコードで初めてHLSLの同期を使いました. 同期って他のやつの進行を待つことになるので, 一番遅い奴に足並みがそろうことになります. なのであまり使わないほうがいいのかと思いましたが, コードを調べてみたら割とがっつり使っているものが多かったので気にしなくてもいいのでしょうか…
上のコードを見直すと同時に, ラベリング処理の並列化についても少し調べています.
論文を見てみるとCPUを並列させたほうが速いらしいです. しかしながら, 今までの処理をGPUでやっているため, ラベリングをCPUで計算するとなるとデータをCPUへ移さなければならず, そのコストを考えて総合的に評価するとGPUのほうが速くなる可能性があります.
一度GPUでやると抜け出せなくなりますね…
そういえばGPUは流体力学と相性がいいそうです. 私は詳しくないのですが, 流体に詳しい人から少しだけ話を聞きました. まあ紹介程度に.
引き続き実装頑張ります.
Posted on: 2016年3月18日, by : Lait-au-Cafe