HOME > 研究者 > 高木康博先生 > 次世代画像入力システムを実現する高速パンチルト・リフォーカスカメラの開発(第1回)

レンズピッチ程度の微小変化で、大きく光軸が偏向するのですね。

はい。次に、4Kイメージセンサの撮影画像をご覧ください。画像は東京・浅草寺の雷門を撮影したものです。提灯の右端部分を撮影したレンズアレイには、それぞれ似たような、提灯の右端部分の要素画像がたくさん映っています。単なる撮影画像(イメージセンサ出力)だけでは、ぼやけて曖昧なものですが、この中の同じ位置の要素画像に対して、専用の視差画像合成プログラムを組み、収集することで、より鮮明でくっきりとした視差画像を生成できるようになるのです。この実験結果では、パンチルト角±30°にまで対応していることがお分かりいただけるかと思います。

イメージセンサの撮影画像から生成した視差画像
パンチルトの実験結果

少しずつずれた位置から見た視差画像を足し合わせることで、任意の箇所にリフォーカスすることができるというわけですね。

そうですね。普通のカメラに付いているイメージセンサでは、光線の強さはわかりますが、どこから光が来たのか、その方向はわかりません。ライトフィールドカメラはこれが分かるため、撮影後の計算によって焦点合わせが可能になるというわけです。逆にいうと、ボケた画像を撮影してしまうという失敗が起こりえないことになります。

リフォーカスのため視差画像を足し合わせる作業というのは、大変なことのように思います。どのぐらいの時間がかかるのでしょうか。リアルタイムで行うことは可能なのでしょうか。

リアルタイムでの運用を可能にするために、本研究ではマルチGPU(Graphics Processing Unit)を用いることによって画像処理を高速化しています。

皆さんがよく耳にするCPU(Central Processing Unit)は、コンピューター全体を制御するためにありますが、GPUはリアルタイム画像処理に特化した演算装置です。CPUは万能選手ですが同時にひとつの仕事しかできないのに対して、GPUは単純な作業しかできませんが同時に大量の仕事をこなせます。

まず1フレーム時間(16.7ms)の高速リフォーカス処理の実現を目標として、実験しました。最新機種のGPUであるRTX2080を用いて、1台のPCに2台までGPUを搭載したマルチGPUでの処理時間を計測したところ、目標のフレーム時間を達成することができました。しかし、このマルチGPUを搭載したPCを、さらに複数台用いた分散マルチGPUシステムでは、ホストPCからの視差画像群を分配するために時間がかかってしまっています。現在、このデータ分配時間を減少させることが、大きな課題となっています。

ひとりで行う仕事を、できるだけ多人数で処理することで効率化を図る。これが分散マルチGPUシステムの発想

ありがとうございました。次回のインタビューでは、研究面のより詳細な解説に加え、開発の際の苦労話などについても、お伺いできればと思います。

Copyright(C) SECOM Science and Technology Foundation