見逃しませんでした。大林組技術研究所が取り組むAR。
ARのオクルージョン問題
平日の朝のニュース番組のひとつテレビ東京の「Newsモーニングサテライト」で、ARについての短い特集が放送されました。
その中で、大林組技術本部技術研究所の金子上席研究員が、タブレット端末を操作しながら、既存建物に改修を施した後のイメージを、その場で見せるためのソフトウェア「FutureShot」を紹介していました。
タブレットのカメラで撮影している映像の、たとえば外壁の一部に、改修工事で取り付ける耐震補強の部材を表示して、施工後のイメージを見せるわけです。テレビでは、大林組の技術紹介はごく短時間でしたが、このARというのは、それなりの難しさがあります。
人の顔のまわりに年齢を表示するとかならいいんですよ。カメラで撮影している対象物の手前に情報を表示するだけですから、表示機能そのものは簡単なんです。
しかし、ARで表示するCGなどの一部が、現実の柱や壁や歩行者や道路標識などに隠されている表現というのは難しいのです。この重なった見えがかりのことを、オクルージョンとか重畳とかいいます。
テレビの映像では、外壁まわりの柱の間に、CGの部材を指で動かしながら表示しました。つまり、手前の柱に隠れている部分を、きちんと処理しているということです。
このオクルージョンの問題は結構難しくて、情報処理の世界でも、対象物認識と併せて研究されていますが、画像だけから対象物のエッジをきれいに取り出すのは非常に困難なのです。
ということは、きれいに処理をしていた大林組の技術では、柱などの建築部材をあらかじめ設定しているということになります。(想像)
でも、部材情報を持っているだけではダメで、タブレット(視点)と柱の位置関係を特定する必要があります。
そのためには、タブレットの位置をあらかじめ固定しているか、その場の位置を入力するか、カメラに映りこむ映像に3次元の座標を特定できるマーカーを忍ばせていることになります。(想像)
ニュース映像にはマーカーみたいなものは見えなかったなぁ。マーカーレスのARなのかなぁ。視点座標をソフトに入力しているのかなぁ。
2017.10.1
大林組のプレスリリースに、ちゃんと書いてありました。しかも、ずっと前。。。新聞記事を見落としてましたね。で、座標はタブレットで入力するんですね。そして、「マスクモデル」という処理技術で、見えがかりを計算しているんですね。納得納得。
やっぱり大林組の技研
大林組の技術研究所は、先端技術への探求心が旺盛で、実装能力が高いですね。
以前紹介した鈴木さんも、今回の金子さんも、技術研究所生産技術部のメンバーですね。層の厚さを感じます。
あと、テレビの撮影に使われていた、品川の東京本社のエントランスもきれいですね。こういう職場で働きたいものです。