[PR]

NHK技研公開に行ってきた。多視点ロボットカメラシステムが一番すごかった

[PR]

年に一度のNHKの技術研究所の一般公開イベント『NHK技研公開』に行ってきました。成城学園前からバスで10分ほどのとこにあります。東宝のスタジオよりも駅から遠い。どうでもいいことですが。

今年の技研公開のメイン展示はハイブリッドキャスト。放送と通信の本格融合技術の総称で、放送中のテレビ画面にネットから取得した情報をオーバーレイで表示したり、放送中の番組と連動して、手元のスマートフォンやタブレットに自動的に番組関連コンテンツを表示するなどが売りになっています。コンテンツ制作をHTML5でできるのも特徴で、テレビ局以外の会社でもコンテンツ開発が用意になるかもです。HTML5がきちんと次世代の主流言語として定着するかどうか知りませんけど。
nhkgiken2013

多視点ロボットカメラシステムは新しい映像表現を可能にするかも

ハイブリッドキャストも今後のテレビの発展を考える上で大変重要な動きなんですが、僕が一番面白いと思ったのは、多視点ロボットカメラシステムっていう技術。これは複数台のカメラを自動制御によって1つの動いてる被写体を自動的に追いかけるシステム。そうやって複数のポジションから撮影された映像を繋ぎ合わせるとこういう映像表現ができる。

マトリックスみたいですね。マトリックスの時はワイヤーで俳優を釣って別撮りした映像をCGで合成しているわけですが、ああいうのがライブ配信映像でも可能になるかもしれない。上の例だとプレイヤーの動きを9台のカメラが自動的に追いかけて、それを繋いで着くてる。9台あってもカメラのオペレーターは1人でオーケー。オペレーター用のモニタは9分割されていました。多分スイッチングでリアルタイムのライブでも上のような表現が可能になると思う。

映像表現が、他の表現を比較して最も秀でている点、というより特権的に表現可能としているモノは動きの表現です。
当たり前ですけど、映像は動くから映像なんです。どう動かすか、動きをどう記録するか、ということを考えて映像表現は進化してきました。動きとは撮影する対象の動きもそうですが、カメラ自身をどうか動かして動きを作るか、ということも含みます。

歩いてる人間を撮影する時、1点にカメラを固定してカメラで動きを追って撮影(パンすると言います)するのと、カメラ自体を人間があるくのについていくのではまるで効果が違うわけですね。カメラ自身の動きによって、全く同じモノを撮影しても効果が違います。

この多視点ロボットカメラシステムはのカメラは基本的に固定されています。固定されて9台のカメラが自動制御で寸分の狂いなく被写体をパンして追いかけてる(もしかしたらカメラを動かす事もできるのかもしれない)。その9台のカメラで撮ったものを繋げると、パンとカメラ自身を動かしているのと同時にやってるように見えるんですね。上のデモ画像では人物の動きをストップして見せていますが、もっと発展すれば動いている人物をあれで見せることも可能になるんでしょう、きっと。相当ダイナミックな動きが表現できるようになるんじゃないでしょうか。

映像を映像たらしめているのは、動いてるってことなんですよね。美しいカラーは写真でも表現できます。多視点ロボットカメラシステムが実用化されたら新しい動きが撮れるようになるなあ。動きの表現こそ映像の聖域。それを発展させるこの研究が一番価値があると思います、僕は。

ハイブリッドキャストのアクティブ番組表はテレビのアクセシビリティを改善する

ハイブリッドキャストにも触れておきましょう。
ハイブリッドキャストは、ネット(通信)から情報を取得して、それをテレビの番組と連動させることができる技術。これによって映像上にオーバーレイでいろんな情報を載っけることが可能になります。そういうのはデータ放送でもあるわけですが、それの進化系でさらにリッチな表現もできるし、スマートフォンに情報を表示させることもできるようになります。この技術をどう番組作りに生かすのか、これから見物というところなんですが、単純に映像で表示しているものが表現の全てだったテレビの表現をどうリッチにしていかを製作現場では考えないといけません。ただ関連情報の文字を表示するだけじゃなく、いろんなことができるようになりますし、これはHTML5に対応してますからね、文字情報だけに留まらないわけです。極論YouTubeやニコ動だってオーバーレイできるようになる。番組のMAD動画をオーバーレイとかしたら面白いんだけどな。

もう一つ、このハイブリッドキャストを使って「アクティブ番組表」というのを展示していてこれはいいと思いました。これは過去30日分の番組を遡って視聴可能にできる。というのも放送と通信が連携しているので、ネットのオンデマンドと連携できるから。

僕が思うに、現在のテレビの最大の課題はアクセシビリティが悪いことです。インタラクティブ性とかコンテンツの問題よりも、リアルタイムの放送を逃したらコンテンツにアクセス不能になるというのが一番現代人にとって一番つらい。ネットはいつでもどこからでもアクセス可能という新常識に慣れてしまうとなおさらこれがつらい。
アクティブ番組表はこのアクセシビリティの問題にメスを入れるシステムですね。今回の展示でハイブリッドキャストで実現できることの3本柱は、オーバーレイ、セカンドスクリーン自動連携、そしてアクティブ番組表だったのですが、これが一番ユーザーにとって重宝するんじゃないでしょうか。広告主とかはセカンドスクリーン自動連携とかの方が好きかもしれませんが。テレビを見ている人のスマホに商品情報を突っ込めたりも可能にあんる技術ですから。

8Kのスーパーハイビジョンの展示もありました。8Kの一般家庭での使い道はあるのかは議論のあるところですが、大画面を分割してもそれぞれを高画質で写すというデモをやってました。マラソン中継で、背景に地図を映し、マルチウィンドウで各地点の選手を表示、ハイブリッドキャストも活躍させて、選手やコースの関連情報を同時に表示させると。背景の地図はデスクトップの壁紙のようでしたな。

技研公開のハイブリッドキャストと8Kに関しては、以下の記事を参照ください。詳しく書かれています。
【西田宗千佳のRandomTracking】「Hybridcast」はテレビとネットの融合を実現するか -AV Watch

その他、今回の技研公開はテレビ業界から見てどんなものだったのかは以下の2つのエントリが参考になります。
● テレビのタブーに挑戦したNHK技研公開(氏家夏彦) | あやとりブログ

オープンセミナー事前解説(+NHK技研公開レポート):テレビはWEBで飛躍できるか? | クリエイティブビジネス論!~焼け跡に光を灯そう~

それから、AVウォッチで西田さんが書かれておられるようにテレビの本質が受け身のメディアであるなら、テレビの目指す方向性はパーソナライゼーションでしょうね。
番組視聴履歴から自分の好きそうな番組を自動でセットしてくれたり、次に見るオススメの番組を表示してくれたりしたら本当に楽。受け身のメディアであるなら、パーソナライゼーションの技術はウェブで展開するよりこっちで展開した方がいいかもしれないですね。ウェブは本来受け身の世界だけではないですが、パーソナライゼーション技術って押しつけっぽくて実はウェブの精神と合致してないんじゃないか、という気もしますし。
地上波だけで1週間に2000もの番組がありますし、BSや有料放送も加えたらもっとあります。そこから好きな番組を探すのは大変ですから、それを肩代わりしてくれる技術の開発もお願いしたいところです。