今年のNHK技術研究所の公開展示内容が発表されていた。
その中の1つ、「8Kスーパーハイビジョン放送の高機能化に向けたMMT伝送技術」について調べてみた。
MMTとは何か?というと「MPEG Media Transport」という今年MPEGで標準化が完了したばかりの規格で、データを届ける際の伝送経路を1つではなく、複数持たせることができるようになる規格。
検索して出てきた良い資料は以下の3つ
・NTT技研R&D No.140 2013年7月掲載の「次世代放送システムのメディアトランスポート技術」
・NTT技術ジャーナル 2014 vol.26 No.2掲載の
「4K ・ 8K映像配信を支える 次世代メディア伝送技術MMT」
・DCCJ&SKJ主催シンポジウム2013の資料「ODS・遠隔コラボレーションを加速する 超高精細映像配信ネットワーク」(NTT技術ジャーナルのと同じ著者)
NHK技研R&Dのは、なぜ必要になっているのか、とかをしっかりと解説してあるのでお薦め。説明の主眼は「複数の伝送経路を使って映像を届ける」ということに置かれている。
NTT技術ジャーナル関連の2つは、「MMTで改善された点のうち誤り訂正が絡む符号化関連」と、「MMTを利用した映像製作サイドの利用例」に主眼を置いて書かれている。
とりあえず、いろいろ見て、私が理解したMMTを使い実現できること。
(間違ってるかも?)
「ワンセグ/フルセグ/スーパーハイビジョンなどでの映像の完全同期」
現状、ワンセグ/フルセグを含め、複数の端末で同時に同じチャネルを見た時に
映像・音声が同期することはなく、タイミングが若干ずれる。
これはTV局から発信された後の再生のタイミングを調整する機能が存在せず
受け取った電波をデジタル処理して表示するのにかかる時間を
そのままにしていることによるタイミングのズレである。
こういった状況を廃するため、例えば
・最終的な表示を決める為のタイミングデータ(電波配信)
・フルセグ用の映像データ(電波配信)
・ワンセグ用の映像データ(電波配信)
・スーパーハイビジョン用の映像データ(CATV配信)
・タブレット端末用の映像データ(IPベース配信)
・別視点用の映像データ(IPベース配信)
というように各データを複数の経路で配信する。
この場合、ユーザ側では、必要な映像データの取得を行うことになる、
例えば・・・
4Kテレビを最高画像でみるには以下の2つを受信
・最終的な表示を決める為のタイミングデータ(電波配信)
・スーパーハイビジョン用の映像データ(CATV配信)
移動中、車内TVを見るという時には以下の3つを受信
・最終的な表示を決める為のタイミングデータ(電波配信)
・フルセグ用の映像データ(電波配信)
・ワンセグ用の映像データ(電波配信)
フルセグの受信状況が悪ければ、ワンセグ映像に切り替える
現状だと、どうしてもワンセグ/フルセグ切り替え時に、
音声や映像が微妙に戻ったり飛んだりするが、
そういったロスが少なくなる(はず
スポーツ中継などで
・最終的な表示を決める為のタイミングデータ(電波配信)
・ワンセグ用の映像データ(電波配信)
・別視点A用の映像データ(IPベース配信)
・別視点B用の映像データ(IPベース配信)
というような形で、通常放送では見れない別視点映像を随時切り替えて、
もしくは機器側が対応していれば、同時に表示させる、
といったことが可能となる。