iOSDC JAPAN 2025, day0 (9/19)
空間ビデオや空間写真、Apple Immersive Video などの空間メディアの特徴の一つに「実物大」の再現があります。これによって視聴者はあたかも撮影場所にいるかのような臨場感を味わうことができます。「実物大」を再現するには撮影した映像そのものに加えて投影方法や撮影時のレンズの特性などのメタデータが必要になるのですが、WWDC25でこのメタデータの仕様や運用方針がアップデートされ、いよいよ情報のパーツが揃ってきました。
本トークでは Apple Projected Media Profile を詳しく読み解きつつ、Vision Pro がどのような描画を行っているのかを探っていきます。第一のゴールは撮影した映像にどんな値を設定すれば良い感じになるのか?が分かることですが、visionOS の振る舞いを知ることは空間メディアを視聴できるデバイスを考える上でもヒントになるはずです。
皆さんは空間メディアについてこう思ったことはありませんか?
Vision Pro は持っていないけれど iPhone で撮った空間写真を楽しみたい
180°や360°の動画をライブ配信し、そのままの体験を大勢に届けたい
イマーシブな体験ができるハイクオリティな映像コンテンツを多くの人に見て欲しい
Vision Pro のクオリティは素晴らしいですが、もし手軽に空間メディアを視聴できるデバイスがあって、それが普及していたら、と思わずにはいられません。この探究はこうしたデバイスの作成を考える上での足がかりになれるのではと考えています。
途中でiPhone / iPad の超広角カメラでWide FOVのAPMPが撮影可能であることに言及していますが、そのPoCのために作成したアプリを https://github.com/Ridwy/APMPCam に公開しています。撮影可能な視野角は105°程度で120°には及ばないはものの、Video Toolboxでvexuを書き込む例として、また手軽にAPMPを体験する手段としてご利用ください。