初めまして、Naoと申します。先日6月28日に次世代の空間コンピュータ、Apple Vision Proが発売され、それに合わせてデモができるようになったため、その体験をまとめる。
体験開始までの流れ
まず、Apple Vision Proの体験をするためには、デモの予約が必須となる。米国での先行発売の時も同様だったが、オンラインまたは店頭什器からも予約が可能となっている。私は予約開始日の6月14日に、発売翌日である6月30日の枠を予約をしたが、その翌日には初日の枠はほとんど埋まっており、翌土曜の枠も日中は埋まっていたため、相当な人気が伺える。
また、予約と同タイミングで眼鏡等の視力矯正に関する質問もされ、それに応じて当日眼鏡を測定した上でZEISS Optical Insertsをつけて試せるという仕組みになっている。
当日は、あらかじめApple Walletsに予約情報を入れられるため、そのQRコードをストアスタッフに提示した上で体験の順番待ちとなる。本来は予約した時刻から25分間だが、発売翌日ということも相まっての人気で、多少の順番待ちが発生していた。
順番待ちの最中には、visionOSにおけるアイトラッキングとハンドジェスチャの操作方法を学べ、Apple Vision Pro用の什器となっているiPadでApple Vision Proの操作を知ることができる。なお、この中でストアスタッフにどういった内容のデモをしたいかを聞かれ、それによって複数ある中からどのデモをするか選んでくれる。
体験には主に2種類あり、1つがApple Vision Proのデモ用に配置されたL字のソファをで行うデモ、2つがGenius Barなどの目的で設置されている長いデスクで行うデモだ。前者のデモについては、現在丸の内・表参道・心斎橋・福岡の4店舗に設置されており1、両者がある場合はタイミングによって変わる。今回、筆者は前者のL字ソファを用いたデモができた。

初期設定
ソファに着くと、まずはiPhoneに搭載されているTrueDepthカメラユニットを用いて頭部を測定し、どのライトシーリングが適しているかの判定を行う。本来購入時では、これと同時にヘッドバンドであるSolo Knit BandがS/M/Lのうち、どれが適しているかの判定も行うが、デモではSolo Knit Bandの付け外しの手間を省くため、全てDual Loop Bandで統一となっている。なお、このデータについてはApple StoreアプリのFor You欄に保存されるため、次回のデモ時や購入時にもこのデータを使うことができる。
前述したように今回体験するのはDual Loop Bandのため、頭頂部と後ろとで2箇所のフィッティングをする。固定方法は面ファスナー、いわゆるベルクロで、Apple WatchのTrail Loopに近い構造となっている。
装着感に関しては、手前に重心こそ感じるが、Dual Loop Bandでの体験のため、頭頂部からも支えられていることによってズレる心配は特になかった。
装着後は、Digital Crownを長押しすることで目の位置の確認がされる。
そして、Macでお馴染みの「ジャーン」という音と共に、視界には”hello”の文字が立体的に出てきます。この体験は筆者自身もすごく感動し、「体験へようこそ」という意味で近くにいるストアスタッフ全体で拍手をしてくれるため、かなり興奮した。
その後は、手のトラッキングをした後、視界に広がるドットをタップすることでアイトラッキングの測定に入る。現実空間より暗い環境、明るい環境、ほぼ真っ白の環境の3パターンでそれぞれ6ドットずつタップする。タップは手の人差し指と親指をつまむことで行われ、どのドットを注視しているかはドットのサイズが変化することでわかる仕組みとなっている。おそらく、この「つまむ」ジェスチャはApple Watchのタブルタップから着想を得たものと思われる。

装着感・操作方法
眼鏡ユーザーの方はこの前にZEISS Optical Insertsのアタッチが入る。店頭に持ち込んだ眼鏡のレンズ情報を読み取る専用の機械があるため、それで測定したデータをもとに最適なInsertsを使うことができるが、このデータはAppleが一切管理しないという仕組みになっているため、この機械で測定した以外のデータを用いてのデモ体験はできなくなってしまう。筆者自身、現在眼鏡を紛失しており裸眼での体験となってしまったため、見え方に関しては正しい評価ができていない可能性があるのでご了承いただきたい。
画面表示は、片目4Kというスペックのためかなり高精細で、前述の通り両目でくっきりとは見えない環境でしたが、それでもかなり美しいと感じた。色に関してもiPhoneやiPad、Macで培われたディスプレイ品質そのままで、且つ外界もパススルー映像として見えるため、かなり現実感があった。
パススルー映像についてもカメラの映像を出力しているため100%リアルではない一方で、手前に近づけたスマホの文字が見えるなど、裸眼と勝手が変わらないのが素晴らしかった。ここのクオリティは以前体験したMeta Quest 3と比べても優れており、VRではなくAR/MRに注力して売っていきたいということも伝わりました。
初期設定が完了すると目の前にHome Viewが広がり、アプリ一覧を確認することができる。また、この画面上で視界を動かした際も、Digital Crownを押すことでHome Viewを視界の中央に移動させることができる。
その後は簡単な操作方法の確認があり、下のバーをつまみ手を動かすことでウィンドウの位置を上下左右と前後に変更できるほか、右下に視線を合わせることによってウィンドウサイズ調整用のコーナーが出現し、iPadのStage Managerと似た要領で調整することができる。
また、それぞれのウィンドウに対しては、現実空間上に影が出現するほか、高度なハンドトラッキングにより手や腕がウィンドウより前に切り抜かれた状態で出現するため、ウィンドウの奥行き感を強く意識できる。こちらは、iPad ProやiPhone ProシリーズのLiDARを用いたAR Viewで手を前面にすると手が切り抜かれるのと同様だが、センサーの数がかなり多いため精度は完璧と言って差し支えないレベルだった。
写真・動画の体験
今回まず体験したのは、写真アプリだった。パノラマ写真では、2D画像ながら湾曲した画面を表示できるため、パノラマ写真の空間が視界全体に広がり、かなりリアル感のある体験だった。今まで、パノラマ写真についてはiPhoneやiPadの画面上では狭く使い所がないという印象を持っていたが、一方でApple Vision Proにおけるパノラマはかなり実用性が高い機能だと感じた。
また、Apple Vision Proで撮影されたSpatial Photoも体験したが、こちらは写真のウィンドウが全画面に広がるため、その写真への没入感がかなり高い印象だ。Spatial Videoも同様に全画面に広がるため、こちらに関しても同様にコンテンツに集中できる印象だ。さらに、iPhone 15 Proで撮影されたSpatial Videoも体験したが、Apple Vision Proで撮影されたものに比べると映像のアスペクト比が1:1ではなく16:9であったり、メインカメラと超広角カメラによる2眼撮影のためFOV的に不利であったりし、少し小さく映る印象でしたが、それでも十分に価値のある映像だった。
Apple Immersive Videoについても、今回のデモのために作成された「Experience Immersive」という映像を鑑賞することができた。この映像は180度の3D動画となっており、大自然の様子や吊り橋を渡る人が近づいてくる様子など、Apple Immersive Videoの特徴を存分に活かした内容となっていた。また、この映像は日本語対応がされていないため英語音声と日本語字幕となっていたが、字幕は必ず視界の中央下部になるようにヘッドトラッキングしていた。
これらの映像の体験は、Apple Vision Proの優れたスピーカー性能も大きく関わっていると感じた。AirPodsで培われたダイナミックヘッドトラッキングによるSpatial Audioが採用されており、実際のウィンドウがある方向、あるいはコンテンツの写っている方向から音が正確になるため視界との乖(かい)離がなく、違和感が少ないためコンテンツに集中できると感じた。
Keynoteアプリの体験
前述したようなコンテンツ視聴・消費だけでなく、Apple Vision Proでは実際の作業にも役立つことをアピールして売り出している。そして、その中でも特にApple純正のKeynoteは力が入っている印象で、今回のデモでも試すことができた。
操作方法は概ねiOS/iPadOS/macOS版と近しいが、実際のプレゼンテーション環境を模した空間でスライドショーを表示できるモードがあり、それがvisionOS特有の目玉機能となっていた。環境は2つ用意されており、それぞれAppleのBroad Roomを模したものと、発表会でお馴染みSteve Jobs Theaterを模したものだ。前者は10人程度の規模の会議室、後者は1000人規模のホールでそれぞれ体験ができる。

またKeynoteの編集についても、Apple Vision Proの空間上に表示されたキーボードを用いての文字入力ができた。先日公開されたvisionOS 1.2より日本語入力のサポートが開始され、キーボードもつまんでスワイプするフリック入力ができるようになった。また、従来より英語などのQWERTY配列の仮想キーボードでは、人差し指をキーボードに押し込むようにすることでの入力も可能で、視線とピンチに比べても入力が捗りそうな印象を受けた。
Safariによるブラウジングの体験
Safariについては、サイトを開いているウィンドウのサイズ変更がかなり自由度高くでき、自分の作業用途に最適化した使用ができるものとなっている。操作についても、基本的にはアイトラッキングと指のピンチだが、前述のキーボードと同じ原理でウィンドウに直接触ってスクロールをすることもできる。そのため操作の体感として、とても大きなサイズのiPadを触っているような印象を受けた。
また、Safariのウィンドウも他アプリと同様に配置を自由に調整できるため、動画等のコンテンツ消費では奥側に大画面にして配置、作業時には手前に配置など用途によって明確な使い分けができるのもApple Vision Proならではだと感じた。
Environmentsの表示
Apple Vision Proの体験では、基本的にパススルー映像を用いた操作が中心だが、Digital Crownを回すことで徐々に視界を大自然などの環境に移動できるEnvironmentsという機能がある。なお、一般的な表記に合わせるため以下ではパススルーをMRモード、EnvironmentsをVRモードと表現するが、Appleは双方を一括でSpatial Computingという言葉で説明している。
このVRモードには多くの自然環境が用意されており、それぞれの環境へ瞬時に視界を切り替えることができるようになっている。そして、これらのVR環境に応じた環境音がわずかに聞こえるようになっている。そのため、現実空間の音と離れてVR空間上で集中した作業ができるよう工夫されている。
また、VR表示中でも近くに人が入ってきた場合はその人の周辺がうっすらとパススルー映像で表示されるようになるため、急に話しかけられた場合でも対応できるような仕様となっている。
MRとVRの切り替えについてもDigital Crownの回転で行えるため、前方はVR、後方はMRといったような使い方ができるようになっている。またその場合でも、後方のMR表示部はVR表示部と明るさを調整し目の健康を害さないため、少し現実より暗く表示されるようになっていた。

体験レポのまとめ
今回体験できたのもApple Vision Proの数ある機能の中の一部のため、これで100%全容を把握できたということは決してないが、それでもSpatial Computingの世界をきちんと体験できたと感じた。特に、パススルー映像のクオリティには終始驚かされ、実際の空間上にウィンドウがあるような感じを覚えた。また、Apple Vision Proを外した際にも、いわゆる「VR酔い」をせずに違和感のない視界だったため、Appleの映像に対するこだわりを感じた。
Appleがこの端末を作る意味
ここからは完全な余談となるが、今回の体験を踏まえた上で、なぜAppleがこの端末をこの時期に出したかというところに踏み込んでいく。
最近のAppleと違い、かなり早期に出してきた点
近年は、どうしても後追いと呼ばれるような製品が多く、それらの多くはハード・ソフト面において成熟しているため不具合が少ないというメリットがあるが、一方で革新が起きにくいというデメリットを抱えている。例えば、HomePodに関してはAmazon EchoやGoogle Home (現在のNest)といった競合がすでにある中で挑んだ勝負となった。また、後追いでないものに関してもそこで使われている技術はすでにコモディティ化したものが多かった。あのiPhoneも、マルチタッチを搭載したiPod内蔵携帯電話という全く新しいデバイスだったが、そこで使われているストレージ・ディスプレイ・GSMと行った技術はすでに世の中にあり、それらを統合したものだった。
しかし、今回のApple Vision Proは片目4Kという発表時点では採用例がかなり少ない技術を採用し、アイトラッキングとハンドトラッキングを中心にする操作設計もコントローラー前提の他社では見られない技術で、事実Apple Vision Proのために取得した特許は5000を超える2と言われている。
つまり、今までの後追いの方針をやめてこのApple Vision Proは業界をリードする形で作られた。
Appleは他社を上回る技術を多く持っていた点
デモのレポでも多く書いたが、LiDARや手のピンチ、ウィンドウ配置やSpatial Audioなどの技術は他社に先行する形、あるいは上回る形で実用化されていて、それらに関しては他社が易々と真似できないためApple Vision Proの優位性を保てると判断したと考える。
また、ソフトウェア面についても操作体系こそアイトラッキングとハンドトラッキングという革新性があったものの、OSそのものの構造はiPadなどとも似ている点がかず多く存在する。Macミラーリングについても、MacとApple Vision Proがどちらも自社で作っているからこそできた機能となる。つまり、今まで作り上げてきたAppleエコシステムを活かせるため、これについても他社に対し有利に立てる点だと考える。
Appleはコンテンツを作るのが得意だという点
Appleは2019年よりApple TV+という映像配信サービスを開始しており、そこで配信されているオリジナルコンテンツは、アカデミー賞やプライムタイム・エミー賞など数々のタイトルを獲った実績がある。このノウハウを活かすことで、Apple Immersive Videoのコンテンツを他者に依存せずに拡充できる環境が整っている。
また、ユーザーが一定数揃った次の秋にはvisionOS 2が配信され、そこではBlack Magic DesignでもApple Immersive Videoが撮れるようになり、更にFinal Cut Proで編集もできるようになるため、他社でもApple Immersive Videoのコンテンツを制作できるようになる3。これについても、自社コンテンツがリードするという形を作れるAppleの優位性になる。
これらをまとめると、今までiPhoneやiPad、Macや各種サービスを作る際に蓄えた莫大なノウハウを全て活かし、業界をリードする形でApple Vision Proをリリースすることで、全く新しいSpatial Computingの世界を作ろうとしていると考えます。
また、Apple Vision ProはM2チップを搭載しているため、今後拡充されるであろうAI・機械学習関係の機能をフルに使うことができるようになると予想する。事実、visionOS 2では2Dで撮った写真をSpatial Photoに置き換えるというAIを活かした機能がつくと発表されている。更に、仕様的にはApple Intelligenceの使える要件を満たしているため、それらの機能も将来的には着くと考える。現在でも音声入力がApple Vision Proの体験の中で比較的重要なポジションにいることを考えると新しいSiriとの親和性も高く、それが1つのターニングポイントになりうると思う。
MR/VRのHMD市場を見ると、最も先行して出していたMeta Quest (旧Oculus Quest)シリーズがかなりのシェアを占めていますが、今年の2月以降はApple Vision Proに対し”焦り”を感じたように新機能を続々と出しています。パススルー映像の改善はその典型例で、Appleと比較したときのMetaの弱みがなくなるように努力している様子が感じられる4。Apple Vision Proの発売はユーザー間でかなり話題になったが、それと共に市場活性化にも一役買っており、これにより競争が生まれることでより良い製品が出てくるきっかけともなった。
終わりに
このデモを通し、Appleの目指す未来像が1つ分かったと共に、「Appleが」この時期にこのデバイスを出すという意味を理解できたため、かなり有意義な体験となった。もしApple Store付近に立ち寄られる際は、無料なのでぜひ体験して、”未来”を体験してみてください。
コメント