MENU

Apple Intelligenceレビュー Vol.4:今こそ徹底解説、言語のヴェールが晴れしAI

ついに2025年4月1日(日本時間)、待望の日本語に対応したApple Intelligenceを搭載したiOS 18.4、iPadOS 18.4、macOS Sequoia 15.4が配信された。この記事では、他社との比較を交えつつ仕組みや特徴・強みを解説してから、具体的な機能とその使用例、筆者の感想を述べる。既に弊誌ではVo.1から3にわたって英語で使用できる機能を一通り解説してあるが、それらの機能についても日本語での例をすべて紹介するため、この記事1本で完結するようにする。なお、記事中の紹介に使用するiPhone 16は弊誌管理人いちごもちよりお借りしたものである。

目次

Apple Intelligenceとは

Apple Intelligenceのキャッチコピー、“AI for the rest of us.”。誰でも使いやすいようにという意味がある。

Apple IntelligenceとはAppleがWWDC24で発表したAIであり、iPhone・iPad・Macに搭載される「デバイスに深く統合されたパーソナルAIシステム」であると喧伝する1。この項では、具体的なApple Intelligenceの強みを4観点に分けて紹介する。

なお、ここに掲載する内容はChatGPTのDeep Researchを利用し、そのソースとなるリンクは適切に脚注に貼っている。ただし、同一のサイトから得られる内容が複数回登場する場合、初回登場時のみの脚注掲載としている点はご了承いただきたい。

安全性

Apple Intelligenceが特徴とするのは、iPhoneなどのみで行うオンデバイス処理を基盤としている点にある。iPhoneやiPad、Macの中でAIモデルを動かすことで、ユーザーのデータをクラウドに送信せず各種の知的処理を実現する2。写真の顔認識やテキストの要約も端末内部で行うため外部に流出する心配がなく、業務などでも利用できるその安全性が最大の特徴だ。

もっとも、高度なジェネラティブAI機能の中にはiPhoneなどの内部処理では対応しきれないものもある。そこでAppleはPrivate Cloud Compute(以下PCC)という仕組みでデバイス処理を補完し、複雑なリクエストの場合はiPhoneなどから米国オレゴン州にあるサーバーにリクエストを飛ばし、そこに処理を委ねる。もちろんそこでも安全性は担保されており、PCCで用いられるAppleシリコン搭載のサーバーにはストレージが存在せず、一時的なメモリ処理のみで行われ、その一時的な処理が終わった際にはすぐデータが削除されるため、データが保存されずApple自身であってもユーザーにアクセスできない3。そのサーバー側の処理コードは独立したセキュリティ研究者が検証できる仕組みになっており、プライバシーの約束が守られていることを第三者が確認可能だ4

PCCで提供されるAFM-ServerはGPT-3.5と互角以上、GPT-4にも匹敵するテキスト生成品質を示しており、内部評価の要約・作文タスクなどApple Intelligenceで実際に使われる機能ではGPT-3.5を大きく上回りGPT-4とほぼ同等のスコアを達成している5。特に、関数コールの正確性においてはGoogleのGemini 1.5 Proを凌ぐ制度を記録している。

さらに高度な要求の場合にも対応できるよう、OpenAIと協業しチャッピーことChatGPTのGPT-4o版を使える。ただし、この場合はそのプライバシー保護はOpenAIに依存してしまうことになるため、ユーザーから求められた複雑なリクエストに対しては、逐一ChatGPTに送って良いかの承諾を求める仕組みになっている6(例外としてChatGPTに〇〇と訊いて、のようにユーザーからChatGPTを使う要望が出された場合は直接ChatGPTを使用できる)。

そのため、ユーザーとしては原則として高い安全性が保たれた上で、その檻の外であるChatGPTに行くか否かはすべてユーザーの判断次第という透明性が保たれている。

テキスト生成系だけでなく、画像生成についてもオンデバイスで基本処理しており、12.75億パラメータに上るStable Diffusionを16-bitから4-bitに圧縮しNeural Engineで動かすための最適化を行った。これにより、プロンプトや生成データが外部に送信されずプライバシーが保護されることにつながるとしている。

省電力性

前述したように、Apple Intelligenceは主にオンデバイス処理をすることが前提に作られている。特に、AppleはiPhone 8 (2017)からSoCにNeural Engineを搭載しており、AI推論を専用ハードで高速・低電力に実行してきたため、エネルギー効率と高スループットを両立できる設計となっている。

例として、iPhone上でTransformerベースの言語モデルを最適化したケースでは、推論が10倍高速化しピークメモリ使用量も1/14に収まるなどの結果を示し、Apple Intelligenceに対応しない旧モデルでありながらiPhone 13上で3.47msの低レイテンシで推論を実行しつつ0.454Wと極めて低い電力消費となっている7

なお、実際のApple Intelligenceでは2-bitから4-bit混合精度の量子化など独自の圧縮技術を駆使し、モデルを高精度のまま大幅に軽量化している。さらに、文章作成・校正など用途ごとにLLMが用意されており、このモジュールごとに細かいアップデートをすることができるのもApple Intelligenceの特徴だ。このような工夫とNeural Engineの活用により、オンデバイスAIを高効率に動作させている。

さらに、PCCのサーバーもApple Siliconが組み込まれているため、前述したNeural Engineによる電力効率の恩恵も受けられる。そして、あくまでオンデバイスを基本とした作りであり、PCCはどうしてもクラウド資源が必要な場合にのみ用いるというバランスをとっている。このようにどの場面でオンデバイス処理をさせ、どの場面でPCCに投げるか、といった緊密な協調を取れるのもデバイスとOS、クラウドの両方を設計しているApple独自の利点だ。

他者に目を向けると、GoogleはPixelにTensorチップを搭載しクラウドとの統合を進めている8が、Geminiに相当する機能群は多くをクラウドに依存しており、モデル圧縮の徹底度や前述したプライバシーの保護設計の面ではAppleが一歩先んじている印象を受ける。また、MicrosoftのCopilot+ PCについても40TOPS級のNPUを備えハード・ソフト両面の最適化によるオンデバイスAIに踏み出そうとしているが9、2020年発売のM1搭載モデルからNeural Engineを搭載してきたMacには既存のハード面で引けをとっている。

応答速度

クラウドを基本介さない仕組みであるため、デバイス内で多くのリクエストがリアルタイムに実行される。Apple Intelligenceで組み込まれた30億パラメータの言語モデルでは、前述した大幅な圧縮とNeural Engineの最適化によりiPhone 15 Pro上で毎秒30トークンの生成速度を達成している。プロンプト入力に対する最初の応答も数十msで開始され、ストレスのない対話体験を提供すると謳っている10

これはトランスフォーマー型モデルの並列処理をNeural Engineで効率化した成果であり、入力テキスト1トークンあたり0.6msで処理していると報告されている。Apple Intelligence以前から利用できるSiriの機能は既にデバイス上で完結しており、Apple Intelligenceについてもそれに準ずる速度が出せることで、ユーザー体感速度が変わらずストレスフリーな体験を提供するとしている。なお、PCCについても自社設計のサーバーSoCで最適化した推論を行い、高速なレスポンスを目指している。

GoogleはTensorチップの性能向上により将来的なLLMのオンデバイス化を目指しているが、現時点ではAppleのような大規模モデルのローカル動作は限定的だ。結果として、日常的な短い回答や簡易操作についてはPixelもキビキビ動作する一方で、総合的な応答の一貫性と低遅延では、オンデバイス処理をより重視する傾向にあるAppleに軍配が上がる。

MicrosoftもCopilot+ PCリリース時に比較対象として出したMacBook Air M2は15兆回/秒の処理性能であり、それを上回るとしてアピールした一方で、モバイル向け且つ1世代前のA17 Proで既に35兆回/秒の水準に達しており11、Mシリーズチップではさらにそれを上回るAI最適化を推し進めているため、PC領域でも他社に引けを取らない性能が期待される。

前述した画像生成についても、512px四方の画像を数秒で結果が得られるとしており12、それを同時並行的に動かすことで、Image Playgroudなどでは次から次へとスワイプをして好みの画像を生成するUIが実現できた。また、一度モデルをデバイスに導入すればオフラインでも動作可能である点も利点として挙げている。

UI・UX

Appleは、10年以上搭載し続けてきたSiriをApple Intelligenceにより大幅アップデートを仕掛けてきた。音声とテキストの両インターフェースでより自然でシームレスな会話を可能とした。ユーザーは従来通りの“Hey Siri,”によるウェイクだけでなく画面下ホームインジケーターのダブルタップでSiriを呼び出すことができ、音声とテキストタイプを融合した柔軟なUXを実現した。また、途中訂正混じりのリクエストにもスムーズに解釈・実行できるほか、将来的にはパーソナルコンテキストに反った回答ができるようになるともしている13

また、画像生成をするImage Playgroundでは、従来他社が行ってきたようなプロンプトを羅列する生成方法に対し、写真アプリで既に整理されている「ピープル」や、Image Playgroundアプリで既に用意されている「都会」「公園」などの場所的なものから「誕生日」「春」など時期的なもの、「パーティ」「ディスコ」など空間的なものなど多数用意されたシチュエーションから選ぶだけで生成ができる。そして、これらのリクエストは直感的にわかりやすいバブルのデザインに落としこまれるなど、ユーザーに意識させずにプロンプトを生成することを可能にしている。

また、通知要約やスマートリプライなど受動的に使える機能や、ボイスメモのリアルタイムトランスクリプト、写真のクリーンアップ、作文ツールなど1から生成するのではなく既存のレコーディング、写真、文章に対してもアップデートがかかることで、ユーザーに意識させない中でより賢くなった機能を使うことができる仕組みだ。

使用可能な機種

Apple Intelligenceは、前述したようにオンデバイス処理を前提としているため、使用可能な機種が限られる。以下に、Apple Intelligenceが利用できる機種をまとめる。

  • iPhone 15 Pro以降
  • iPhone 16以降
  • iPhone 16e
  • iPad Pro (M1, 2021)以降
  • iPad Air (M1, 2022)以降
  • iPad mini (A17 Pro, 2024)以降
  • MacBook Air (M1, 2020)以降
  • MacBook Pro (M1, 2020)以降
  • MacBook Pro (M1 Pro or M1 Max, 2021)以降
  • Mac mini (M1, 2020)以降
  • Mac mini (M2 Pro, 2023)以降
  • Mac Studio (M1 Max or M1 Ultra, 2022)以降
  • Mac Pro (M2 Ultra, 2023)以降
  • Apple Vision Pro (M2, 2024)以降

簡単にいうならば、「アクションボタンを搭載したiPhone」「A17 Proを搭載したiPad mini」「Mチップを搭載したiPad・Mac・Vision」に当てはまるモデルとなる。なお、従来は法規制の関係でEU圏での利用ができなかったが、このアップデートによりEUを含む世界中のほとんどすべての地域でアクセスできるようになる14

ここからは、実際に上記機種で使用できる機能を紹介する。なお、この検証は前述したiPhone 16と筆者の所有するiPad Pro M1を使用する。また、ChatGPTについてはChatGPT Plusへ課金をし、GPT-4oの利用リミットを取り払った状態で検証する。(ChatGPTの無料版でも同様の回答は得られるが、1日の利用回数制限がある。)

Siri 2.0

Siriは2011年のiPhone 4Sのリリース以来進化を続けてきたAppleの音声アシスタントだが、ついに大幅アップデートがかかりSiri 2.0となる。

このSiriでは、まずデザインが大幅に刷新された。画面全対応を覆うような起動アニメーションになり、動作中は画面のベゼルを囲うようにカラフルなグラデーションが彩る。これにより、デバイスに機能がインテグレートされていることがわかりやすくなり、新しい「フォンッ」という起動音も合わせて非常にエロティックな印象を持つ。

新しいSiriのデザイン。(画像は再掲)

また、声が出せないシチュエーションではホームインジケーターをダブルタップすることでSiriにタイプ入力することができ、その画面では左下に3つ候補を提示してくれる。この候補は普段のiPhoneの利用方法を学習した上で、位置情報や時間、Bluetoothの接続状況や開いているアプリに応じた提案をしてくれる。自然言語の理解力が高まったため、タイマーの時間を言い間違えた際や、アラームを複数重ねて設定したい場合、各所の天気を順番に聞いてく場合など、毎回同じことを繰り返して言う必要がなくなり利便性が向上する。

ChatGPTとも連携できるようになったため、料理のレシピや相談事などを気軽に質問できるようになった。前述したように、普通にSiriに話しかけた場合にはChatGPTに送ることの許可をユーザーに問いかける方式で、「ChatGPTに〇〇と質問して」と言うと一発でChatGPTからの回答を得られるようになる。オンスクリーンとも連携するため、画面上のコンテンツに関する質問をした際にもChatGPTがその画面を認識し、テキストについてはOCRもすることでより多彩な回答を得られる。なお、ここで用いるChatGPTはGPT-4oであり、現在時点では課金をしていてもo1やo3-mini high、4.5については利用できない。

Visual Intelligence

Visual Intelligenceは、iPhoneにおいてカメラが写すものに対するアクションを起こせる機能だ。iPhone 15 Pro・15 Pro Max・16eの場合はアクションボタンの長押し(事前に割り当てが必要)、16以降・16 Pro以降の場合はカメラコントロールの長押しで起動でき、起動すると下側に「質問」「検索」とシャッターボタンが現れる。

質問

「質問」では、その名の通り質問ができる。ChatGPTと繋がっており、写真をChatGPTに読ませた回答が最初に得られる。そして、その回答に対して質問を重ねたい場合は画面下部の「詳細について質問」を押すことで、文字を入力してChatGPTに質問できる。使い方がわからないものに対してChatGPTに尋ねたり、問題の解き方を示してくれたりする。

手元のカードに対してChatGPTに投げたところ、きちんとどう言った内容のものかを認識してくれた。

初期設定の段階でChatGPTのアカウントと紐づけていれば、ここで質問したことはアプリやWeb版問わずChatGPTから確認できる。ただし、Visual Intelligence経由で質問したものに関しては、ChatGPTへ直接質問した場合と異なり回答を再生成することができない。そのため、複数のモデルの回答を比較したい場合や、そもそもo3-miniに質問したい場合などはChatGPTアプリから利用するのがいいだろう。

検索

「検索」では、Google Lensと同様のGoogle画像検索ができる。「Googleでの検索結果をさらに表示」を押すことで、Googleで検索結果をSafari経由で閲覧できる。Safariで開くと、「商品」タブからは見た目が一致する商品を探すことができ、気になった商品を探すなどの用途で使える。

要約

カメラが写したものの中に文章がある場合、iOSのOCR機能を活かしてその文章を要約することができる。広告に載っている説明文や、街中の看板、説明文など全文読む必要はないが概要を抑えたい場合に非常に有効な機能となる。

この機能は、前述した「質問」「検索」とは違い、文章がある場合にしか現れないため、一度下側中央のシャッターボタン、またはカメラコントロールにてシャッターを切った後に「要約」を選ぶ必要がある。

iPadに表示した記事をVisual Intelligence経由で要約した様子。

QRコード読み込み

カメラが写したものの中にQRコードがある場合、シャッターを切ると自動的にそのQRコードの読み込み先に遷移する。URLの場合はSafariに、端末上にアプリがある場合はそのアプリに、それぞれ遷移する。また、アプリ遷移型のため、従来からあるコントロールセンターのQRリーダーと異なりSafariにログインデータがある場合はそれが直接遷移できるなどのメリットがある。

QRコードが読まれている様子。(Vol.3より再掲)

イベント追加

カメラが写したものの中に日付・時間などがある場合はそれを自動的に認識し、タイトルや場所なども併記されている場合はそれも併せて追加できる。ただし、ここで追加できるのはあくまでカレンダーへのイベント追加であるため、同じAppleのイベントスケジュールアプリであるAppleインビテーション(Apple Invites)でのイベント追加は現状できない(Apple Invitesでイベント作成をするのは主催者だけであるため、Invitesへイベント追加をする需要はないと判断したのであろう)。

なお、Apple Invitesについては以下の記事で紹介しているため、Visual Intelligenceでは利用できないがご興味があれば読んでいただきたい。

翻訳

端末の設定言語と異なる言語がカメラの写したものの中にある場合、翻訳ツールが現れる。写真アプリでできる翻訳と同等で、外国語のパッケージなどを気軽に翻訳して正しい情報を得られる。

韓国語パッケージの辛ラーメンを翻訳した様子。

その他

カメラが写したものの中にURLがある場合はそのURLを認識して、シャッターを切った後にそのサイトへ遷移するボタンが出現する。また、同様に10桁前後の数字がある場合はその電話番号へ遷移するボタンが出現する。

また、「要約」が出現する文章がある場合、「読み上げ」ツールが現れる場合もある。

作文ツール

AIの利用方法としても一般性の高いツールの一つであるテキスト系は、作文ツールが用意されている。テキスト入力シーンでも、選択シーンでも、アプリを問わず利用できるため活用範囲が非常に高い。テキストを選択した状態のメニュー、あるいは副ボタンクリックによりコピーやペースト、翻訳や読み上げと同格の扱いになっている。

作文ツールで利用できる機能。(スクリーンショット)

ここで利用できる機能は、「校正」「書き直し」「フレンドリー」「プロフェッショナル」「簡潔」「要約」「要点」「リスト」「表」の9つが主となる。そして、これ以外にも「SNSでバズるように」など言葉で変更を説明することもできるほか、1から文章を生成したい場合には「作文」からChatGPTに投げることもできる。ChatGPTが生成した文章も上記9つのツールで変更ができるため、活用幅が広い。

ここからは具体例をいくつか示し、まとめていきたい。

Before
先週末、友達と映画館に行く予定でしたが、みんな忙しかったので、行かず、代わりに家にいました。

After (書き直し)
先週末は、友達と映画館に行く予定でしたが、みんな忙しくて行けなかったので、代わりに家にいました。

助詞や句読点の位置をきれいに入れ替え、わかりやすい文章に仕上がっている。

Before
昼餐後に公園を闊歩していたが、雨が降ってきてしまったため引き返さざるを得なかった。

After (フレンドリー)
昼食の後は公園を散歩していたんだけど、雨が降ってきちゃったから引き返さなきゃいけなかったんだ。

堅苦しい言い回しを避けた表現にできている。

iPhone 16 Proのリリースの、本文最初の段落を「要約」ツールにかけたところ、以下になった。

iPhone 16 ProとPro Maxが発表された。A18 Proチップ搭載で、Apple Intelligenceによるパーソナルなインテリジェンスシステム、48MPカメラ、チタニウム製ボディ、最長バッテリー駆動時間を実現。

元が728字であることを考えると、非常に簡潔にまとまっている。

Vol.1と同様に、iPad mini A17 Proの発売を報じるNewsroomを「要点」にかけたところ、以下になった。

新しいiPad miniの発売:A17 Proチップを搭載し、Apple Intelligenceのために設計された新しいiPad miniが発売されました。
強化されたパフォーマンスと機能:A17 Proチップにより、プロ向けアプリを含むパフォーマンスが向上し、Apple Intelligenceに対応し、高速な写真編集とARアプリケーション体験が実現します。
接続性とカメラ:Wi-Fi 6Eと高速なUSB-Cポートにより、高速な接続性を提供します。12MP広角バックカメラはスマートHDR 4と機械学習ベースの書類スキャン機能を備えています。
価格とストレージオプション:新しいiPad miniは、78,800円(税込)から104,800円(税込)で、128GB、256GB、512GBのストレージ構成が用意されています。
Apple Pencil Proへの対応:新しいiPad miniはApple Pencil Proに対応し、先進的な機能をさらに強化します。
iPadOS 18による強化:iPadOS 18は、新しいiPad miniの機能を拡張し、iPadの体験を向上させます。

タイトルが太字になり、他の部分と明確に差をつけた上で、うまく項目分けして箇条書きに整理できている。

このように、作文ツールではうまく文章を調整することができ、且つ9つのプリセットから選ぶだけであるため簡単にどのような場面でも活用することができる。

さらに、最上部の「変更を説明」のテキストボックスにどのような文章に変えたいかを入力することで、この9つ以外への変更もできる。例として、Xにポストするシチュエーションを模して「バズる文章にするには?」という投げかけをしてみた。

Before
今日のおやつで夏みかんを大量に食べたところ、今になって歯がすごく染みるようになっててしまった…

After
夏みかんを大量に食べたら、歯がひどく染みるようになった!まさかこんなことになるとは… #夏みかん #歯染み #おやつ失敗

きちんとソーシャルメディアに投稿するということを汲み取り、簡潔でわかりやすく、さらにハッシュタグ(#)までつけてくれたため、文章を改善する案が欲しい場合などに活用できる。

また、最下段の「作文」ではChatGPTに文章を生成してもらえる。例えば、「1泊2日で旅行に行く時の荷物リスト」を作成するように頼んだところ、以下のような回答が得られた。

回答

1泊2日の旅行用荷物リスト

1. 必需品

  • 財布(現金、クレジットカード、身分証明書)
  • スマートフォンと充電器
  • 健康保険証のコピー
  • 鍵(家の鍵、車の鍵など)

2. 衣類

  • Tシャツまたはトップス(2枚)
  • パンツまたはスカート(1〜2枚)
  • 下着(2セット)
  • 靴下(2足)
  • パジャマまたは寝巻き
  • 天候に応じた羽織もの(ジャケット、カーディガンなど)

3. 洗面用具

  • 歯ブラシ・歯磨き粉
  • 洗顔料・化粧水・乳液
  • ヘアブラシまたはくし
  • シャンプー&ボディソープ(宿泊先にない場合)
  • タオル(宿泊先にない場合)

4. その他便利なアイテム

  • モバイルバッテリー
  • ハンカチ・ティッシュ
  • 雨具(折りたたみ傘、レインコートなど)
  • サングラス・帽子(晴天時)
  • 常備薬・必要な薬
  • ビニール袋(汚れた衣類用)

5. 旅行先に応じて

  • 水着(海や温泉へ行く場合)
  • カメラ(スマホ以外で撮影する場合)
  • 軽食・飲み物
  • 地図やガイドブック

このリストを参考に、旅行先や季節に合わせて調整してください!

このように、気軽にChatGPTなどにアイディアを求めて複数のアプリを横断せずにどのシチュエーションでも利用できるということも作文ツールの特徴だろう。

Image Playground

Image Playgroundは純正の画像生成ツールだ。Apple Intelligenceが有効化されると、Image Playground (ホーム画面の表示は“Playground”)のアプリがダウンロードされる。このアプリを開くことで、さまざまな画像を生成することができる。

このアプリでは、下側に「提案」の項目の中に多くのテーマ(画像のシチュエーション)・コスチューム・(人物に装着する)アクセサリ・場所が数多く用意されている。そして、「人を選択」から写真アプリに登録されているピープルが選べるほか、+ボタンから写真を選択、または写真を撮るを選択することでペット、自然、食べ物など現実の写真をImage Playgroundのテーマとすることができる。さらに、「画像の説明をここに追加」から言葉でシチュエーションを選ぶこともできる。

前述した項目内で選んだテーマはバブルとして上の生成ゾーンに移り、そのバブルに囲まれた中央に画像が生成される。そのスタイルは「アニメ」「イラスト」「スケッチ」から選ぶことができ、「アニメ」はピクサーのような画風、「イラスト」は手書き風なイメージ、「スケッチ」は白い背景に鉛筆だけで書いたようなテーマになる。

ここで生成された画像はImage Playgroundのライブラリに保存され、共有ボタンから写真に保存することができる。

Image Playgroundアプリ以外でも、メッセージアプリの「+」の中に「Image Playground」ツールが、インビテーションアプリの中の「背景を変更」の中に「Playground」ツールが、メモアプリ・フリーボード(Freeform)・iWork系アプリの添付メニュー中に「Image Playground」ツールが、iPad版Final Cut Proアプリの「読み込む…」の中に「Image Playground」ツールが、それぞれ追加されている。また、Mac版のFinal Cut ProとMotionもImage Playgroundツールが追加されたようだ。これらのツールを介すことで、Image Playgroundアプリを起動せずとも気軽にImage Playgroundの画像を活かすことができる。

「Image Playground」ツールの追加されたメモアプリ。(筆者撮影)

画像マジックワンド

画像マジックワンドは、純正メモアプリの中で書いたラフスケッチを清書してくれる機能だ。ペンを問わず、ラフに書いた絵を画像マジックワンド(ペンツールキットに並ぶカラフルなペン)で囲うことでImage Playgroundと同様の画像生成ができる。

前述したImage Playgroundのテーマに相当するものが手書きのイラストであるため、文字のみでその画像を説明する。ただし、キーボードで文字を入力しなくても、ラフスケッチと並べて手書きの文字を書いておいても、スケッチと離しておけばまとめて囲うだけで自動的にOCRされ、画像を生成できる。

ラフスケッチを清書する機能であるため、デフォルトのスタイルは「スケッチ」となっているが、Image Playgroundアプリと同様に+ボタンからアニメ・イラストのスタイルを選ぶこともできる。

「家と木」のスケッチ。(Vol.2より再掲)
「川と富士山」のスケッチ。(描き下ろし)

Genmoji

Genmojiは、オリジナルの絵文字を生成することができる機能だ。

絵文字キーボード(iPhoneならキーボードの「123」の右にあるキーボード)の検索窓の右側にGenmojiボタンが追加されている。このボタンを押すことでGenmojiが起動し、下の窓に作りたい絵文字を言葉で伝えることで、上側で次々に絵文字が生成されていく。生成された絵文字の候補を見てプロンプトを変えたい場合は、再度窓をタップし、言い回しを変えたり、「、」で要素を増やしたりすることで再生成できる。

生成されたGenmojiはiMessageといったメッセージアプリで他の絵文字と同様に文中に差し込める。

生成した「茶色い車」の絵文字。(Vol.2より再掲)

クリーンアップ

写真アプリの「編集」項目に追加された。クリーンアップは近年各スマホメーカーが実装している、写真の中に映り込んだ物を消す機能で、Googleの消しゴムマジック(Magic Eraser)が有名だろう。クリーンアップはすでにiOS 18.1の段階から日本語で使えるようになっており、読者の皆さんの中にも常用している方はいらっしゃるだろう。

Apple Intelligenceが自動的に認識した映り込みは候補としてあらかじめレインボーに光っており、それらはタップして選択するだけで消すことができる。それだけでなく、どの対象物でも指で囲う、あるいは塗りつぶすことで消すことができる。

リニア・鉄道館にて撮影。目立つ人物をきれいに消せている。

また、人の顔やR18に該当するものは囲うとモザイク処理がされる。そのため、ソーシャルメディアに投稿するために顔にモザイク処理をしたい、などと行った場合にも他のアプリへ行かず写真アプリだけで完結するのはわかりやすいだろう。

通知関係

通知要約

長い通知や、複数の通知が存在するグループチャットなどが自動的に要約される。1〜2行程度にまとまるため、簡潔に要点のみを掴むことができる。米国にて英語でリリース当初は誤要約がされると批判されていたが、現状日本語版でBeta版でそのような報告はされておらず、筆者が使った限りでは正確に要約されている印象を持つ。

なお、1文にまとまらない複数の話題がある場合は、セミコロン「;」を用いた区切り方がされているほか、通常の通知と差別化を図ろうとする意図があるため、斜体に対応しているSF Proで表記される英文については斜体で表記される。

また、Apple Watchの通知はiPhoneのものを反映する設定ができるため、その設定がされているiPhoneの通知はApple Watchでも要約されたバージョンが表示されるようになる。なおこれには、対応するiPhoneにペアリングしたwatchOS 11.1以上を搭載したApple Watchが必要だ。

優先度通知

通知の中でも、セキュリティ通知など重要度が高いものについては、優先度の高い通知としてレインボーに輝いて通知される。また、ロック画面では「優先度の高い通知」が一括りにされ、目立つように配信される。

ロック画面でレインボーに光る優先度の高い通知。その内容も要約されている。

「さまたげ低減」集中モード

前述した優先度通知に通知を絞り、作業に集中できるようにした集中モードである。英語名Reduce InterruptionsとしてiOS 18.1からされていたものである。しかし、当時は日本語の通知の重要度は計れなかったため通知が来ず、普段利用する日本語という言語に対応したことで本領を発揮する言語である。

この集中モードについて、設定アプリ内では以下のように記載されている。

“さまたげ低減”が有効になっていると、通知の優先度がインテリジェントに判断され、優先度の高いものは通知され、それ以外は通知されなくなります。ただし、明確に許可した通知は常に通知されます。また、明確に通知を拒否したものについても同じです。

そのため、集中モードの設定画面にて通知を許可、または拒否したものについては優先度にかかわらずそうなる。

この集中モードの設定についても、iPhoneとApple Watchは同期されているため、対応するiPhoneにペアリングしたwatchOS 11.1以上を搭載したApple Watchで設定できる。

メールの要約

メールについても、前述した通知の要約と同様に要約される。メールアプリの受信ボックスでは要約されたものが一覧に表示されるため、中身を開かずとも内容が一目で把握できるためわかりやすい。

また、開いてからも上部に「要約する」ボタンが表示される。これは、複数スレッド続いた内容について要約できるようになり、一つひとつ遡らなくてもどのような話をしていたかが一目でわかるようになっている。

Apple TVから来たメールを要約してもらった様子。

メッセージの要約

メッセージアプリで、長いメッセージが送信された場合、前述したメールと同様に一覧の画面に要約が表示される。ただし、メッセージは基本的に確認したら終わりのものであり、且つ同じスレッドに続けて打っていくものであるという特性上、一度表示されたものは一覧の画面でもフルテキストが表示される。

なお、ピン留めをしている人については一覧の画面でも長文が表示されることがないため、通知の要約はされないものだと思われる。

スマートリプライ

メッセージアプリなど、一部のアプリでは返信の提案機能である「スマートリプライ」に対応している。相手から送られてきたメッセージに対して、自動的に返信の候補がキーボードの変換が普段表示される場所に現れる。地味打つのが面倒な「了解!」などシチュエーションにあったものが簡単に打てるのは高評価だ。

記事の要約

Safariのリーダーモードを利用して記事を表示している場合、最上部に要約ツールが出現する。これにより、全文を読まなくても記事の概要を知れるため、大まかに内容を把握し、本文を読むべきかを把握することができる。

以前、Impress WatchがGPTエンジンやGeminiを用いて「AIで記事要約」を提供しており、筆者も愛用していた機能であったが、それに近しいことが純正機能としてどのサイトでもできるということになる。Impress Watchは最終的に月間10万〜15万程度利用されていたと発表しており、すでに多くの人が利用していた機能である。

なお、このSafariの要約は200-300字程度に収まっており、通常の文字サイズにしていた場合、iPhoneの1画面に収まるように設計されている。(比較対象として、前述のImpress Watchは400字程度の要約であった。)

写真の自然言語検索

自然言語への理解度が高まったことで、写真の検索でも自然な日本語で対応できるようになった。ピープルとも連携しているため「〇〇をしている誰々」と言ったようにピープルに追加で修飾ができるようになった。

従来のOCRと同様に、写真だけでなく写真アプリに保存されている動画のワンシーンであっても同様に検索ができる。そのため、写真で撮ったか動画で撮ったかが分からない場合でも検索ボックスに入れるだけで解決できるようになる。

メモリームービー

メモリームービーは、従来写真アプリのFor Youの欄に出てきていたムービーを、自分で作成できるようになる機能だ。従来の機能ではレコメンドされたものを受動的に見ることしかできなかったが、前述した写真の自然言語検索に対応し、写真に対する理解度が深まったことで、入力した説明に対して最適な写真やビデオを自動的に選択し、テーマを識別することでユニークなチャプターを持ったストーリーを構成できるようになった。

メモリームービー作成の様子。現在では日本語にも対応した。

ボイスメモのリアルタイムトランスクリプト

ボイスメモアプリにおいて、ついに日本語もリアルタイムトランスクリプトに対応した。Apple自身はApple Intelligenceのページにこの機能を入れていないためこの記事で紹介するか迷ったが、筆者の環境ではApple Intelligenceのオンオフにリアルタイムトランスクリプトの利用可否が連動していたためここで紹介する。

ボイスメモアプリで録音している画面で、左下にリアルタイムトランスクリプトのボタンが追加されている。ここのボタンを押すことで、ボイスメモで録音している内容が全て文字起こしされ、適度なところでこの記事のように行間を開けた改行がされる。録音が完了した後ももちろんトランスクリプトされた文章を表示することができ、文章を表示した画面では再生しているところが白くなり目立つ仕様になっている。文章をタップするとそこの録音にジャンプできるような仕組みにもなっている。

もちろん文章であるため選択もでき、前述した作文ツールと合わせて要約をすると議事録ツールのような使い方もでき、非常に便利だ。

リアルタイムとランスクリプト動作の様子。現在では日本語にも対応した。

総括

ついに満を辞して登場したApple Intelligence日本語版であったが、個人的にはすごく高評価であった。従来他社がやっていたような別アプリをダウンロードして、という形でないことによりどのアプリでも使える作文ツールなど、使うためのハードルが下がったことがその主な要因であろう。また、Visual Intelligenceのようにいつでも呼び出せる機能であったり、通知の要約など受動的に使える機能が豊富なこともその例に入る。

さらに、ボイスメモのリアルタイムトランスクリプトや写真のクリーンアップなど細かいところに手が届く機能が豊富なのもそのメリットだろう。実際、筆者は米国英語に端末を設定して長く使っているが、旅行に行った際の写真をXにポストする際にはクリーンアップを利用するなど非常にお世話になった機能が多かった。

今後もSiriのパーソナルコンテキスト認識などさらによくなるアップデートが控えているため、それにも期待しながらより進化したデバイスを楽しんでいきたい。

  1. https://machinelearning.apple.com/research/introducing-apple-foundation-models ↩︎
  2. https://www.apple.com/jp/apple-intelligence/ ↩︎
  3. https://security.apple.com/blog/private-cloud-compute/ ↩︎
  4. https://support.apple.com/ja-jp/guide/iphone/iphe3f499e0e/ ↩︎
  5. https://ar5iv.labs.arxiv.org/html/2407.21075 ↩︎
  6. https://podcasts.apple.com/jp/podcast/backspace-fm/id830709730?i=1000658973004 ↩︎
  7. https://machinelearning.apple.com/research/neural-engine-transformers ↩︎
  8. https://blog.google/products/pixel/google-tensor-g3-pixel-8/ ↩︎
  9. https://blogs.microsoft.com/blog/2024/05/20/introducing-copilot-pcs/ ↩︎
  10. https://machinelearning.apple.com/research/core-ml-on-device-llama ↩︎
  11. https://apple.fandom.com/wiki/Neural_Engine ↩︎
  12. https://machinelearning.apple.com/research/stable-diffusion-coreml-apple-silicon ↩︎
  13. https://www.macotakara.jp/news/entry-48531.html ↩︎
  14. https://www.apple.com/jp/newsroom/2025/02/apple-intelligence-expands-to-more-languages-and-regions-in-april/ ↩︎
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

Naoのアバター Nao 編集長

現在高校1年生で東京在住のApple信者で、ガジェットオタク。様々な観点からの情報を得ることで多角的にAppleのことを考える。普段からXにてAppleに関連したことを中心に情報を発信する。現在はM1チップモデルのiPad Proを所有し、ほぼ全ての作業をこなすiPad愛好家。

コメント

コメントする

目次