iOS 26はモデルコンテキストプロトコルによりAIが大幅に強化される可能性がある

iOS 26はモデルコンテキストプロトコルによりAIが大幅に強化される可能性がある

iPhone はまもなく Model Context Protocol のサポートを受ける可能性があり、これによりサードパーティの AI ツールが Apple 製品でこれまで以上に便利になる可能性があります。

月曜日、AppleはiOS 26.1の最初の開発者向けベータ版をリリースしました。ソフトウェアのコードから、Appleがモデルコンテキストプロトコル(MCP)のサポート実装に取り​​組んでいることが示唆されています。

簡単に言えば、MCP により、AI システムは各データ ソースのカスタム実装に依存するのではなく、ユニバーサル プロトコルを通じて必要なデータにアクセスし、対話できるようになります。

9to5macが指摘しているように、モデルコンテキストプロトコル(MCP)はAnthropicによって提案されましたが、その後、OpenAIやGoogleといった大手AI企業によって利用されてきました。iOS 26.1開発者向けベータ版の最初のリリースに基づくと、AppleはMCPサポートを実装する最新のテクノロジー企業となる見込みです。

アプリインテント、Siri、MCP

Appleはモデルコンテキストプロトコルのサポートを導入することで、サードパーティのAIシステムがiPhone、iPad、Macアプリと連携することを可能にします。これがどのように機能するかについては、AppleのApp Intentsシステムが貴重な知見を提供しています。

App Intentsを使用すると、Siriはアプリケーション内でアクションを実行できます。同様の機能はAppleのショートカットアプリでも利用可能です。Appleはシステムの改善に取り組んでおり、これらの改善により、待望のSiriの大幅な改良が実現すると期待されています。

Appleが公開した開発者向けドキュメントによると、開発者は画面上のコンテンツをSiriとApple Intelligenceで利用できるようにするためのアプリインテントシステムをテストできるとのことです。簡単に言えば、これはユーザーが画面上でアクティブなあらゆる情報をAIに送信し、解析できるようになることを意味します。

Siriは将来、画面上のウェブページに関する質問に答えたり、写真を編集してユーザーのリクエストに応じて送信したりできるようになるかもしれません。また、Instagramの投稿にコメントを付けたり、オンラインショッピングカートに商品を追加したりといった機能も、ディスプレイに触れることなく行えるようになるかもしれません。

Appleが計画通りモデルコンテキストプロトコル(Model Context Protocol)を実装すれば、サードパーティ製ツールも同様にアプリケーションと連携できるようになる。理論的には、ユーザーはOpenAIのChatGPTにiPhone、iPad、Macのアプリ内アクションを実行させることができるようになる。

しかし、MCPにはもう一つの潜在的な用途があります。MCPによってSiriがWebからより多くのデータを収集できるようになる可能性もあるのです。以前の噂では、Siriの検索機能はAppleのモデルによって基盤上で処理されると示唆されていました。

AppleのSiriの改良計画

2025年9月の噂によると、AppleはApple Foundation Modelsをベースにしたウェブ検索機能を導入する予定とのことです。Google Geminiを呼び出してSiriの情報収集・要約機能を強化するとされています。

暗いタブレット画面に、ブラウザ、ドキュメント リーダーなど、Siri のドメインとアクションを示す表と、カラフルなアプリ アイコンのサイドバーが表示されます。

Siri は 2026 年初頭にアプリ インテント ベースのアップグレードを受ける予定です。

新しいSiriは、プランナー、検索オペレータ、サマライザという3つのコアコンポーネントを持つと言われています。AppleのFoundation Modelは、デバイス上の個人データを扱う必要があるため、プランナーと検索オペレータの役割を果たします。

ウェブからデータを取得し、照合するのはGoogleのモデルに委ねられる可能性があります。Googleは、プライベートクラウドコンピューティングで実行され、ウェブサマライザーツールとして機能するGeminiのバージョンを提供していると報じられています。

iOSでのMCPサポートにより、理論上はGoogle GeminiはiPhone上で検索結果の提供だけでなく、より多くの機能を実現できるようになる可能性があります。サードパーティ製アプリ間でのアプリ内アクションの提供も、実質的には一つの可能​​性です。

Appleは以前、Siriが高度なアプリ内タスクを実行できるようになると約束していましたが、計画されていたアップグレードは延期されています。サードパーティ製のツールに同じ機能を持たせることは、一時的な解決策に過ぎず、消費者の選択の自由度を高めることにもなります。

同時に、MCPはSiriがGoogle GeminiなどのAI製品に依存せずにWebから情報を取得できるようにする可能性があります。これは、MCPがAIシステムが様々なソースからデータにアクセスできるようにするプロトコルだからです。

カフェ グレネルでザック ウィンゲートと会うことに関する通知と、7 月 3 日の制作追いつきのカレンダー イベントが表示されているスマートフォンの画面。

MCP により、Siri やサードパーティの AI が iOS 上で高度なアプリ内アクションを実行できるようになる可能性があります。

現在、Siriは情報が必要な場合にのみ、プライバシーを保護した基本的なウェブ検索を実行できます。より高度なタスクは、ユーザーの同意を得た上で、ChatGPTに引き継がれます。

結局のところ、Appleは模倣製品を作るのではなく、AI企業との協業を目指しているようだ。このアプローチは間違いなくユニークであり、ユーザーに複数のAIオプションを提供しながら、有意義な開発を促進する可能性がある。

改良された Siri は、おそらく iOS 26.4 アップデートとともに 2025 年春にデビューする予定です。