ウェズリー・ヒリアード
· 2分で読めます
Siriは2026年にLLMバックエンドを導入する可能性がある
🤔 可能性あり
新たな噂によると、AppleはChatGPTやAIライバルと同様の大規模な言語モデルバックエンドを使用することで、Siriをより会話的にしたいと考えているが、その準備は2026年まで整わないという。
Appleが人工知能(AI)に取り組むという噂が最初に流れた時、何度も繰り返されたのが、Appleはチャットボットをリリースしないというものでした。ユーザーがChatGPTと同じようにSiriと会話するという考えは、ローンチ時には考慮されなかったようです。
それ以来、多くのことが変わり、ブルームバーグの報道によると、AppleはLLMベースのSiriの開発を開始しており、2026年初頭にiOS 19でデビューする可能性があるとのことだ。この報道は、 SiriがAppleのAI機能とより密接に結びつくようになることを示唆する、AppleAIテストツールに関するAppleInsiderの以前の独占記事と一致している。
新しいSiriは双方向の会話に対応します。これを、Siriへの入力操作のアップグレードと組み合わせれば、Siriチャットボットが形作られていくのは容易に想像できます。
AppleはiOS 18.1でAI(人工知能)がデビューして以来、Siriに本格的なApple Intelligence機能を連携させていません。新しいアニメーションが追加され、解釈の誤りも減りましたが、ユーザーやインストール済みアプリに関する情報は依然として限られています。
ユーザーにとって、Siriはほとんど変わっていません。Siri単体ではあまり役に立たず、Google検索やChatGPTといった他のツールへの接続手段として機能し続けています。家電の操作、タイマーの設定、通話といった機能も、これまでと同じ仕組みで機能しています。
機械学習からLLMアプローチへの移行は、Siriに多くの可能性と複雑さをもたらしますが、同時に幻覚の可能性も高めます。AppleのAIへのアプローチは確かに幻覚を軽減するのに役立ちますが、完全に排除できるわけではありません。
iOS 18 では、よりインタラクティブでプロアクティブな Siri の基礎がすでに整っています。新しいアプリ インテント システムにより、アプリ機能の一部とデバイス上のユーザー データが Siri に公開され、優れたコンテキスト認識が提供されます。Apple の空港で母親を迎えに行く例を考えてみてください。
Apple Intelligenceは、Appleが便利なツールを提供するためにOSごとに分割したモデルですが、統一された中心的なインターフェースが欠けています。いわゆる「Siri LLM」が、Apple Intelligenceの顔として、その統一化の役割を果たす可能性があります。
iOS 19のアップデートは、6月のWWDC 2025で発表される予定です。しかし、噂が正しければ、Siri LLMのリリースは2026年初頭まで待たなければなりません。