Apple の最近の機械学習アップデートでは、iOS 26 がユーザーのテキストや写真、許可なしにトレーニングされた、より高速で安全な AI をどのように導入するかが明らかになりました。
AppleはiOS 26の基盤モデルを刷新し、より高速で安全、そしてプライバシーを強化しました。Genmoji、手書きツール、画像認識といった機能を支えるシステムは、データ品質、文化認識、そしてユーザー保護をより重視してトレーニングされています。
同社は最近、Apple Intelligenceを支えるモデルのトレーニングとアップグレード方法について概説した詳細なMachine Learning Journalレポートを発表しました。人工知能トレーニングに関する詳細な情報と仕様については、このレポートをご覧ください。
これらは、iOS 26 におけるプライバシー、データ ソース、責任ある AI の動作に焦点を当てたレポートからの主要なポイントです。
ApplebotがよりスマートなAIを実現する
Appleのトレーニングパイプラインは、同社のウェブクローラーであるApplebotから始まります。Applebotは、許可されたサイトからデータを収集し、インターネット上の複数の言語のページを取り込み、検索します。しかし、見つけた情報すべてをスクレイピングするわけではありません。
Appleは報告書の中で、「私たちは引き続き、モデルの事前学習データの大部分をApplebotがクロールしたウェブコンテンツから取得しています。これらのデータは数千億ページに及び、幅広い言語、ロケール、トピックをカバーしています」と述べています。
Applebotは、クリーンで構造化されたウェブページを優先し、言語検出やトピック分析などのシグナルを用いてジャンクページをフィルタリングします。また、ページ全体の読み込みをシミュレートし、JavaScriptを実行することで、複雑なウェブサイトにも対応します。
これにより、インタラクティブなデザインを採用した最新のページからコンテンツを収集できます。目標は、ユーザーの個人情報に一切触れることなく、有用で高品質なコンテンツを収集することです。
これは、AI開発者が直面するデータ課題に対するAppleの答えです。Appleは、コストを惜しまずにより多くのデータを収集するのではなく、よりクリーンで公開されている情報源から、よりスマートなデータセットを構築することに注力しています。
Appleにとって、見つけられる限りのデータをすべて収集したわけではないにもかかわらず、それを公表する前にウェブをスクレイピングしてしまったという状況は依然として難しい。ウェブサイト側はスクレイピングの停止を要請できるが、Applebotによる最初のクロールは既に完了しており、元に戻すことはできない。
そうは言っても、Apple は AI とそのトレーニングに対して倫理的なアプローチを取っている数少ない企業のひとつです。
安全と文化的背景に関するトレーニング
データが収集されると、Appleは段階的にモデルをトレーニングします。まず、モデルが様々な状況にどのように対応するかを示す教師あり学習を行います。次に、強化学習を用いて、実際の人間がモデルの応答を評価することで、結果を微調整します。
「AppleのAI原則に従い、モデルが有益で、敬意を持って、そして安全に動作するように微調整しています」と同社は述べた。「これには、指示の調整、人間からのフィードバックによる強化学習、そして様々な安全性と責任の軸にわたる評価が含まれます。」
Appleはまた、ヘイトスピーチ、誤情報、ステレオタイプといったカテゴリーを識別する安全システムも構築しました。これらのモデルは、必要に応じてリクエストを拒否し、ユーザーの居住地に応じて口調を調整するように訓練されています。
これには、適切な地域用語の使用や、現地の状況において不自然または無神経に感じられる可能性のあるコンテンツの回避が含まれます。この追加トレーニングにより、システムは現実世界でより信頼性の高い動作を行えるようになります。
ユーザーにとってこれが何を意味するか
Apple Intelligenceを搭載した機能により、応答速度が向上し、より多くの言語に対応し、複雑なプロンプトでも正確に入力できるようになりました。例えば、Genmojiは複数の言語が混在する場合でも、不適切な結果を回避する方法を知っています。
Apple Intelligenceは最近のデバイスで利用可能
ライティングツールは、話題から逸れることなく具体的な指示に従うことができます。画像パーサーは、デザインが雑然としていても、チラシの写真をカレンダーイベントに変換できます。
これらすべては、Appleがユーザーの入力内容や共有内容を把握することなく実行されます。モデルがクラウドの支援を必要とする場合、Private Cloud Computeが、Appleがアクセスできないサーバー上の暗号化されたメモリ内でリクエストを処理します。
ユーザーにとって大きな変化は、Apple Intelligenceがコントロールを犠牲にすることなく、より便利に感じられるようになったことです。開発者にとって、新しいFoundation Modelsフレームワークは、構造化された出力、より安全なツール統合、そしてSwiftネイティブな設計を提供します。
開発者アクセスと30億のパラメータが重要な理由
AppleはWWDC 2025において、開発者が新しいFoundation Modelsフレームワークを通じてデバイス上の基盤モデルを利用できるようになったことを発表しました。これにより、サードパーティ製アプリはiOS 26全体でApple Intelligenceを支えるモデルに直接アクセスできるようになります。
このデバイス搭載モデルは約30億のパラメータを持ち、スマートフォンやタブレットに完全に実装された言語モデルとしては最大級の規模を誇ります。これはGoogleのGeminiNano2(約32.5億)とほぼ同規模で、MicrosoftのPhi3mini(約38億)とほぼ同等です。
Appleはモデルのサイズで競合他社に匹敵しているだけではありません。30億パラメータのモデルは、2ビット量子化とKVキャッシュ共有を用いてApple Silicon向けに最適化されています。これにより、クラウドに依存せずにパフォーマンスと効率性において優位性を獲得しています。
開発者は、より迅速な成果、より低いコスト、そしてより厳重なユーザープライバシーを実現できます。外部APIやバックグラウンドネットワーク呼び出しに頼る代わりに、アプリは強力なAIをローカルかつプライベートに統合できるようになります。