Appleは他の企業ほど人工知能(AI)機能の導入に力を入れておらず、その取り組みをめぐる騒動もそれほど大きくないかもしれません。それでも、iOSとmacOSには既に多くの優れた機能が散りばめられています。その詳細をご紹介します。
Appleは「人工知能」やAIという単語をわざわざ意味深げに口にすることはないが、この技術を避けているわけではない。機械学習は、AppleのAIへの取り組みの総称となっている。
Apple は iOS と macOS で人工知能と機械学習をいくつかの注目すべき方法で使用しています。
機械学習とは何ですか?
AppleがiOSやその他のプラットフォームで機械学習を使い始めてから数年が経ちました。最初の実用例はiPhoneのソフトウェアキーボードでした。
Appleは予測機械学習を活用し、ユーザーがどの文字を入力しているかを把握することで精度を向上させました。このアルゴリズムは、ユーザーが次に入力する単語を予測することも目指していました。
機械学習(ML)は、明示的な指示なしに学習・適応できるシステムです。データ内のパターンを識別し、具体的な結果を提供するためによく使用されます。
この技術は人工知能の人気のサブフィールドとなっています。Appleも数年前からこれらの機能を取り入れています。
機械学習を導入した場所
2023年、AppleはiOSのほぼ隅々まで機械学習を活用しています。写真の検索、Siriとのやり取り、イベントの提案の表示など、様々な場面で機械学習が活用されています。
デバイス上の機械学習システムは、データのセキュリティとプライバシーに関してエンドユーザーにメリットをもたらします。これにより、Appleは重要な情報をクラウドに依存せずにデバイス上に保存することができます。
iPhoneの機械学習やその他の主要な自動化プロセスを強化するために、AppleはNeural Engineを開発しました。Neural EngineはiPhoneのA11 Bionicプロセッサと同時に導入され、一部のカメラ機能とFace IDの強化に貢献しました。
シリ
Siriは厳密には人工知能ではありませんが、その機能にはAIシステムに依存しています。Siriはデバイスに搭載されたディープニューラルネットワーク(DNN)と機械学習を活用して、質問を解析し、応答を提供します。
Siriが挨拶する
Siriは、簡単な質問から内蔵アプリの操作まで、音声とテキストによる様々な操作に対応しています。ユーザーはSiriに音楽の再生、タイマーの設定、天気の確認など、様々な操作を頼むことができます。
TrueDepthカメラとFace ID
AppleはiPhone Xの発売と同時に、TrueDepthカメラとFace IDを導入しました。このハードウェアシステムは、3万個の赤外線ドットを投影してユーザーの顔の深度マップを作成できます。ドット投影は2D赤外線スキャンと組み合わせられています。
その情報はデバイス上に保存され、iPhone は機械学習と DNN を使用して、デバイスのロックを解除するときにユーザーの顔のスキャンをすべて解析します。
写真
これはiOSだけでなく、macOSとiPadOSでも標準の写真アプリが利用できるという点でも同様です。このアプリは、写真や動画のキュレーションなど、主要な組み込み機能をサポートするために、複数の機械学習アルゴリズムを活用しています。
機械学習を活用したAppleの写真アプリ
機械学習により、画像内の顔認識が可能になりました。「People」アルバムでは、特定された人物を検索したり、画像をキュレーションしたりできます。
機械学習を活用したデバイス上のナレッジグラフは、ユーザーが頻繁に訪れる場所、関連する人物、イベントなどを学習できます。収集されたデータを使用して、「Memories(思い出)」と呼ばれる写真や動画のコレクションを自動的に作成できます。
カメラアプリ
AppleはiPhoneユーザーのカメラ体験の向上に定期的に取り組んでおり、その目標の一部はソフトウェアと機械学習によって達成されています。
AppleのDeep Fusionは写真のディテールと低ノイズを最適化します
Neural Engineは、Deep Fusionなどの機能でカメラの性能を向上させます。iPhone 11で導入され、それ以降のiPhoneにも搭載されています。
Deep Fusionはニューラル画像処理の一種です。写真撮影時に、カメラは合計9枚の写真を撮影します。シャッターボタンが押される直前に4枚ずつ2セット撮影し、その後、シャッターボタンが押された瞬間に1枚の長めの露出写真を撮影します。
ニューラルエンジンを搭載した機械学習プロセスが起動し、可能な限り最高のショットを見つけ出します。その結果、シャープネスと色の正確さが向上します。
ポートレートモードも機械学習を活用しています。ハイエンドのiPhoneモデルは、ユーザーと背景を分離するためにハードウェア要素に依存していますが、2020年のiPhone SEは、適切なポートレートぼかし効果を得るために機械学習のみに依存しています。
カレンダー
機械学習アルゴリズムは、顧客の一般的なタスクの自動化にも役立ちます。MLにより、ユーザーが興味を持ちそうなイベントに関するスマートな提案が可能になります。
例えば、誰かが日付を含んだiMessageを送信したり、何かをする提案をしたりした場合、iOSはカレンダーアプリに追加するイベントを提案してくれます。数回タップするだけでイベントをアプリに追加できるので、簡単に覚えられます。
iOS 17 にはさらに多くの機械学習ベースの機能が搭載される予定です。
標準キーボードとiOS 17
Appleが機械学習を初めて活用した事例の1つはキーボードとオートコレクト機能で、iOS 17で改善される予定だ。Appleは2023年に、標準キーボードで「トランスフォーマー言語モデル」を活用し、単語予測を大幅に強化すると発表している。
Transformer言語モデルは、ユーザーの入力に合わせて予測精度を向上させる機械学習システムです。ソフトウェアキーボードは、罵り言葉を含む頻繁に入力される単語も学習します。
新しいジャーナルアプリとiOS 17
Appleは、WWDC 2023でiOS 17を発表した際に、まったく新しいジャーナルアプリを導入しました。この新しいアプリにより、ユーザーは過去の出来事を振り返り、独自のアプリで好きなだけ日記をつけることができるようになります。
Appleの標準ジャーナルアプリ
Appleは、ユーザーが投稿する際に、機械学習を活用してアイデアを提案しています。これらの提案は、写真アプリ、最近のアクティビティ、最近のワークアウト、人物、場所など、さまざまなリソースから抽出されます。
この機能は、iOS 17.1 のリリースと同時に導入される予定です。
Appleは機械学習を活用してディクテーションと言語翻訳も改善する予定です。
注目すべきiOS以外
watchOS には機械学習も搭載されており、睡眠、手洗い、心臓の健康などを追跡する機能が備わっています。
前述の通り、Appleは長年にわたり機械学習を活用してきました。つまり、技術的には長年にわたり人工知能を活用してきたということです。
AppleがGoogleやMicrosoftに遅れをとっていると考える人たちは、chatGPTなどの類似システムしか検討していません。2023年のAIに関する世間の認識の最前線は、MicrosoftのAI搭載BingとGoogleのBardが占めています。
Appleは当面の間、機械学習を活用し続けるだろう。今後、システムを実装し、ユーザー機能を強化するための新たな方法を見つけていくだろう。
Appleが独自のchatGPTのようなエクスペリエンスを開発しているという噂もあり、これは将来的にSiriを大きく強化する可能性があります。2023年2月、Appleは人工知能(AI)に特化してサミットを開催しました。これは、同社がこの技術から距離を置くつもりがないことを示す明確な兆候です。
Apple Carのレンダリング
Appleは、iOS 17で導入される自動修正機能のTransformer言語モデルなどのシステムを活用し、キーボード以外の機能も拡張することができます。Siriは、Appleの機械学習への継続的な取り組みがユーザーにとって価値をもたらす可能性のある、ほんの一例です。
Appleの人工知能(AI)への取り組みは、Apple Carにつながる可能性が高い。同社が実際に車両を発売するかどうかに関わらず、自動車向けに設計された自動運転システムには脳が必要となる。