マイキー・キャンベル
· 2分で読めます
金曜日の報道によると、Appleは、顔認識や音声認識などの人工知能タスクを処理できる、iPhoneなどのデバイスに統合するための専用チップを開発しているとのことだ。
社内では「Apple Neural Engine」と呼ばれているこのチップは、AmazonのAlexaやGoogle Assistantといった製品によって過去1年間で急成長を遂げたAI市場において、Appleが飛躍的な成長を目指す試みです。事情に詳しい情報筋によると、このチップは人間の知能が必要となる複雑なタスクを処理できるように設計されていると、ブルームバーグは報じています。
AppleデバイスはすでにSiriバーチャルアシスタントや基本的なコンピュータービジョン機能といったAI技術を搭載していますが、専用チップの搭載によりユーザーエクスペリエンスはさらに向上します。さらに、既存のAシリーズSoCからAI関連の計算処理をオフロードすることで、iPhoneやiPadなどのポータブルデバイスのバッテリー駆動時間も向上する可能性があります。もしこれが実現すれば、GoogleのTensor Processing Unit(TPU)など、競合メーカーが導入しているチップと同様の戦略となるでしょう。
AppleはプロトタイプのiPhoneでApple Neural Engineをテストしており、写真アプリの顔認識、音声認識、iOSの予測キーボードといったコアアプリケーションをこのチップにオフロードすることを検討していると報じられている。情報筋によると、AppleはTouch IDなどの他の主要ハードウェア機能のAPIと同様に、このAIチップへのサードパーティ開発者のアクセスを開放する計画だという。
このチップが今年後半に発売されるiPhoneの改訂版に間に合うかどうかは不明だが、今日の報道では、Appleが来月のWWDCでApple Neural Engineへの取り組みを発表する可能性があると推測している。
AppleがAI、そして関連する拡張現実(AR)技術に関心を持っていることは周知の事実です。CEOのティム・クック氏は、AppleブランドのARソリューションが間もなく登場することを何度も示唆してきました。しかし、同社はAIに関する野心については、これまであまり積極的に語ってきませんでした。
しかし、その秘密のベールは徐々に剥がれつつある。昨年のカンファレンスで、アップルの人工知能研究ディレクター、ラス・サラクディノフ氏は、AI研究に携わる従業員は、現在、研究成果を発表し、その分野の学者と交流することが認められていると述べた。多くの研究者が同僚と研究について議論することを好むため、この企業方針の変更は、優秀な人材を確保するためのものだと考える者もいる。
IP禁輸措置が解除されてわずか数週間後、Appleは合成画像を使って物体を認識するコンピュータービジョンアルゴリズムを訓練する高度な方法に焦点を当てた初のAI研究論文を発表した。
Appleは、買収や人材採用を通じて、人工知能(AI)と拡張現実(AR)チームを積極的に構築してきました。例えば昨年8月には、機械学習スタートアップのTuriを約2億ドルで買収しました。この買収は、SiriやiOS、macOS、tvOS、CarPlayの一部といった自社技術を強化するために、別の機械学習スタートアップのPerceptioと自然言語処理企業のVocalIQを買収してから1年も経たないうちに行われました。
今年初め、AppleはPartnership for AIの創設メンバーに加わり、Siriの共同設立者でAppleのAI専門家であるトム・グルーバー氏が同グループの取締役に任命された。
直近では、Appleは2月にシアトルオフィスの拡張計画を発表しました。シアトルオフィスは同社のAI研究開発チームの拠点として機能しています。また、横浜の研究開発施設では「全く異なる」AI技術の開発に取り組んでいます。