招待者限定の会議で、Apple社内のAI、機械学習研究の現状が詳細に説明される

招待者限定の会議で、Apple社内のAI、機械学習研究の現状が詳細に説明される

Mike Wuerthele's profile pictureマイク・ワーテル

· 2分で読めます

火曜日に開催されたニューラル情報処理システム会議の招待者限定の会合で、Appleの機械学習責任者は、同社の人工知能開発の具体的な目標を詳しく説明し、競合他社に対して優位に立っていると考えている点を詳しく説明し、Appleの研究プロセスをめったに見られない形で公開した。

Quartzに提供されたプレゼンテーションスライドによると、Appleの人工知能研究における包括的なテーマは、他の企業とほぼ同じで、画像認識、デジタルアシスタント向けの音声認識、そしてユーザー行動予測です。Appleは現在、macOSとiOSのSiriでこれらの技術をすべて活用しています。

しかし、機械学習責任者のラス・サラクディノフ氏のプレゼンテーションでは、Appleが自動運転車に関連する車両やシステムに取り組んでいることには特に触れず、レーザーを使って遠くにある物体を測定して識別する「LiDARの体積検出」についても説明された。

LIDARは、対象物にレーザー光を照射することで距離を測定する測量手法であり、主に自動車の誘導システムに利用されています。また、その中核技術は、幅広い科学分野の地図作成にも広く利用されています。

Appleは会議で、同社のGPUベースの画像認識技術は、Googleのシステムの2倍の毎秒3,000枚の写真を処理できると主張した。これはGoogleの主張する毎秒1,500枚を上回る処理能力だ。Appleのシステムはより効率的で、サラクディノフ氏は、このアレイはGoogleが使用しているGPUの3分の1で構成されており、両社ともAmazonのクラウドコンピューティングサービスを利用していると指摘した。

Appleの取り組みをさらに深く掘り下げてみると、例えば「親と教師のニューラルネットワーク」が挙げられます。これは、同量のデータを持つ大規模なニューラルネットワークを、iPhoneのような小型デバイスに転送することで、意思決定の質を損なうことなく実現するものです。この機能が実装されれば、大規模な人工知能システムの一部が、より低消費電力のモバイルデバイス上で意思決定を行うことが可能になります。つまり、関連データを大規模な処理ネットワークに送り込み、デバイスがクエリへの応答を待つという状況に陥る必要がなくなるのです。

アップルは火曜日に行われた同社の人工知能への注力に関する会議に先立ち、同社の科学者らが初めて大規模な研究コミュニティーと論文を発表し、協力することを許可すると公式に発表した。

クック氏はまた最近、Appleの横浜にある研究施設が、AppleのSiri音声アシスタントとはまったく異なる機械学習の「ディープエンジニアリング」を誇ることになると明らかにした。

Appleはまた、「プロジェクト・タイタン」自動車全体計画から派生した技術として、自動運転車システムにもこの技術を活用すると噂されている。