ウィリアム・ギャラガー
· 2分で読めます
新たな研究論文によると、Apple は他の企業が無視していると思われる技術的な AI 問題、具体的には iPhone のようなメモリの少ないデバイスで大規模な言語モジュールを使用する方法に対する実用的なソリューションを持っていることが示されています。
Appleは生成AI分野で業界に遅れをとっているとの主張にもかかわらず、ChatGPTのクローンを急いでリリースするのではなく、長期的な計画を継続していることを2度にわたって明らかにしました。最初の兆候は、人間のデジタルアバターを生成する「HUGS」と呼ばれるAIシステムを提案した研究論文でした。
現在、 VentureBeatが発見した2 番目の研究論文では、iPhone などの RAM が限られたデバイスに巨大な大規模言語モジュール (LLM) を展開するためのソリューションが提案されています。
この新しい論文は「LLM in a flash: 限られたメモリで効率的な大規模言語モデル推論」と題されています。Apple社によると、この論文は「モデルパラメータをフラッシュメモリに保存し、必要に応じてDRAMに取り込むことで、利用可能なDRAM容量を超えるLLMを効率的に実行するという課題に取り組んでいる」とのことです。
したがって、LLM 全体をデバイス上に保存する必要がありますが、RAM 内での作業は、フラッシュ メモリを一種の仮想メモリとして使用することで実行できます。これは、メモリを大量に消費するタスクを macOS で実行する方法と似ています。
「このフラッシュメモリを活用したフレームワークでは、2つの主要な技術を導入しています」と研究論文には記されている。「まず、『ウィンドウ化』は、以前に活性化されたニューロンを再利用することでデータ転送を戦略的に削減します。…次に、『行-列バンドリング』は、フラッシュメモリのシーケンシャルデータアクセスの強みに合わせて調整され、フラッシュメモリから読み取るデータチャンクのサイズを増加させます。」
これが最終的に意味するのは、メモリやストレージ容量が限られたデバイスでも、実質的にあらゆるサイズのLLMを展開できるということです。つまり、Appleはより多くのデバイスで、ひいてはより多くの方法でAI機能を活用できるということです。
フラッシュメモリからのLLMの高速読み取りを示す研究論文の詳細
「本研究の実用的な成果は注目に値する」と研究論文は主張している。「利用可能なDRAMの最大2倍のサイズのLLMを実行できることを実証し、CPUにおける従来のロード方法と比較して推論速度を4~5倍、GPUにおいては20~25倍高速化しました。」
「この画期的な進歩は、リソースが限られた環境で高度な LLM を導入する上で特に重要であり、それによって LLM の適用性とアクセシビリティが拡大します」と続けます。
AppleはHUGS論文と同様に、この研究結果を公表しました。つまり、Appleは後れを取るどころか、業界全体のAI機能の向上に取り組んでいるということです。
これは、Apple のユーザーベースを考えれば、AI がさらに普及するにつれて同社が最も利益を得るだろうと考えるアナリストの考えと一致している。