OpenAIの新しいオフラインツールを使ってMacでChatGPTスタイルのAIを実行

OpenAIの新しいオフラインツールを使ってMacでChatGPTスタイルのAIを実行

OpenAI の 2 つの新しいオープンウェイト モデルのうちの 1 つは、サブスクリプションなしで ChatGPT のような推論を Mac に導入できます。

8月5日、OpenAIは重みが公開された2つの新しい大規模言語モデル、gpt-oss-20bとgpt-oss-120bをリリースしました。これらは、2019年のGPT-2以来、同社が重みを公開した初のモデルとなります。

どちらもApache 2.0ライセンスの下で公開されており、商用利用と改変が自由に行えます。OpenAIのCEOであるサム・アルトマン氏は、この小型モデルを現在入手可能なオープンモデルの中で最も優れた、そして最も使いやすいモデルだと評しました。

アルトマン氏はまた、新モデルはGPT-4o-miniやo3-miniに匹敵する推論性能を実現すると述べた。各モデルはOpenAI独自のラインナップの一部である。

この動きは、オープンソースAIコミュニティからの圧力の高まりを受けてのものであり、特にMetaのLLaMA 3や中国のDeepSeekといったモデルが注目を集め続けていることが背景にあります。OpenAIがこれらのモデルを今公開するという決定は、こうした流れの変化に対応したものと考えられます。

システム要件とMacの互換性

OpenAIによると、200億パラメータの小規模モデルは、少なくとも16ギガバイトの統合メモリまたはVRAMを搭載したデバイスで良好に動作します。つまり、M2 Pro、M3 Max、またはそれ以上の構成を備えたハイエンドのApple Silicon Macでも実行可能です。

同社は、20億パラメータモデルの主要なユースケースとしてApple Siliconのサポートを強調しています。より大規模な1200億パラメータモデルとなると、話は別です。

OpenAIは1200億パラメータのモデルに60GBから80GBのメモリを推奨していますが、これはほとんどのコンシューマー向けノートパソコンやデスクトップパソコンの許容範囲をはるかに超えています。現実的にこれを処理できるのは、強力なGPUワークステーションかクラウド環境だけです。

20bモデルは、多くのApple製品やPCで問題なく動作します。120bモデルは、特殊なハードウェアを利用できる研究者やエンジニアに適しています。

パフォーマンスと開発者向けオプション

gpt-ossモデルは、思考連鎖推論、関数呼び出し、コード実行といった最新機能をサポートしています。開発者はこれらのモデルを微調整し、その上にツールを構築し、インターネット接続なしで実行することができます。

gpt-oss-120b モデルに関する情報を表示する Web サイトのスクリーンショット。モデルのフォローと使用のオプション、ダウンロード統計、テキスト生成機能も表示されます。

HuggingFaceのOpenAIモデル

このカスタマイズにより、プライバシー重視のアプリ、オフラインアシスタント、カスタムAIワークフローなど、新たな可能性が開かれます。OpenAIは、複数のツールキットにリファレンス実装を提供しています。

開発者は、PyTorch、Transformers、Triton、vLLM、AppleのMetal Performance Shadersを使用してモデルを実行できます。また、OllamaやLM Studioなどのサードパーティ製ツールでもサポートされており、モデルのダウンロード、量子化、インターフェースの設定が簡素化されます。

Macユーザーは、AppleのMetalシステムとApple Siliconに搭載された共有メモリを使用して、20ビットモデルをローカルで実行できます。このモデルは特別な4ビット形式で圧縮されているため、結果の劣化なく、高速化とメモリ使用量の削減を実現しています。

セットアップにはまだ少し技術的な作業が必要ですが、LM StudioやOllamaなどのツールを使えば、そのプロセスが楽になります。OpenAIは、開発者が作業を開始できるよう、詳細なモデルカードとサンプルプロンプトも公開しています。

AI開発者とAppleユーザーにとって何を意味するのか

OpenAIがオープンウェイトモデルに回帰したことは、大きな転換と言えるでしょう。20bモデルは、そのサイズに対して優れたパフォーマンスを発揮し、MacBookやApple Silicon搭載デスクトップなど、幅広いローカルハードウェアで使用できます。

20bモデルでは、開発者はAPIアクセス料金を支払ったりクラウドサーバーに依存したりすることなく、ローカルAIツールをより自由に構築できます。一方、120bモデルはハイエンドで何ができるかを示していますが、ほとんどのユーザーにとって実用的ではありません。

これは日常的なツールというよりは、研究ベンチマークとして役立つかもしれません。それでも、許容ライセンスの下で利用可能になったことは、透明性とAIのアクセシビリティにとって大きな一歩です。

Appleユーザーにとって、今回のリリースは強力なローカルAIの実現可能性を垣間見せるものとなるでしょう。AppleがmacOSとiOSにおけるデバイス内インテリジェンスの実現に向けて注力する中、OpenAIの動きはローカルファーストの機械学習というより広範なトレンドに合致するものです。