OpenAIが「AGI」と名付けた最新の目標は、同社があらゆる優れたものを盗み、AIの粗悪品に変えてしまうようなことをしない限り達成できない。少なくとも、OpenAIが米国政府に提出した最新の報告書はそう示唆している。
この提案は、OpenAIと連邦政府が、OpenAIが州法の適用を回避できるようなパートナーシップを結ぶことを示唆しているようだ。そうでなければ、米国はAI競争で敗北するだろうと主張している。
そしてその主張を証明するために、OpenAI は、米国政府のお気に入りの悪魔である中国との競争に負けるだろうと述べている。
1 つの箇条書きは次のとおりです。
米国のようにAIの学習を法令で明確に保護していない民主主義国家、あるいはEUのように著作権者向けのオプトアウト制度を通じて学習データの量を削減している民主主義国家によって生み出される著作権裁定取引から利益を得る能力。中国は、自国のAIシステムの学習において、これらの国の知的財産権制度を尊重する可能性は低いものの、既に同様のデータにアクセスしている可能性が高いため、米国のAI研究所は比較不利な立場に置かれ、元の知的財産権作成者に対する保護はほとんど得られない。
このようなパートナーシップは、OpenAIを州レベルで提案されている781件を超えるAI関連法案から保護することになります。AI企業は、州法の適用除外を求めるために、このようなパートナーシップに自発的に参加することも可能です。
この提案はまた、中国やそれに類似する民主主義的価値観に沿わない国々が、米国で開発されたAIから遮断されることを示唆している。これは、AppleとアリババがApple Intelligenceを中国に導入するための共同事業が、必要に応じて中止されることを意味する。
また、米国人に販売される製品や米国のAI企業が使用する製品に中国製の機器を使用することを全面的に禁止するよう求めている。
次の提案はインフラ整備に焦点を当てています。OpenAIは、米国内での建設に対して(OpenAIに利益をもたらす)政府のインセンティブを創出したいと考えています。
さらに、OpenAIは現在アナログのままである政府情報をすべてデジタル化したいと考えています。そうでなければ、ChatGPTの学習に必要な情報をクロールすることができません。
最後に、この提案は、米国政府が国家安全保障業務や機密扱いの核関連業務を含むあらゆる分野にAIを導入する必要があることを示唆しています。
OpenAIの狂気
AppleInsiderに勤める、米海軍の核訓練を受けたスタッフの一人が、このことを私に指摘し、クスクス笑いました。私も同じく核訓練を受けたスタッフの一人なので、思わず笑ってしまいました。色々な理由から、それは不可能なのです。
AIはツールであり、人類の歴史における大惨事ではない
原子力海軍の父、ハイマン・G・リッコーバー提督は、今日でも使用されている機械・電気システムだけでなく、方針や手順の構築にも貢献しました。継続的な訓練に加えて、彼の最も重要な信条の一つは、すべては人間によって行われるべきだということでした。
冷戦の最盛期にソ連が年間約1隻の潜水艦を事故で失った理由の一つは、工学作業の自動化である。
システムから人間を排除すると、説明責任の連鎖も失われ始めます。そして政府は、特に原子力や兵器を扱う際には、説明責任を果たしていかなければなりません。
それはさておき、OpenAIが提示した提案には信じられないほど多くの矛盾点があります。中国を悪魔のように扱いながら、米国のAI政策を中国の政策に基づいて構築することを提案するのは、偽善的で危険です。
OpenAIは、AIが私たちの未来をどう形作るのか、SF小説のような突飛な構想を共有するにとどまり、具体的な説明をまだ行っていない。同社は知覚力と思考力を持つコンピューターを開発しているわけではないし、労働力を代替するわけでもなく、社会を根本的に変革するわけでもない。
すごくいいハンマーだけど、それだけだよ。人間には道具が必要なんだ。道具があれば作業が楽になるけど、道具が人間の代わりになれるなんてありえない。
もちろん、AIをめぐるイノベーション、一部のシステムの効率性向上、そしてテクノロジーの必然的な進歩によって、一部の仕事は時代遅れになるでしょう。しかし、それはOpenAIが唱え続ける「仕事の必要性をなくす」というディストピア的な約束とは異なります。
DeepseekはOpenAIの収益にとって存在の危機であり、民主主義にとってではない
この提案の行間を読んでみると、次のようなことが書かれています。
OpenAIは、DeepSeekが以前の主張を覆す、はるかに効率的なモデルをリリースしたことに驚愕した。そこで、アメリカ第一主義を掲げる新政権の誕生を受け、OpenAIはアメリカ例外主義の名の下に規制当局を説得し、法律を無視させようと画策している。
この文書は、DeepSeekが法律を無視することを許す権威主義体制が、同社の成功を後押しすると述べている。そのため、OpenAIは米国が権威主義体制のように行動し、法律に邪魔されることなく競争できることを保証することを求めている。
AIには知能の問題がある
もちろん、この提案はOpenAIがいつものように自己陶酔に満ちている。彼らは、いわゆる「人工知能」技術が私たちをどこへ導くのかという、自らのナンセンスを信じているようだ。
誰かがOpenAIに、このような幻覚では米国政府から同情は得られないと警告すべきだ
「AI」という言葉が、これまで約束されていたような知覚力を持つコンピュータではないことを示唆するために、目標設定を調整する必要がありました。今、私たちがターゲットとすべき業界用語は他に二つあります。「汎用人工知能」と「超人工知能」です。
誤解のないよう明確に言っておきますが、これらはどれも真の知能ではありません。あなたのデバイスは電卓と同じように「思考」しているわけではありません。単に、以前のものよりはるかに優れた進化を遂げただけです。
かつてのコンピュータは、より二元的なものでした。与えられた入力に対して、あらかじめ決められた出力が与えられていました。しかし、分岐によって、与えられた入力に対して、条件に応じて複数の出力が発生するようになりました。
それが機械学習の現代的な定義に辿り着くまで拡大しました。この技術は依然としてかなり決定論的であり、与えられた入力に対して同じ出力が得られると期待されることを意味します。
その次のステップは生成技術でした。生成技術は機械学習よりもさらに大規模なデータセットを使用し、出力は決定論的ではありません。アルゴリズムはデータのパターンに基づいて、出力がどうなるかを予測しようとします。
だからこそ、私たちは今でもAIを皮肉を込めて「派手なオートコンプリート」と呼ぶのです。テキスト生成は、次に続く文字が何になるかを予測するだけです。画像や動画の生成も同じですが、ピクセルやフレームを使っています。
人間の知能が飼い主に犬種について尋ね、人工知能がぎこちなく携帯電話を飼い主に向ける
「推論」モデルは推論するわけではありません。実際、推論することはできません。特定のケースに対応するために微調整されているだけで、そのタスクにおいてより優れた性能を発揮します。
OpenAIは、AGI(汎用人工知能)が人間の認知能力を超えるモデルである次なるフロンティアになると予測しています。OpenAIは、このモデルこそが、人間がAIに置き換えられることで世界的な経済大混乱を引き起こすと警告しています。
現実的に言えば、現在開発中の技術では不可能です。OpenAIがAGIと呼ぶ何かをリリースするかもしれませんが、それは彼らが約束した通りのものではないでしょう。
そして、現在の技術では、知覚力のある機械を作ることは不可能だ。
それでも、OpenAI が全能のドルを追い求めてインターネットの基盤を焼き尽くすのを止めることはできないだろう。
このすべてにおけるAppleの役割
一方、AppleはAI競争で大きく遅れをとっていると誰もが言う。Appleは知覚力を持つコンピューターや民主主義の崩壊について語っていないため、この分野では大きな敗者だと。
たとえOpenAIがAI企業向けの政府との何らかのパートナーシップを獲得できたとしても、Appleが参加するかどうかは疑わしい。同社はデータへのアクセス不足に悩まされておらず、必要なデータはすべてパブリックウェブから収集している可能性が高い。
OpenAIが既存のスロップジェネレーターを超えるものを開発しようと試みて失敗している一方で、AppleはApple Intelligenceの改良を続けていくでしょう。プライバシー保護、セキュリティ保護、そしてデバイス上で動作するモデルは、ほとんどのユーザーがAIの用途すら知らないこの分野の未来を担うものとなるでしょう。
AppleのAIへの取り組みは退屈で、人類の終焉を約束するものではない。主要機能のリリースを延期した後、6月に開催されるWWDC 2025でiOS 19がAIにどう対応するのか、興味深いところだ。