Apple Intelligenceは、連邦政府による新しい曖昧な人工知能の安全策に従うだろう

Apple Intelligenceは、連邦政府による新しい曖昧な人工知能の安全策に従うだろう

Mike Wuertheleのプロフィール写真マイク・ワーテル

· 2分で読めます

Apple Intelligenceの今後の拡張には、より多くのAIパートナーや有料サブスクリプションが含まれる可能性がある

アップルは他の大手テクノロジー企業とともに、人工知能モデルの開発における公平性と、開発の進行中に起こりうるセキュリティやプライバシーの問題の監視を求める、自主的で無力な取り組みに同意した。

ホワイトハウスは金曜日の朝の発表で、Appleがバイデン政権が策定した一連の自主的な人工知能(AI)安全対策を遵守することに同意したと明言した。Alphabet、Amazon、Meta、Microsoft、OpenAIなど、他の大手テクノロジー企業も既にこの取り組みに署名している。

現状では、ガイドラインは特定の行為を厳しく制限するものではありません。Appleが原則的に同意した大統領令には、6つの主要な原則が含まれています。

  • 最も強力なAIシステムの開発者に、安全性テストの結果やその他の重要な情報を米国政府と共有することを義務付ける
  • AI システムの安全性、セキュリティ、信頼性を確保するための標準、ツール、テストを開発する
  • AIを使って危険な生物学的材料を設計するリスクから身を守る
  • AI生成コンテンツの検出と公式コンテンツの認証に関する基準とベストプラクティスを確立し、AIを利用した詐欺や欺瞞からアメリカ国民を保護する
  • 重要なソフトウェアの脆弱性を発見し修正するためのAIツールを開発するための高度なサイバーセキュリティプログラムを確立する
  • AIと安全保障に関するさらなる行動を指示する国家安全保障覚書の策定を命じる

この大統領令では、企業はコンプライアンステストの結果を相互に、そして連邦政府と共有することが求められています。また、この命令では自主的なセキュリティリスク評価の実施も求められており、その結果も広く共有することが求められています。

現時点では、違反に対する罰則はなく、強制執行の枠組みも存在しません。連邦政府による調達の対象となるためには、AIシステムは提案依頼書(RFP)への提出前にテストを受ける必要があります。

命令の条件の遵守状況は監視されておらず、実際に法的に執行可能なガイドラインが適用されるかどうかも不明です。また、将来の政権下でこの合意がどうなるかも不明です。

AI開発の規制に向けた超党派の取り組みはこれまで行われてきましたが、当初は口先だけの対応にとどまり、その後は進展や議論はほとんどありませんでした。議論が再開されるのは近い将来ではなく、ましてや2024年11月の選挙前になるのは確実です。

Appleのコミットメントに先立つ10月の大統領令は、AI開発のための安全な枠組みを策定するための2023年11月の多国間イニシアチブよりも前に発令された。この2つの取り組みがどのように連携するのか、あるいはそもそも連携しているのかさえも、まだ明らかではない。

ホワイトハウスは7月26日にこの件についてさらなる説明会を開く予定だ。