ホワイトハウスは、安全で透明性のあるAIの開発に向けた自主的な取り組みを推進するため、7社のトップを集めた会議を開いたが、その中にAppleは含まれていなかった。その理由は不明だ。
政権は最近、AI(人工知能)がもたらすリスクを管理するため、大手AI企業7社から自主的なコミットメントを確保したと発表しました。この取り組みは、AI技術の開発における安全性、セキュリティ、そして信頼の原則を強調するものです。
コミットメントを表明した企業には、Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAIなどが含まれます。興味深いことに、AppleはAIと機械学習に取り組んでいるにもかかわらず、今回の協議には参加していません。
Appleがこの取り組みに参加していないことで、同社のAI安全性に関する姿勢や、AI技術に関連するリスク管理への取り組みに疑問が生じている。
AIへの取り組みと取り組み
これらの企業が行う主要なコミットメントの一つは、AI製品を一般公開する前に、社内および社外の厳格なセキュリティテストを実施することです。これらのテストは、バイオセキュリティ、サイバーセキュリティ、そしてより広範な社会的影響といった重大なAIリスクから製品を守ることを目的としています。
さらに、これらの企業はAIリスク管理に関する重要な情報を共有する責任を負っています。この情報共有は業界内に限らず、政府、市民社会、そして学術界にも広がっていくでしょう。
目標は、安全に関するベストプラクティスを確立し、安全対策を回避しようとする試みに関する情報を提供し、技術的な協力を促進することです。
セキュリティ面では、これらの企業はサイバーセキュリティ対策に多額の投資を行っています。特に、AIシステムの重要な構成要素である、独自仕様かつ未公開のAIモデルの重みの保護に重点を置いています。
両社は、これらのモデルの重みは、潜在的なセキュリティリスクを考慮した上で、意図した場合にのみ公開することに合意しました。さらに、AIシステムの脆弱性に関する第三者による発見と報告を促進し、残存する問題が迅速に特定され、修正されることを保証します。
バイデン大統領はAI企業と安全基準や取り組みについて協議した。出典:ケニー・ホルストン/ニューヨーク・タイムズ
これらの企業は、人々の信頼を得るために、透かしシステムなど、ユーザーがAI生成コンテンツを識別できる堅牢な技術的メカニズムを開発しています。このアプローチにより、AIを活用した創造性を育みながら、詐欺や欺瞞のリスクを最小限に抑えることができます。
さらに、これらの企業は、AI が公平性や偏見に与える影響などの分野に対処するために、セキュリティや社会的リスクを網羅した AI システムに関する公開報告を行うことを約束しています。
研究も重要な焦点です。各社は、AIシステムがもたらす可能性のある社会的リスクに関する研究を優先しており、これには有害な偏見や差別の回避、ユーザーのプライバシー保護などの取り組みが含まれます。
また、がん予防から気候変動緩和まで、社会の最も差し迫った課題のいくつかに AI を活用して取り組むことにも取り組んでいます。
政府はまた、責任あるAIイノベーションを促進するための大統領令を策定し、超党派の法案成立を目指しています。オーストラリア、ブラジル、カナダ、フランス、ドイツ、インド、日本、英国など、多くの国々と協議を行い、AIの開発と利用のための強固な国際的枠組みの構築に取り組んでいます。