アンバー・ニーリー
· 2分で読めます
画像クレジット: ブルック・アンダーソン (@MovementPhotog on X)
アップルパークの抗議者たちは同社が最近放棄した子供の安全対策を復活させるよう要求している。
月曜日の朝、30人近い抗議者がアップルパーク周辺に集まり、「なぜ児童虐待をなくさないのか?」「虐待のない未来を築こう」と書かれたプラカードを掲げた。
Heat Initiativeとして知られるこのグループは、iPhone開発者に児童性的虐待素材(CSAM)検出ツールを復活させるよう要求している。
「ここにいたいわけではないのですが、そうしなければならないと感じています」と、Heat InitiativeのCEO、サラ・ガードナー氏はシリコンバレーに語った。「人々の注目を集め、Appleが自社のプラットフォーム上での児童保護にもっと力を入れるようになるには、これこそ必要なのです」
— heatinitiative (@heatinitiative) 2024年6月10日本日、私たちは数十人の被害者、支援者、親、コミュニティと若者のリーダー、支援者とともに #WWDC に参加し、Apple に対し、自社のプラットフォーム上で児童性的虐待の蔓延を今すぐ阻止するよう求めました。
私たちは虐待のない未来を築かなければなりません。pic.twitter.com/hky9eh3dFD
Appleは2021年に、iCloudの写真と既存のCSAM画像データベースを照合できる新機能を導入する予定でした。一致が見つかった場合、Appleは画像を審査し、関連する発見事項をNCMECに報告します。NCMECは、全米の法執行機関と連携し、児童虐待資料の通報センターとして機能しています。
複数の団体から大きな反発を受けた後、同社は同年12月中旬にプログラムを一時停止し、翌年12月には最終的に計画を完全に放棄した。
Appleの廃止されたCSAM検出ツール
理由を問われると、アップルは、このプログラムは「データ窃盗犯が見つけて悪用するための新たな脅威ベクトルを生み出す」ものであり、こうしたベクトルによってセキュリティが危険にさらされることを懸念していると答えた。アップルはセキュリティ問題を非常に真剣に受け止めていると自負している。
AppleはCSAM検出システムを公式に導入したことはないが、メッセージ、AirDrop、FaceTimeビデオメッセージなどのアプリでヌードを含むコンテンツを受信したり送信しようとしたりした場合に子供に警告する機能を導入した。
しかし、抗議者たちは、この制度はCSAMを所持している捕食者に責任を負わせるのに十分ではないと感じており、むしろ以前廃止された制度を復活させることを望んでいる。
「これらの変更を実施するために、アップルと対話しようとしている」と、抗議活動に参加したクリスティン・アルマジャン氏は月曜日に述べた。「彼らは、これらの措置が必要なものだとは思っていない」
AppleとHeat Initiativeが対立するのは今回が初めてではない。2023年には、この団体はAppleに対して数百万ドル規模のキャンペーンを展開した。