アップル、iCloud上の児童虐待コンテンツを無視する言い訳としてプライバシーを悪用したと非難される

アップル、iCloud上の児童虐待コンテンツを無視する言い訳としてプライバシーを悪用したと非難される

ウィリアム・ギャラガーのプロフィール写真ウィリアム・ギャラガー

· 1分で読めます

アップルは主要なCSAM提案をキャンセルしたが、子供に送られるヌードを自動的にブロックする機能などを導入した。

提案されている集団訴訟では、Apple が iCloud 上の児童性的虐待資料の保管と iMessage を通じた児童性的虐待の疑いを阻止することを避けるために、プライバシーを主張して隠れていると主張している。

英国のある団体が、Apple社が児童性的虐待コンテンツ(CSAM)の事件を大幅に過少報告していると主張したことを受けて、新たに提起された集団訴訟では、同社が責任を「プライバシー洗浄」していると主張している。

カリフォルニア州北部地区連邦地方裁判所に、氏名非公表の9歳の原告を代表して新たな訴状が提出された。訴状にはジェーン・ドウとのみ記載されており、訴状によると、彼女はiPadでCSAMを作成し、アップロードするよう強要されたとされている。

「9歳のジェーン・ドウがクリスマスにiPadをもらったとき、加害者がそれを使って児童性的虐待コンテンツ(CSAM)を作成しiCloudにアップロードするよう強要するとは想像もしていなかった」と訴状には記されている。

この訴訟は陪審裁判を求めており、集団訴訟の対象者一人につき500万ドルを超える損害賠償を求めている。

また、Apple に対して以下のことを強制するよう求めている。

  • iCloud上のCSAMの保存と配布から子供を保護するための対策を講じる
  • 簡単にアクセスできる報告書を作成するための対策を採用する
  • 四半期ごとの第三者監視に準拠する

「この訴訟は、アップルが『プライバシー』を勝手に利用していると主張している」と訴状には記されている。「時には『プライバシー』を街の看板や巧妙なコマーシャルに大きく掲げ、また時にはプライバシーを正当化の根拠として利用し、ドウや他の子供たちのプライバシーがアップルのiCloud上でCSAMが蔓延することで完全に踏みにじられているのを見て見ぬふりをしている」

訴訟で告発された少女は、当初SnapChatで連絡を受けていた。その後、会話はiMessageに移行し、動画を撮影するよう求められた。

訴訟ではスナップチャットは共同被告として名前が挙がっていない。

Appleはより厳格なCSAM検出ツールの導入を試みた。しかし、同じツールが一部またはすべてのユーザーを監視することになるという疑惑を受け、2022年にその導入を断念した。