マイク・ピーターソン
· 1分で読めます
クレジット: Apple
AppleのCSAM検出システムをめぐる論争が続く中、連邦当局によると、サンフランシスコ・ベイエリアの医師がAppleのiCloudアカウントに児童ポルノを所持していた容疑で起訴された。
米国司法省は木曜日、アンドリュー・モリック(58歳)のiCloudアカウントに、少なくとも2,000枚の児童の性的搾取を目的とした画像と動画が保存されていたと発表した。モリックはベイエリアの複数の医療機関に所属する腫瘍専門医であり、カリフォルニア大学サンフランシスコ校(UCSF)医学部の准教授でもある。
さらに、最近公開された連邦訴状( KRON4経由) によると、彼は画像の1つをソーシャルメディアアプリKikにアップロードしたという。
Appleは最近、iCloudに保存されている児童性的虐待コンテンツ(CSAM)を検出し、国立行方不明・被搾取児童センター(NCMEC)に報告するシステムを導入する計画を発表しました。このシステムは、ユーザーのプライバシー保護を目的とした暗号化技術を採用しており、デジタル権利およびサイバーセキュリティのコミュニティで物議を醸しています。
このシステムは、ユーザーのiCloudアカウントに保存されている実際の画像をスキャンするわけではありません。代わりに、iCloudに保存されている画像のハッシュと、少なくとも2つの児童安全団体から提供された既知のCSAMハッシュを照合します。また、誤検知を軽減するために、CSAMが30個以上という閾値も設けられています。
Epic Games対Appleの裁判中に公開された文書によると、Appleの不正対策責任者であるエリック・フリードマン氏は、クパチーノに本社を置くテクノロジー大手のAppleのサービスがCSAMを配布するための「最適なプラットフォーム」であると考えていた。フリードマン氏は、この事実はAppleのユーザープライバシーに対する強い姿勢によるものだと説明した。
反発にもかかわらず、AppleはCSAM検出システムの導入計画を推し進めています。iCloudアカウントにCSAMが蓄積されていないユーザーのプライバシーは、プラットフォームによって保護されると主張しています。