ウィリアム・ギャラガー
· 1分で読めます
アップルは主要なCSAM提案をキャンセルしたが、子供に送られるヌードを自動的にブロックする機能などを導入した。
児童保護団体は、英国でアップルのプラットフォーム上で発見された虐待画像の件数が、アップルが全世界で報告した件数よりも多いと発表した。
2022年、Appleは児童性的虐待素材(CSAM)検出の計画を断念しました。これは、最終的に全ユーザーの監視に利用されるという疑惑を受けてのことでした。同社は、子供に送信されるヌード写真にぼかしを入れる「コミュニケーションセーフティ」と呼ばれる一連の機能に切り替えました。
ガーディアン紙によると、英国の全国児童虐待防止協会(NSPCC)は、AppleがiCloud、FaceTime、iMessageなどのサービスにおけるCSAM(性的虐待)の件数を大幅に過小評価していると指摘している。米国のすべてのテクノロジー企業は、CSAMの検出事例を国立行方不明・搾取児童センター(NCMEC)に報告することが義務付けられており、2023年にはAppleは267件の報告を行った。
これらの報告書は、世界規模でのCSAM検出を目的としているとされていました。しかし、英国のNSPCCは独自に、2022年4月から2023年3月の間に、イングランドとウェールズだけで337件の犯罪にAppleが関与していたことを明らかにしました。
「Appleのサービス上で発生している英国の児童虐待画像犯罪の件数と、同社が当局に報告している世界全体の虐待コンテンツ報告件数がほとんど無視できるほど少ないことの間には、懸念すべき乖離がある」と、NSPCCの児童安全オンライン政策責任者リチャード・コラード氏は述べた。「すべてのテクノロジー企業が安全性に投資し、英国におけるオンライン安全法の施行に備えるべきであるにもかかわらず、Appleは児童性的虐待への取り組みにおいて、明らかに多くの同業他社に遅れをとっている。」
Appleと比較すると、Googleは2023年に1,470,958件以上の症例を報告しました。同じ期間に、MetaはFacebookで17,838,422件、Instagramで11,430,007件の症例を報告しました。
Appleは暗号化されたサービスであるため、ユーザーのiMessageの内容を閲覧できません。しかし、NCMECはMetaのWhatsAppも暗号化されていると指摘しています。しかし、Metaは2023年に約1,389,618件のCSAM疑い事例を報告しました。
この申し立てに対して、Appleはガーディアン紙に対し、ユーザーのプライバシー全般に関する過去の声明のみを参照したと報じられている。
報道によると、一部の児童虐待専門家はAIが生成するCSAM画像について懸念を抱いている。近々登場するApple Intelligenceは、フォトリアリスティックな画像を生成することはないだろう。