AppleはCSAMの流通防止に十分な対策を講じていないとして非難されている

AppleはCSAMの流通防止に十分な対策を講じていないとして非難されている

ウェズリー・ヒリアードのプロフィール写真ウェズリー・ヒリアード

· 1分で読めます

iMessageは写真のヌードについて未成年者に警告できる

アップルとマイクロソフトは、児童性的虐待コンテンツの配布を検出または防止するための方法の詳細を公開したが、オーストラリアの規制当局は両社の取り組みが不十分であると判断した。

オーストラリアのeセーフティコミッショナーは、Apple、Facebook、Snapchat、Microsoftなどの大手テクノロジー企業に対し、自社プラットフォームにおける児童虐待と搾取の防止策の詳細を明らかにするよう要求した。この要求は8月30日に発せられ、企業は29日以内に回答しなければ罰金を科せられることとなった。

AppleとMicrosoftは、今回の調査で最初に精査を受けた企業であり、ロイター通信によると、オーストラリアの規制当局は両社の取り組みが不十分であると判断した。両社は、iCloudやOneDrive上のユーザーファイルに対してCSAMの積極的なスキャンを行っておらず、FaceTimeやSkypeにもアルゴリズムによる検出対策は導入されていない。

ジュリー・インマン・グラント委員は、同社の対応を「憂慮すべき」と評し、「児童虐待コンテンツやグルーミングを検知するための広く利用可能な技術の活用が明らかに不十分かつ一貫性に欠けている」と述べた。

Appleは最近、iCloudにアップロードされる写真をCSAMスキャンする計画を断念したと発表しました。ユーザーがエンドツーエンドで完全に暗号化された写真ストレージとバックアップにアクセスできるようになったため、この方法はますます効果が低下していたでしょう。

Appleは、保存または配信されている既存のコンテンツをスキャンする代わりに、時間の経過とともに進化する別のアプローチを採用することを決定しました。現在、子供が使用するデバイスでは、iMessageで送信された写真にヌードが検出された場合に子供に警告するように保護者が設定できます。

Appleはこの機能を拡張し、動画内のコンテンツを検出し、FaceTimeなどのAppleアプリに検出・警告システムを組み込む予定です。最終的には、開発者が自社のアプリでも検出システムを利用できるAPIを開発したいと考えています。

iCloudにおけるCSAM検出機能の廃止は、プライバシー擁護団体から歓迎されている。一方で、児童安全団体、法執行機関、政府関係者からは非難されている。