初歩的なCSAMシステムを開発した研究者は、AppleのCSAMは危険だと述べている

初歩的なCSAMシステムを開発した研究者は、AppleのCSAMは危険だと述べている

マイク・ピーターソンのプロフィール写真マイク・ピーターソン

· 2分で読めます

クレジット: Apple

プリンストン大学の研究者2人は、AppleのCSAM検出システムは危険だと主張している。彼らは同様の技術を調査して警告したが、2つのシステムは全く同一ではないからだ。

ジョナサン・メイヤー氏とアヌナイ・クルシュレスタ氏は最近、ワシントン・ポスト紙に寄稿し、AppleのCSAM検出システムに関する懸念を詳細に述べた。セキュリティ研究者の2人は、2年前に同様のシステムを構築したが、セキュリティとプライバシーの落とし穴に気づき、この技術に警告を発したと記している。

例えば、メイヤー氏とクルシュレスタ氏は、このサービスが権威主義的な政府による監視に容易に転用される可能性があると主張している。また、このシステムは誤検知に悩まされる可能性があり、悪意のある人物が無実のユーザーを偽旗攻撃の対象にしてしまう危険性もあると指摘している。

しかし、2人のセキュリティ研究者が開発したシステムには、Appleが独自のCSAM検出技術に組み込んだのと同じプライバシー保護やセキュリティ保護は組み込まれていない。

さらに、政府が反体制派の発言で満ちたデータベースを簡単に差し替えられるという懸念は現実には起こりません。Appleのデータベースには、全く異なる管轄区域にある少なくとも2つの児童保護団体から提供されたハッシュが含まれています。これにより、単一の政府が児童保護団体を腐敗させることを防ぐことができます。

さらに、このような計画には、Appleの人間による監査担当者も協力者として関与する必要がある。Appleによると、フラグが付けられたアカウントは人間の監査担当者によって誤検知がないかチェックされているという。AppleのチームがCSAMに該当しないコンテンツとしてフラグが付けられたアカウントを発見した場合、Appleは何か問題があると疑い、それらの組織からのデータベースの提供を停止するとしている。

Appleのシステムでは、誤検知も極めて稀です。同社によると、アカウントが誤ってフラグ付けされる確率は1兆分の1です。繰り返しますが、たとえアカウントが誤ってフラグ付けされたとしても、児童安全機関への報告前にCSAMの存在を確認する必要があります。

悪意のある人物が無実の人物にCSAMを送信することに対する保護策も講じられています。Appleのシステムは、iCloud内のCSAMのコレクションのみを検出します。ユーザーが自らCSAMをiCloudに保存するか、高度な脅威アクターによってAppleアカウントがハッキングされない限り、このような詐欺が成功する可能性はほとんどありません。

さらに、ユーザーは、デバイスにローカルに保存されている既知のCSAMハッシュのデータベースが、Appleが管理するデータベースと一致していることを確認できるようになります。このデータベースは特定の国に在住するすべてのユーザーに適用され、特定の国にユーザーを限定することはできません。

Appleのシステムは、クライアント側のスキャンとデバイス上のローカルインテリジェンスにも依存しています。CSAMにも閾値があり、ユーザーがフラグを立てられるには、その閾値を超える必要があります。

言い換えれば、2人のセキュリティ研究者はAppleのシステムにわずかに似ているだけのシステムを構築したということです。「ミッションクリープ」やプライバシーについては正当な議論もあるかもしれませんが、Appleのシステムは少なくともこれらの懸念の一部に対処するためにゼロから構築されたのです。