マイク・ピーターソン
· 2分で読めます
クレジット: ウィキメディアコモンズ
Appleのプライバシー責任者であるErik Neuenschwander氏は、同社のCSAMスキャンシステムに組み込まれ、他の目的で使用されるのを防ぐいくつかの予測について詳細を述べ、iCloudフォトがオフになっている場合はシステムがハッシュを実行しないことも明らかにした。
同社が他の新しいチャイルドセーフティツールと共に発表したCSAM検出システムは、物議を醸しています。これに対し、Appleはユーザーのプライバシーを危険にさらすことなくCSAMをスキャンする方法について、多くの詳細を明らかにしています。
Appleのプライバシー責任者であるErik Neuenschwander氏は、 TechCrunchとのインタビューで、このシステムは当初から政府の権限の濫用や乱用を防ぐために設計されたと語った。
第一に、この制度は米国でのみ適用され、米国では憲法修正第4条によってすでに違法な捜索や押収が禁止されている。
「まず、これは米国のiCloudアカウントのみを対象に開始されるため、そのように述べる場合、仮説では米国以外の一般的な国や国名が挙げられているようだ」とノイエンシュワンダー氏は述べた。「したがって、米国の法律では政府にこうした機能を提供していないことに人々は同意しているようだ」
しかし、それ以上に、システムにはガードレールが組み込まれています。例えば、CSAMのタグ付けにシステムが使用するハッシュリストはオペレーティングシステムに組み込まれており、iOSのアップデートなしではApple側から更新できません。また、Appleはデータベースのアップデートをグローバル規模でリリースする必要があり、特定のユーザーをターゲットに特定のアップデートを提供することはできません。
また、このシステムは既知のCSAMのコレクションのみにタグを付けるようになっています。1枚の画像では何もトリガーされません。さらに、全米行方不明・被搾取児童センター(NCICE)が提供するデータベースに登録されていない画像もタグ付けされません。
Appleは手動による審査プロセスも導入しています。iCloudアカウントが違法なCSAM素材の収集でフラグ付けされた場合、Appleのチームがそのフラグを審査し、外部機関に警告する前に、実際に正しい一致であることを確認します。
「そのため、この仮説には多くのハードルを乗り越える必要がある。その中には、既知のCSAMのような違法ではない資料を参照するようにAppleに社内プロセスを変更させることも含まれるが、米国では人々がそのような要求を行える根拠があるとは考えられない」とノイエンシュワンダー氏は述べた。
さらに、ノイエンシュヴァンダー氏は、ユーザーにはまだ選択の余地があると付け加えた。このシステムは、ユーザーがiCloudフォトを有効にしている場合にのみ機能する。Appleのプライバシー責任者である同氏は、ユーザーがこのシステムに満足できない場合は「iCloudフォトを使用しない選択もできる」と述べた。iCloudフォトが有効になっていない場合、「システムのどの部分も機能しない」という。
「ユーザーがiCloudフォトを使用していない場合、NeuralHashは実行されず、バウチャーも生成されません。CSAM検出は、ニューラルハッシュをオペレーティングシステムイメージに含まれる既知のCSAMハッシュのデータベースと比較するものです」とApple幹部は述べた。「iCloudフォトを使用していない場合、この部分はもちろん、安全性バウチャーの作成やiCloudフォトへのバウチャーのアップロードといった追加機能も機能しません。」
AppleのCSAM機能はネット上で騒動を巻き起こしていますが、同社はこのシステムがCSAMの検出以外の目的に利用されることはないと否定しています。Appleは、政府機関によるシステムの改変やCSAM以外の用途への利用を一切拒否すると明言しています。