WhatsApp、子どもの安全対策ツールをめぐりAppleを非難

WhatsApp、子どもの安全対策ツールをめぐりAppleを非難

AppleInsiderスタッフのプロフィール写真AppleInsiderスタッフ

· 2分で読めます

WhatsAppの最高責任者ウィル・キャスカート氏は金曜日、ユーザーの写真をスキャンして不快な画像を見つける新しい子ども向け安全機能を導入するというアップルの計画を批判した。これは、このシステムがユーザーのプライバシーを無視していると主張する技術専門家からの一連の批判の最新のものだ。

キャスカート氏は一連のツイートで自身の立場を述べ、児童性的虐待コンテンツ(CSAM)に対抗するアップルの計画は間違った方向への一歩であり、「世界中の人々のプライバシーにとって後退」を意味すると述べた。

「AppleはCSAM対策に長年取り組んできたが、彼らのアプローチは世界に非常に懸念される問題をもたらす」とキャスカート氏は述べた。「共有されたコンテンツを簡単に報告できるようにすることに注力する代わりに、Appleは携帯電話にあるプライベートな写真をすべてスキャンできるソフトウェアを開発してしまった。誰にも共有していない写真までスキャンできるのだ。これはプライバシーではない」

木曜日に発表されたアップルのツールは、iCloud にアップロードされた画像のハッシュを全米行方不明・被搾取児童センター (NCMEC) やその他の児童安全団体が提供する既知のデータベースと比較することで、CSAM を識別し報告するのに役立つという。

iCloudフォトに写真をアップロードする前に、ハッシュが生成され、データベースと照合されます。Appleはこれを判読不能なハッシュ値に変換し、ユーザーのデバイスに保存します。この処理によって暗号化された安全性バウチャーが生成され、写真と共にiCloudに送信されます。しきい値共有と呼ばれる技術を用いることで、iCloudアカウントが事前に定義されたしきい値を超えない限り、Appleはバウチャーの内容を閲覧できません。さらに、Appleは一致するCSAM画像に関連するバウチャーのみを解釈できます。

Apple 社によれば、この技術により、エンドユーザーに高いレベルのプライバシーを提供しながら CSAM の検出が可能になるという。

キャスカート氏は、17歳未満のユーザーがメッセージアプリで性的に露骨な画像を自動的にぼかすという新機能にも異議を唱えている。さらに、13歳未満の子供がそのような内容を含むメッセージを送受信した際に、保護者が通知を受け取るよう設定できる。画像は機械学習を用いてデバイス上で分析される。

「昨日アップルが発表した情報を読み、懸念しています。これは間違ったアプローチであり、世界中の人々のプライバシーにとって後退だと思います」とキャスカート氏は述べた。「WhatsAppにもこのシステムを採用するかどうか尋ねられていますが、答えはノーです」

キャスカート氏は、WhatsApp は CSAM との戦いに熱心に取り組んでおり、昨年は暗号化プロトコルを破ることなく 40 万件以上の事例を NCMEC に報告したと述べた。

Facebook傘下のWhatsAppがAppleの取り組みをすぐに非難するのは、おそらく意外ではないだろう。Facebookは、AppleがiOS 14.5で導入したプライバシー重視の変更によって脅威にさらされている。「App Tracking Transparency(アプリトラッキングの透明性)」と呼ばれるこの機能では、開発者はIDFA(広告主向けID)タグを使用してアプリやウェブ上でのユーザーのアクティビティを追跡する前に、ユーザーの許可を求める必要がある。Facebookは、大多数のユーザーが広告トラッキングをオプトアウトし、主要な収益源に深刻な打撃を与えると考えている。

キャスカート氏に加え、他のテック業界関係者もAppleの児童保護に関する変更に反対の声を上げている。エドワード・スノーデン氏、Epic社のCEOティム・スウィーニー氏、電子フロンティア財団などは、このシステムは善意に基づいているものの、政府や悪意のある組織による悪用につながる可能性があると主張している。

この騒動は、主にAppleがユーザーのプライバシー保護を公言していることに起因しています。同社はここ数年、プライバシーとセキュリティの擁護者としての地位を確立し、その目標達成に向けて高度なハードウェアとソフトウェア機能に投資してきました。批評家たちは、Appleの新しいチャイルドセーフティツールがその評判を傷つけるだろうと主張しています。