Appleは、ユーザーのプライバシーを守りながらiCloud内の児童虐待素材を検出できるシステムなど、オンラインで子供を保護することを目的とした一連の機能を自社のプラットフォーム全体でリリースしている。
クパチーノを拠点とするテクノロジー大手のAppleは木曜日、3つの分野にわたる新たなチャイルドセーフティ機能を発表した。同社は、これらの機能は、児童を犯罪者から守り、児童性的虐待コンテンツ(CSAM)の拡散を抑制するのに役立つとしている。この公式発表は、Appleが自社プラットフォーム上でCSAMを抑制するための何らかのシステムを導入するとの報道を受けてのものだ。
「アップルの目標は、人々の安全を確保しながら、人々に力を与え、生活を豊かにするテクノロジーを生み出すことだ」と同社はプレスリリースに記した。
例えば、Appleはメッセージアプリに新しいツールを実装し、保護者がお子様のオンラインコミュニケーションについてより詳細な情報を把握できるようにします。また、iCloudフォトに保存されているCSAM(秘密鍵)のコレクションを暗号技術を用いて検出し、法執行機関に情報を提供する新しいシステムも導入します。さらに、Siriと検索にも新しい安全ツールの開発に取り組んでいます。
「アップルの子供に対する保護の拡大は画期的なものだ」と全米行方不明・被搾取児童センターのCEO兼代表ジョン・クラーク氏は語った。
非常に多くの人がApple製品を使用しているため、これらの新しい安全対策は、オンラインで誘惑され、児童性的虐待コンテンツとして恐ろしい画像が拡散されている子供たちの命を救う可能性を秘めています。全米行方不明・被搾取児童センター(National Center for Missing & Exploited Children)は、子供たちの保護に揺るぎない決意を固めることでのみ、この犯罪に対抗できると考えています。Appleのようなテクノロジーパートナーが率先して取り組み、その決意を表明しているからこそ、私たちはこれを実現できるのです。プライバシーと児童保護は共存可能です。私たちはAppleを称賛し、子供たちにとってより安全な世界を実現するために、共に取り組んでいくことを楽しみにしています。
これら 3 つの機能はプライバシー保護にも最適化されており、Apple は法を遵守するユーザーの個人情報を脅かすことなく、犯罪行為に関する情報を適切な当局に提供できます。
新しい機能は、2021 年後半に iOS 15、iPadOS 15、macOS Monterey、watchOS 8 のアップデートで初めて導入される予定です。
iCloudフォトでのCSAM検出
CSAMスキャンシステムの図。クレジット:Apple
Apple が導入を計画している最も重要な新しい子供の安全機能は、iCloud フォト アカウント内の CSAM を検出することに重点を置いています。
AppleがiCloudに保存されているCSAMのコレクションを検出した場合、そのアカウントにフラグを立て、児童虐待資料の報告センターとして機能し、全米の法執行機関と連携しているNCMECに情報を提供します。
Appleはここで実際に画像をスキャンしているわけではありません。デバイス上のインテリジェンスを用いて、CSAMをNCMECやその他の児童安全機関が提供する既知のハッシュデータベースと照合しています。このデータベースは判読不可能なハッシュ値に変換され、ユーザーのデバイスに安全に保存されます。
iCloud フォトで CSAM を検出する実際の方法は複雑で、平均ユーザーのプライバシーを維持しながら正確性を確保するために、あらゆるステップで暗号化技術が使用されます。
Appleによると、フラグが付けられたアカウントは、真に陽性であることを確認するための手動レビュープロセスを経て無効化される。アカウントが無効化された後、AppleはNCMECにメッセージを送信する。ユーザーは、誤ってアカウントが無効化されたと思われる場合、アカウントの停止に異議を申し立てることができる。
同社は改めて、この機能はiCloudフォトに保存されているCSAMのみを検出し、デバイス上にのみ保存されている写真には適用されないことを強調しました。さらに、Appleはシステムのエラー率は年間1兆アカウントあたり1件未満であると主張しています。
この機能はクラウドベースのスキャンではなく、iCloudに既知のCSAMコレクションを保存しているユーザーのみを報告します。不正なコンテンツが1つでも検出されないようにすることで、誤検知率の低減に役立ちます。
繰り返しになりますが、Appleは既知のCSAMに一致する画像のみを学習すると述べています。iCloudに保存されているすべての画像をスキャンしているわけではなく、既知のCSAMに一致しない画像を取得したり表示したりすることはありません。
CSAM検出システムは、当初は米国ベースのiCloudアカウントにのみ適用されます。Appleは、将来的にはより広範囲に展開していく予定だと述べています。
コミュニケーションの安全性
新しいアップデートの1つは、AppleのiMessageを使用してオンラインで通信する子供たちの安全性を高めることに重点を置いています。
たとえば、iMessage アプリでは、子供や保護者が性的に露骨な写真を受信または送信するときに警告が表示されるようになります。
17歳未満の子供がセンシティブな画像を受け取った場合、画像は自動的にぼかされ、役立つリソースが表示されます。Appleはまた、13歳未満の子供が画像を閲覧すると保護者にメッセージが送信されることを知らせる仕組みも導入しました。13歳から17歳までの子供がこれらの画像を開いても保護者への通知は表示されません。また、18歳以上の成人が使用するアカウントでは「コミュニケーションの安全」機能を有効にできません。
このシステムは、デバイス上の機械学習を用いて画像を分析し、性的に露骨な内容かどうかを判断します。Appleが画像のコピーを取得または受領しないよう特別に設計されています。
Siriと検索のアップデート
iMessage の安全機能に加えて、Apple はオンラインでの子供の安全に関して、Siri と検索で提供するツールとリソースも拡張しています。
例えば、iPhoneおよびiPadユーザーは、CSAM(児童虐待)や児童搾取の危険性を報告する方法をSiriに尋ねることができます。Siriは適切なリソースとガイダンスを提供します。
Siriと検索機能もアップデートされ、ユーザーがCSAMに関する検索やクエリを実行した場合に介入するようになります。Appleは、「これらの介入により、このトピックへの関心が有害で問題のあることをユーザーに説明し、この問題の解決に役立つパートナーからのリソースを提供します」と述べています。
ユーザーのプライバシーの維持
Appleは長年、ユーザーのプライバシー保護に最大限の努力を払っていると強調してきた。ユーザーのプライバシー権をめぐっては、法執行機関とさえも熾烈な争いを繰り広げてきた。だからこそ、法執行機関に情報を提供することを目的としたシステムの導入は、一部のセキュリティ専門家の間で懸念材料となっている。
こうしたツールは、人々の携帯電話から児童ポルノを見つけるのに非常に役立ちます。しかし、独裁政権の手に渡ったらどうなるか想像してみてください。https://t.co/nB8S6hmLE3
— マシュー・グリーン(@matthew_d_green)2021年8月5日
しかし、Appleは、システムの開発において監視と悪用が「最大の懸念事項」であったと主張している。各機能は、CSAM(児童虐待)やオンラインでの児童搾取に対抗しながらプライバシーを確実に保護するように設計されていると述べている。
例えば、CSAM検出システムは当初からCSAMのみを検出するように設計されており、他の種類の写真を分析または検出するためのメカニズムは含まれていません。さらに、特定の閾値を超えるCSAMの集合のみを検出します。
Appleは、このシステムは監視の扉を開くものではなく、暗号化を弱めるものでもないと述べている。例えば、CSAM検出システムは、エンドツーエンドで暗号化されていない写真のみを分析する。
セキュリティ専門家は依然としてその影響を懸念している。ジョンズ・ホプキンス大学の暗号学教授であるマシュー・グリーン氏は、ハッシュはユーザーが確認できないデータベースに基づいていると指摘する。さらに、ハッシュが悪用される可能性もある。例えば、無害な画像に既知のCSAMを含むハッシュが共有されるといったケースだ。
「アップルが『プライバシー』企業であるというイメージは、多くの好意的な報道をもたらした。しかし、FBIからの圧力を受けてiCloudのバックアップを暗号化しない企業と同じ企業であることを忘れてはならない」とグリーン氏は記した。
ケンブリッジ大学のセキュリティ工学教授ロス・アンダーソン氏は、フィナンシャル・タイムズ紙のインタビューで、このシステムを「全くひどいアイデア」と評した。さらに、このシステムは「携帯電話やノートパソコンの分散型大量監視」につながる可能性があると付け加えた。
デジタル権利団体の電子フロンティア財団も、この機能についてブログ記事を投稿し、「より広範な濫用への扉を開くことになる」と述べた。
「Appleが構築している狭いバックドアを広げるには、機械学習のパラメータを拡張して新たな種類のコンテンツを探すか、設定フラグを微調整して子供だけでなく誰のアカウントもスキャンできるようにするだけで十分だ。これは危険な道ではなく、外部からの圧力によってわずかな変化がもたらされるのを待つだけの、完全に構築されたシステムなのだ」と、EFFのインディア・マッキニーとエリカ・ポートノイは記している。