マイク・ピーターソン
· 1分で読めます
アップルのiMessage
アップルは、米国で導入されてから数か月後、英国、カナダ、ニュージーランド、オーストラリアの若いユーザーが所有するデバイスでiMessageのヌードをスキャンする通信安全機能を展開している。
この機能は、物議を醸しているデバイス上の「写真」評価機能とは異なり、子供が所有するデバイス上で受信または送信するメッセージ内の潜在的に有害な画像を自動的にぼかす。
The Guardianが最初に報じたところによると、AppleはiOS 15.2で米国で展開したこの機能を英国にも拡大する。AppleInsiderは、この機能がカナダ、ニュージーランド、オーストラリアにも拡大されることを掴んだ。
この機能は、お子様がヌード画像を受信するか送信するかによって動作が異なります。受信した画像はぼかし処理され、お子様には児童安全団体からの安全情報が表示されます。年少のユーザーが送信した写真にヌードが含まれている場合は、画像の送信を控えるよう警告が表示されます。
この機能はプライバシーを重視しており、オプトイン方式でのみ利用可能です。保護者による有効化が必要です。ヌードの検出はすべてデバイス上で行われるため、センシティブな画像がiPhoneから外部に送信されることはありません。
Appleは、コミュニケーションセーフティ機能を、子供向けのより優れた安全対策を提供するための一連の機能と併せて初めて発表しました。その機能には、写真アプリをスキャンして児童性的虐待コンテンツ(CSAM)を検出するシステムも含まれていました。
CSAMスキャンには複数のプライバシー保護メカニズムが備わっており、ユーザーの画像全体をスキャンすることはありません。代わりに、児童安全機関が提供する既知のハッシュに基づいて、潜在的な虐待的コンテンツを照合していました。しかし、Appleは反発に直面し、この機能の導入を追って通知があるまで延期しました。
Appleのコミュニケーションセーフティ機能は、CSAMスキャンメカニズムとは全く無関係です。この機能は、iOS 15.2の一部として11月に米国で初めて導入されましたが、これらの地域への拡大は、他の市場への展開を示唆しています。