マイク・ピーターソン
· 1分で読めます
クレジット: アンドリュー・オハラ、AppleInsider
Appleの最新のiOS 15.2ベータ版では、ヌードを含む写真を送受信する際に親ではなく子供に警告するように設計された、以前に発表されたオプトインのコミュニケーション安全機能が導入されている。
メッセージ機能は、8月に発表された一連の児童安全対策の一環でした。重要なのは、iMessage機能は、iCloud内の児童性的虐待コンテンツ(CSAM)を検出するために設計された、物議を醸しているシステムではないということです。
デフォルトでは有効になっていませんが、保護者の方はファミリー共有プランのお子様アカウントのメッセージ機能をオンにすることができます。この機能は、メッセージアプリ内でヌードが検出されると、画像にぼかしが入り、お子様に警告を表示します。
Appleは、子どもたちに役立つリソースを提供し、画像を見たくない場合は大丈夫だと安心させると述べています。子どもがヌードを含む写真を送信しようとした場合にも、同様の保護機能が作動します。いずれの場合も、子どもは信頼できる人にメッセージを送って助けを求めることができます。
以前計画されていた機能とは異なり、システムがメッセージにヌードが含まれていることを検出しても、保護者に通知は送信されません。Appleによると、これは保護者への通知が、身体的暴力や虐待の脅威など、子供にとってリスクとなる可能性があるという懸念があるためです。
Appleは、ヌードフラグの検出はデバイスから漏れることはなく、このシステムはiMessageのエンドツーエンドの暗号化を侵害することはない、としている。
この機能はオプトインであり、iOSのベータ版にのみ含まれているため、現時点では一般公開されていないことにご注意ください。iOSの最終アップデートにいつ含まれるかは未定であり、それ以前にこの機能が最終リリースから削除される可能性もあります。
繰り返しになりますが、この機能は、Appleが発表後に延期した物議を醸したCSAM検出システムではありません。9月の時点で、AppleはCSAM検出機能を2021年後半にリリースすると発表していました。現在、同社は意見収集と必要な改善のためにさらに時間をかけていると発表しています。
CSAMシステムの導入時期は未定です。しかし、AppleはSiriと検索において、子どもと保護者向けの追加ガイダンスを提供すると発表しました。2021年後半に予定されているiOS 15およびその他のOSのアップデートでは、ユーザーが児童搾取に関連する検索を行った際にAppleが介入し、そのトピックが有害であることを説明する予定です。