Apple、CSAM機能の導入を撤回し発売を延期

Apple、CSAM機能の導入を撤回し発売を延期

ウィリアム・ギャラガーのプロフィール写真ウィリアム・ギャラガー

· 1分で読めます

Appleの新しい児童保護機能

広範囲にわたる批判を受けて、Appleは計画通り児童保護機能を導入せず、代わりに協議に「さらに時間をかける」と発表した。

Appleは、 AppleInsiderや他の出版物に送った電子メールの中で、当初の発表に対する反応を受けて、機能の延期を決定したと述べている。

アップルは声明で「先月、コミュニケーションツールを使って子供たちを勧誘し搾取する捕食者から子供たちを守り、児童性的虐待コンテンツの拡散を制限するための機能の計画を発表した」と述べた。

「顧客、支援団体、研究者などからのフィードバックに基づき、私たちは今後数か月かけてさらに時間をかけて意見を集め、改善を行った上で、これらの極めて重要な子供の安全機能をリリースすることに決定しました」と同社は続けている。

同社が「意見収集」のためにどのように協議するのか、また誰と協力するのかについても詳細は明かされていない。

Appleは当初、2021年8月5日にCSAM機能を発表し、2021年後半にデビューすると述べていました。これらの機能には、iCloudフォトに保存されている児童性的虐待画像の検出と、それとは別に、子供に送信される潜在的に有害なメッセージをブロックすることが含まれます。

業界の専門家やエドワード・スノーデン氏などの著名人は、Appleに対しこれらの機能を実装しないよう求める公開書簡を提出しました。反対の理由は、これらの機能が監視に利用される可能性があると認識されているからです。

AppleInsiderは、Appleが実際に何を計画していたのか、そしてそれがどのように問題視されているのかを解説する記事を公開しました。その後、Appleは文書の形で説明を行い、その意図を詳しく説明し、機能の動作概要を説明しました。

しかし、情報提供の有無を問わず、苦情は続いた。最終的に、Appleのクレイグ・フェデリギ氏は、Appleが新機能の発表方法を誤っていたと公に述べた。

「我々の取り組みには非常に前向きで強い思いを持っており、広く誤解されていることもわかっているので、これが皆にとってもう少し明確に伝わっていればよかったと思う」とフェデリギ氏は語った。

「後から考えると、この2つの機能を同時に導入したことが、このような混乱を招く原因になったのは確かです」と彼は続けた。「多くのメッセージがひどくごちゃ混ぜになったのは明らかです。当初は『なんてことだ、Appleが私の携帯電話をスキャンして画像を探している』という声が上がっていたと思います。しかし、実際にはそんなことは起きていません」