アップルニュース

CSAMスキャンシステムを構築した大学の研究者は、アップルに「危険な」テクノロジーを使用しないように促します

2021年8月20日金曜日午前6時48分PDTby Sami Fathi

尊敬されている大学の研究者たちは、Appleのスキャン計画の背後にあるテクノロジーに警鐘を鳴らしている iPhone このテクノロジーを「危険」と呼んでいる、CSAM用のユーザーの写真ライブラリまたは児童の性的虐待に関する資料。





アップルのプライバシー
プリンストン大学のコンピュータサイエンスと広報の助教授であるJonanathMayerと、プリンストン大学情報技術政策センターの研究者であるAnunayKulshresthaの両方 論説を書いた にとって ワシントンポスト 、画像検出技術の構築に関する彼らの経験を概説します。

研究者たちは、エンドツーエンドの暗号化されたオンラインサービスでCSAMを識別するプロジェクトを2年前に開始しました。研究者たちは、自分たちの分野を考えると、「サードパーティのアクセスからデータを保護するエンドツーエンド暗号化の価値を知っている」と述べています。その懸念は、「暗号化されたプラットフォームで増殖している」CSAMに対して彼らを怖がらせるものであると彼らは言います。



あるiPhoneから別のiPhoneに情報を転送する

MayerとKulshresthaは、状況の中間点を見つけたいと述べました。オンラインプラットフォームがCSAMを見つけ、エンドツーエンドの暗号化を保護するために使用できるシステムを構築することです。研究者たちは、この分野の専門家がそのようなシステムの見通しを疑っていたが、彼らはそれを構築することに成功し、その過程で重大な問題に気づいたと述べています。

私たちは、オンラインサービスが有害なコンテンツを識別し、それ以外の場合はエンドツーエンドの暗号化を維持できる可能性のある中間点を探求しました。概念は単純明快でした。誰かが既知の有害なコンテンツのデータベースと一致する資料を共有した場合、サービスに警告が発せられます。人が無実のコンテンツを共有した場合、サービスは何も学習しません。人々はデータベースを読んだり、コンテンツが一致したかどうかを知ることができませんでした。その情報は法執行方法を明らかにし、犯罪者が検出を回避するのに役立つ可能性があるためです。

知識豊富なオブザーバーは、私たちのようなシステムは実現可能とはほど遠いと主張しました。多くの不正スタートの後、私たちは実用的なプロトタイプを作成しました。しかし、私たちは明白な問題に遭遇しました。

Appleがこの機能を発表して以来、同社は攻撃を受けてきた 懸念を持って CSAMの検出の背後にあるシステムは、抑圧的な政府の要請に応じて他の形式の写真を検出するために使用できる可能性があること。 Appleはそのような可能性に強く反対し、政府からのそのような要求を拒否すると述べた。

それにもかかわらず、CSAM検出に使用されているテクノロジーの将来への影響に関する懸念は広まっています。 MayerとKulshresthaは、政府がCSAM以外のコンテンツを検出するためにシステムをどのように使用できるかについての懸念が彼らを「混乱させた」と述べた。

Mac用のアップルケアを購入する方法

たとえば、外国政府は、不利な政治演説を共有する人々にサービスを強制することができます。これは仮説ではありません。人気のある中国のメッセージングアプリであるWeChatは、すでにコンテンツマッチングを使用して反体制派の素材を識別しています。インドは今年、政府の政策に批判的なコンテンツの事前審査を要求する可能性のある規則を制定しました。ロシアは最近、民主化反対の抗議資料を削除しなかったとして、グーグル、フェイスブック、ツイッターに罰金を科した。

他の欠点を発見しました。コンテンツ照合プロセスでは誤検知が発生する可能性があり、悪意のあるユーザーがシステムを操作して、無実のユーザーを精査する可能性があります。

私たちは非常に不安だったので、コンピュータサイエンスの文献ではこれまで見たことのない一歩を踏み出しました。私たちは自分たちのシステム設計に対して警告し、深刻な欠点を軽減する方法についてさらに研究するよう促しました。

Appleは、その計画に対するユーザーの懸念に引き続き取り組んできました。 追加のドキュメントを公開するFAQページ 。 Appleは、ユーザーのデバイスで発生するCSAM検出システムが、長年のプライバシー価値と一致していると引き続き信じています。

タグ:アップルのプライバシー、Wa​​shingtonPost.com、アップルの子供の安全機能