アップルニュース

Appleは、CSAMの検出とメッセージのスキャンに関する懸念に対処するためのFAQを公開しています

2021年8月9日月曜日午前2時50分PDTby Tim Hardwick

Appleは、新しいCSAM検出に関するユーザーのプライバシーの懸念を和らげることを目的とした「子供のための拡張保護」というタイトルのFAQを公開しました。 iCloudの写真 とメッセージ機能の通信の安全性 先週発表





アップルのプライバシー
「これらの機能を発表して以来、プライバシー組織や子供安全組織を含む多くの利害関係者がこの新しいソリューションへの支持を表明し、一部の関係者は質問をしました」とFAQを読みます。 「このドキュメントは、これらの質問に対処し、プロセスの明確性と透明性を高めるのに役立ちます。」

いくつかの議論は2つの機能の区別を曖昧にし、Appleは 資料 それらを区別するために、メッセージの通信の安全性は、「ファミリーシェアリングで設定された子アカウントのメッセージアプリで送受信された画像でのみ機能する」と説明し、‌ iCloud Photos‌でのCSAM検出'‌ iCloud Photos‌の使用を選択したユーザーにのみ影響します。写真を保存するために…他のデバイス上のデータに影響はありません。



FAQから:

iOS14がバッテリーを消耗しているのはなぜですか

これらの2つの機能は同じではなく、同じテクノロジーを使用していません。

メッセージの通信の安全性は、メッセージアプリで性的に露骨な画像を送受信することから子供を保護するのに役立つ追加のツールを親と子供に提供するように設計されています。ファミリーシェアリングで設定された子アカウントのメッセージアプリで送受信された画像でのみ機能します。デバイス上の画像を分析するため、メッセージのプライバシー保証は変更されません。子アカウントが性的に露骨な画像を送受信すると、写真がぼやけ、子供に警告が表示され、役立つリソースが提示され、写真を表示または送信したくない場合でも問題がないことを確認できます。追加の予防策として、幼い子供たちは、彼らが安全であることを確認するために、彼らがそれを見た場合、彼らの両親はメッセージを受け取るだろうと言うこともできます。

2番目の機能であるiCloudPhotosのCSAM検出は、既知のCSAM画像と一致する写真以外の写真に関する情報をAppleに提供することなく、CSAMをiCloudPhotosから遠ざけるように設計されています。 CSAM画像は、米国を含むほとんどの国で所有することは違法です。この機能は、iCloudフォトを使用して写真を保存することを選択したユーザーにのみ影響します。 iCloudフォトの使用を選択していないユーザーには影響しません。他のデバイス上のデータへの影響はありません。この機能はメッセージには適用されません。

ドキュメントの残りの部分は3つのセクション(以下の太字)に分かれており、次のよくある質問への回答があります。

iPadでガイド付きアクセスをオンにする方法

アップルTV4KvsアップルTVHD
    メッセージでの通信の安全性
  • メッセージで通信の安全性を使用できるのは誰ですか?
  • これは、メッセージがAppleまたは法執行機関と情報を共有することを意味しますか?
  • これはメッセージのエンドツーエンド暗号化を破りますか?
  • この機能は、虐待的な家の子供たちが助けを求めるのを防ぎますか?
  • 子供に警告して選択を与えることなく、親に通知されますか?
  • CSAM検出
  • これは、Appleが私の保存されているすべての写真をスキャンすることを意味しますか? iPhone
  • これにより、CSAMイメージが私の‌ iPhone‌にダウンロードされますか?私の写真と比較するには?
  • なぜAppleは今これをしているのですか?
  • iCloud写真のCSAM検出のセキュリティ
  • ‌ iCloud Photos‌のCSAM検出システムはできますか? CSAM以外のものを検出するために使用されますか?
  • 政府はAppleに非CSAM画像をハッシュリストに追加するように強制することができますか?
  • 非CSAMイメージをシステムに「注入」して、CSAM以外のもののアカウントにフラグを立てることはできますか?
  • ‌ iCloud Photos‌でCSAMが検出されますか罪のない人々に法執行機関に誤ってフラグを立てますか?

興味のある読者は、これらの質問に対するAppleの完全な回答について、ドキュメントを参照してください。ただし、バイナリのyes / noで回答できる質問については、「‌のCSAM検出のセキュリティ」というタイトルのセクションにある次の3つの質問を除いて、Appleはすべて「No」で開始することに注意してください。 iCloud Photos‌: '

iCloud PhotosのCSAM検出システムを使用してCSAM以外のものを検出できますか?
私たちのプロセスは、それが起こらないように設計されています。 iCloud PhotosのCSAM検出は、システムがNCMECおよびその他の児童安全組織によって提供されたCSAM画像ハッシュでのみ機能するように構築されています。この一連の画像ハッシュは、児童安全組織によってCSAMとして取得および検証された画像に基づいています。法執行機関への自動報告はなく、AppleはNCMECに報告する前に人間によるレビューを実施します。その結果、システムはiCloudPhotosでCSAMとして知られている写真のみを報告するように設計されています。米国を含むほとんどの国では、これらの画像を単に所有することは犯罪であり、Appleは私たちが知った事例を適切な当局に報告する義務があります。

政府はAppleに非CSAM画像をハッシュリストに追加するように強制することができますか?
Appleはそのような要求を拒否します。 AppleのCSAM検出機能は、NCMECやその他の子供の安全グループの専門家によって識別されたiCloudPhotosに保存されている既知のCSAM画像を検出するためだけに構築されています。私たちは、以前はユーザーのプライバシーを低下させる政府の義務付けられた変更を構築して展開するという要求に直面しており、それらの要求を断固として拒否してきました。今後も断ります。はっきりさせておきますが、このテクノロジーはiCloudに保存されているCSAMの検出に限定されており、政府からの拡張要求には応じません。さらに、AppleはNCMECに報告する前に人間によるレビューを実施します。システムが既知のCSAM画像と一致しない写真にフラグを立てる場合、アカウントは無効にならず、NCMECにレポートは提出されません。

非CSAMイメージをシステムに「注入」して、CSAM以外のもののアカウントにフラグを立てることはできますか?
私たちのプロセスは、それが起こらないように設計されています。マッチングに使用される一連の画像ハッシュは、児童安全組織によって取得および検証されたCSAMの既知の既存の画像からのものです。 Appleは、既知のCSAMイメージハッシュのセットに追加しません。すべてのiPhoneおよびiPadユーザーのオペレーティングシステムに同じハッシュのセットが保存されているため、特定の個人のみに対する標的型攻撃は、当社の設計では不可能です。最後に、法執行機関への自動報告はなく、AppleはNCMECに報告する前に人間によるレビューを実施します。万が一、システムが既知のCSAMイメージと一致しないイメージにフラグを立てた場合、アカウントは無効にならず、NCMECにレポートは提出されません。

Appleは、プライバシー擁護者、セキュリティ研究者、暗号化の専門家、学者などから、 iOS 15iPad 15 、9月に予定されています。

これにより、 公開書簡 ‌ iCloud Photos‌でiPhoneのCSAMをスキャンするというAppleの計画を批判する子供のメッセージの露骨な画像は、執筆時点で5,500を超える署名を獲得しています。 Appleはまた、Facebookが所有するWhatsAppからも批判を受けている。 それを呼んだ 「世界中の人々のプライバシーに対する間違ったアプローチと挫折。」 EpicGamesのCEOであるTimSweeneyも 攻撃された この決定は、Appleの観点からこの動きを「一生懸命に見ようとした」と主張したが、「これは、罪の推定に基づいてAppleがインストールした政府のスパイウェアである」と結論付けた。

「どんなに善意があっても、Appleはこれで全世界に大量監視を展開している」 言った 著名な内部告発者のエドワード・スノーデンは、「今日、児童ポルノをスキャンできれば、明日は何でもスキャンできる」と付け加えた。非営利の電子フロンティア財団も 批判された Appleの計画は、「完全に文書化され、慎重に考え抜かれた、範囲の狭いバックドアでさえ、依然としてバックドアである」と述べています。

サムズクラブ$ 300ギフトカードのオファー
タグ:アップルのプライバシー、アップルの子供の安全機能