アップルニュース

AppleはCSAM検出の懸念に対処し、国ごとにシステムを拡張することを検討します

2021年8月6日金曜日11:25 am PDT by Joe Rossignol

Appleは今週、iOS15とiPadOS15で今年後半に開始することを発表しました。 iCloud写真に保存されている既知の児童性的虐待資料(CSAM)画像を検出できるようになります 、Appleがこれらの事例を全米行方不明・搾取児童センターに報告できるようにします。これは、全米の法執行機関と協力して活動する非営利団体です。





アップルcsamフローチャート
計画は持っています 一部のセキュリティ研究者の間で懸念を引き起こした そして、Appleが最終的に政府によって、政治活動を抑制するなどの不正な目的で非CSAM画像をハッシュリストに追加することを強制される可能性がある他の当事者。

「どんなに善意があっても、Appleはこれで全世界に大量監視を展開している」 言った 著名な内部告発者のエドワード・スノーデンは、「今日、児童ポルノをスキャンできれば、明日は何でもスキャンできる」と付け加えた。非営利の電子フロンティア財団 Appleの計画も批判した 、「完全に文書化され、慎重に考え抜かれた、範囲の狭いバックドアでさえ、依然としてバックドアである」と述べています。



これらの懸念に対処するために、Appleは本日その計画について追加の解説を提供しました。

Appleの既知のCSAM検出システムは、発売時には米国に限定され、一部の政府がシステムを悪用しようとする可能性に対処するために、AppleはEternalに対し、同社が国でのシステムの潜在的なグローバル拡張を検討することを確認しました。法的な評価を行った後の国別ベース。 Appleは、そのような動きが起こったとしても、システムのグローバルな拡張のための時間枠を提供しませんでした。

Appleはまた、システムを悪用しようとして安全組織を破壊することを決定する世界の特定の地域の仮想的な可能性に対処し、ユーザーが不適切な画像を持っているというフラグが立てられる前に、システムの最初の保護層が非公開のしきい値であることに留意しました。しきい値を超えた場合でも、Appleは、手動のレビュープロセスが追加の障壁として機能し、既知のCSAM画像がないことを確認すると述べました。 Appleは、フラグが立てられたユーザーをNCMECまたは法執行機関に最終的に報告せず、システムは引き続き設計どおりに機能すると述べた。

iPhoneで写真をパスワードで保護する方法

Appleはまた、このシステムの支持者の一部を強調し、一部の関係者は、児童虐待と戦うための同社の取り組みを称賛した。

ファミリーオンラインセーフティインスティテュートのCEOであるスティーブンバルカムは、次のように述べています。 「オンラインで子供を保護する際に親が直面する課題を考えると、テクノロジー企業は、新しいリスクや実際の危害に対応するために、安全ツールを継続的に反復および改善することが不可欠です。」

Appleは、システムが悪用される可能性に関連しているため、特効薬の回答はないことを認めたが、同社は、既知のCSAM画像検出のためだけにシステムを使用することを約束していると述べた。

注:このトピックに関するディスカッションは政治的または社会的な性質があるため、ディスカッションスレッドは 政治ニュース フォーラム。すべてのフォーラムメンバーとサイト訪問者はスレッドを読んでフォローすることができますが、投稿は少なくとも100件の投稿があるフォーラムメンバーに制限されています。