アップルニュース

Appleは、iCloud写真がオフになっている場合、児童の性的虐待の検出が無効になっていることを確認します

2021年8月5日木曜日午後3時16分PDTby Juli Clover

アップル 本日発表 それ iOS 15iPad 15 米国のiPhoneおよびiPadで児童性的虐待資料(CSAM)を検出するための新しい方法が導入される予定です。





iCloudの一般的な機能
ユーザーデバイスは、既知のCSAMイメージハッシュの読み取り不可能なデータベースをダウンロードし、デバイス上でユーザー自身の写真と比較し、アップロードされる前に既知のCSAM素材のフラグを付けます。 iCloudの写真 。 Appleによれば、これはCSAMを検出し、子供を保護するための非常に正確な方法です。

CSAM画像スキャンはオプション機能ではなく、自動的に実行されますが、Appleは次のことを確認しています。 永遠の ‌ iCloud Photos‌の場合、既知のCSAM画像を検出できないこと。機能がオフになっています。



AppleWatchでアプリを取り除く方法

Appleの方法は、デバイス上の既知のCSAM写真を識別し、それが‌ iCloud Photos‌にアップロードされたときにフラグを立てることによって機能します。バウチャー付き。一定数のバウチャー(別名フラグ付き写真)が‌ iCloud Photos‌にアップロードされた後、Appleはバウチャーを解釈して手動で確認できます。 CSAMコンテンツが見つかった場合、ユーザーアカウントは無効になり、National Center for Missing and ExploitedChildrenに通知されます。

Appleが‌ iCloud Photos‌をスキャンしているためCSAMフラグの場合、この機能が‌ iCloud Photos‌では機能しないことは理にかなっています。無効。 Appleは、‌ iCloud Photos‌の場合、iCloudバックアップで既知のCSAMイメージを検出できないことも確認しています。ユーザーのデバイスで無効になっています。

Appleは、既知の児童の性的虐待資料のハッシュを特にスキャンしており、ユーザーの写真ライブラリを広く検査したり、子供を虐待する人々の間でまだ流通していない個人の画像をスキャンしたりしていないことは注目に値します。それでも、ユーザーの写真ライブラリをスキャンするAppleの取り組みについてプライバシーの懸念があるユーザーは、‌ iCloud Photos‌を無効にすることができます。

セキュリティ研究者は 懸念を表明 AppleのCSAMイニシアチブをめぐって、将来、政治的および安全性に影響を与える可能性のある他の種類のコンテンツを検出できるようになるのではないかと心配しているが、今のところ、Appleの取り組みは子供虐待者を探すことに限定されている。

注:このトピックに関するディスカッションは政治的または社会的な性質があるため、ディスカッションスレッドは 政治ニュース フォーラム。すべてのフォーラムメンバーとサイト訪問者はスレッドを読んでフォローすることができますが、投稿は少なくとも100件の投稿があるフォーラムメンバーに制限されています。

タグ:アップルのプライバシー、アップルの子供の安全機能