アップル 本日発表 それは iOS 15 と iPad 15 、スキャンを開始します iCloudの写真 米国では、既知の児童性的虐待資料(CSAM)を探し、その結果を全米行方不明・搾取児童センター(NCMEC)に報告する予定です。
Appleが計画を詳細に説明する前に、CSAMイニシアチブのニュースが漏洩し、セキュリティ研究者はすでに、Appleの新しい画像スキャンプロトコルが将来どのように使用されるかについて懸念を表明し始めています。 フィナンシャルタイムズ 。
Appleは、「NeuralHash」システムを使用して、既知のCSAM画像をユーザーの写真と比較しています。 iPhone iCloudにアップロードする前に。一致するものがある場合、その写真は暗号化された安全バウチャーとともにアップロードされ、特定のしきい値で、その人がデバイスにCSAMを持っているかどうかを確認するためのレビューがトリガーされます。
次のMacはいつ出ますか
現在、Appleは画像スキャンとマッチング技術を使用して児童虐待を探していますが、研究者は将来、反政府の兆候など、より懸念される他の種類の画像をスキャンするように適応される可能性があることを懸念しています。抗議。
一連のツイートで、ジョンズホプキンス暗号研究者 マシューグリーン CSAMスキャンは、将来的には‌ iCloud‌にアップロードされたコンテンツだけでなく、エンドツーエンドの暗号化された写真のスキャンに拡張される可能性があるため、「本当に悪い考え」であると述べました。子供のために、アップル は エンドツーエンドで暗号化されたiMessageで直接性的に露骨なコンテンツを探す別のスキャン機能を実装します。
Greenはまた、誰かがCSAMとハッシュを共有する無害なファイルを送信し、偽旗作戦を引き起こす可能性がある「衝突」が発生する可能性があるため、Appleが使用する予定のハッシュについて懸念を表明しました。
Appleは、そのスキャン技術には「非常に高いレベルの精度」があり、アカウントに誤ったフラグが付けられていないことを確認し、レポートは人の‌ iCloud‌の前に手動でレビューされると述べています。アカウントが無効になり、レポートがNCMECに送信されます。
Greenは、Appleの実装により、他のテクノロジー企業が同様の手法を採用するようになると考えています。 「これはダムを壊すだろう」と彼は書いた。 「政府はそれをすべての人に要求するでしょう。」彼はこの技術を「抑圧的な体制が展開したツール」と比較した。
これらは悪いことです。私は特に児童ポルノの側にいたくはありませんし、テロリストでもありません。ただし、問題は、暗号化がプライバシーを提供する強力なツールであり、誰もが送信するすべての画像を監視しながら、強力なプライバシーを確保することはできないということです。 —マシュー・グリーン(@matthew_d_green) 2021年8月5日
以前Facebookで働いていたセキュリティ研究者のAlecMuffettは、この種の画像スキャンを実装するというAppleの決定は、「個人のプライバシーにとって巨大で退行的なステップ」であると述べました。 「アップルは1984年を可能にするためにプライバシーを後退させている」と彼は言った。
ケンブリッジ大学のセキュリティ工学教授であるロスアンダーソン氏は、これを「絶対にぞっとするようなアイデア」と呼び、デバイスの「分散型一括監視」につながる可能性があると述べました。
多くの人がTwitterで指摘しているように、複数のテクノロジー企業がすでにCSAMの画像スキャンを行っています。 Google、Twitter、Microsoft、Facebookなどは、画像ハッシュ方式を使用して、児童虐待の既知の画像を検索して報告します。
そして、Googleが児童虐待の画像について画像をスキャンするかどうか疑問に思っているなら、私は8年前に書いた話の中で、それを** 2008年以降**行っていると答えました。たぶん、みんな座って帽子をかぶってください。 pic.twitter.com/ruJ4Z8SceY -チャールズアーサー(@charlesarthur) 2021年8月5日
Appleが すでに 一部のコンテンツをスキャンする 新しいCSAMイニシアチブの展開前の児童虐待画像の場合。 2020年、Appleの最高プライバシー責任者であるJane Horvathは、Appleはスクリーニング技術を使用して違法な画像を探し、CSAMの証拠が検出された場合はアカウントを無効にすると述べました。
magsafeバッテリーパックの使用方法
2019年のApple プライバシーポリシーを更新しました アップロードされたコンテンツをスキャンして「児童の性的搾取資料を含む潜在的に違法なコンテンツ」を探すため、本日の発表はまったく新しいものではありません。
注:このトピックに関するディスカッションは政治的または社会的な性質があるため、ディスカッションスレッドは 政治ニュース フォーラム。すべてのフォーラムメンバーとサイト訪問者はスレッドを読んでフォローすることができますが、投稿は少なくとも100件の投稿があるフォーラムメンバーに制限されています。
タグ:アップルのプライバシー、アップルの子供の安全機能
人気の投稿