アップルニュース

ポリシーグループのグローバル連立は、Appleに「iPhoneに監視機能を組み込む計画」を放棄するように促します

2021年8月19日木曜日午前2時23分PDTby Tim Hardwick

90を超える政策および権利グループの国際連立 公開書簡を発行 木曜日に、Appleに「iPhone、iPad、およびその他の製品に監視機能を組み込む」計画を放棄するように促しました–同社の意図への言及 ユーザーのiCloudフォトライブラリをスキャンして、児童の性的虐待の画像を探します (経由 ロイター )。





子供の安全機能黄色

「これらの機能は、子供を保護し、児童の性的虐待資料(CSAM)の拡散を減らすことを目的としていますが、保護された言論を検閲し、世界中の人々のプライバシーとセキュリティを脅かし、悲惨な結果をもたらすことを懸念しています。多くの子供たちへの影響」とグループは手紙に書いた。



米国に本拠を置く非営利の民主主義技術センター(CDT)が主催する書簡の一部の署名者は、AppleのオンデバイスCSAMスキャンシステムが、政治的またはその他の機密コンテンツを検索するために異なる法制度を持つ国で破壊される可能性があることを懸念しています。

「このバックドア機能が組み込まれると、政府はAppleに通知を他のアカウントに拡張し、性的に露骨な理由以外の理由で好ましくない画像を検出するように強制することができます」と手紙を読みます。

この手紙はまた、Appleに対し、家族のアカウントで計画されているiMessageの変更を放棄するよう求めています。これにより、子供のメッセージのヌードを識別してぼかし、親に通知された場合にのみ表示できるようになります。署名者は、このステップが不寛容な家の子供たちや教育資料を探している子供たちを危険にさらすだけでなく、iMessageのエンドツーエンドの暗号化を破ることになると主張しています。

一部の署名者は、ブラジルなど、デジタル暗号化とプライバシー権をめぐってすでに激しい法廷闘争が行われている国から来ています。ブラジルでは、犯罪捜査でメッセージを復号化できなかったためにWhatsAppが繰り返しブロックされています。他の署名者は、インド、メキシコ、ドイツ、アルゼンチン、ガーナ、タンザニアに拠点を置いています。また、署名したグループには、アメリカ自由人権協会、電子フロンティア財団、アクセスナウ、プライバシーインターナショナル、Torプロジェクトが含まれます。

に保存されている既知のCSAM画像を検出するAppleの計画 iCloudの写真 されています 特に物議を醸す また、セキュリティ研究者、学者、プライバシーグループなどから、大量監視の一形態として政府によって悪用される可能性のあるシステムについての懸念が高まっています。同社は公開することで懸念に対処しようとしました 追加文書FAQページ 画像検出システムがどのように機能するかを説明し、誤検出のリスクは低いと主張します。

Appleはまた、児童性的虐待資料の認識されたデータベースによってフラグが立てられた子供の写真を超えて画像検出システムを拡張する要求を拒否すると述べたが、 ロイター 指摘するように、それは裁判所の命令に従うのではなく、市場から撤退するとは言っていません。

タグ:アップルのプライバシー、アップルの子供の安全機能