アップルニュース

Appleの従業員がCSAM検出計画について内部的に懸念を提起

2021年8月13日金曜日12:43 am PDT by Sami Fathi

Appleの従業員は現在、Appleのスキャン計画に懸念を表明している個人の合唱団に参加しています iPhone からの報告によると、CSAMまたは児童の性的虐待資料のためのユーザーの写真ライブラリーは、他のタイプのコンテンツについてユーザーの写真をスキャンするためにテクノロジーをどのように使用できるかについて社内で話していると報告されています ロイター





アップルパークドローン2018年6月2
によると ロイター 、不特定多数のApple従業員が、CSAM検出に関する懸念を提起するために内部のSlackチャネルを利用しています。具体的には、従業員は、政府がCSAM以外のコンテンツを見つけることにより、Appleに検閲のためのテクノロジーの使用を強制する可能性があることを懸念しています。一部の従業員は、Appleが業界をリードするプライバシーの評判を傷つけているのではないかと心配しています。

Appleの従業員は、1週間前に発表された計画に関する800以上のメッセージでAppleの内部Slackチャネルを氾濫させた、と特定されないように求めた労働者はロイターに語った。何日にもわたるスレッドを見た労働者によると、多くの人が、この機能が検閲や逮捕のための他の資料を探している抑圧的な政府によって悪用される可能性があることへの懸念を表明した。



アップルでの過去のセキュリティ変更も従業員の間で懸念を引き起こしましたが、新しい議論の量と期間は驚くべきものです、と労働者は言いました。一部のポスターは、Appleがプライバシーを保護するというその主要な評判を傷つけているのではないかと心配していました。

レポートによると、ユーザーのセキュリティに関連する役割を担っているアップルの従業員は、内部抗議の一部ではなかったと考えられています。

それ以来 先週の発表 、AppleはCSAM検出計画に対する批判に襲われており、この計画は今秋にもiOS15とiPadOS15で展開されると予想されています。懸念は主に、テクノロジーが抑圧的な政府や政権による将来の実施のために滑りやすい坂道を提示する方法を中心に展開しています。

どのようにiphoneをiphoneに転送しますか

Appleは、CSAM素材の検出に使用されるデバイス上のテクノロジーを他の目的に使用できるという考えに固く反対しました。で 公開されたFAQドキュメント 、同社は政府によるそのような要求を激しく拒否すると述べている。

政府はAppleに非CSAM画像をハッシュリストに追加するように強制することができますか?
Appleはそのような要求を拒否します。 AppleのCSAM検出機能は、NCMECやその他の子供の安全グループの専門家によって識別されたiCloudPhotosに保存されている既知のCSAM画像を検出するためだけに構築されています。私たちは、以前はユーザーのプライバシーを低下させる政府の義務付けられた変更を構築して展開するという要求に直面しており、それらの要求を断固として拒否してきました。今後も断ります。はっきりさせておきますが、このテクノロジーはiCloudに保存されているCSAMの検出に限定されており、政府からの拡張要求には応じません。さらに、AppleはNCMECに報告する前に人間によるレビューを実施します。システムが既知のCSAM画像と一致しない写真にフラグを立てる場合、アカウントは無効にならず、NCMECにレポートは提出されません。

NS 公開書簡 Appleを批判し、CSAM検出を展開する計画を直ちに停止するように会社に要求することは、執筆時点で7,000を超える署名を獲得しています。 WhatsAppの責任者も 議論に加わった

タグ:アップルのプライバシー、アップルの子供の安全機能