アップルニュース

Appleは新しい子供の安全機能をサードパーティのアプリに拡張することにオープン

2021年8月9日月曜日12:00 pm PDT by Joe Rossignol

Appleは本日、Appleに関する記者との質疑応答セッションを開催しました。 新しい子供の安全機能 、そしてブリーフィングの間に、Appleは将来的にサードパーティのアプリに機能を拡張することにオープンであると確認しました。





iPhone通信の安全機能
復習として、AppleはiOS 15、iPadOS 15、macOS Monterey、および/またはwatchOS8の将来のバージョンに登場する3つの新しい子供の安全機能を発表しました。

Appleの新しい子供の安全機能

まず、iPhone、iPad、およびMacのメッセージアプリのオプションの通信安全機能は、性的に露骨な写真を送受信するときに子供とその親に警告することができます。この機能を有効にすると、Appleは、メッセージアプリがデバイス上の機械学習を使用して画像の添付ファイルを分析し、写真が性的に露骨であると判断された場合、写真は自動的にぼやけて子供に警告されると述べました。



第二に、AppleはiCloud Photosに保存されている既知の児童性的虐待資料(CSAM)画像を検出できるようになり、Appleはこれらの事例をNational Center for Missing and Exploited Children(NCMEC)に報告できるようになります。米国の法執行機関と。 Appleは本日、このプロセスはiCloud Photosにアップロードされる写真にのみ適用され、ビデオには適用されないことを確認しました。

第三に、Appleは、子供と親がオンラインで安全を保ち、危険な状況で助けを得るのに役立つ追加のリソースを提供することにより、デバイス間でSiriとSpotlightSearchのガイダンスを拡大します。たとえば、CSAMまたは子の搾取を報告する方法をSiriに尋ねるユーザーは、報告を提出する場所と方法に関するリソースを示します。

サードパーティアプリへの拡張

Appleは、発表に関して今日共有するものは何もないが、ユーザーがさらに広く保護されるように、子供の安全機能をサードパーティに拡張することが望ましい目標であると述べた。 Appleは具体的な例を提供しなかったが、1つの可能性は、Snapchat、Instagram、WhatsAppなどのアプリで通信安全機能が利用可能になり、子供が受け取った性的に露骨な写真がぼやける可能性がある。

もう1つの可能性は、Appleの既知のCSAM検出システムが、iCloudPhotos以外の場所に写真をアップロードするサードパーティのアプリに拡張される可能性があることです。

Appleは、子供の安全機能がいつサードパーティに拡張できるかについての時間枠を提供しなかった。機能のテストと展開を完了する必要があることを指摘し、同社はまた、潜在的な拡張がないことを確認する必要があると述べた。機能のプライバシー特性または有効性を損なう。

大まかに言えば、Appleは、機能をサードパーティに拡張することが同社の一般的なアプローチであり、2008年にiPhone OS2にAppStoreを導入してサードパーティアプリのサポートを導入して以来ずっと続いていると述べました。