カリフォルニアの会社が巻き込まれている批判の嵐など無理解の新しいコンテンツ監視ツールの実装を発表した後。特に彼らは、カリフォルニア州民が児童ポルノの性質を持つ画像を特定できるようにしたいと考えており、その結果、そのコンテンツを共有しているユーザーを特定できるようにしたいと考えているが、これはフランスでも米国でも世界の他の地域でも明らかに違法な行為である。
Apple の願望が当初は善意であったとしても、児童保護をめぐるこの闘いでは、多くの人が児童虐待と思われるものに対する潜在的な虐待を懸念している。ユーザーの大規模監視への第一歩。
そこで、安心してもらうために、同社は最近、FAQまたはよくある質問この新しい児童保護システムに特に焦点を当てています。そこで私たちが学んだことは次のとおりです。
どのようなツールについて話しているのでしょうか?
Apple は FAQ の中で、この新しい児童保護システムは実際には 2 つのツールによって支えられていると明記しているため、混同しないでください。1 つは iMessage での性的コンテンツに対する警告、もう 1 つは iCloud での児童ポルノ コンテンツの検出 (児童性的虐待マテリアルの CSAM と呼ばれる) です。
性的画像警告ツール
iMessage 写真限定
上で述べたように、2 つのツールのうち 1 つ目は性的な画像を警告するメカニズムです。 iMessage によって送信された画像に焦点を当て、分析が行われます。ローカルで、マシン上で。彼はで活動していますファミリー共有経由で設定された子供アカウント権限を持つユーザー (通常は親) が無効化できます。これは、子供たちにショックを与える可能性のある性的な写真にアクセスする前に警告するために使用することを目的としています。アクティブにすると、このツールは機密性の高い写真をぼかし、子供に警告します。オプションを使用すると、このツールで識別された画像を子供が表示したときに親に通知することもできます。
©アップル
Apple が指定しているように、このツールはiMessage の基礎となるエンドツーエンドの暗号化には疑問を呈しません。したがって、会社が iMessage 交換の内容にアクセスすることは決してありません。画像の分析は、交換の終了時に、画像を開くために使用されたデバイスからのみ実行され、ローカルで記憶されます。
さらに、Apple は次のように述べていますこの文脈における性的画像検出情報をいかなる当局とも共有しないでください。
CSAM 児童ポルノ コンテンツ検出ツール
2 つ目のツールは、児童ポルノ画像を検出するメカニズムです。 iCloud写真でのみ有効です。詳細は以下をご覧ください。
CSAM ではどのようなコンテンツが分析されますか?
CSAMコンテンツの分析は実行されません写真のようにビデオではありません。さらに、iCloudにアップロードされた写真のみが考慮されます。 iCloud バックアップを使用しない場合、写真は Apple の児童ポルノ チェッカー ツールを通過しません。
CSAM は、iPhone または iPad 上のローカル写真ライブラリからの写真、または iMessage コンテンツをスキャンしません。したがって、Apple テキスト サービスのエンドツーエンド暗号化には違反しません。 iCloud 上のプライバシーについては、また別の質問になります。
人間は iCloud 画像を見ることができますか?
体系的にではありません。人工知能を使用してユーザーの iCloud スペース上で児童ポルノの性質を持つ画像が検出され、NCMEC (国立行方不明児童搾取児童センター) やその他の児童保護協会の既存の画像バンクとの比較が行われます。
Apple は、この意味で次のようにも指定しています。誤検知は非常にまれです同社によれば、年間10億分の1未満。
AI によって画像が検出されると、検出を検証または無効にするために人間による分析が行われます。 Apple は、罪のない人々が何も恐れることはないと保証します。
陽性が検出された場合はどのような影響がありますか?
人間による分析の結果、iCloud アカウントに児童ポルノ画像が含まれているとみなされた場合は、NCMEC に通知されます。ただし、NCMEC へのこの警告後の結果は不明です。その後、ファイルおよび特定されたユーザーを管理するよう管轄当局に通知される場合があります。
将来的には他のコンテンツにも拡張される予定ですか?
カリフォルニアの会社は、自社のシステムが児童ポルノコンテンツのみに焦点を当てて構築されていることを保証します。さらに、検出システムに他のコンテンツを追加するという政府の要請を拒否すると明記しています。クパチーノの巨人にとって、これは児童ポルノ画像を検出するだけの問題であり、それ以外の何ものでもありません。
サードパーティのサービスの拡張機能ですか?
MacRumors が報じているように, Appleは、この児童ポルノ画像の検出がサードパーティツールにも導入されることを目指しています。たとえば、WhatsApp、Instagram、さらには Google フォトを思い浮かべます。しかし、現在に至るまで、まだそうなっていません。現在、iCloud 上の写真のみが CSAM 分析の影響を受けます。
SiriとSpotlightも使用
Apple は、iPhone や iPad からの Siri リクエストや Spotlight 検索中に、この主題に関するより実用的な情報を表示することで、Siri と Spotlight 検索も児童保護をめぐるこの戦いに参加できるようになると示唆しています。
©アップル
アクティブツールっていつから?
これらの性的および児童ポルノ画像検出機能は、iOS 15、iPadOS 15、macOS Monterey、watchOS 8 以降のバージョンに実装される予定ですが、日付はまだ不明です。
i-nfo.fr - 公式 iPhon.fr アプリ
提供者: Keleops AG
iPhon.fr編集長。ピエールはインディ ジョーンズのように、失われた iOS のトリックを探しています。長年の Mac ユーザーでもある彼にとって、Apple デバイスには秘密がありません。連絡先: pierre[a]iphon.fr.