CSAM は Apple が開発中のこの新しいシステムで、iCloud 写真ユーザーの写真の中から児童ポルノ コンテンツを検出することを目的としており、現在大きな話題になっています。プライバシー擁護者の熱意を静めるために、カリフォルニアの会社によって FAQ も公開されています。詳しいFAQはこちら。
写真のプライベートな性質を尊重し、児童ポルノコンテンツの閲覧という違法行為を特定するというAppleの意図をどのようにユーザーに理解してもらうか、Appleのプライバシー責任者、またはAppleプライバシー責任者のエリック・ノイエンシュワンダー氏がTechCrunchからのいくつかの質問に答えた。私たちの意見では、インタビューから得られた重要なポイントは次のとおりです。
他のクラウドサービスとは異なり、デバイス側の分析
エリック・ノイエンシュワンダーは私たちに保証します: Apple のシステムは他のクラウドシステムとの違い基本的な分析はクラウドではなくユーザーのマシンで行われるため、児童ポルノ コンテンツの検索に最適です。これもまた、Apple マネージャーによると、これは技術革新であり、ユーザーデータの機密性を維持しながら違法な画像の検索を可能にするものです。
どのように機能するのでしょうか?
このシステムは実際に、機密性の高い写真の識別子を作成します。この識別子は、行方不明児童搾取児童センターのデータベースなど、認識されている児童ポルノ画像データベース内の写真の識別子と比較されます。
Erik Neuenschwander 氏は、システムが iPhone 上のデータやユーザーの iCloud 写真ライブラリ全体にさえアクセスすることは決してできないと保証します。
© Appleさらに、一定数の機密画像が比較に使用されたデータベース内の画像と同一であると識別された瞬間から、アラートが発せられます。したがって、超えるべき唯一のものがあります。これにより、とりわけ、誤検知の出現に対する最初の制限として機能することができます。ただし、このしきい値により、iCloud 写真アカウント内で単一の画像を検索することもできなくなります。最後に、当初児童ポルノ対策を目的としていた画像以外の画像の検索を防止します。
iCloud および米国限定の CSAM
当初、このシステムは米国ユーザー専用で、iCloudにアップロードされた写真のみに影響する。MacRumors の報道によると, 後の段階で海外展開が必要になることも不可能ではありません。しかし、これは対象となる各国と、機密保持と児童ポルノに関する合法化の厳格さによって異なります。
いずれの場合でも、画像検出は新しい OS iOS 15、macOS Monterey、iPadOS 15 のリリース後に開始されます。児童ポルノ写真と戦うためにこのようなシステムを実装した最初のテクノロジー企業は Apple ではないことに注意してください。 Google、CyberTipline ツール経由、児童ポルノの写真が Gmail ユーザーによって共有された場合に警告を発することができます。
iCloud 上の児童ポルノ コンテンツを検出するための Apple の新しい CSAM システムについてどう思いますか?
i-nfo.fr - 公式 iPhon.fr アプリ
提供者: Keleops AG
iPhon.fr編集長。ピエールはインディ ジョーンズのように、失われた iOS のトリックを探しています。長年の Mac ユーザーでもある彼にとって、Apple デバイスには秘密がありません。連絡先: pierre[a]iphon.fr.