最新情報: 研究者は、誤検知を制限するために Apple が機密画像を検証する 2 番目の方法として使用するものをテストし、成功しました。詳細については記事の最後で説明します。
Apple は、iCloud 用の新しい児童ポルノ検出システムの防御を終えたわけではありません。そして開発者のアスハリエット・イグヴァール氏が数日前に行った新たな発見は、カリフォルニアの巨人の状況を助けるものではない。実際、この男性は、Apple の CSAM 検出のベースとなっている、iOS 14.3 に含まれるコーディングである、いわゆる「NeuralHash」コーディング アルゴリズムを分析しました。彼は、Python プログラミング言語で自分のバージョンのシステムを再作成することさえできました。
これにより、彼は 2 つの非常に離れた画像が同じ NeuralHash 識別子を取得できることを実証しました。そして、Apple による児童ポルノ画像の検出が誤検知を引き起こす可能性があることを考えると、これは憂慮すべきことです。
これは必ず Apple の反応を引き起こし、Apple はすぐに次のように明らかにしました。バイスから、GitHub にある画像検出のバージョンは、Apple が CSAM システムに使用しているバージョンではないということです。 Apple のエンジニアは、このツールのより高度で安全なバージョンを実装することに成功しました。
さらに、カリフォルニアの会社がその文書の 1 つで指定したように、ドキュメントテクニック, iCloud アカウントに児童ポルノ共有のフラグを立てるには、検出しきい値を超える必要があります。しきい値は 30 画像です。これに加えて、システムの報告後、誤検知のリスクを排除するために Apple 従業員によって直接検証が実行されることがわかっています。この点は、次の記事で紹介されました。クパチーノ社が数週間前に公開した FAQ。
実際、システムの開発中に、一方ではユーザーの機密性を尊重し、他方では誤検知を制限するためにあらゆる予防措置が講じられたと想像します。これで十分だと思います。
したがって、この児童ポルノ コンテンツの検出は、次の主要 OS、iOS 15 および macOS Monterey のリリース後、2021 年末までに機能するようになることに注意してください。
2021年8月20日更新
でマザーボードからの新しい記事, Appleは、画像がデリケートな児童ポルノコンテンツであるかどうかを検証するために追加の分析技術を使用していると述べた。この検証は、ユーザーのマシン上でローカルに行われた最初の検出の後、Apple のチームによって手動で直接実行される最後の検証ステップの前に、Apple のサーバー上で行われます。
したがって、この 2 回目のチェックは誤検知をキャンセルできます。これにより、Asuhariet Ygvar が最初に行った発見が確実になり、Apple の CSAM システムの基本アルゴリズムが、同一の 2 枚の写真に対して同じ識別子を作成することでだまされる可能性があることが示されました。
これは、ロボフロー社の人工知能専門家ブラッド・ドワイヤー氏が証明したことだ。後者実証済み人工知能、その研究の場合は OpenAI Clip がどのようにして同じNeuralHashを持つ2つの画像を区別する。このようなシステムがあれば、多くの誤検知が排除されるため、警告を発する前の最後のチェックを行うカリフォルニアの企業チームの作業が制限されることになる。
こちらもお読みください:
i-nfo.fr - 公式 iPhon.fr アプリ
提供者: Keleops AG
iPhon.fr編集長。ピエールはインディ ジョーンズのように、失われた iOS のトリックを探しています。長年の Mac ユーザーでもある彼にとって、Apple デバイスには秘密がありません。連絡先: pierre[a]iphon.fr.