この事件は、Apple がユーザーの iCloud 写真をスキャンするために自社のデバイスに実装したいと考えている CSAM ツールをめぐる大きな論争のさなか、今起こっていなければ、きっとこれほど大きな騒ぎにはならなかったでしょう。児童ポルノと児童の人身売買と闘うことを唯一の目的としています。
この措置は直面する必要がありますが、個人の自由の擁護者の大群たとえ子供たちを守るためであっても、Apple が iCloud アカウントをスパイすることを望んでいないにもかかわらず、サンフランシスコ湾地域の医師は、Apple にそのツールの利点についての主要な例を提供しています。使ったこともなくてもCSAM ツール, アメリカ連邦当局は児童ポルノ画像を所持していたこの医師を逮捕しました。
これらの画像は彼の iCloud アカウントで見つかりました。捜査当局は、この58歳の医師のアカウントで、児童の性的搾取に関する画像とビデオを合計2,000件以上収集した。腫瘍学の専門家である彼は、ベイエリアのいくつかの医療機関に所属し、UCSF 医学部の准教授でもありました。
CSAM がどのように機能するかを証明するには?
連邦当局は、Apple が導入を準備している CSAM ツールを使用せずにこの調査を実施しました。彼らは別の手段で彼の iCloud アカウントにアクセスすることに成功し、この山のような証拠を手に入れました。
Apple は、iCloud アカウントに保存されている画像と、搾取された子供や行方不明の子供たちのデータベースにある画像を比較するツールを立ち上げる予定です。より正確には、Apple は 2 つの画像のハッシュを比較して、一致するものを見つけます。いかなる場合でも、私たちのアカウント上の写真をスキャンすることはありません。また、それが何であるかはわかりません。データベース内の写真と異なるということだけがわかります。 CSAM ツールをよりよく理解するために、Apple は数日前に FAQ を公開しました。ここで見つけることができます。
i-nfo.fr - 公式 iPhon.fr アプリ
提供者: Keleops AG