Apple、「CSAM」を放棄し、iCloudの写真は検索しない

Appleは昨年、「CSAM」計画を発表して全世界の怒りを集めた。ユーザーの機密性とプライバシーを強力に擁護する Apple ブランドは、これらの原則に背を向けて、iCloud 上で写真をデジタル化するシステムを立ち上げました。

Apple が発表した目的は、Apple Cloud ツールを使用して児童ポルノとこれらの画像の拡散と戦うことでした。打ち合わせ後世論の強い抵抗、アップルブランドはプロジェクトを「一時停止」しました。

アップルが撤回

本日、Apple は CSAM プロジェクトを完全に放棄したことを発表しました。クパチーノの会社は、その逆を実行して、ユーザーが iCloud 上で写真を暗号化して見えないようにすることさえ計画している。

この機能は、に存在する新機能の 1 つである必要があります。iPhoneのiOS 16.2アップデート。後者はおそらく12月中にリリースされるでしょう。 Appleはまだ具体的な日付を明らかにしていない。 Apple は、この新しいオプションにより、ユーザーは写真に加えて、メモやデバイスのバックアップなどの他のデータも暗号化できるようになると説明しています。

しかし、アップルは児童保護に背を向けているわけではない。 Wired メディアへの声明の中で、Apple ブランドはこの分野への投資を強化していることを表明しました。現在、iPhone は子供 (またはそのように指定されたユーザー) が性的な写真を受信または送信したことを検出することが可能です。

子どもとプライバシーの保護

Apple のネイティブ「メッセージ」アプリケーションにあるこのソリューションを使用すると、受信または送信されたコンテンツをユーザーに通知できます。このプロセスは完全にローカルで行われるため、子供が携帯電話を何に使用するかは誰も知りません。彼のプライバシーは保護されますが、Apple は受信したメッセージを思いやりのある方法でフィルタリングします。

Statisa は、2018 年のフランスでは、11 ~ 14 歳の 23% がすでに自分の意志に反してポルノ画像に遭遇していることを確認しています。この調査によると、デジタル デバイスの使用時に不快なコンテンツに一度も遭遇したことがない子供は 50% のみです。

i-nfo.fr - 公式 iPhon.fr アプリ

提供者: Keleops AG