児童保護とCSAM: Appleがプロジェクトを停止

AppleInsider に送信されたプレスリリースの中で、Apple は重要な発表を行いました。カリフォルニアの会社は実際にこう宣言した児童保護ツールの導入を一時停止する数週間前に発表された。

ここで詳しく説明されているように、アメリカの巨人は、iOS 15で子供たちを性的コンテンツから守るためだけでなく、児童ポルノコンテンツを共有するiCloudアカウントを非難するためのいくつかの新機能のリリースを計画した。特に人々をうんざりさせたのはこの点でした。なぜなら、たとえこの検出の基礎となる分析システムが、それまで机上では機密保持の観点から非常に安全であるように見えていたとしても、それは多くの人にとって大きな恐怖の源だったからです。アナリストの間でも緊張感が漂っていたのは明らかだった。ITセキュリティスペシャリスト私生活の擁護者にとって、エドワード・スノーデンじゃないよ。彼女さえもカリフォルニアの会社に直接侵入した

しかし、Apple が追って通知があるまでプロジェクトを一時停止した。同社はAppleInsiderに対し、議論の的となっているCSAM(iCloud画像分析)などのツールと状況の分析に時間をかけていきたいと説明している。

この決定についてどう思いますか?

こちらもお読みください:

i-nfo.fr - 公式 iPhon.fr アプリ

提供者: Keleops AG

iPhon.fr編集長。ピエールはインディ ジョーンズのように、失われた iOS のトリックを探しています。長年の Mac ユーザーでもある彼にとって、Apple デバイスには秘密がありません。連絡先: pierre[a]iphon.fr.