© アンスプラッシュ / ガブリエル・バランスキー
この夏、これを見逃すはずはありませんでした。Apple は、児童ポルノの可能性がないか顧客の iCloud ファイルをスキャンしたいと発表した後、深刻な疑問を提起しました。実際、悪意のある政府が同じテクノロジーを利用して、たとえば政治的反対派を検出できるのではないかと考える人もいた。欧州連合の最高当局まで、その懸念がついに確認されました。
その間、Appleは批判に応える機会を利用して、一般からの質問に対するいくつかの回答は、ここで再読してください。公式には、CSAM* のアイデアは放棄されました。いずれにせよ、紙の上では、最新の iOS アップデート (開発者向けのベータ版でのみ利用可能)ただし、これに非常に近いオプションが含まれています。説明します…
iOS 15.2 (ベータ 2) でのメッセージの変更点
実際、Apple SMS アプリは、未成年者がその年齢に不適切なコンテンツを含む機密性の高い画像にさらされることを防ぐために改良されました。出版社の公式ドキュメントによると、これにはヌードを識別し、MMS で認識された場合はぼかし処理が含まれます。ユーザーが写真を一度タッチすると、警告が表示されます。ただし、元の画像のロックを解除することはいつでも可能です。たとえば、信頼できる情報源から元の画像を知っている場合などです。
機密保持について
よくあることですが、Apple はまた、消費者を安心させることを目的としたいくつかの詳細を追加する機会を利用しました。まず、ヌードが検出された場合でも、メッセージはエンドツーエンドで暗号化されたままであることを知ってください。さらに、画像はデバイス上で直接スキャンされるため、写真は Apple のサーバーに保存されません。このテクノロジーは、写真アプリで顔やペットを識別するために使用されているものと似ています。
それはオプトインそしてそれは大人向けではありません
最後に、この新機能はデフォルトでは有効になりません。したがって、この機能を利用するには、手動でアクティブ化する必要があります。このセキュリティは、ファミリー共有機能を介して未成年者の携帯電話でのみトリガーすることもできます。したがって、安心して相手とセクストの交換を続けることができます。
*CSAM=児童性的虐待資料
i-nfo.fr - 公式 iPhon.fr アプリ
提供者: Keleops AG