今週の木曜日、8月19日、公開書簡はAppleに計画を放棄するよう促した。「iPhone、iPad、その他の製品に監視機能を作成する」「国際連合」によって出版されました。後者は、EFF のような協会を含むほぼ 9 つのグループで構成されています。
書簡に明記されているように、CSAMツールは権威主義政府によって特定の言論を検閲するために使用される可能性がある。 「私たちは、これらが保護された言論を検閲するために使用され、世界中の人々のプライバシーと安全を脅かし、多くの子供たちに悲惨な結果をもたらす可能性があることを懸念しています。」
手紙の著者は続けて次のように説明しています。政府はアップルに対し、露骨な性的表現以外の理由で不快な画像の検出を強制する可能性がある」
iMessage システムにも疑問の声が上がっている
この書簡はまた、Appleに対し、iMessageに対する計画された変更を中止するよう求めている。これらにより、子供のメッセージ内のヌードを識別してぼかし、親に通知された場合にのみ子供がそれを見ることができるようにする必要があります。これに対し署名者らは、この機能は不寛容な家庭の子供たちだけでなく、教材を探している子供たちも危険にさらす可能性があると述べている。さらに深刻なのは、この機能は、iMessage の基本的なセキュリティ原則の 1 つであるエンドツーエンドの暗号化を単純に破ってしまうことです。
iCloud 写真に保存されている CSAM 画像を検出するという Apple の計画は特に物議を醸しており、セキュリティ研究者、学者、プライバシー団体からの懸念を引き起こしています...
この新しい選択肢が政府によって大規模監視の一形態として悪用される可能性があると誰もが信じています。クパチーノの同社は、この問題に関する FAQ を公開することで懸念に対処しようとし、システム拡張の要求はすべて拒否すると約束しました。
しかし、ご指摘の通りロイターApple が CSAM ツールの変更や撤退を強制する裁判所命令に直面した場合、中国やインドのような国から撤退する決断を下すことを想像するのは難しい。
i-nfo.fr - 公式 iPhon.fr アプリ
提供者: Keleops AG