アップルが、すべての人のiPhone内部の写真をスキャンして、児童の性的虐待に絡むコンテンツを検知するという計画を発表した。アップルは、iPadやMacを含むiCloud対応デバイスに保存されているすべての写真を、児童の性的虐待のコンテンツ(CSAM)のデータベースと比較し、「写真ファイル」の中身をチェックするという。問題がある画像が見つかればアップルの社員の確認を経て、法執行機関とこの画像を共有するという。しかし、問題なのは アップルがiCloud上のデータだけでなく、個人のiPhoneの内部の写真すべてを検査の対象とする点だ。セキュリティ専門家は、誰かが携帯電話を買う場合、自分が所有する端末のすべてのコントロール権を手に入れると思ってるはずなのに、アップルは「違法なコンテンツがiCloud にアップロードされることを防止するという名目」で、ユーザーの個人情報の内部にまで介入してくるのは問題だと指摘する。さらに、アップルの意向次第で、この先人々のデバイスにある別のタイプのコンテンツの検閲を行う恐れもでてくると述べている。スマホは親しい仲間と写真をシェアするための最強のツールだが、写真ファイルの中には他人に知られたくない画像も含まれている。個人情報の最たる写真ファイルを「児童虐待防止」の目的でアップルに勝手に覗かれてしまう事に、あなたはYESですか?NOですか?