Connect with us

TECNOLOGÍA

Apple en busca de imágenes de abuso sexual infantil

Published

on

Apple dio a conocer planes para escanear iPhones estadounidenses en busca de imágenes de abuso sexual infantil, lo que provocó el aplauso de los grupos de protección infantil.

Sin embargo, generó preocupación entre algunos investigadores de seguridad por el hecho de que el sistema podría ser mal utilizado, incluso por gobiernos que buscan controlar a sus ciudadanos.

La herramienta diseñada para detectar imágenes de abuso sexual infantil, llamada “neuralMatch”, escaneará las imágenes antes de que se carguen en iCloud.

Si encuentra una coincidencia, la imagen será revisada por un humano. Si se confirma la presencia de pornografía infantil, la cuenta del usuario será desactivada y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.

Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría usarse para incriminar a personas inocentes enviándoles imágenes aparentemente inocuas diseñadas para desencadenar coincidencias con la pornografía infantil.

Eso podría engañar al algoritmo de Apple y alertar a las fuerzas del orden. “Los investigadores han podido hacer esto con bastante facilidad”, dijo sobre la capacidad de engañar a tales sistemas. (ANSA).

Comentarios

Continue Reading
Haz clic para comentar

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Principales

Copyright © 2020 Compañía Digital de Televisión.

Do NOT follow this link or you will be banned from the site!