Apple Inc. (NASDAQ:AAPL) ha enfatizado que no permitirá que ningún gobierno realice vigilancia utilizando su nueva herramienta destinada a detectar material de abuso sexual infantil (CSAM, por sus siglas en inglés).
Lo que ha sucedido
Apple ha señalado que su función de detección CSAM está construida únicamente para detectar imágenes conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otros grupos de seguridad infantil.
“Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirlo”, ha afirmado Apple en un documento publicado en su sitio web.
El gigante tecnológico agregó que la función no funciona en la biblioteca de fotos privada del iPhone en el dispositivo.
Por qué es importante
Apple anunció el lanzamiento de las nuevas funciones la semana pasada, pero generó controversia sobre si el sistema reduce la privacidad del usuario de Apple.
Los expertos en seguridad están preocupados acerca de que la tecnología pueda expandirse finalmente para escanear los teléfonos en busca de otro contenido prohibido. También podría ser utilizado por gobiernos autoritarios para espiar a disidentes y manifestantes.
Will Cathcart, director de la app de mensajería instantánea WhatsApp de Facebook Inc. (NASDAQ:FB), criticó el plan de Apple de lanzar esta nueva función y lo calificó como un “revés para la privacidad de las personas en todo el mundo”.
El movimiento de los precios
En las negociaciones del lunes, las acciones de Apple cerraron casi un 0,1% a la baja hasta los 146,09 dólares.