¿Recuerdas cuando se comprobó que un Airtag puede resolver un caso de robo? Apple suele buscar más funcionalidades en sus dispositivos que las directamente físicas y, si además colaboran con la ley, mejor que mejor. Esta vez se trata de palabras mayores.
La noticia que ya ha dado la vuelta al mundo es que los de Cupertino controlarán las fotos que subas a iCloud para detectar si existe pornografía infantil. Un asunto de máxima seriedad, pero incómodo para quienes se preocupan por su privacidad, en Xataka y Business Insider han hablado de ello.
La dinámica será sencilla: activarán una serie de funciones, una de ellas dedicada a proteger a los menores en Internet a través de NeuralHash. Lo hará sin descifrar las imágenes, manteniendo la privacidad de la cuenta del usuario, simplemente comparando con una base de datos de imágenes que ya han sido reportadas.
Desde Apple han confirmado que ningún humano tendrá acceso a las imágenes privadas de iCloud, a no ser que se envíe un reporte alarmante que necesite una confirmación antes de desactivar la cuenta y enviar la información a las autoridades. En Mensajes también tomarán medidas, difuminando fotografías en las que se detecten desnudos.
Es una medida polémica que busca un bien común, aunque los métodos todavía no se ven con buenos ojos. Por tu parte, no temas, tienes la ayuda de Tu Experto para saber cómo manejar la situación y, en todo caso, puedes sacar partido de su eterno compañero BitDefender y mantener tu seguridad y privacidad. ¿Mejor así? Tendremos tiempo de saber mucho más hasta que esta nueva política sea una realidad, previsiblemente a finales de año en Estados Unidos.
Las voces contrarias no se han hecho esperar. Directivos de WhatsApp, la Electronic Frontier Foundation o el mismísimo Edward Snowden dicen que esto no ayudará a frenar la pornografía infantil, pero sí deteriorará la privacidad del usuario. Al fin y al cabo, para Apple el fin (en este caso, acabar con esta lacra) justifica los medios.
Asunto | Autor |
---|---|
¿No encontraste lo que buscabas?