Aunque para muchos es una forma de obtener información valiosa en contra de los pedófilos, para otros es cruzar el límite que protege la privacidad en la red
En las últimas horas, Apple anunció la inclusión de nuevas herramientas que estarán presentes en sus más recientes sistemas operativos (iOS 15, iPadOS 15, watchOS 8 y macOS Monterey) y con las cuales se luchará en contra del abuso infantil, inicialmente en Estados Unidos.
“En Apple, nuestro objetivo es crear tecnología que empodere a las personas y enriquezca sus vidas, al mismo tiempo que las ayuda a mantenerse seguras. Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del material de abuso sexual infantil (MASI)”, explicó la empresa por medio de un comunicado oficial.
Prevención, seguridad e investigación
Ampliando esta información, el gigante tecnológico aseguró que este nuevo proyecto se enfocará en tres frentes: prevención, seguridad e investigación. Así, en el primer caso, Apple informó sobre la opción de que Siri y Search puedan cuidar a los menores de edad, informando de forma directa a los padres en caso de que sus hijos se encuentren en peligro. Estas herramientas también serán protagonistas en caso de que los niños o adolescentes intenten buscar información relacionada con MASI.
“Estas intervenciones explicarán a los usuarios que el interés en este tema (MASI) es dañino y problemático, y proporcionarán recursos de los socios para obtener ayuda con este tema”, añadió el documento de Apple.
En el caso de la seguridad, la compañía explicó que la aplicación de iMessage, “utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible, al tiempo que mantiene las comunicaciones privadas ilegibles para Apple”.
“Al recibir este tipo de contenido, la foto se verá borrosa y se advertirá al niño, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto. Como precaución adicional, también se le puede decir al niño que, para verificar de que está seguro, sus padres recibirán un mensaje si la ve. Existen protecciones similares disponibles si un niño intenta enviar fotos sexualmente explícitas. El niño será advertido antes de que se envíe la foto y los padres pueden recibir un mensaje si el niño decide enviarlo”, advierte la información.
El último frente (la investigación) es sin duda alguna, el que más polémica ha levantado, teniendo en cuenta que se trata de una herramienta que promete trabajar de la mano con las autoridades, en busca de información alojada en los iPhone (fotos, audios, videos) que pueda ser considerada como material de abuso sexual infantil.
“Para ayudar a abordar esto, la nueva tecnología en iOS y iPadOS permitirá a Apple detectar imágenes MASI conocidas almacenadas en iCloud Photos. Esto permitirá a Apple reportar estos casos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC por sus siglas en inglés). El NCMEC actúa como un centro de información integral para MASI y trabaja en colaboración con las agencias de aplicación de la ley en los Estados Unidos”, explicó Apple.
Sin embargo, esta nueva propuesta también puede representar para algunas personas ir un paso más allá del límite que protege la privacidad de los usuarios. Por ejemplo, el profesor y criptógrafo de la Universidad John Hopkins, Matthew Green, indicó en su cuenta de Twitter que “este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas ¿Pero imagina lo que podría hacer en manos de un gobierno autoritario?”.
“Incluso, si crees que Apple no permitirá que estas herramientas se utilicen incorrectamente, todavía hay mucho de qué preocuparse”, agregó Green.
En respuesta, Apple manifestó que, a pesar de los miedos de las personas, su método está construido con base en el respeto a la privacidad del usuario, pues “antes de que una imagen se almacene en Fotos de iCloud, se realiza un proceso de comparación en el dispositivo para esa imagen con los hashes MASI conocidos”. En pocas palabras, la empresa no estaría revisando información almacenada en la nube de los usuarios, sino que instantes antes compara los datos con información de MASI, para así saber de primera mano si se debe o no prestar atención a alguna foto o video antes de finalizar el guardado.
Fuente: Infobae