Connect with us
Apple admite "confusión" y dice que la función contra la pedofilia es "auditable" ... - Veja mais em https://www.translatoruser-int.com/translate?&to=es&csId=8ce8086a-a564-4f78-bd8e-bb33c60a2ed4&usId=029446f1-d24f-4918-a5a5-fe2088606ce8&ref=TVert&refd=www.bing.com&dl=es&ac=true&dt=2021%2F8%2F14%205%3A40&h=_D8VlQdyg5_r2kfUu8ngV8rPZo4TsGYH&a=https%3A%2F%2Fwww.uol.com.br%2Ftilt%2Fnoticias%2Fredacao%2F2021%2F08%2F13%2Fapple-admite-confusao-com-recurso-anti-pedofilia-e-diz-que-e-auditavel.htm&cmpid=copiaecola Apple admite "confusión" y dice que la función contra la pedofilia es "auditable" ... - Veja mais em https://www.translatoruser-int.com/translate?&to=es&csId=8ce8086a-a564-4f78-bd8e-bb33c60a2ed4&usId=029446f1-d24f-4918-a5a5-fe2088606ce8&ref=TVert&refd=www.bing.com&dl=es&ac=true&dt=2021%2F8%2F14%205%3A40&h=_D8VlQdyg5_r2kfUu8ngV8rPZo4TsGYH&a=https%3A%2F%2Fwww.uol.com.br%2Ftilt%2Fnoticias%2Fredacao%2F2021%2F08%2F13%2Fapple-admite-confusao-com-recurso-anti-pedofilia-e-diz-que-e-auditavel.htm&cmpid=copiaecola

Actualidad

Apple dice que la función contra la pedofilia es “auditable”

Published

on

¡Clickear Stars!
(Votos: 1 Promedio: 5)
Apple admite "confusión" y dice que la función contra la pedofilia es "auditable" ... - Veja mais em https://www.translatoruser-int.com/translate?&to=es&csId=8ce8086a-a564-4f78-bd8e-bb33c60a2ed4&usId=029446f1-d24f-4918-a5a5-fe2088606ce8&ref=TVert&refd=www.bing.com&dl=es&ac=true&dt=2021%2F8%2F14%205%3A40&h=_D8VlQdyg5_r2kfUu8ngV8rPZo4TsGYH&a=https%3A%2F%2Fwww.uol.com.br%2Ftilt%2Fnoticias%2Fredacao%2F2021%2F08%2F13%2Fapple-admite-confusao-com-recurso-anti-pedofilia-e-diz-que-e-auditavel.htm&cmpid=copiaecola

Imagen: Onur Binay/ Unsplash

Apple ha decidido aclarar la polémica en torno a los llamamientos de pedofilia anunciados esta semana que han hecho creer a muchas personas -incluso al jefe de WhatsApp– que la compañía ha creado una forma de vigilar los iPhones de las personas.

En una entrevista con The Washington Post, el vicepresidente de ingeniería de software de Apple, Craig Federighi, admitió que hubo un “malentendido” con respecto al sistema, y dijo que es “auditable”

El sistema en cuestión es el que Apple utilizará para detectar imágenes de abuso infantil en iCloud, el servicio de almacenamiento en la nube de la compañía, ofrecido por suscripción a propietarios de iPhones u otros productos de marca.

Un algoritmo comparará el hash (una especie de “CPF” que identifica cualquier archivo en la memoria del teléfono celular) de las imágenes de la galería del iPhone con una base de datos utilizada por la policía para catalogar imágenes conocidas de pornografía infantil.

Cuando las fotos en la galería se almacenan en iCloud, aquellas que tienen un hash que coincide con el hash de alguna imagen conocida de pornografía infantil de la policía se marcarán con una etiqueta adhesiva de “atención”.

Según Apple, si más de 30 fotos están etiquetadas con esta pegatina, un auditor humano comprobará si no fue una falsa alarma. Si en realidad son imágenes de pornografía infantil, la cuenta que subió esos archivos en iCloud se reporta a la policía.

“Seamos claros: [el sistema] no analiza para ver si tienes una foto de tu hijo en la bañera o algún otro tipo de porno. Literalmente, solo detecta las huellas dactilares exactas de imágenes específicas y conocidas de pornografía infantil”, dijo Federighi a “WSJ”.

Apple-¿Puerta trasera?

Organizaciones en defensa de la privacidad digital, como la EFF (Electronic Frontier Foundation), así como expertos en seguridad e incluso Edward Snowden, acusan a Apple de crear, con este sistema, una especie de “puerta trasera” en los teléfonos de las personas.

El temor es que en el futuro, una administración diferente a la actual en Apple o incluso países autoritarios obligue a la compañía a utilizar este sistema para buscar otro tipo de imágenes distintas a la pornografía infantil y así debilitar la privacidad de las personas.

“Si alguien viniera a Apple [para pedir que el sistema se usara con otros archivos], Apple diría que no. Pero digamos que no solo quieres confiar en lo que dice Apple. Quieres asegurarte de que Apple no pudiera salirse con la suya si lo hiciéramos. Esta fue la demanda que hicimos nosotros mismos”, dice Federighi.

“Hay múltiples niveles de auditabilidad. Te garantizamos que no necesitas confiar en una sola entidad o un solo país en relación a qué imágenes forman parte de este proceso”, agregó el ejecutivo, sin dar detalles de cómo funcionará esta “auditoría”.

Filtrar desnudos en mensajes

Además del detector de pornografía infantil en iCloud, Apple ha anunciado un sistema que avisará a padres y madres cuando su hijo o hija reciba y abra una imagen que contenga desnudez. Esta detección, sin embargo, se realizará con una inteligencia artificial en el propio iPhone del niño, sin conexión a los servidores de Apple.

La crítica aquí es que los sistemas de inteligencia artificial no siempre son confiables a la hora de detectar el contenido de una foto. ¿Está Apple seguro de que este sistema no clasificará erróneamente como desnudez algo completamente diferente (como una foto de un cohete, por ejemplo?.

“El sistema es muy bueno, muy preciso”, dijo Federighi a “WSJ”, pero reflexionó: “Puede cometer un error. Fue difícil engañar a este sistema en nuestras pruebas, pero se puede engañar”.

Apple anunció inicialmente las características solo para los Estados Unidos, pero dice que considerará el lanzamiento en otros países en el futuro.

Facebook Commentarios
Advertisement

Opinión

Fanpage PYSN

Advertisement

Noticias Curiosas (•ө•)

Actualidad

Tendencias