Skip to main content

El organismo de control del Reino Unido advierte sobre los riesgos tecnológicos del análisis de emociones

Las empresas no deben utilizar tecnologías biométricas inmaduras para analizar las emociones, advirtió la Oficina del Comisionado de Información.

Al ICO le preocupa que las organizaciones estén tomando decisiones críticas sobre las personas sin darse cuenta de que no hay evidencia científica de que la tecnología funcione.

Y podría causar "sesgo sistémico, inexactitud e incluso discriminación".

El comisionado adjunto Stephen Bonner le dijo a BBC News que la peor tecnología era poco mejor que un pez adivinador.

Los movimientos de los peces de plástico rojo translúcido, que a menudo se encuentran dentro de las galletas navideñas, cuando se colocan en la palma de la mano, supuestamente predicen el futuro.

Bonner también comparó las fantásticas afirmaciones de algunas tecnologías biométricas con el sombrero mágico seleccionador de los libros de Harry Potter.

Tecnologías ineficaces

La información biométrica se basa en características físicas y de comportamiento, como los movimientos faciales o los latidos del corazón.

El ICO no estaba en contra de la biometría utilizada correctamente, dijo Bonner al BBC News Tech Tent Podcast , y enfatizó que algunas tecnologías, como los escaneos faciales y de huellas dactilares para acceder a los teléfonos inteligentes, podrían proteger los datos de las personas de manera muy efectiva.

Pero los científicos le dijeron al ICO que no había un vínculo sólido entre las emociones e intenciones internas de las personas y la expresión en su rostro o el sudor en su piel.

Como ejemplo, Bonner sugirió una tecnología de reclutamiento que analizó un video de tres minutos y afirmó poder decir "si esta persona encajará de manera brillante en su equipo".

Investigadores postdoctorales de la Universidad de Cambridge plantearon recientemente preocupaciones similares sobre algunas de las afirmaciones hechas sobre los sistemas de análisis de imágenes de inteligencia artificial utilizados para evaluar la personalidad de un candidato a un puesto de trabajo.

Bonner dijo que la ICO estaba advirtiendo a las empresas: "Si vas y compras esta tecnología sin ninguna evidencia de que realmente esté funcionando y luego hay daños para las personas, vamos a intervenir".

Y quería proteger la reputación de las aplicaciones biométricas legítimas de la asociación con tecnologías ineficaces.

https://www-bbc-com.cdn.ampproject.org/c/s/www.bbc.com/news/technology-63402344.amp