Negar con la cabeza o cambiar la mirada son sólo dos de los gestos faciales pueden ayudar a los ordenadores a saber qué pensamos sin necesidad de usar un teclado o un ratón. Investigadores de la Universidad de Cambridge han desarrollado un sistema que interpreta esas señales.
Un ordenador consciente de nuestras emociones es lo que están desarrollando investigadores británicos y estadounidenses, que pretenden que el sistema sea capaz de leer el pensamiento de la persona que se sienta ante la pantalla, analizando para ello una combinación de movimientos faciales que representan sentimientos.
“Lo que hemos desarrollado es un sistema que permite identificar un amplio rango de estados mentales tan sólo con apuntar una cámara hacia su cara”, señala el profesor Peter Robinson, de la Universidad de Cambridge. Él y sus colaboradores creen que las aplicaciones que permiten a los ordenadores “leer la mente”, podrían ayudar a mejorar las habilidades de conducción o contribuir a que las empresas modifiquen su publicidad en función del estado de ánimo de sus destinatarios.
“Estamos trabajando con una gran compañía del sector del automóvil y ellos creen que esta tecnología podría usarse en menos de cinco años, señala Robinson. “Imagina un ordenador que pudiera averiguar cuál es tu estado de ánimo para intentar venderte algo, un futuro donde los teléfonos móviles, los coches, y las páginas Web pudieran leer nuestra mente y reaccionar ante nuestro estado”, añade.
La tecnología que han desarrollado ya está programada para reconocer diferentes expresiones faciales creadas por actores. Robinson espera a tener más datos para determinar si alguien está aburrido, interesado o confuso, si está de acuerdo o en desacuerdo, para cuando presente el proyecto en un certamen científico de Londres. Los visitantes de este evento, organizado por la Royal Society, la academia británica de científicos, serán invitados a participar en el estudio de las capacidades del sistema.
Los científicos británicos, que desarrollan la nueva tecnología en colaboración con investigadores del Massachusetts Institute of Technology de EE UU, también esperan lograr otras fuentes de información, como la postura.
Cualquiera que no quiera dar mucha información sobre lo que está sintiendo sólo tendrá, según los investigadores, que cubrir el objetivo de la cámara delatora.
Un 54,7 % de los trabajadores formados en IA en nuestro país son hombres y…
Las aplicaciones más pujantes son las de traducción automática, los chatbots y los asistentes de…
La mayoría de las empresas carece de personal con las competencias necesarias para trabajar con…
Solamente 1 de cada 10 no aprovechará las rebajas, el 70 % gastará lo mismo…
El internet de las cosas (IoT) trae muchas ventajas, pero también comporta nuevos riesgos. El…
Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…