Una tecnología que evalúa las emociones humanas permitirá a los robots reconocer nuestros estados de ánimo, conversar con nosotros, aconsejar a los niños en caso de acoso escolar y tal vez incluso detectar mentiras.
Un sistema de tecnología portátil desarrollado por investigadores del Instituto Nacional de Ciencia y Tecnología Ulsan de Corea del Sur podría eventualmente ayudar a los robots humanoides a integrarse mejor en la sociedad.
Se trata de un sistema facial extensible y portátil que evalúa las emociones humanas mediante el control de la fricción y la vibración de la piel, y produce su propia energía a través de piezoelectricidad.
El dispositivo cuenta con sensores flexibles y personalizables que se adhieren a la cara del usuario y se conecta a un sistema integrado capaz de evaluar patrones de tensión en la cara y vibraciones de la voz. De esta forma, nos “capta”.
Sensores faciales
Los robots humanoides son cada vez más capaces de realizar diversas tareas, pero todavía les falta algo esencial para integrarse plenamente en la sociedad: la capacidad de leer y responder adecuadamente a nuestros estados emocionales. El nuevo dispositivo portátil desarrollado por investigadores de Corea podría ayudarles a lograrlo.
Se trata de un sistema de sensores flexibles y transparentes que se adhieren al rostro en los lados izquierdo y derecho de la cabeza. La mayor parte de cada sensor se sitúa entre el ojo y la oreja, y se extiende sobre y por encima de cada ojo, hasta la mandíbula y alrededor de la parte posterior de la cabeza. El equipo dice que los sensores se pueden personalizar para adaptarse a cualquier rostro.
Captando emociones
Una vez colocados los sensores, se conectan a un sistema integrado que ha sido entrenado para descifrar las emociones humanas basándose en los patrones de tensión en nuestro rostro y las vibraciones de nuestra voz, lo que permite el reconocimiento de emociones en tiempo real.
Las capacidades del sistema se demostraron en una aplicación de “conserjería digital” de realidad virtual, donde se brindaron servicios personalizados basados en las emociones de los usuarios.
La capacidad del sistema para identificar emociones individuales en diferentes situaciones permitió brindar recomendaciones personalizadas de música, películas y libros.
Sistema autónomo
A diferencia de otros sistemas que han utilizado técnicas similares, este es completamente autónomo, ya que genera su propia energía mediante el estiramiento del material del sensor a través de un principio piezoeléctrico.
Esto significa que se puede llevar todo el día sin preocuparse de recargarlo. Según los investigadores de UNIST, se trata de la primera vez que se crea un sistema portátil de reconocimiento de emociones totalmente independiente.
El trabajo de UNIST se suma a una larga lista de esfuerzos que buscan hacer que la tecnología sea más sensible a los humanos que la utilizan.
A medida que las tecnologías mejoren en la comprensión de nuestros estados emocionales, los androides no sólo serán más capaces de mejorar nuestros estados de ánimo, sino que dichos avances podrían derribar algunos de los muros que aún quedan entre los humanos y los robots.
Robots emocionales
Por ejemplo, robots médicos de compañía para personas mayores. En lugar de un molesto robot que pasa tres veces al día instándo a un paciente a tomar sus medicamentos o s beber más agua con una voz plana y mecánica, una máquina de este tipo podría entablar una conversación, evaluar el estado de ánimo y emplear el tipo adecuado de estrategia conversacional, explican los investigadores.
Los robots emocionalmente inteligentes podrían asimismo ayudar a los niños a lidiar con los problemas de acoso escolar y representar un «interlocutor» seguro para que discutan temas que son demasiado difíciles para hablar con compañeros humanos: podrían brindar consejos lúcidos de una manera que un padre frustrado tal vez no podría hacerlo.
La tecnología de lectura de emociones podría por último actuar como una especie de detector de mentiras avanzado, decodificando cómo se siente realmente una persona, independientemente de cómo diga que se siente.
Referencia
Encoding of multi-modal emotional information via personalized skin-integrated wireless facial interface. Jin Pyo Lee et al. Nature Communications, volume 15, Article number: 530 (2024). DOI:https://doi.org/10.1038/s41467-023-44673-2