• UABDivulga
27/01/2021

La transferencia antropomórfica de la Inteligencia Artificial

Inteligencia Artificial

¿Puede un robot tener emociones o entender las de los humanos? En este artículo  Jordi Vallverdú, profesor del Departamento de Filosofía  nos explica con matices una narrativa muy propicia del cine de ciencia ficción, pero que cada vez va adquiriendo más forma de un “leyenda urbana” que se enriquece de la necesidad humana de percibir la realidad en clave emocional y llegar a creer que las máquinas sienten, el cielo se enfada y que nuestra tortuga nos entiende.

"Inteligencia Artificial emocional", "Robots emocionales", o "computación afectiva" son términos que cada vez escuchamos más a menudo en los diversos medios de comunicación. Todos remiten a una misma realidad: la búsqueda que une las emociones y las máquinas, proyectando un escenario que a mucha gente preocupa, el de las máquinas que entiendan completamente las emociones humanas o, aún más, tengan emociones por sí mismas. Ahora bien, ¿qué hay de cierto en todo esto? ¿Realmente hay máquinas que tengan emociones? Pese a lo que hayamos podido ver, la respuesta es clara y directa: no. Sin embargo, numerosos estudios se publicitan enseñando sistemas de IA o robótica que pretendidamente experimentan emociones. Esta apropiación indebida de capacidades, es a la vez el resultado de una transferencia antromomórfica. Por otra parte, asistimos a un segundo gran problema en el diseño de máquinas que capten emociones humanas o, pretendidamente, las reproduzcan: partir de un modelo sesgado o directamente erróneo de lo que es el conjunto de procesos afectivos que rodean la cultura humana. 

Para empezar estos campos de investigación están dominados completamente por los hombres occidentales que proyectan su visión propia y personal de los entornos afectivos, por lo que se pueden identificar muchos errores de diseño en relación a asuntos de género. Tal falta de trabajos interdisciplinarios provoca el uso de modelos simplistas sobre la realidad de las emociones, tales como el uso del modelo de Ekman de 6 emociones básicas, el cual ni es correcto, ni universalmente distribuido ... pero se ajusta correctamente a las expectativas de programación y de trabajo de un ingeniero. Aparte de esto, tal y como recoge nuestro artículo, también se produce una sobrevaloración de los beneficios de la implementación de máquinas emocionales, algo no del todo claro, y menos en el estado actual de (in)madurez de los sistemas de IA. Y, paradójicamente, la situación opuesta también se produce con similares efectos nocivos: la subestimación del poder que las máquinas con habilidades emocionales tienen por la sociedad humana. Sabemos que los diseños de voces artificiales amables pero asertivas consiguen que los usuarios sigan sus indicaciones, más que en el caso de voces con signos de inseguridad.

Por último, también es fácilmente identificable otro problema: la atribución incorrecta de emociones a máquinas que realizan operaciones banales. Pensamos en un robot que frunce el ceño y cierra la boca ... ¿podemos decir que está enfadado? ¿O más bien que nos lo parece? Dada la intrínseca necesidad de los humanos de percibir la realidad en clave emocional, necesitamos creer que las máquinas sienten, que el cielo se enfada cuando llueve o que nuestra tortuga es una mascota que nos entiende.

A modo de conclusión hay que admitir, pues, que en el diseño de máquinas y software que tiene características emocionales se producen numerosos errores, sesgos y asunciones infundadas. Teniendo en cuenta que las emociones nos hacen ser justamente lo que somos, como individuos y como especie, es de vital importancia controlar de qué manera las introducimos en las máquinas que nos acompañan. Y ahora, si hemos despertado vuestro interés, leeréis el artículo. Pura emoción.

Jordi Vallverdú

Área de Lógica y de Filosofía de la Ciencia.
Departamento de Filosofía.
Universitat Autònoma de Barcelona.

Referencias

Jordi Vallverdù, Valentina Franzoni and Alfredo Milani. 2019. Errors, Biases and Overconfidence in Artificial Emotional Modeling. In Proceedings of WI '19: IEEE/WIC/ACM International Conference on WebIntelligence (WI '19 Companion), New York, NY, USA, 86-90 pages. https://doi.org/10.1145/3358695.3361749

 
View low-bandwidth version