¿Cómo saber si la vecina tapada con su mascarilla, siente enojo?
¿Cómo interpretar los gestos? ¿Muestra cada ser humano sus emociones de igual forma?
Para estudiarlo, psicólogos se fijan en siete emociones: felicidad, susto, tristeza, neutral, enojo, disgusto y sorpresa. Hoy, complejos sistemas de reconocimiento facial, tras analizar millones de rostros, los clasifican en esos siete casilleros.
Douglas Heaven publicó “Por qué los rostros no dicen siempre la verdad sobre las emociones” en la revista Nature del 26 de febrero. Ilustra el artículo con el rostro de la Mona Lisa, de Leonardo da Vinci, analizado por un software. La dama de Leonardo expresaría un 30% de sorpresa, un 12% de felicidad y un 4% de tristeza. No hay ni susto ni enojo ni disgusto ahí… según el software. (Ver go.nature.com/3gkJoyp).
Douglas Heaven cuestiona al psicólogo estadounidense Paul Ekman, autor en los 60 y 70, de estudios de rostros del mundo. Para Ekman, todos expresamos cada emoción con los mismos músculos (él es el autor de la categorización de las siete emociones).
Hoy, los sistemas de análisis de las emociones del rostro nos parecen normales: “Otra lesera que inventaron”, podemos pensar.
Microsoft, Google y otros que participan en este negocio de decenas de miles de millones de dólares, enfocan los 43 músculos de la cara. Hermanan la expresión del rostro de, por ejemplo, un transeúnte, con la expresión en algunos de los millones de rostros archivados, emoción por emoción, en su base de datos.
Y salta el veredicto instantáneo: el sujeto está asustado.
Igual, aunque conocen la probabilidad de error de estos sistemas, gobiernos e instituciones aceptan tales veredictos. Juzgados, policías, supermercados, malls, utilizan la información. En 2019, Hungría, Letonia y Grecia aprovecharon la tecnología para saber si los turistas se iban contentos.
El profesor Domingo Mery, de Computación, Ingeniería UC, se especializa en reconocimiento facial (bit.ly/3eVUhqa).
“El reconocimiento de emociones a partir de la cara no es simple... ni para los seres humanos ni para los algoritmos”, advierte. La emoción no siempre se ve: quienes sonríen para una selfie, pueden estar sintiendo pena.
“Por suerte podemos guardarnos emociones y expresarlas cuando queramos”, dice. Y dictamina que resulta “sumamente peligroso” tomar decisiones a partir de estos sistemas. Cuestiona los métodos empleados para enseñarle a la máquina cuáles emociones corresponden a cada rostro.
“Usar estos algoritmos como evidencia científica en cualquier proceso sería un error garrafal”, dice. Lo peor sería si ese algoritmo tomara decisiones autónomamente donde el criterio humano resulta crucial.
“Aquí hay un tema ético no menor” dice. “Quienes usan estas tecnologías deben respetar, no discriminar ni hacer daño alguno, a las personas analizadas”.
¿Podré saber si la vecina tapada con su mascarilla siente enojo?