Emojify, un juego social que desdibuja los límites de la inteligencia artificial

Publicado por: Adrián Ruiz
Emogify

El uso de inteligencias artificiales diseñadas para leer e interpretar nuestros sentimientos llevan años de investigación y uso. Por ejemplo, en 2002 un joven Mark Zuckerberg creó a los 18 años el Synapse Media Player, un programa que reproducía música en función de tu estado de ánimo. No era IA como tal y posteriormente lo vimos replicado en otros servicios como Spotify, pero sí fue un primer paso hacía la fusión de las emociones humanas y la tecnología.

Hoy en día las nuevas tecnologías nos permiten cosas que hace 10 años nos parecían ciencia ficción. Tenemos la capacidad de resucitar cantantes fallecidos mediante deepfakes, o de crear restauraciones de películas haciendo uso de deep learning. No hay motivos para pensar que las tecnologías basadas en la inteligencia artificial no seguirán evolucionando como lo han hecho hasta ahora, y eso plantea ciertas dudas.

Pero, ¿cuál es la ciencia social detrás de todo esto? ¿Quién decide su uso?

Interpretando las emociones humanas

El proyecto Emojify ha sido creado por un grupo de alumnos multidisciplinar de la Universidad de Cambridge, liderado por Alexa Hagerty, antropóloga y profesora de ciencias, tecnología y sociales. El proyecto, que tenemos disponible en emojify.info, nos pedirá acceso a la webcam de nuestro equipo y que simulemos ante la cámara seis emociones distintas: felicidad, tristeza, miedo, sorpresa, disgusto e ira.

Durante la prueba el usuario caerá en algo bastante evidente, que es muy fácil engañar al programa: con solo gesticular podemos hacerle creer que somos felices o sentimos miedo. Pero en realidad no se trata de un fallo del software o que su programación sea rudimentaria, al contrario, ese es el verdadero objetivo de Emojify, que el usuario trate de engañar a la IA.

Lo que Emogify quiere enseñarnos con esto es que a menudo experimentamos una desconexión interna con nuestras emociones y mostramos una cara distinta al mundo, por ejemplo, cuando lloramos necesariamente no tiene por qué ser de tristeza, sino de felicidad. El ser humano es complejo y cada uno experimenta las emociones de una manera distinta que el resto, y en este sentido expresar cómo nos sentimos a través de los emojis no es la mejor opción para transmitirle a los demás nuestras emociones.

Por otro lado la IA tampoco nos favorece en este escenario, tratar de capturar emociones complejas que en cada individuo puede significar algo distinto es una situación casi irresoluble en la actualidad. En 2019 Lauren Rhue de The Conversation realizó un estudio sobre varios jugadores de la NBA para tratar de esclarecer que tan precisa es la IA de Face++. De los resultados obtenidos, la IA calificada a los hombres negros un 30% más infelices que los hombres blancos, independientemente de la expresión que tuvieran.

Face++
Fuente: The Conversation

Es solo un ejemplo de la poca precisión de una inteligencia artificial que se supone que está entrenada para comprender las emociones humanas. Sin embargo la tecnología seguirá evolucionando y será cada vez más común. Mediante aprendizaje profundo y un uso a gran escala es inevitable que la barrera que separa la realidad de la ficción se acabe tornando difusa.

Y con la pandemia hemos visto un crecimiento notable en el uso de tecnologías de reconocimiento facial, especialmente por parte de gobiernos y entidades, mientras que la sociedad va adaptándose a la normalización del uso de tecnologías inteligentes en nuestra vida cotidiana. Definitivamente nos estamos dirigiendo a una era en la que la inteligencia artificial acabará siendo algo cotidiano, y aquí volvemos a formular las mismas dos preguntas, ¿cuál es la ciencia social detrás de todo esto? ¿Quién decide su uso?

Fuente: Engadget
Publicado en:
¡Síguenos!

Si te ha gustado el artículo síguenos para no perderte nuestras publicaciones:

Deja un comentario:

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *