El primer laboratorio científico de la historia

¿Ver para creer?



“Ver para creer”, dice el refrán, aludiendo a que el sentido de la vista es indispensable y suficiente para percibir al mundo tal cual es. Así, si los ojos nos están indicando tal o cual situación, debemos asumirla como cierta. Tal parece, sin embargo, que la inteligencia artificial está dando al traste con el refrán, al menos en lo que respecta a la percepción de la imagen de una persona en la pantalla de una computadora, misma que podríamos concluir corresponde a una persona real, pero que en realidad podría haber sido construida por medio de un algoritmo de inteligencia artificial.

¿Tenemos la habilidad para distinguir si la fotografía del rostro de una persona que aparece en la pantalla de la computadora corresponde a la de una persona física o bien se trata de una imagen sintetizada por un programa de cómputo? En un artículo aparecido esta semana en la revista “Psychological Science”, un grupo de investigadores encabezado por Elizabeth Miller de la Universidad Nacional de Australia, abordan esta pregunta.

En una etapa de su proyecto de investigación, Miller y colaboradores hicieron uso de un conjunto de 100 fotografías del rostro de personas reales y 100 imágenes faciales de personas ficticias generadas por un algoritmo de inteligencia artificial, todas ellas de raza blanca. Como parte del experimento, presentaron 100 imágenes de dicho conjunto a un grupo de 124 adultos de raza blanca y les pidieron que decidieran cuáles de estas imágenes eran reales y cuáles falsas. Encontraron que el 66 por ciento de las imágenes falsas fueron clasificadas como reales, mientras que el 51 por ciento de las fotografías reales fueron correctamente clasificadas como pertenecientes a personas reales.

Es decir, una mayoría de los participantes dieron una respuesta incorrecta con respecto a las imágenes generadas por inteligencia artificial y concluyeron que pertenecían a personas reales. Fueron así, en su mayoría, engañadas por el algoritmo de inteligencia artificial que las construyó. Esto constituye un fenómeno que los investigadores llaman hiperrealismo de inteligencia artificial. En contraste, las respuestas con respecto a las fotografías de personas reales fueron tan frecuentemente correctas como incorrectas, lo que implica que, en promedio, los participantes no pudieron distinguir su origen.

Miller y colaboradores señalan que la tendencia a clasificar incorrectamente como reales las imágenes de rostros de raza blanca generados por computadora no se observa con imágenes, reales o ficticias, de personar de color, que de manera equilibrada son clasificadas correcta o incorrectamente. Esto explicaría los resultados de su experimento, dado que el algoritmo de inteligencia artificial que fue empleado para generar las imágenes fue entrenado mayoritariamente con rostros de personas de raza blanca. Así, la computadora se especializó en generar imágenes de personas de raza blanca, más que de personas de color. Y se especializó a tal grado que es capaz de engañarnos.

La generación preferencial de imágenes de raza blanca por computadora podría tener un impacto racial. En palabras de Amy Dawel, uno de los autores del artículo de referencia: “Si los rostros blancos de IA se perciben consistentemente como más realistas, esta tecnología podría tener serias implicaciones para las personas de color al reforzar en última instancia los prejuicios raciales en línea. Este problema ya es evidente en las tecnologías de inteligencia artificial actuales que se utilizan para crear fotografías de apariencia profesional. Cuando se usa con personas de color, la inteligencia artificial altera su piel y color de ojos a los de las personas blancas”.

Por su parte, Elizabeth Miller comenta: “De manera preocupante, las personas que pensaron que los rostros generados por inteligencia artificial fueron reales, muy a menudo fueron paradójicamente los más convencidos de que sus juicios fueron correctos. Esto significa que las personas que confunden a los impostores de la inteligencia artificial con personas reales no saben que están sido engañados”.

De todo lo anterior, pareciera ser que, efectivamente, el hiperrealismo de inteligencia artificial está poniendo en jaque al refrán “Ver para creer”, atribuido a Tomás Apóstol y que por tanto tendría dos milenios de antigüedad. Amenaza igualmente al refrán “Una imagen vale más que mil palabras”, pues ¿qué valor tendría una imagen que puede ser engañosa?

Por lo demás, si bien la inteligencia artificial es el origen del problema, también proporciona su solución. Así, Miller y colaboradores reportan en su artículo el desarrollo de un algoritmo de inteligencia artificial que detecta rostros falsos con una exactitud del 94 por ciento.

Comentarios