¿Eres capaz de distinguir los rostros humanos generados por IA de los reales?
Una investigación asegura que somos torpes a la hora de diferenciar las caras generadas por la inteligencia artificial de las reales. La IA nos engaña casi el 40% de las veces.
Por la Universidad de Waterloo
Si recientemente has tenido problemas para averiguar si la imagen de una persona es real o generada mediante inteligencia artificial (IA), no estás solo.
Un nuevo estudio comandado por investigadores de la Universidad de Waterloo (Canadá)ha descubierto que las personas tienen más dificultades de las esperadas para distinguir quién es una persona real y quién una generada artificialmente.
En el estudio de Waterloo, 260 participantes recibieron veinte imágenes sin etiquetar: diez de ellas eran de personas reales obtenidas a partir de búsquedas en Google, y las otras diez, generadas por Stable Diffusion o DALL-E, dos programas de IA de uso común que generan imágenes.
Se pidió a los participantes que etiquetaran cada imagen como real o generada por IA, y que explicaran por qué habían tomado esa decisión. Solo el 61% de los participantes pudo distinguir entre las personas generadas por IA y las reales, muy por debajo del umbral del 85% que esperaban los investigadores.
Los participantes prestaron atención a detalles como los dedos, los dientes y los ojos.
"La gente no es tan experta en hacer distinciones como cree", afirma Andreea Pocol, experta en Ciencias de la Computación de la Universidad de Waterloo y autora principal del estudio.
Los participantes prestaron atención a detalles como los dedos, los dientes y los ojos como posibles indicadores cuando buscaban contenido generado por IA, pero sus valoraciones no siempre fueron correctas.
Pocol señala que en el estudio se permitió a los participantes que examinaran las fotografías detenidamente, cosa que no suelen hacer los internautas, que contemplan las imágenes de pasada.
"Las personas que simplemente están desplazándose hacia un destino o que no tienen tiempo no captarán estas señales", dice Pocol.
Pocol cree que el ritmo extremadamente rápido al que se desarrolla la tecnología de IA hace especialmente difícil comprender el potencial de acción maliciosa o nefasta que plantean las imágenes generadas por IA. El ritmo de la investigación académica y la legislación a menudo no es capaz de seguirlo: las imágenes generadas por IA se han vuelto aún más realistas desde que comenzó el estudio a finales de 2022.
Una nueva carrera armamentística de la IA.
Estas imágenes generadas por inteligencia artificial son particularmente amenazadoras como herramienta política y cultural, ya que podría permitir que cualquier usuario cree imágenes falsas de figuras públicas en situaciones embarazosas o comprometedoras.
"La desinformación no es nueva, pero las herramientas de desinformación han estado cambiando y evolucionando constantemente—advierte Pocol. Y añade—: Puede llegar un momento en que la gente, por muy entrenada que esté, siga teniendo dificultades para diferenciar las imágenes reales de las falsas. Por eso necesitamos desarrollar herramientas para identificarlas y contrarrestarlas. Es como una nueva carrera armamentística de la IA".
Información facilitada por la Universidad de Waterloo
Fuente: Andreea Pocol, Lesley Istead, Sherman Siu, Sabrina Mokhtari & Sara Kodeiri. Seeing is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media. Advances in Computer Graphic (2023). DOI: https://doi.org/10.1007/978-3-031-50072-5_34