Una nueva red neuronal toma decisiones como lo haría un ser humano

Los investigadores están entrenando redes neuronales para que tomen decisiones de forma similar a las que tomarían los seres humanos.

Por Tess Malone

La ciencia de la toma de decisiones humanas —un campo multidisciplinario que estudia cómo las personas toman decisiones en diferentes contextos y situaciones— apenas se está aplicando al aprendizaje automático. Imagen generada con DALL-E

Los seres humanos toman casi 35.000 decisiones todos los días, desde si es seguro cruzar la calle hasta qué almorzar. Cada decisión implica sopesar las opciones, recordar escenarios pasados similares y sentirse razonablemente seguro de la elección correcta. Lo que puede parecer una decisión rápida en realidad proviene de la recopilación de pruebas del entorno circundante. Y a menudo la misma persona toma diferentes decisiones en los mismos escenarios en diferentes momentos.

Las redes neuronales —modelos computacionales inspirados en el funcionamiento del cerebro humano que se utilizan para realizar tareas de aprendizaje automático y reconocimiento de patrones— hacen lo contrario. Esto es, toman las mismas decisiones cada vez.

Ahora, investigadores del laboratorio del profesor Dobromir Rahnev, en el Georgia Tech (Estados Unidos) están entrenando redes neuronales para que tomen decisiones más parecidas a la de los seres humanos. La ciencia de la toma de decisiones humanas —un campo multidisciplinario que estudia cómo las personas toman decisiones en diferentes contextos y situaciones— apenas se está aplicando al aprendizaje automático, pero el desarrollo de una red neuronal aún más cercana al cerebro humano real puede hacerla más fiable, según los investigadores.

Las redes neuronales actuales toman una decisión sin decirte si están o no seguras de su decisión

En un artículo publicado en Nature Human Behaviour, un equipo de la Facultad de Psicología del Georgia Tech anuncia una nueva red neuronal entrenada para tomar decisiones similares a las nuestras.

“Las redes neuronales toman una decisión sin decirte si están o no seguras de su decisión —afirma Farshad Rafiei, doctor en Psicología por el Georgia Tech. Y añade—: Esta es una de las diferencias esenciales con respecto a cómo toman decisiones las personas”.

Los grandes modelos lingüísticos (LLM), por ejemplo, son propensos a las alucinaciones. Recordemos que los grandes modelos lingüísticos, como el GPT desarrollado por OpenAI o el BERT y el T5 de Google, son modelos computacionales avanzados diseñados para entender y generar lenguaje humano de manera natural. Estos modelos LLM se basan en redes neuronales profundas y técnicas de aprendizaje automático, especialmente en el campo del procesamiento del lenguaje natural (NLP, por sus siglas en inglés).

Cuando a un LLM se le hace una pregunta de la que no sabe la respuesta, se inventa algo sin reconocer el artificio. Por el contrario, la mayoría de los seres humanos en la misma situación admiten que desconocen la respuesta. Construir una red neuronal más parecida a la humana puede evitar esta duplicidad y conducir a respuestas más precisas.

El equipo entrenó su red neuronal con dígitos manuscritos de un famoso conjunto de datos de informática llamado MNIST —por sus siglas en inglés, Modified National Institute of Standards and Technology database—, y le pidió que descifrara cada número. Para determinar la precisión del modelo, lo ejecutaron con el conjunto de datos original y después añadieron ruido a los dígitos para dificultar su discernimiento por parte de los humanos.

Para comparar el rendimiento del modelo con el de los seres humanos, entrenaron su modelo, así como otros tres modelos —CNet, BLNet y MSDNet—, con el conjunto de datos MNIST original sin ruido, pero los probaron con la versión ruidosa utilizada en los experimentos y compararon los resultados de los dos conjuntos de datos.

El modelo del equipo del Georgia Tech está basado en dos componentes clave: una red neuronal bayesiana (BNN), que utiliza la probabilidad para tomar decisiones; y un proceso de acumulación de evidencias, que realiza un seguimiento de las pruebas de cada elección. El BNN produce respuestas que son ligeramente diferentes cada vez.

A medida que se acumulan más evidencias, el proceso de acumulación puede favorecer a veces una opción y a veces, otra. Una vez que hay suficiente evidencia para decidir, RTNet detiene el proceso de acumulación y toma una decisión.

Redes neuronales compiten con estudiante en precisión

Los investigadores también cronometraron la velocidad de toma de decisiones del modelo para ver si sigue un fenómeno psicológico, llamado equilibrio velocidad-precisión, que dicta que los seres humanos son menos precisos cuando deben tomar decisiones de manera rápida.

Una vez que tuvieron los resultados del modelo, los compararon con los resultados de los seres humanos. Sesenta estudiantes del Georgia Tech vieron el mismo conjunto de datos y compartieron su confianza en sus decisiones, y los investigadores encontraron que la tasa de precisión, el tiempo de respuesta y los patrones de confianza eran similares entre los seres humanos y la red neuronal.

“En general, no disponemos de suficientes datos humanos en la literatura informática existente, por lo que no sabemos cómo se comportará la gente cuando se exponga a estas imágenes. Esta limitación dificulta el desarrollo de modelos que reproduzcan con exactitud la toma de decisiones humana —afirma Rafiei. Y añade—: Este trabajo proporciona uno de los mayores conjuntos de datos de humanos que responden a base de datos MNIST”.

Los robots con IA podrán ayudarnos a aliviar parte de la carga cognitiva de las 35.000 decisiones que tomamos a diario.

Los robots con IA podrán ayudarnos a aliviar parte de la carga cognitiva de las 35.000 decisiones que tomamos a diario. Imagen generada con Copilot

El modelo del equipo no solo superó a todos los modelos deterministas rivales, sino que también fue más preciso en escenarios de mayor velocidad gracias a otro elemento fundamental de la psicología humana: RTNet se comporta como los seres humanos. Por ejemplo, las personas se sienten más seguras cuando toman decisiones correctas. “Sin siquiera tener que entrenar el modelo específicamente para favorecer la confianza, el modelo la aplicó automáticamente”, señala Rafiei.

“Si intentamos que nuestros modelos se parezcan más al cerebro humano, se notará en el propio comportamiento sin necesidad de un ajuste fino”, afirma Rafiei.

El equipo de investigación espera entrenar la red neuronal con conjuntos de datos más variados para comprobar su potencial. También esperan aplicar este modelo BNN a otras redes neuronales para que puedan racionalizar más como los humanos. Con el tiempo, los algoritmos no solo serán capaces de emular nuestra capacidad de decisión, sino que incluso podrían ayudarnos a aliviar parte de la carga cognitiva de las 35.000 decisiones que tomamos a diario. ▪️

Anterior
Anterior

Así son las tormentas abrasadoras cazadas en dos mundos lejanos

Siguiente
Siguiente

El telescopio James Webb investiga los amaneceres y atardeceres eternos de un mundo lejano