¿Puede la inteligencia artificial aprender como nosotros?
Lee. Habla. Recopila montañas de datos y recomienda decisiones empresariales. La inteligencia artificial (IA) de hoy puede parecer más humana que nunca. Sin embargo, la IA todavía atesora varias deficiencias críticas.
Por el Cold Spring Harbor Laboratory
"A pesar de lo impresionantes que son ChatGPT y todas estas tecnologías de inteligencia artificial (IA) actuales, en términos de interacción con el mundo físico, todavía son muy limitadas —explica Kyle Daruwalla, académico de neuroIA, en el Cold Spring Harbor Laboratory (CSHL), en Estados Unidos. Y añade—: Incluso en las cosas que hacen, como resolver problemas matemáticos y escribir ensayos, toman miles y miles de millones de ejemplos de entrenamiento antes de poder hacerlos bien".
Daruwalla lleva tiempo buscando formas nuevas y poco convencionales de diseñar inteligencias artificiales que puedan superar estos obstáculos computacionales. Y podría haber encontrado uno.
La clave era mover los datos. Hoy en día, la mayor parte del consumo energético de la informática moderna se debe al rebote de datos. En las redes neuronales artificiales, formadas por miles de millones de conexiones, los datos pueden tener un recorrido muy largo. Así que, para encontrar una solución, Daruwalla buscó inspiración en una de las máquinas más potentes desde el punto de vista computacional y más eficientes energéticamente que existen: el cerebro humano.
Una IA basada en cómo nuestros cerebros asimilan nueva información
Daruwalla diseñó una nueva forma para que los algoritmos de IA muevan y procesen datos de manera mucho más eficiente, basándose en cómo nuestros cerebros asimilan nueva información. El diseño permite que las neuronas individuales de IA reciban retroalimentación y se ajusten sobre la marcha en lugar de esperar a que todo un circuito se actualice simultáneamente. De esta manera, los datos no tienen que viajar tan lejos y se procesan en tiempo real.
"En nuestro cerebro, nuestras conexiones están cambiando y ajustándose todo el tiempo —dice Daruwalla. Y añade—: No es como si lo pusieras todo en pausa, te adaptaras y luego volvieras a ser tú".
El nuevo modelo de aprendizaje automático corrobora una teoría aún no demostrada que relaciona la memoria de trabajo con el aprendizaje y el rendimiento académico. La memoria de trabajo es el sistema cognitivo que nos permite seguir trabajando mientras recordamos conocimientos y experiencias almacenados.
"Ha habido teorías en neurociencia sobre cómo los circuitos de la memoria de trabajo podrían ayudar a facilitar el aprendizaje —explica Daruwalla. Y continúa—: Pero no hay algo tan concreto como nuestra regla que realmente vincule ambas cosas. Y eso fue una de las cosas buenas con las que tropezamos aquí. La teoría nos llevó a una regla en la que el ajuste individual de cada sinapsis requería una memoria de trabajo paralela",
El diseño de Daruwalla puede ayudar a ser pionero en una nueva generación de IA que aprenda como nosotros. Eso no solo haría que la inteligencia artificial fuera más eficiente y accesible, sino que también sería una especie de momento de círculo completo para la neuroIA. La neurociencia ha estado alimentando a la inteligencia artificial con datos valiosos desde mucho antes de que ChatGPT pronunciara su primera sílaba digital. Pronto, al parecer, la IA podría devolverle el favor. ▪️
Información facilitada por el Cold Spring Harbor Laboratory -Adaptación: Enrique Coperías / RexMolón Producciones
Fuente: Kyle Daruwalla and Mikko. Lipasti.Information bottleneck-based Hebbian learning rule naturally ties working memory and synaptic updates. Frontiers in Computational Neuroscience (2024). DOI: https://doi.org/10.3389/fncom.2024.1240348