La inteligencia artificial da un nuevo paso para parecer más humana: ahora puede generalizar como nosotros

Martes 31 de Octubre 2023

El nuevo modelo MLC, creado por investigadores de la Universidad de Nueva York y la Pompeu Fabra es capaz de relacionar conceptos mejor que otras inteligencias artificiales, como ChatGPT
ChatGPT: cómo utilizar la IA que te responde a todo lo que le preguntes
 
Las personas tenemos la capacidad de aprender un concepto y luego extrapolarlo a usos relacionados. Por ejemplo, con la llegada de las redes sociales, aprendimos el significado de 'tuitear'. Y como conocemos la expresión 'dos veces', entendemos qué quiere decir 'tuitear dos veces'. Pero, curiosamente, a la inteligencia artificial, incluso en el caso de los sistemas más avanzados, le cuesta hacer esta extrapolación.
 
De hecho, a finales de los 80, Jerry Fodor y Zenon Pylyshyn, filósofos y científicos cognitivos, postularon que las redes neuronales artificiales (un modelo simplificado que emula el modo en que el cerebro humano procesa la información) eran totalmente incapaces de establecer estas conexiones, llamadas generalizaciones compositivas.
 
A pesar de que durante las últimas décadas (y sobre todo en los últimos años) este tipo de redes neuronales ha avanzado enormemente, aún es complicado rebatir el postulado de Fodor y Pylyshyn. Sin embargo, el equipo capitaneado por Brenden Lake (profesor asistente en el Centro de Ciencia de Datos y Departamento de Psicología y Tecnología de la Universidad de Nueva York) y Marco Baroni (investigador del Instituto Catalán de Investigación y Estudios Avanzados y profesor del Departamento de Traducción y Ciencias del Lenguaje de la Pompeu Fabra, de Barcelona), han desarrollado un nuevo método de entrenamiento llamado 'metaaprendizaje composicional' (MLC) que enseña a inteligencias artificiales como ChatGPT a establecer estas generalizaciones, en algunos casos incluso mejor que los propios humanos. Los resultados acaban de publicarse en la revista 'Nature'.
 
Enseñando a una inteligencia artificial
De forma tradicional, se ha esperado que estos sistemas aprendieran 'a la vieja usanza'. «Las redes neuronales siempre son entrenadas con ejemplos de la tarea que queremos que solucionen», explica a ABC Baroni. «Normalmente, una red neuronal se entrena con ejemplos específicos de casos particulares. Por ejemplo, si queremos que la red aprenda a reconocer animales, le mostraremos fotos de perros, gatos, caballos...».
 
No ha sido el único enfoque: también se han desarrollado arquitecturas especiales para que adquirieran esta habilidad de generalización. Sin embargo, los resultados han sido desiguales. Este equipo introduce un nuevo planteamiento alternativo, el MLC: «Aquí, cada ejemplo utilizado durante el aprendizaje es un problema diferente. De este modo, la red aprende a solucionar problemas abstractos, en lugar de aprender a capturar solamente correlaciones superficiales entre un ejemplo y otro», señala Baroni.
 
Con el MLC como método de entrenamiento, la red neuronal (en este caso se probó específicamente con modelos de lenguaje similares a ChatGPT) se actualiza continuamente para mejorar sus habilidades con cada nuevo concepto. Por ejemplo, MLC recibe una la palabra «saltar»; después, crea combinaciones de palabras, como «saltar dos veces». En el siguiente paso, se añaden nuevas palabras, como «saltar dos veces alrededor de un cono». Y así sucesivamente, mejorando las habilidades de composición de la cadena.
 
La máquina contra el humano
 
 
Para comprobar que, efectivamente, el método de entrenamiento funciona, se llevaron a cabo una serie de experimentos que enfrentaron a máquinas y humanos. Para que hubiese igualdad de condiciones, se inventaron nuevas palabras que tuvieron que aprender ambos por igual. En concreto, los vocablos 'dax', 'wif', 'lug' y 'zup', que querían decir 'rojo', 'verde', 'azul' y 'amarillo', respectivamente. Después se introducían nuevos conceptos definidos por los investigadores como 'fep', que quería decir que se repite la palabra anterior tres veces. Por ejemplo, 'dax fep' significaría 'rojo rojo rojo'. O la palabra 'kiki' invierte el orden de los conceptos: así, 'dax kiki lug' sería 'azul rojo'.
 
Ambos grupos, máquinas y humanos, arrojaron aciertos parecidos. Es más, MLC funcionó mejor en algunos casos. Incluso cuando se comparó con otras redes neuronales potentes, tales como ChatGPT y GPT-4, MLC fue superior y estas mostraron dificultades con esta tarea de aprendizaje. Pero lo que más sorprendió a los autores es que las redes neuronales no solo se parecieron a los humanos cuando produjeron la respuesta correcta, «sino también cuando se equivocan», indica Baroni.
 
«Los grandes modelos de lenguaje como ChatGPT todavía luchan con la generalización compositiva, aunque han mejorado en los últimos años», señala el autor. «Pero creemos que MLC puede mejorar aún más las habilidades de composición de los modelos de lenguaje».
 
Redes neuronales democratizadas
Y no solo serviría para hacer estas inteligencias artificiales más parecidas a nuestra forma de pensar. También para aumentar su accesibilidad y restar algo del recelo que muchas veces suscitan entre los profesionales que las utilizan. «Hacer que las redes se comporten de un modo más sistemático también implica que sus métodos de 'razonamiento' serán más transparentes», indica Baroni. Porque una de las críticas hacia estos modelos, que se postulan como sistemas de apoyo en, por ejemplo, diagnósticos médicos, es que no está del todo claro el camino que lleva a ese razonamiento final que cada vez está más afinado.
 
No sería el único objetivo. «Esperamos que las redes capaces de generalización composicional también pedirán menos datos de entrenamiento, y por tanto serán más pequeñas y más fácil desarrollar sistemas semejantes a los de empresas cuales OpenAI y Google por universidades e institutos de investigación públicos», añade el investigador. Aún así, aún queda mucho trabajo por hacer, y aunque enseñemos a generalizar a las máquinas, esto no significa que hayamos emulado por completo el intelecto humano: «El razonamiento composicional solo es una parte de cómo funcionamos nosotros, los seres humanos».
Con información de ABC Ciencia

NOTA22.COM

Otro duro cruce de Lilia Lemoine a Victoria Villarruel: "Se comporta como la casta, que se quede con la casta"

La diputada nacional Lilia Lemoine calificó a la vicepresidenta Victoria Villarruel de "tibia" y explicó las razones que la llevaron a convertirse en su mayor detractora dentro de La Libertad Avanza.

Tras confirmar que 36.000 empleados fueron despedidos en 2024, el Gobierno congela la planta del sector público nacional

El Ejecutivo estableció nuevas restricciones que rigen a partir del 1° de enero para ingresar a trabajar en el estado; a esto se le suma el examen de idoneidad

Aumentan la tarifa de gas para grandes usuarios y estaciones de GNC

El ENARGAS aprobó el incremento transitorio que van a trasladar las subdistribuidoras a este segmento de clientes.

Suscribite!
Y recibí las noticias más importantes!
NOTA22.COM
"LE HICIMOS EL CU--"
ESCÁNDALOSO FESTEJO EN LA CASA GRIS LUEGO DE LA SANCIÓN DE LA REFORMA

LO MÁS VISTO
El régimen de Maduro incorporó a Bullrich y Werthein a la causa por terrorismo contra el gendarme secuestrado
Lo anunció el fiscal general de la dictadura, Tarek William Saab, en respuesta a la conferencia de prensa de la ministra de Seguridad y el Canciller
Fuentes oficiales explicaron las dificultades para conseguir una defensa para Gallo, luego de que el régimen chavista confirmara que está procesado; la ayuda de Brasil y el entramado de gestiones
Lo resolvió el Juzgado Civil y Comercial Federal N° 2 a través de una medida cautelar. El magistrado Marcelo Dos Santos hizo lugar a la presentación colectiva de un conjunto de asociaciones civiles.
Luego de las PASO del año pasado, los actuales enemigos se juntaron y acordaron que el exjefe de gobierno porteño tendría un rol clave si ella ganaba la presidencia; la corta temporada de unidad y elogios

arrow_upward