La IA autodidacta puede tener mucho en común con el cerebro humano

hace 1 año

La IA autodidacta puede tener mucho en común con el cerebro humano

durante una década ahora, muchos de los sistemas de inteligencia artificial más impresionantes se han enseñado utilizando un enorme inventario de datos etiquetados. Una imagen puede etiquetarse como "gato atigrado" o "gato tigre", por ejemplo, para "entrenar" una red neuronal artificial para distinguir correctamente un gato atigrado de un tigre. La estrategia ha sido espectacularmente exitosa y lamentablemente deficiente.

Tal entrenamiento "supervisado" requiere datos laboriosamente etiquetados por humanos, y las redes neuronales a menudo toman atajos, aprendiendo a asociar las etiquetas con información mínima y, a veces, superficial. Por ejemplo, una red neuronal podría utilizar la presencia de hierba para reconocer una foto de una vaca, porque las vacas suelen fotografiarse en los campos.

“Estamos criando una generación de algoritmos que son como estudiantes universitarios [who] no asistieron a clase en todo el semestre y luego, la noche antes del examen final, están abarrotados”, dijo Alexei Efros, científico informático de la Universidad de California, Berkeley. “Realmente no aprenden el material, pero les va bien en el examen”.

Además, para los investigadores interesados ​​en la intersección de la inteligencia animal y la de las máquinas, este "aprendizaje supervisado" podría estar limitado en lo que puede revelar sobre los cerebros biológicos. Los animales, incluidos los humanos, no usan conjuntos de datos etiquetados para aprender. En su mayor parte, exploran el entorno por su cuenta y, al hacerlo, obtienen una comprensión rica y sólida del mundo.

Ahora, algunos neurocientíficos computacionales han comenzado a explorar redes neuronales que han sido entrenadas con pocos o ningún dato etiquetado por humanos. Estos algoritmos de "aprendizaje autosupervisado" han demostrado ser enormemente exitosos en el modelado del lenguaje humano y, más recientemente, en el reconocimiento de imágenes. En trabajos recientes, los modelos computacionales de los sistemas visual y auditivo de los mamíferos construidos utilizando modelos de aprendizaje autosupervisado han mostrado una correspondencia más estrecha con la función cerebral que sus contrapartes de aprendizaje supervisado. Para algunos neurocientíficos, parece que las redes artificiales están comenzando a revelar algunos de los métodos reales que usa nuestro cerebro para aprender.

Supervisión defectuosa

Los modelos cerebrales inspirados en redes neuronales artificiales alcanzaron la mayoría de edad hace unos 10 años, casi al mismo tiempo que una red neuronal llamada AlexNet revolucionó la tarea de clasificar imágenes desconocidas. Esa red, como todas las redes neuronales, estaba hecha de capas de neuronas artificiales, unidades computacionales que forman conexiones entre sí que pueden variar en fuerza o "peso". Si una red neuronal no puede clasificar una imagen correctamente, el algoritmo de aprendizaje actualiza los pesos de las conexiones entre las neuronas para hacer que esa clasificación errónea sea menos probable en la próxima ronda de entrenamiento. El algoritmo repite este proceso muchas veces con todas las imágenes de entrenamiento, modificando los pesos, hasta que la tasa de errores de la red es aceptablemente baja.

Alexei Efros, científico informático de la Universidad de California, Berkeley, cree que la mayoría de los sistemas modernos de inteligencia artificial dependen demasiado de las etiquetas creadas por humanos. “Realmente no aprenden el material”, dijo.Cortesía de Alexei Efros

Casi al mismo tiempo, los neurocientíficos desarrollaron los primeros modelos computacionales del sistema visual de los primates, utilizando redes neuronales como AlexNet y sus sucesores. La unión parecía prometedora: cuando a los monos y las redes neuronales artificiales se les mostraron las mismas imágenes, por ejemplo, la actividad de las neuronas reales y las neuronas artificiales mostró una correspondencia intrigante. Siguieron modelos artificiales de audición y detección de olores.

Pero a medida que avanzaba el campo, los investigadores se dieron cuenta de las limitaciones del entrenamiento supervisado. Por ejemplo, en 2017, Leon Gatys, científico informático de la Universidad de Tübingen en Alemania, y sus colegas tomaron una imagen de un Ford Modelo T, luego superpusieron un patrón de piel de leopardo en la foto, generando una imagen extraña pero fácilmente reconocible. . Una red neuronal artificial líder clasificó correctamente la imagen original como un Modelo T, pero consideró la imagen modificada como un leopardo. Se había fijado en la textura y no entendía la forma de un automóvil (o un leopardo, para el caso).

Las estrategias de aprendizaje autosupervisado están diseñadas para evitar tales problemas. En este enfoque, los humanos no etiquetan los datos. Más bien, "las etiquetas provienen de los datos mismos", dijo Friedemann Zenke, neurocientífico computacional del Instituto Friedrich Miescher para la Investigación Biomédica en Basilea, Suiza. Los algoritmos autosupervisados ​​esencialmente crean brechas en los datos y le piden a la red neuronal que complete los espacios en blanco. En el llamado modelo de lenguaje grande, por ejemplo, el algoritmo de entrenamiento le mostrará a la red neuronal las primeras palabras de una oración y le pedirá que prediga la siguiente palabra. Cuando se entrena con un corpus masivo de texto extraído de Internet, el modelo parece aprender la estructura sintáctica del idioma, demostrando una capacidad lingüística impresionante, todo sin etiquetas externas ni supervisión.

Si quieres conocer otros artículos parecidos a La IA autodidacta puede tener mucho en común con el cerebro humano puedes visitar la categoría Ciencia.

Otras noticias que te pueden interesar

Subir