El panorama de IA de hoy se define por las formas en que las redes neuronales son diferentes a los cerebros humanos. Un niño pequeño aprende cómo comunicarse de manera efectiva con solo miles de calorías al día y una conversación regular; Mientras tanto, las empresas tecnológicas son reabrir las centrales nucleares
En comparación con los modelos psicológicos convencionales, que usan ecuaciones matemáticas simples, Centaur hizo un trabajo mucho mejor al predecir el comportamiento. Las predicciones precisas de cómo los humanos responden en los experimentos de psicología son valiosas en sí mismas: por ejemplo, los científicos podrían usar Centauro para pilotar sus experimentos en una computadora antes de reclutar y pagar participantes humanos. Sin embargo, en su artículo, los investigadores proponen que Centaur podría ser más que una máquina de predicción. Al interrogar los mecanismos que permiten al centauro replicar efectivamente el comportamiento humano, argumentan, los científicos podrían desarrollar nuevas teorías sobre el funcionamiento interno de la mente.
Pero algunos psicólogos dudan de si Centaur puede contarnos mucho sobre la mente en absoluto. Claro, es mejor que los modelos psicológicos convencionales para predecir cómo se comportan los humanos, pero también tiene mil millones de veces más parámetros. Y el hecho de que un modelo se comporte como un humano en el exterior no significa que funcione como uno en el interior. Olivia Guest, profesora asistente de ciencias cognitivas computacionales en la Universidad de Radboud en los Países Bajos, compara Centaur con una calculadora, que puede predecir de manera efectiva la respuesta que un genio de matemáticas dará cuando se le solicite que agregue dos números. “No sé qué aprenderías sobre la adición humana al estudiar una calculadora”, dice ella.
Incluso si Centaur captura algo importante sobre la psicología humana, los científicos pueden tener dificultades para extraer cualquier idea de los millones de neuronas del modelo. Aunque los investigadores de IA están trabajando duro para descubrir cómo funcionan los modelos de idiomas grandes, apenas han logrado abrir la caja negra. Comprender un enorme modelo de red neuronal de la mente humana puede no resultar mucho más fácil que comprender la cosa misma.
Un enfoque alternativo es volverse pequeño. El segundo de los dos estudios de la naturaleza Se centra en las redes neuronales minúsculas, algunas que contienen una sola neurona, que, sin embargo, pueden predecir el comportamiento en ratones, ratas, monos e incluso humanos. Debido a que las redes son tan pequeñas, es posible rastrear la actividad de cada neurona individual y usar esos datos para descubrir cómo la red está produciendo sus predicciones de comportamiento. Y aunque no hay garantía de que estos modelos funcionen como los cerebros que fueron entrenados para imitar, pueden, al menos, generar hipótesis comprobables sobre la cognición humana y animal.
Hay un costo para la comprensibilidad. A diferencia de Centaur, que fue entrenado para imitar el comportamiento humano en docenas de diferentes tareas, cada pequeña red solo puede predecir el comportamiento en una tarea específica. Una red, por ejemplo, está especializada para hacer predicciones sobre cómo las personas eligen entre diferentes máquinas tragamonedas. “Si el comportamiento es realmente complejo, necesitas una red grande”, dice Marcelo Mattar, profesor asistente de psicología y ciencias neuronales de la Universidad de Nueva York que dirigió el estudio de la red pequeña y también contribuyó al Centauro. “El compromiso, por supuesto, es que ahora comprenderlo es muy, muy difícil”.
Esta compensación entre predicción y comprensión es una característica clave de la ciencia impulsada por la red neuronal. (También estoy escribiendo un libro al respecto). Estudios como los de Mattar están avanzando hacia el cierre de esa brecha, por muy pequeña que sean sus redes, pueden predecir el comportamiento con mayor precisión que los modelos psicológicos tradicionales. También lo es la investigación sobre la interpretabilidad de LLM en lugares como Anthrope. Por ahora, sin embargo, nuestra comprensión de los sistemas complejos, desde humanos hasta sistemas climáticos y proteínas, se retrasa cada vez más detrás de nuestra capacidad para hacer predicciones sobre ellos.
Esta historia apareció originalmente en el algoritmo, nuestro boletín semanal en AI. Para obtener historias como esta en su bandeja de entrada primero, Regístrese aquí.
Publicado Originalme en TechnologyReview.com el 8 de julio de 2025.
Ver Fuente Original