Es un momento extraño para ser un fatalista de la IA.
Esta historia es parte de MIT Technology Review. Corrección de exageración
Aunque esto está lejos de ser una perspectiva universalmente compartida en el campo de la IA, el grupo de los fatalistas ha tenido un éxito notable en los últimos años: ayudando a dar forma
Y luego estaba el agosto liberar
El premio Nobel que no está seguro de lo que viene
Me ha sorprendido cuánto captan la atención del público estas narrativas que predicen el AGI en 2027. Cuando llegue el año 2027, si las cosas todavía parecen bastante normales, creo que la gente sentirá que toda su visión del mundo ha sido falsificada. Y es realmente molesto la frecuencia con la que, cuando hablo con la gente sobre la seguridad de la IA, asumen que creo que tenemos plazos muy cortos para sistemas peligrosos, o que creo que los LLM o el aprendizaje profundo nos darán AGI. Me atribuyen todas estas suposiciones adicionales que no son necesarias para defender el caso.
Dijimos en la primera página de “AI 2027” que nuestros cronogramas eran algo más largos que 2027. Así que incluso cuando lanzamos AI 2027, esperábamos que en 2028 hubiera un montón de críticos diciendo triunfalmente que habíamos sido desacreditados, como los tweets de Sacks y Krishnan. Pero pensábamos, y seguimos pensando, que la explosión de la inteligencia probablemente ocurrirá en algún momento de los próximos cinco a diez años, y que cuando suceda, la gente recordará nuestro escenario y se dará cuenta de que estaba más cerca de la verdad que cualquier otra cosa disponible en 2025.
Publicado originalmente en technologyreview.com el 15 de diciembre de 2025.
Ver fuente original
