¿Estamos Ante el Fin de la Era Humana? Las Predicciones de Dario Amodei Sobre la AGI
8 de mayo de 2026
Introducción
El CEO de Anthropic, Dario Amodei, ha vuelto a sacudir la industria tecnológica. En una entrevista que ha circulado ampliamente en medios especializados, Amodei sostiene que la Inteligencia Artificial General (AGI) podría llegar mucho antes de lo que la mayoría imagina — y que sus efectos serán más profundos de lo que nadie quiere admitir.
Pero ¿qué hay detrás de estas declaraciones? ¿Son predicciones fundamentadas o estimaciones optimistas de un actor interesado? En este artículo desgranamos lo que se sabe, lo que se contradice, y lo que otros expertos responden.
¿Qué es la AGI y por qué genera tanta atención?
La AGI (Artificial General Intelligence) se define como un sistema capaz de aprender, razonar y comprender el mundo a un nivel igual o superior al de cualquier ser humano en prácticamente cualquier tarea intelectual. A diferencia de los sistemas actuales — por ejemplo Claude, GPT-4 o Gemini, que son extraordinarios pero Narrow — una AGI podría transferir conocimiento entre dominios, identificar problemas que nadie le ha planteado, y generar comprensión genuina, no solo reconocimiento de patrones estadísticos.
El interés no es meramente académico. La diferencia entre una IA Narrow y una AGI es la diferencia entre una herramienta y un reemplazo — potencialmente para el trabajo intelectual en su totalidad.
Las Predicciones de Dario Amodei: ¿Qué Dijo Exactamente?
Amodei ha sido consistentemente más cauteloso que Sam Altman al hablar de fechas. Sin embargo, portales como Axios y reportes de 2025 citan declaraciones donde habla de un horizonte de 2 a 3 años para capacidades que califican como AGI o «muy cerca» de ella. La frase «90% de confianza para 2035» aparece en varios análisis que citan sus entrevistas, aunque la fuente primaria directa puede ser difícil de rastrear.
Respecto a la idea de un «país de genios en un centro de datos», es importante distinguir su origen. Esta frase aparece más frecuentemente en contextos atribuidos a Sam Altman (OpenAI), aunque Anthropic ha usado formulaciones similares al describir modelos futuros con capacidades a nivel de experto en cualquier campo. Amodei específicamente ha escrito sobre «un intelecto equivalente al de un premio Nobel en cualquier disciplina» concentrado en una infraestructura de cómputo.
La robótica es otro frente donde Amodei ha sido enfático: la próxima generación de sistemas físicos — drones, manipuladores, vehículos autónomos — evolucionará en paralelo con las capacidades de software de IA, cerrando el ciclo entre inteligencia digital y acción en el mundo físico.
Panorama de Opiniones: ¿Quién Coincide y Quién No?
Los Que Van en la Misma Dirección
- Sam Altman (OpenAI): Ha hablado repetidamente de AGI en un horizonte de «años, no décadas», y en 2024 mencionó que ve un camino hacia sistemas «verdaderamente inteligentes» en el futuro cercano.
- Elon Musk: Citó 2026 o antes para IA superinteligente, aunque sus predicciones históricamente tienden a lo optimista.
- Ray Kurzweil: Su predicción de 2029 para IA a nivel humano es una de las más citadas en la comunidad, y él tiene historial de predicciones precisas (aunque también errores significativos).
Los Que Dudan
- Yoshua Bengio (Ganador del Turing Award): Más cauteloso, estima 20+ años para AGI completa. Advierte que las capacidades Narrow que vemos hoy se sobreestiman como paso hacia AGI real.
- Yann LeCun (Meta): Ha sido directo: «No estamos cerca de AGI. Los modelos actuales son excelentes en estadísticas pero no tienen comprensión real del mundo.» Sostiene que necesitamos arquitecturas fundamentalmente diferentes.
- Geoffrey Hinton: Aunque advierte sobre riesgos catastróficos (20-30% de probabilidad de AGI descontrolada), también reconoce que el progreso entre 2022 y 2025 ha sido sin precedentes — un matiz importante.
- Rodney Brooks: El creador de iRobot y exdirector del CSAIL del MIT ha señalado que cada predicción de AGI en 20 años ha fallado históricamente, y no ve razón para creer las nuevas predicciones.
Impacto en el Empleo: La Pregunta del Millón de Personas
Goldman Sachs publicó en 2023 un informe estimando que 300 millones de empleos podrían ser automatizados por IA generativa. McKinsey Global Institute elevó esa cifra a 400 millones para 2030. La Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha sido más matizada, señalando que entre 20 y 30% de tareas son automatizables, pero que el efecto neto sobre empleo dependerá de cómo se gestione la transición.
Los sectores más vulnerables según todos los estudios:
- Atención al cliente y soporte técnico de nivel 1
- Entrada y procesamiento de datos
- Contabilidad y auditoría básica
- Redacción de contenido estandarizado
- Manufactura básica y ensamblaje
Un informe del World Economic Forum (2023) proyecta que para 2027, 83 millones de empleos serán eliminados por la automatización, mientras se crean 69 millones de nuevos roles — una diferencia neta negativa de 14 millones de puestos en solo 4 años.
Gobernanza: El Mundo No Está Preparado
Aquí es donde Amodei ha sido más enfático, y donde hay menos disenso entre expertos. La mayoría de la población — incluyendo reguladores, legisladores y ejecutivos de empresas no-tech — no comprende la velocidad del cambio que se aproxima.
Estados Unidos emitió la Executive Order 14110 en octubre de 2023, que requiere pruebas de seguridad para modelos avanzados y reportes de incidentes. Sin embargo, muchos críticos señalan que es insuficiente y que la aplicación es dispersa.
La Unión Europea ha avanzado más con el AI Act (2024), primera ley comprensiva de IA a nivel de bloque económico. Clasifica sistemas por nivel de riesgo y establece multas de hasta 7% de ingresos globales por violaciones. Es un avance significativo, aunque su implementación efectiva aún está por verse.
China ha implementado regulaciones sobre algoritmos (2021-2022), requisitos de registro para modelos generativos, y restricciones de exportación de chips — una señal de que el control tecnológico es una prioridad estratégica.
Anthropic específicamente ha publicado su Responsible Scaling Policy y desarrollado Claude con Constitutional AI — un marco donde el modelo tiene principios éticos integrados que no pueden ser removidos incluso por instrucciones de usuario. Es un intento notable, aunque no infalible.
Conclusión: Preperémonos Para el Debate, No Para la Certidumbre
La visión de Dario Amodei merece atención no porque venga de alguien necesariamente correcto, sino porque es uno de los pocos líderes de IA que combina acceso a modelos de frontera, conocimiento técnico profundo y una voluntad de hablar públicamente sobre riesgos.
Pero la historia de la IA está llena de predicciones que han resultado equivocas — tanto por exceso como por defecto. Martin Rees, el astrofísico y miembro de la Royal Society, observa que «la mayoría de los expertos en IA han subestimado la dificultad de ciertos problemas y sobreestimado su facilidad en otros, a veces simultáneamente.»
La verdadera pregunta no es si la AGI llegará, sino si gobernanza, educación y adaptación social podrán moverse a la velocidad que la tecnología exige.
¿Te interesa este tema? Este blog cubre regularmente avances en IA desde una perspectiva basada en evidencia. Explora los artículos relacionados más abajo.
Fuentes consultadas: Goldman Sachs Global Economics (2023), McKinsey Global Institute Automation Report, OCDE AI Policy Observatory, World Economic Forum Future of Jobs 2023, Anthropic Responsible Scaling Policy, EU AI Act (2024), declaraciones públicas de Dario Amodei, Sam Altman, Yoshua Bengio, Yann LeCun, Geoffrey Hinton, Rodney Brooks y Ray Kurzweil entre 2023 y 2025.
Etiquetas: AGI, Inteligencia Artificial, Dario Amodei, Anthropic, Futuro del Trabajo, Gobernanza de IA
Categoría: AI