SEO para Google

¿Ha llegado la AGI? Por qué todos hablan de ello en 2026 y qué implica para ti

Inteligencia Artificial General AGI en 2026

El 23 de marzo de 2026, Jensen Huang —CEO de NVIDIA y probablemente el hombre más rico del planeta— soltó en el podcast de Lex Fridman la frase que incendió internet: “I think we’ve achieved AGI.” Creo que hemos alcanzado la AGI.

Una semana antes, Sam Altman venía diciendo que OpenAI había “básicamente construido” la AGI. Y dos días después de Huang, el benchmark ARC-AGI-3 demostró que GPT-5.4, Claude Opus 4.6 y Gemini 3.1 —los tres modelos más potentes del planeta— puntúan 0% en tareas que cualquier humano resuelve al 100%.

Entonces, ¿ha llegado la AGI o no? Spoiler: depende de a quién le preguntes y de qué entiendas por “inteligencia general”. Vamos a desgranarlo.

Qué dicen los que dicen que sí

Jensen Huang: “Ya está aquí”

Huang no habla de la AGI académica —esa máquina que razona en todos los dominios cognitivos humanos—. Habla de algo más pragmático: sistemas de IA capaces de generar valor a escala de mil millones de dólares. Y argumenta que eso ya está pasando.

Ahora bien, hay un detalle que varios analistas han señalado: Huang es el CEO de la empresa que vende las GPUs que alimentan toda la revolución de IA. Declarar que la AGI ha llegado es, literalmente, decir que sus productos han cumplido su misión. No digo que mienta, pero el conflicto de intereses es más grande que una H100.

Sam Altman: “La singularidad suave”

Altman publicó un ensayo titulado “The Gentle Singularity” donde plantea una línea temporal concreta:

  • 2025: Agentes que hacen trabajo cognitivo real
  • 2026: Sistemas que descubren insights novedosos
  • 2027: Robots que operan en el mundo físico

Dato curioso: dijo que ese ensayo sería “probablemente el último que escribiría sin ayuda de IA”. El CEO de OpenAI ya no escribe solo. Piénsalo un momento.

Dario Amodei (Anthropic): “Aceleración radical en 2026”

El CEO de Anthropic —la empresa detrás de Claude— afirmó en Davos que las leyes de escalado no han tocado techo y que “habrá una aceleración radical en 2026”. En una carta al gobierno de EE.UU., Anthropic predijo que sistemas de IA potentes emergerán a finales de 2026 o principios de 2027.

Amodei prefiere no usar el término AGI. En su lugar habla de “IA con capacidades intelectuales que igualen o superen a las de premios Nobel en la mayoría de disciplinas”. Ambicioso. Y curiosamente específico.

Qué dicen los que dicen que no

Gary Marcus: “Rumores muy exagerados”

El profesor de NYU y crítico más visible del hype de IA no se anda con rodeos. Sobre la declaración de Altman de que habían construido la AGI, Marcus la calificó de “authoritative bullshit” —mierda con autoridad—. Sin filtros.

Su argumento central: confundir el rendimiento en tareas individuales (escribir código, aprobar exámenes) con inteligencia general es un error fundamental. “Los rumores de la llegada de la AGI han sido enormemente exagerados”, escribió en su Substack.

Satya Nadella: “No estamos ni cerca”

El CEO de Microsoft —que ha invertido miles de millones en OpenAI— desmiente a su propio socio. Dice que la industria no está ni cerca de la AGI. Cuando tu mayor inversor dice que no has llegado, es que algo no cuadra.

ARC-AGI-3: La prueba que pone a todos en su sitio

Lanzado el 25 de marzo de 2026, el benchmark ARC-AGI-3 diseñó entornos interactivos tipo videojuego donde la IA tiene que descubrir reglas, establecer objetivos y resolver problemas sin instrucciones de ningún tipo. Los resultados:

  • Humanos: 100%
  • GPT-5.4: 0%
  • Claude Opus 4.6: 0%
  • Gemini 3.1: 0%

Cero. Los tres modelos más avanzados del mundo, los mismos que aprueban exámenes de doctorado y escriben código mejor que la mayoría de programadores junior, no pueden hacer lo que un niño de 6 años hace de forma intuitiva: explorar un entorno desconocido, descubrir cómo funciona y adaptarse.

Hay un premio de 2 millones de dólares para quien lo consiga. Sigue sin reclamarse.

Lo que los modelos SÍ hacen en 2026 (que no es poco)

Aunque el debate sobre la etiqueta “AGI” siga abierto, lo que los modelos actuales hacen es impresionante:

  • Claude Opus 4.6 lidera en código con un 80.8% en SWE-Bench (resolviendo bugs reales en repositorios de GitHub)
  • Gemini 3.1 Pro lidera 13 de 16 benchmarks y alcanza un 94.3% en razonamiento científico avanzado (GPQA Diamond)
  • GPT-5.4 puede controlar un ordenador de forma nativa — abrir programas, navegar, escribir, hacer clic

La brecha entre estos tres modelos se reduce rápidamente. Y empresas como Pango Studio, la agencia Shopify que integra IA en ecommerce, ya los están usando en producción para automatizar desarrollo, migraciones y soporte técnico.

Implicaciones a corto plazo: qué va a cambiar

Empleo

Goldman Sachs estima que 300 millones de empleos están expuestos a la automatización por IA a nivel global. El dato más preocupante: el 66% de las empresas ya están reduciendo la contratación de perfiles junior porque la IA cubre esas tareas.

Pero no todo es destrucción: los trabajadores que dominan herramientas de IA ganan hasta un 56% más que sus pares. El patrón que emerge es claro: la IA sustituye a los junior pero potencia a los senior. Si llevas años en tu sector y aprendes a usar estas herramientas, tu valor se multiplica. Si estás empezando y no las dominas, tienes un problema.

Regulación

Europa va por delante: el EU AI Act será plenamente aplicable el 2 de agosto de 2026. Es la primera legislación integral sobre IA del mundo. Cada Estado miembro tendrá que establecer sandboxes regulatorios para entonces.

Estados Unidos sigue sin ley federal. California y Nueva York aprobaron leyes estatales, pero el panorama federal depende de órdenes ejecutivas que cambian con cada presidente.

La paradoja del 95%

Un estudio del MIT revela que el 95% de los proyectos piloto de IA generativa no llegan a producción. Esto sugiere algo importante: la tecnología es potente, pero la mayoría de las empresas no saben implementarla. La oportunidad no está solo en la IA, sino en saber aplicarla.

Entonces, ¿ha llegado la AGI?

La respuesta honesta: depende de tu definición.

  • Si AGI significa “IA que genera valor económico enorme” → sí, ya está aquí
  • Si AGI significa “IA que iguala la cognición humana en todos los dominios” → no, ni de lejos
  • Si AGI significa “IA que puede explorar un entorno desconocido y adaptarse como un niño” → 0%, literalmente

Lo que está claro es que el impacto ya es real independientemente de la etiqueta. Los empleos están cambiando, la regulación avanza, y los modelos mejoran cada trimestre. Que lo llamemos AGI o no es, en cierto modo, lo menos importante.

Como dijo Altman: “Desde una perspectiva relativista, la singularidad ocurre poco a poco, y la fusión sucede lentamente.” Quizá la AGI no llega de golpe con un titular. Quizá ya está llegando, semana a semana, modelo a modelo, y un día miraremos atrás y diremos: “Ah, era esto.”

O quizá Gary Marcus tenga razón y todo esto sea “mierda con autoridad”. El tiempo lo dirá. Mientras tanto, yo aprendería a usar Claude. Por si acaso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *