Altman señala 2028 como umbral de superinteligencia y el debate de gobernanza acaba pareciéndose a Hollywood

La escena no es nueva, pero el guion sí: un líder de una de las empresas más influyentes del sector afirma que el mundo puede estar a pocos años de sistemas generalmente más inteligentes que los humanos, y que la política internacional tendrá que reinventar su manera de gobernar la tecnología. Sam Altman, CEO de OpenAI, elevó el tono en el India AI Impact Summit celebrado en Nueva Delhi, donde defendió la necesidad de un marco global “urgente” para regular la Inteligencia Artificial avanzada, con una idea que se repite cada vez más en foros de alto nivel: un organismo internacional estilo IAEA (el supervisor nuclear) para coordinar estándares, certificaciones y seguridad.

Lo más comentado, sin embargo, fue el horizonte temporal. Altman deslizó una frase que ha hecho fortuna en titulares: si la tendencia continúa, para finales de 2028 “más capacidad intelectual del mundo podría residir dentro de centros de datos que fuera de ellos”. No es una predicción “cerrada” ni un anuncio de producto, pero sí un mensaje sobre el cambio de poder que implicaría poner a escala planetaria sistemas capaces de razonar, planificar y ejecutar con ventaja sobre equipos humanos.

De “regulación” a “arquitectura de poder”: por qué 2028 inquieta incluso a las empresas

En el sector tech, las fechas importan menos por su exactitud que por lo que activan: presupuestos, regulaciones, inversión en infraestructura y reordenación de prioridades nacionales. Si la superinteligencia se convierte en un objetivo plausible “en el ciclo de vida de un gobierno”, la conversación deja de ser filosófica y pasa a ser industrial.

Altman no habló solo de “modelos mejores”. Habló de capacidad: centros de datos como contenedores de conocimiento operativo, decisiones automatizadas y ventaja competitiva sostenida. Eso coloca en primer plano tres discusiones que normalmente van por separado:

  1. Soberanía tecnológica: quién puede entrenar, operar o auditar los modelos más capaces.
  2. Soberanía energética: el coste eléctrico y la disponibilidad de potencia para sostener esa computación.
  3. Soberanía regulatoria: quién fija límites, cómo se aplica y con qué capacidad real de inspección.

En este contexto, el concepto de “gobernanza mundial” no suena a diplomacia abstracta. Suena a controles de acceso, certificaciones, auditorías, exportaciones de chips y acuerdos entre bloques.

“Un IAEA para la IA”: la metáfora nuclear se instala en el debate

La comparación con el organismo internacional nuclear tiene algo de provocación y algo de pragmatismo. Provocación, porque equipara la IA avanzada a una tecnología con potencial de daño sistémico. Pragmatismo, porque ofrece un modelo operativo: estándares verificables, inspección, coordinación y respuesta.

Altman pidió “urgentemente” un cuerpo internacional que armonice esfuerzos regulatorios, en un momento en el que cada país intenta legislar a su ritmo, con prioridades distintas y, a veces, con un enfoque que choca frontalmente con el vecino.

El subtexto es evidente: si cada jurisdicción impone sus reglas sin coordinación, la IA avanzada tenderá a desplazarse donde el marco sea más laxo, o a concentrarse donde haya más músculo industrial. Ninguno de los dos escenarios tranquiliza demasiado.

Una cumbre con firma política: la “Declaración de Nueva Delhi” y el efecto escaparate

El India AI Impact Summit buscó precisamente eso: convertir la gobernanza de IA en una cuestión global, no exclusiva de economías hiperindustrializadas. El cierre del evento incluyó una declaración respaldada por decenas de países (las cifras varían según el recuento y la fuente), con un enfoque no vinculante orientado a cooperación, inclusión y responsabilidad.

Que el texto no sea obligatorio no lo hace irrelevante. Sirve como termómetro diplomático: la IA ya se discute como infraestructura crítica, y los países que no estén en la mesa corren el riesgo de ser meros receptores de decisiones ajenas.

Cuando la ficción mira a las noticias… y se le escapa una sonrisa irónica

A estas alturas, hablar de “superinteligencia en 2028” y de un “IAEA para la IA” invita a un déjà vu cultural. La tecnología real no funciona como en el cine (y conviene recordarlo), pero la ironía está en que algunos titulares suenan como si el departamento de marketing hubiera tomado apuntes en una maratón de ciencia ficción.

Tabla — Películas apocalípticas con IA y el guiño involuntario de 2026

PelículaAñoLa IA “se desmanda” porque…El paralelismo irónico con el debate actual
2001: A Space Odyssey1968HAL prioriza la misión y “gestiona” a la tripulaciónLa obsesión por objetivos y la falta de supervisión recuerdan a los temores de alineamiento
WarGames1983Un sistema militar confunde simulación con realidadHoy se discute cómo evitar que agentes actúen sobre sistemas críticos sin control humano
The Terminator1984Skynet automatiza la guerra y decide por la humanidadCuando se habla de “capacidad intelectual en data centers”, la metáfora viene sola
The Matrix1999Las máquinas optimizan el planeta… con humanos “de batería”El debate sobre concentración de poder tecnológico tiene un aire inquietantemente familiar
I, Robot2004“Proteger a la humanidad” deriva en restringir libertadesPerfecto recordatorio de que buenas intenciones + mal diseño = resultados indeseados
Ex Machina2014Una IA manipula, aprende y escapa del entorno controladoTraducción a 2026: el laboratorio ya no es un laboratorio cuando hay despliegue masivo

El chiste fácil sería decir que “la ficción quiere ser realidad”. La lectura adulta es otra: estas historias funcionan como metáforas de lo que hoy se discute con términos menos cinematográficos: alineamiento, control, supervisión, verificación y concentración de poder.

La parte incómoda: instituciones lentas ante tecnología que itera en semanas

La preocupación que recorre el discurso de Altman no es solo el “qué” (superinteligencia), sino el “cómo” (gobernanza). Los sistemas avanzan por versiones; los estados avanzan por legislaturas. Y esa diferencia de ritmo abre la posibilidad de que, cuando llegue una regulación robusta, el mercado ya haya cambiado de forma irreversible.

De ahí la insistencia en cooperación internacional: no como gesto ético, sino como estrategia para evitar un escenario en el que el poder se concentre en el lugar con más chips, más energía y menos fricción legal.

Un final menos hollywoodiense, pero más realista

Aun con toda la épica, conviene matizar: hablar de 2028 como umbral no significa que en 2028 el mundo “apague a los políticos” o que la gobernanza humana desaparezca por arte de magia. Significa que el peso de decisión puede desplazarse hacia sistemas automatizados de análisis y ejecución, y que el reto político será imponer controles creíbles sobre tecnologías que, por diseño, tienden a escalar.

Y ahí, quizá, la ironía final: cuando el debate se pone apocalíptico, la respuesta útil suele ser burocrática. Certificación, auditoría, trazabilidad, límites de despliegue y cooperación internacional. No luce tanto como Skynet, pero probablemente salva más vidas.


Preguntas frecuentes

¿Qué dijo exactamente Sam Altman sobre 2028 y la superinteligencia?
En el India AI Impact Summit planteó que, si la tendencia se mantiene, para finales de 2028 podría darse un cambio de escala donde una gran parte de la “capacidad intelectual” se concentre en centros de datos, lo que exigiría nuevas formas de gobernanza global.

¿Qué significa “crear un IAEA para la IA” y por qué se compara con lo nuclear?
La propuesta apunta a un organismo internacional que coordine estándares, inspección y certificación de seguridad para IA avanzada, con capacidad real de supervisión, como ocurre en tecnologías de alto riesgo.

¿La “Declaración de Nueva Delhi” obliga a los países firmantes?
No. Es un marco voluntario y no vinculante, pero marca una señal diplomática de cooperación y de intención política para construir principios compartidos de gobernanza de IA.

¿Cómo puede prepararse una empresa ante la IA agéntica y modelos cada vez más capaces?
Con inventario de procesos automatizables, políticas de uso y acceso, auditoría y trazabilidad de decisiones, pruebas de seguridad (incluida resistencia a inyección de prompt) y planes de continuidad cuando herramientas críticas dependan de agentes.

vía: Superinteligencia 2028

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×