Con cada anuncio de OpenAI, la promesa de una revolución tecnológica parece más cercana, no obstante, un desafío fundamental se cierne en el horizonte: la infraestructura eléctrica necesaria para sostener el ambicioso crecimiento de la inteligencia artificial. La visión de Sam Altman, CEO de OpenAI, de construir centros de datos a gran escala enfrenta un reto más terrenal que puede limitar su potencial.
El gran desafío de la infraestructura eléctrica en la IA
A inicios de este año, Altman presentó un plan en colaboración con Oracle y SoftBank, prometiendo una inversión de 500,000 millones de dólares en el marco del proyecto Stargate. Este proyecto contempla la construcción de 10 gigavatios en centros de datos a lo largo de Estados Unidos para 2029. Sin embargo, el avance ha sido más lento de lo esperado; según informes de The Wall Street Journal, aún no se han concretado contratos con SoftBank y el primer centro, ubicado en Ohio, está todavía en evaluación.
La situación actual no solo afecta a OpenAI, sino a todo el sector de la inteligencia artificial. Ni la inversión masiva ni el acceso a una cantidad inagotable de GPUs podrán resolver el verdadero cuello de botella: la infraestructura eléctrica necesaria para operaciones diarias. Se estima que entrenar modelos como GPT-4 demanda decenas de gigavatios-hora, y el verdadero desafío radica en la “inferencia”, es decir, en el uso cotidiano de estas tecnologías. Cada interacción con modelos como ChatGPT implica un consumo significativo de energía, aumentando así la presión sobre una red eléctrica ya saturada.
Un futuro incierto ante el aumento del consumo energético
La Agencia Internacional de Energía ha advertido que para el 2030, el consumo eléctrico de los centros de datos podría duplicarse, superando los 945 TWh, un volumen que excede el total actual de consumo eléctrico de Japón. Esta previsión trae consigo una paradoja; a pesar de las capacidades cada vez mayores para generar energía, la entrega y distribución efectiva de la misma se ve obstaculizada por la falta de infraestructura adecuada, como líneas de alta tensión y subestaciones.
En un reciente comunicado, OpenAI enfatizó que su expansión está creando decenas de miles de empleos en lugares como Texas. No obstante, persisten desacuerdos con SoftBank sobre la localización de los nuevos centros y cómo conectar estas instalaciones a una red eléctrica congestionada. Altman ha admitido en un memorando interno que la creciente demanda de procesamiento de datos está sometiendo a presión la cadena de suministro, lo que podría requerir soluciones creativas para evitar un estancamiento en el desarrollo.
Buscando soluciones fuera del sistema eléctrico tradicional
Ante estas limitaciones, algunas grandes corporaciones tecnológicas están buscando alternativas innovadoras. Un número creciente de empresas, entre ellas Meta, ha comenzado a explorar la posibilidad de abastecer sus centros de datos mediante energía nuclear. Meta, por ejemplo, ha firmado un contrato de 20 años para adquirir energía de una planta nuclear en Illinois.
Por su parte, otras compañías como Google y Amazon están considerando reactores modulares pequeños (SMR) como una forma viable de garantizar un suministro energético constante. Mientras tanto, Microsoft también se adentra en el sector al reabrir una planta nuclear que había cerrado en 2019, dedicándola únicamente a soportar su infraestructura de inteligencia artificial.
El futuro de la energía en la era de la inteligencia artificial
Un ejemplo notable de este giro hacia la energía nuclear es la inversión reciente de NVIDIA en TerraPower, la empresa fundada por Bill Gates que está trabajando en el desarrollo de un reactor Natrium, el cual promete generar electricidad a una fracción del costo de los reactores convencionales. Este proyecto, que se sitúa en Wyoming, también incluye la participación de empresas internacionales, como la empresa española ENSA, que está construyendo componentes clave para la operación del reactor.
La evolución de la inteligencia artificial parece imparable, sin embargo, todo avance se enfrenta a las limitaciones propuestas por las leyes físicas que rigen la energía y la infraestructura. Con un crecimiento explosivo en el número de usuarios de ChatGPT, que alcanzó los 800 millones en abril, cada consulta a la IA representa una demanda adicional en el sistema eléctrico. Datos de Le Monde sugieren que actividades tan simples como enviar un correo pueden consumir más del 7% de la carga de un teléfono móvil, y generar imágenes queda aún más alto.
Al final del día, la promesa de una revolución impulsada por la inteligencia artificial deberá lidiar con una verdad ineludible: no puede haber servidores sin energía y, por ende, sin una infraestructura adecuada para garantizar un suministro eléctrico eficaz. Mientras tecnologías como Telefónica, Movistar, Vodafone España, Orange España, Zimpler, Cisco, Huawei, Juniper Networks, FiberCorp, y Netgear se esfuerzan por desarrollar soluciones innovadoras, queda claro que sin la infraestructura básica, la senda hacia el futuro es incierta.
Asumiendo que la inteligencia artificial cambiará el mundo, el verdadero desafío será encontrar un equilibrio entre la demanda creciente de energía y la capacidad de las redes eléctricas para satisfacerla, revelando así la paradoja de una revolución que depende de algo tan fundamental como los cables que la alimentan.








