El debate sobre el costo ambiental de la inteligencia artificial volvió a encenderse. Esta vez fue Sam Altman, CEO de OpenAI, quien salió a responder directamente a las críticas sobre el consumo energético y de agua de modelos como ChatGPT.
Durante una entrevista con Anant Goenka en Express Adda, Altman rechazó una de las cifras más repetidas en redes. Según explicó, la afirmación de que cada consulta de ChatGPT consume 17 galones de agua ya no sería correcta. Aseguró que antes se utilizaba refrigeración por evaporación en centros de datos, pero que ese sistema dejó de utilizarse.
Altman reconoció que el consumo eléctrico es un tema real, aunque sostuvo que muchas estimaciones exageran el impacto por consulta individual.
Energía, centros de datos y presión global
El impacto ambiental de la IA viene bajo creciente escrutinio. A comienzos de este año, Naciones Unidas advirtió que la demanda global de electricidad podría aumentar en más de 10.000 teravatios-hora hacia 2035, una cifra comparable al consumo actual de todas las economías avanzadas juntas.
🎥 Compressed edit of @sama‘s interview with Anant Goenka from Express Adda.
In 36 minutes, the @OpenAI CEO discusses:
– Why AGI is «pretty close» and ASI is «a few years away»
– The real vs imagined fears of Chinese AI dominance • Why democracy MUST lead with AI (and what… pic.twitter.com/Rzc4GvgjKN
— Maginative (@Maginative) February 20, 2026
Los costos energéticos están entre los principales desafíos de la expansión de la IA. En Estados Unidos ya existen preocupaciones por la capacidad de la red eléctrica, especialmente en polos tecnológicos como Silicon Valley. En ese contexto, figuras como Elon Musk han impulsado infraestructura energética dedicada para alimentar grandes centros de datos, mientras Microsoft explora tecnologías avanzadas para mejorar la eficiencia energética en sus instalaciones.
Altman defendió que el análisis debe hacerse de manera más precisa. Para él, la comparación correcta no es cuánto costó entrenar el modelo, sino cuánta energía consume al responder una pregunta concreta una vez ya entrenado.
Una comparación que genera polémica
El punto más discutido de la entrevista con Altman fue su analogía con el ser humano. Altman afirmó que también se necesita mucha energía para “entrenar” a una persona. Habló de los 20 años de vida, alimentación y educación necesarios para desarrollar inteligencia humana, e incluso mencionó la evolución acumulada de miles de millones de personas a lo largo de la historia.
Desde su perspectiva, si se compara la energía utilizada por un modelo ya entrenado para responder una consulta frente a la de un humano realizando la misma tarea, la IA habría alcanzado niveles similares de eficiencia.
El debate no termina ahí. Un informe de Goldman Sachs señaló que la inversión masiva en IA explicó buena parte del crecimiento económico de Estados Unidos el año pasado. Sin esas inversiones, la economía habría mostrado señales de debilidad.
Al mismo tiempo, otros estudios cuestionan si la IA realmente reduce carga laboral o si termina generando más trabajo. También se estima que el reemplazo de empleos podría ser mucho menor al anticipado, en torno al 2,5%






