23 pavetes al mes por ChatGPT y eres el rey del mambo.
Lo que no sale en la factura es el data center del tamaño de un aeropuerto, el agua que se evapora para que los servidores no se fundan, ni los inversores metiendo dinero a palas con la esperanza de recuperarlo en el corto plazo.
Pero tú sigue preguntándole recetas al chatbot, que para eso está.
Entrenar vs. usar
La IA consume energía en dos momentos distintos. Primero al entrenarse: el proceso en el que el modelo digiere océanos de datos para aprender. Segundo, al responder: cada vez que le preguntas algo, eso se llama inferencia. Y aquí viene el dato que nadie espera.
GPT-3 necesitó 1,3 millones de kWh para entrenarse. GPT-4 costó 48 veces más, y GPT-5 multiplicó por 8 al cuatro. Impresionante, sí. Pero el entrenamiento resulta ser lo barato. El verdadero agujero negro es el uso diario.
En 2023, ChatGPT consumió en solo tres días de respuestas la misma energía que costó entrenarlo. Y en aquel entonces apenas lo usaban unos pocos curiosos. Hoy tiene 800 millones de usuarios activos semanales tirando de modelos bastante más potentes.
Visto así suena inocente. El problema es que esas peticiones no se evaporan: se concentran en edificios físicos enormes que consumen como una ciudad mediana.
«Una sola consulta equivale a 6 segundos de PlayStation o 1 segundo de microondas.»
Sam Altman, CEO de OpenAI
La IA bebe más que tu cuñao
Poca gente habla de esto, pero los centros de datos no solo comen electricidad: también beben agua en grandes cantidades para refrigerar servidores y mantener la humedad del edificio. Las empresas insisten en que no es agua potable, pero el impacto importa igualmente, sobre todo cuando instalas el servidor en un sitio donde ya hay sequía.
Caso real:
Colón, municipio del centro de México con sequía extrema, tiene en su territorio un gran centro de datos de Microsoft. Según investigaciones de The Washington Post y la Universidad de California, las cifras de consumo hídrico y energético que publican las empresas se quedan cortas respecto a la realidad.
Un estudio del MIT lo aclara bien: el gasto depende del tipo de tarea y la complejidad del prompt. Para cosas simples, las cifras de Google y OpenAI son más o menos fiables. Pero cuando la tarea se complica, el consumo puede multiplicarse por 10 o por 100 si hablamos de imágenes. Un vídeo de 5 segundos generado con IA equivale a tener el microondas encendido una hora entera. Por un clip de 5 segundos.
Los data centers son monstruos energéticos
Colossus 2 de xAI, Stargate de OpenAI… no son almacenes de servidores. Son las construcciones con mayor actividad energética y complejidad técnica que ha levantado la humanidad. Pueden ocupar casi un millón de metros cuadrados. Y muchos se están construyendo en lugares donde la red eléctrica directamente no estaba pensada para algo así.
¿La solución de urgencia? Reactivar plantas diésel y centrales de carbón para cubrir los picos de consumo. xAI, por su parte, ha optado por construir turbinas de gas sin permiso. Google y Meta están financiando nuevas centrales nucleares. Todo esto mientras los ecologistas observan la escena con una mezcla de horror y «os lo dijimos».
La luz te sube y ellos pagan menos
Aquí viene la parte que más mosquea. Según un estudio de Harvard, los centros de datos pagan hasta un 40% menos por la electricidad que un usuario doméstico normal, gracias a contratos especiales y confidenciales con las eléctricas. O sea, los que más consumen, pagan con descuento. Los que menos consumen, pagan el precio completo. Justísimo.
No es una sospecha: hay casos documentados. DC Energy, eléctrica de Carolina del Norte, ofreció a un data center un descuento de 325 millones de dólares y planeaba pasar la diferencia a sus clientes residenciales sin decirles nada. En Luisiana, un centro de datos que consumirá el doble que Nueva Orleans está forzando al estado a construir centrales de gas nuevas. Pagadas con dinero público, claro.
El resultado más tangible: según Bloomberg, en zonas cercanas a grandes data centers la factura de la luz ha subido hasta un 267%. No es el único factor, la infraestructura envejecida y la inflación también suman, pero los centros de datos son parte visible del problema.
La coalición más rara de la historia
Hay algo que resulta casi poético en este lío: Bernie Sanders y Ron DeSantis están de acuerdo en algo. Junto a ellos, figuras del movimiento MAGA. Todos con el mismo recelo hacia las Big Tech y sus infraestructuras. Cuando los extremos del espectro político americano se juntan contra algo, ese algo tiene un problema.
Dentro del entorno de Trump hay una guerra interna. El ala tecnológica —que financió buena parte de su campaña— presiona para eliminar regulaciones y acelerar el despliegue de la IA. El ala más conservadora, con Steve Bannon a la cabeza, ve en los data centers una amenaza para el empleo, las libertades civiles y la seguridad infantil.
La narrativa oficial es que los data centers son esenciales para ganarle la guerra tecnológica a China. Muchos ciudadanos se preguntan si esa guerra es realmente la suya.
OpenAI no gana perras
OpenAI ingresa 13.000 millones de dólares al año. Suena brutal. Pero estima unas pérdidas de 14.000 millones en 2026 y anda buscando otros 100.000 millones de financiación. Es la empresa privada que más dinero ha recaudado en toda la historia y todavía no ha dado ni un euro de beneficio.
Según cifras filtradas de Microsoft y publicadas por el analista Ed Zitron, OpenAI gastó en inferencia unos 3.800 millones de dólares en 2024. En los primeros nueve meses de 2025 esa cifra se fue a 8.650 millones. Y lo más curioso: tanto los usuarios gratuitos como los de pago generan costes deficitarios, porque los de pago usan prompts más complejos y generan más imágenes.
¿Cómo tapan el agujero? Sam Altman ya ha hablado de meter publicidad dentro de ChatGPT. Y aquí viene lo realmente perturbador: un chatbot que maneja conversaciones íntimas, consultas médicas, finanzas personales y relaciones puede construir un perfil psicológico del usuario mucho más preciso que cualquier red social. Si piensas que el targeting de Instagram era invasivo, espera a que veas lo que puede hacer ChatGPT con lo que le has contado este año.
Anthropic va por otro camino: cobrar más por la versión rápida y apostar por herramientas B2B. Más elegante, pero tampoco tiene beneficios. Las proyecciones más optimistas apuntan a 2028 como pronto. Mientras tanto, a seguir recaudando inversión para mantener los centros de datos enchufados.
Este coste lo notarás en tu día a día, avisado quedas
Más allá de la energía y las finanzas, hay un coste que toca a todos: la degradación silenciosa de productos y servicios. No hace falta saber programar para percibirlo. El CEO de Microsoft ha reconocido que el 30% del código de Windows ya lo escribe la IA. Y en enero de 2025 salió una de las peores actualizaciones de Windows en años, con ordenadores que no arrancaban. Coincidencia, quizá. Patrón, probablemente.
Lo que viene si seguimos por este camino:
- Servicios de atención al cliente aún peores de lo que ya están.
- Más brechas de seguridad en software generado con IA a toda velocidad.
- Artículos, noticias y vídeos que difunden falsedades por basarse en alucinaciones de chatbots.
- Productos digitales peores, más baratos de producir y más caros de aguantar.
Y una aclaración necesaria: cuando alguien dice que la IA va a curar el cáncer, mezcla churras con merinas. Las IA especializadas en investigación científica son herramientas con resultados reales. Los modelos de lenguaje generativo —ChatGPT, Gemini, el que uses— están diseñados para generar texto, imágenes y vídeo. No para curar enfermedades. Confundirlos es conveniente para quien vende el hype, no para quien lo consume.
Si después de leer esto sigues usando ChatGPT para que te escriba los emails del trabajo, sin problema. Pero la próxima vez que pagues la luz y te dé un parraque, ya sabes a quién mandarle la mitad de la factura.