ChatGPT es tan convincentemente humano en sus respuestas que para muchos resulta casi grosero no decir “por favor” y “gracias”, sobre todo cuando el chatbot de OpenAI ayuda con un email complicado o una entrevista laboral. Sin embargo, toda esa cortesía digital está generando un coste silencioso millonario para la empresa.
Esta semana, un usuario de X (antes Twitter), @tomieinlove, lanzó una broma que desató un debate real:
“Me pregunto cuánto dinero ha perdido OpenAI en costes de electricidad por gente que le dice ‘por favor’ y ‘gracias’ a sus modelos”.
El CEO de OpenAI, Sam Altman, respondió en tono aparentemente irónico:
“Decenas de millones de dólares bien gastados. Nunca se sabe”.
Ver esta publicación en Instagram
Más allá del humor, el intercambio puso sobre la mesa una verdad ineludible: la inteligencia artificial cuesta, y mucho. Operar modelos a gran escala como ChatGPT implica un uso masivo de recursos computacionales y energía.
Cada vez que un usuario le pide al sistema mejorar una carta de presentación, planificar una clase o pulir su biografía para apps de citas, se activan procesos que podrían generar costes diarios de hasta 700,000 dólares, según estimaciones del analista Dylan Patel. Y ese cálculo se basaba en el modelo GPT-3. Con la llegada del más potente GPT-4o, el gasto seguramente es aún mayor.
¿POR QUÉ ES TAN COSTOSO MANTENER CHATGPT?
Responder a cualquier consulta —desde un problema matemático hasta una frase de cortesía— requiere una enorme potencia de cálculo. Esto se logra mediante granjas de servidores que emplean GPUs (unidades de procesamiento gráfico), chips especializados que consumen grandes cantidades de electricidad. Según expertos, los “costes de inferencia” diarios ya superan incluso los gastos de entrenamiento de los modelos.
A esto se suma el impacto ambiental. La Agencia Internacional de Energía estima que la IA, junto con los centros de datos y la minería de criptomonedas, ya representa cerca del 2 % del consumo eléctrico global, cifra que podría duplicarse para 2026.
Un estudio de la Universidad de Massachusetts Amherst reveló que entrenar un solo modelo de IA grande puede emitir más carbono que cinco coches estadounidenses promedio durante toda su vida útil, incluyendo su fabricación, según un reporte The Standard.
Y el problema no termina ahí: las big tech consumen cantidades astronómicas de agua para refrigerar sus centros de datos. Microsoft, por ejemplo, aumentó su uso anual en más de 1,700 millones de galones, equivalente a 2,500 piscinas olímpicas. Google, por su parte, reportó un aumento del 48 % en sus emisiones desde 2019, impulsado principalmente por la IA.
¿QUIÉN PAGA LA FACTURA?
Mientras las empresas tecnológicas incorporan IA a todos sus productos, el sector enfrenta una pregunta clave: ¿quién pagará estos costes? Tras atraer usuarios con herramientas gratuitas, muchas firmas podrían buscar nuevas formas de recuperar sus gastos energéticos. Las opciones incluyen aumentar precios de suscripciones premium, limitar el uso gratuito o incluso incorporar publicidad.
OpenAI, por ejemplo, ya ofrece una suscripción ChatGPT Pro por 200 dólares mensuales, que incluye acceso ilimitado a funciones avanzadas, como su modelo de video Sora. A pesar de los límites para los usuarios gratuitos, la plataforma sigue sufriendo interrupciones por la alta demanda. Según reportes recientes, la empresa también está considerando introducir publicidad como fuente de ingresos adicional.
Tal vez, si seguimos pidiendo las cosas con amabilidad, OpenAI nos deje seguir usando gratis al bot más popular del mundo. Pero, cortesías aparte, el futuro de la inteligencia artificial estará cada vez más condicionado por costes operativos, sostenibilidad ambiental y modelos de negocio viables. N