Google ha publicado un documento técnico que detalla su metodología para medir el impacto energético, las emisiones y el consumo de agua de las consultas realizadas a su inteligencia artificial Gemini.
A medida que la IA se integra cada vez más en nuestra vida diaria, la preocupación por su impacto ambiental ha crecido exponencialmente. Inicialmente, el foco se puso en el entrenamiento de los modelos de IA. Sin embargo, con la explosión de la adopción pública de herramientas de IA generativa, la atención se ha desplazado hacia la inferencia o «servir» estos modelos —es decir, el consumo de energía, las emisiones de carbono y el uso de agua asociados a la generación de respuestas a miles de millones de solicitudes de usuarios a escala global.
A pesar de la creciente atención, existe una falta de datos directos de los mayores proveedores de IA, como Google, y una gran variabilidad en las estimaciones públicas. Según la metodología de Google, una interacción promedio de texto con Gemini consume 0,24 vatios-hora (Wh) de energía, genera 0,03 gramos de dióxido de carbono equivalente (gCO₂e) y requiere 0,26 mililitros de agua (aproximadamente cinco gotas). Según la propia compañía, una consulta a Gemini equivale a ver televisión durante menos de nueve segundos.
Estos resultados publicados revelan un consumo energético inferior a las proyecciones previas y plantea la necesidad de metodologías estandarizadas para la medición.
Las estimaciones previas para una sola consulta de IA fluctuaban drásticamente; por ejemplo, algunos sugerían que un prompt de GPT-3.5 podría consumir alrededor de 3 vatios-hora (Wh), mientras que otros reducían esta cifra a 0.3 Wh para un prompt de ChatGPT.
Esta inconsistencia hacía difícil comprender el impacto real. La falta de una metodología acordada para lo que debe incluirse en la medición, conocida como «límite de medición», ha contribuido a que las estimaciones varíen incluso en un orden de magnitud para tareas similares de IA.
Un enfoque de medición integral
Para abordar esta laguna, Google ha presentado una metodología para medir el impacto ambiental del servicio de IA en un entorno de producción a gran escala. El estudio se centra en la infraestructura de IA de Google para su asistente Gemini y propone un enfoque de medición que considera todas las fuentes de energía relevantes. Este enfoque va más allá de las mediciones anteriores, que a menudo solo consideraban la energía del acelerador de IA activo.
Ahora, Google incluye la energía consumida por los aceleradores de IA durante el procesamiento de las solicitudes; la energía de la CPU y DRAM del sistema host, es decir, la energía necesaria para que el sistema host (procesador y memoria) ejecute los aceleradores. Y, la energía consumida por los sistemas inactivos para garantizar alta disponibilidad y baja latencia, listos para manejar picos de tráfico.
También incluyen la energía de sobrecarga del centro de datos, es decir, la energía utilizada por los sistemas de refrigeración, la conversión de energía y otras operaciones de infraestructura del centro de datos, capturadas por la métrica de Eficacia del Uso de Energía (PUE).
Los resultados de Gemini
Aplicando esta metodología, los hallazgos de Google son más bajos que muchas estimaciones públicas.
El estudio revela que un prompt de texto promedio en Gemini Apps consume 0.24 Wh de energía. Esto es 2.4 veces mayor que la cifra obtenida con un enfoque de medición más limitado (0.10 Wh), lo que subraya la importancia de un estándar de medición más inclusivo. Para ponerlo en perspectiva, 0.24 Wh es menos energía que ver la televisión durante nueve segundos.