Es indudable que la inteligencia artificial (IA) ha transformado numerosos sectores como la educación, la atención médica o la industria, ayudando a alcanzar soluciones rápidas y precisas a problemas complejos. Sin embargo, esta revolución tecnológica tiene un coste ambiental que no pasa desapercibido. El alto consumo energético de los centros de datos que manejan los modelos de IA es el principal causante de este incremento de las emisiones.
Los centros de datos son instalaciones llenas de servidores que almacenan, procesan y gestionan enormes volúmenes de información. Para hacer esto, requieren cantidades ingentes de energía. Existen dos componentes principales en su consumo energético: el procesamiento de la información y la refrigeración. El primero es el más obvio. Cada vez que un usuario utiliza una aplicación basada en la Inteligencia Artificial, como una consulta a un modelo conversacional del tipo de ChatGPT, el sistema debe procesar una gran cantidad de datos. Los algoritmos de IA, en particular los modelos de lenguaje, requieren realizar operaciones matemáticas altamente complejas, a menudo entrenadas con cientos de miles de millones de parámetros. Esta demanda de cálculo intensivo supera con creces el consumo de recursos de procesos más simples, como una búsqueda en Google.
Por poner un ejemplo, una búsqueda convencional en un buscador como Google consume aproximadamente 0,3 Wh de energía, equivalente a iluminar una bombilla de 60 vatios durante 17 segundos. Ese consumo provoca unas emisiones de aproximadamente 0,2 gramos de CO2 a la atmósfera. En cambio, la energía requerida para una interacción con un modelo de IA puede ser entre 10 y 100 veces mayor, dependiendo de la complejidad de la tarea. Esto se debe a que, en lugar de realizar una búsqueda en una base de datos preexistente, el modelo de lenguaje genera una respuesta personalizada en tiempo real, lo que involucra cálculos en múltiples capas de redes neuronales profundas. Lo mismo ocurre con un modelo de IA generativa dedicada a producir o retocar imágenes, generar ilustraciones o componer música.
El otro gran consumidor de energía en los centros de datos es el sistema de refrigeración. Los servidores que realizan estos cálculos producen una gran cantidad de calor, que debe ser disipado para evitar que los equipos se sobrecalienten y sufran daños. La refrigeración puede consumir hasta el 40% de la energía total de un centro de datos, especialmente en regiones calurosas. Esto significa que, a medida que aumenta la demanda de servicios basados en IA, no solo crece el consumo de energía directamente relacionado con el procesamiento de datos, sino también el necesario para mantener los equipos a una temperatura adecuada.
Además, solo el entrenamiento de este tipo de herramientas ya implica un consumo energético inmenso. Según una estimación de 2020 publicada en la revista Nature, la huella de carbono de entrenar a un modelo lingüístico como ChatGPT equivale a unas 300 toneladas de CO2, equivalente a lo que podría emitir de media un ciudadano en 60 años.
Pero no todo son malas noticias, puesto que la inteligencia artificial (IA) también contribuye a optimizar el uso de la energía mediante el análisis en tiempo real de datos y el ajuste dinámico de sistemas. Aplicaciones como la gestión eficiente de redes eléctricas, el control automatizado de edificios inteligentes o la optimización de procesos industriales permiten reducir el consumo energético y, así, reducir la huella de carbono.
© Imágenes: Shutterstock.
Mutua Madrileña no se hace responsable del producto objeto de la presente entrada ni de las consecuencias de cualquier acción realizada en base a la información proporcionada. Esta información, obtenida de fuentes públicas, no supone, en absoluto, una recomendación de compra ni garantiza la calidad, disponibilidad y/o accesibilidad de los productos indicados.
Blog ÓN
Comité de contenidos