Cuando enviamos una petición a una inteligencia artificial como ChatGPT, los servidores de un centro de datos computan la respuesta. Hasta aquí, el proceso es similar a cualquier servicio en la nube, pero los modelos de IA generativa, que han sido entrenados para predecir las respuestas, utilizan 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional para realizar tareas específicas.
"Es tremendamente ineficiente desde una perspectiva computacional", dijo a BBC News Sasha Luccioni, investigadora de Hugging Face.
La advertencia de los eticistas de la IA
Un estudio prepublicado por Luccioni y otros autores advierte del alto coste ambiental de los grandes modelos de IA, tanto por la cantidad de energía que demandan como por las toneladas de carbono que emiten.
Cuando empresas como Meta, OpenAI y Google entrenan sus grandes modelos de lenguaje (Llama 3, GPT-4o, Gemini 1.5 Ultra), ponen a funcionar cientos de miles de tarjetas gráficas o TPUs que consumen enormes cantidades de electricidad, especialmente a medida que crecen en tamaño (de millones a cientos de miles de millones de parámetros).
1.000 teravatios-hora en centros de datos
Sin embargo, esta es solo una parte de la historia. La IA generativa es cada vez más popular, lo que significa que millones de personas hacen consultas a cada instante que ponen a funcionar la maquinaria de la inferencia: el proceso por el que los modelos de aprendizaje automático realizan predicciones o generalizaciones a partir de cualquier consulta.
Este proceso es igualmente costoso porque genera contenido desde cero en los centros de datos de todo el mundo. Centros de datos que utilizan cada vez más electricidad: de 460 TWh en 2022 a más de 1.000 TWh proyectados para 2026; aproximadamente el consumo de electricidad de Japón, que tiene una población de 125 millones de personas.
En National Grid, el operador de la red eléctrica de Reino Unido, están preocupados. Calculan que la demanda de electricidad de los centros de datos se sextuplicará en los próximos 10 años por el uso de la IA, al que habrá que sumar la electrificación del transporte y la calefacción.
En Estados Unidos, los operadores de la red ya están empezando a resentirse, dice la consultora Wood Mackenzie: "Se están viendo afectados por las demandas de los centros de datos exactamente al mismo tiempo que se está produciendo el resurgir (gracias a la política gubernamental) de la fabricación nacional".
Coqueteando con la energía nuclear
Los nuevos modelos pequeños como Phi-3 o Gemini Nano, que se ejecutan directamente en nuestros dispositivos, pueden aliviar parte del problema. Al mismo tiempo, el rendimiento del hardware está mejorando, lo que permite ahorrar energía tanto en el entrenamiento como en la inferencia.
Pero a medida que mejora el hardware, las grandes tecnológicas también compiten por entrenar modelos más grandes y capaces, lo que requiere más centros de datos para almacenar los datos de entrenamiento y más energía para alimentar toda la capacidad de computación.
Es una pescadilla que se muerde la cola. Y aunque los centros de datos suelen tener instalaciones de autoconsumo, esto va a requerir soluciones más drásticas. Por eso empresas como Microsoft empiezan a apostar por los reactores nucleares modulares mientras Sam Altman, CEO de de OpenAI, invierte en fusión nuclear.
Imagen | Microsoft
Ver 41 comentarios
41 comentarios
adomargon
En España ayer estuvo apunto de haber un apagón épico por la estupidez de Zetaparo de cerrar las centrales nucleares. Me callo que se me va la cabeza frente a semejante ...
stranno
La IA local sería interesante, sobre todo en móviles. Los núcleos NPU existen desde 2017 con el Kirin 970, el A11 Bionic y el Snapdragon 845. Sin embargo nunca he visto una aplicación medio-interesante. El 90% de lo que nos venden como "IA local" no son más que implementaciones en la nube. Nos intentan vender como nuevo y como IA lo de "redondear para buscar" y no es más que el Lens de toda la vida. Característica, la de buscar en una captura, que tuvo hace una pila de años, desapareció y ha vuelto en este formato.
Usuario desactivado
El problema del consumo de la IA es intrinseco a su arquitectura mas basica: la neurona artificial.
Se necesitan de 10 a 15 neuronas para imitar una operacion booleana elemental.
daniel3241
Pues yo lo veo algo positivo el hacer que aumente la demanda de energía incentiva a los gobiernos y empresas a invertir aun mas en nuevas fuentes de energía ó en mejorar las ya existentes.
Al final el uso masivo de la IA impulsara el desarrollo de la fusión nuclear que es el santo grial que muchos científicos e ingenieros intentan conseguir.
pos_soy_yo
No es cuestión de que a uno le guste o no el coche eléctrico, es más que evidente que la red no está preparada ni lo estará para ese consumo tan alto. Y no, llenar los tejados de placas no va a ser suficiente.
O se construyen nuevas plantas nucleares o estamos jodidos porqué la población va en aumento por la inmigración y el consumo seguirá aumentando. Joder, si es de cajón. 🤷
jkujami
Más autoconsumo y más baterías. Más energías limpias y bombeo de agua como respaldo y algunas plantas de energía de gas.
En el 2023, más del 50% de la energía se genero con sol, viento y agua...y la tendencia no hace más que ir a más......
80mil millones ha costado la desgracia de Fukushima y lo de Chernobyl ya ni lo comento....
La nuclear ya va camino a desaparecer y bien que haremos en dejar de generar residuos y arriesgarnos a un desastre..
juanmiguel1
Pues que prohíban la IA
principecarlos
Dentro de dos dias la IA sera lo peor para el planeta y entrara en la agenda 2030 de las elites si les dan una semana la IA sera la culpable del agujero que hubo en la capa de ozono
labandadelbate
Solución poner centros de datos al lado de campos eólicos o fotovoltaicos.
angry dog
hype y la nueva estafa
ae123
Como el crypto, como el web3, y como muchos otros productos que solo han fracasado, la AI no parece tener realmente futuro que no sea ineficiencia por todos lados.
moruiz
Si proponen un Eurovegas o algo por el estilo nos alarmamos por el consumo que necesitaría, ¿pero para la supuesta IA todo nos da igual? ¿Barra libre? Prohibir su producción desde la raíz sería lo correcto.
braz.pit
Y esto no ha hecho más que empezar.
¿Os imaginais ciudades colmena como Móstoles cuando en cada casa haya un par de coches eléctricos?¿dónde irán los cargadores en esas calles? No hay ni cargadores, ni cables ni potencia que lo aguante.
Pero cerramos nucleares y ponemos molinillos. Verás qué risa cuando no haya viento.. Eso sí, ellos seguirán yendo en sus Falcon y comiendo jamón mientras a nosotros nos pedirán que comamos insectos, muy nutritivos dicen, y que vayamos en coches " sin humos", pero que tardarán, por las recargas, más que una carreta de mulas.
Bienvenidos a la Agenda 20.30
tornadijo
Partiendo de que no hay baterías aún que suplan la falta de energía de las renovables (por la noche, cuando no hay viento o cuando no hay agua), las centrales nucleares son necesarias. Es lo que hay. Y cada vez habrá mas nuclear pese a quien pese, porque llegan los SMR para poner al lado de una industria o un centro de datos.
Luego, con el paso del tiempo, cuando hayas muchos coches eléctricos éstos harán, de forma compartida, de una batería gigante imposible de fabricar de forma independiente, y regularán la oferta y demanda. El consumo de energía cargando un coche eléctrico será bonificado en función de cuanta batería dejes para ayudar a compensar la red.
Esto que digo es lo que va a pasar porque el mercado está invirtiendo en eso y nosotros no vamos a cambiarlo.
enmadrid
Con la desindustrialización que está sufriendo España y ni con esas da basto.
quiksilver22
La energía nuclear le viene como anillo al dedo. Porque los centros de datos necesitan una energia linear y constante durante 24 horas. Justo lo que la energía nuclear puede producir sin emitir nada de gases a la atmósfera.
En españa el consumo de energía a disminuido levemente durante los ultimos años, debido a la bajada de la industria en España, el autoconsumo, y la eficiencia de los aparatos de consumo.