Entender más

La ciencia exige claridad sobre las emisiones de la inteligencia artificial

¿Por qué Google está aumentando sus emisiones?

Manifiesto por una IA responsable y sostenible

El centro de datos de Amazon Web Services (AWS) en El Burgo de Ebro, Aragón.

El centro de datos de Amazon Web Services (AWS) en El Burgo de Ebro, Aragón. / Ángel de Castro

Michele Catanzaro

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Preguntar una información a una inteligencia artificial (IA) consume mucha más energía (diez veces más, según se estima) que hacer la misma petición a un buscador tradicional. La popularización de la IA está desviando una gran cantidad de electricidad hacia los centros de cálculo que ejecutan sus algoritmos. Y eso está disparando sus emisiones (además del consumo de agua para enfriarlos , el otro impacto ambiental de la IA).

Los gases de efectos invernadero generados por Google aumentaron casi un 50% desde 2019, según el informe ambiental de la empresa presentado al inicio de julio. Todo apunta a que ello se debe al creciente empleo de IA. Microsoft y Meta también han experimentado saltos de dos cifras porcentuales en emisiones. 

En junio, el director ejecutivo de OpenAI (la empresa que está detrás de ChatGPT) Sam Altman dijo en el Foro de Davos que la próxima generación de sistemas de IA generativa necesitarán tanta energía que “no se podrá llegar allí sin alguna innovación radical”. 

Opacidad

Estas señales de alarma contrastan con la gran opacidad de los gigantes tecnológicos sobre el consumo específico de la IA. “En su reporte, Google no discrimina por tipo de computación. Todo el mundo quieres saber qué está ocurriendo con [las emisiones de] la IA y las compañías se niegan a dar esta información”, observa Alex de Vries, director de la consultora Digiconomist y autor de uno de los pocos trabajos de investigación que intentan cuantificar las emisiones de la IA.

“Me produce pánico que no haya instituciones públicas analizando esos valores. Por mucho que un productor lo oculte, sabemos cuánto emite un determinado motor de combustión. Con la IA, no lo sabemos”, afirma Cecilio Angulo, investigador en IA de la Universitat Politècnica de Catalunya. 

“Las empresas no proporcionan toda la información necesaria y por ello no hay muchos estudios serios sobre el tema”, coincide Xavier Obradors, investigador del Institut de Ciències de Materials de Barcelona (ICMAB-CSIC).

33.000 domicilios

El repunte de emisiones se asocia con la IA generativa, aplicaciones como ChatGPT o Midjourney que simulan la creatividad humana. “Estos usan modelos con miles de millones de parámetros cada vez que se interactúa con ellos y eso dispara el consumo de energía”, explica de Vries.

Eso quiere decir que cada consulta pone en función miles de procesadores, que además son unidades de procesado gráfico. Según una estimación, hace un año ChatGPT consumía cada día lo equivalente de 33.000 domicilios.

Las consultas provocan la mayor parte de las emisiones, pero a ello hay que sumarle la energía gastada para el entrenamiento de los modelos: meses durante los cuales las redes neurales que los conforman son adiestrada procesando millones de textos, imágenes y videos, para que aprendan a generar estos formato. El entrenamiento de ChatGPT-3 generó emisiones equivalentes las de un año de circulación de 123 coches, según un estudio. 

Crecimiento exponencial

Las tecnologías digitales son responsables de entre el 1,4% y el 5,9% de las emisiones globales, según un estudio de la Royal Society – una fracción parecida a la asociada con la aviación. 

La IA sería responsable de un 0,01% del total, según una estimación de la Agencia Internacional de la Energía (IEA) – menos de lo que emiten los algoritmos de las criptomonedas, por ejemplo. 

Cómo en el caso de la aviación, lo que preocupa es la perspectiva de un crecimiento exponencial. El estudio de de Vries sugiere que en 2027 la IA estaria consumiendo el 0,5% del total de energía eléctrica, igual que un país como Argentina o los Países Bajos. 

“Como más grande es el modelo [el algoritmo que sustenta la IA] major resultados da. Nos enfrentamos a modelos enormes servidos en vivo a millones de usuarios al mismo tiempo”, afirma de Vries.

Por ello, Sam Altman de OpenAI ha invertido en una start-up de fusión nuclear y Amazon ha comprado un centro de datos al lado de una central nuclear. De Vries tilda estas operaciones de desvío de atención. Un estudio de Wells Fargo, por ejemplo, argumenta que en la próxima década será el gas natural lo que alimente la IA.

Otros expertos creen que la IA podría tocar techo más pronto que tarde. Angulo observa que se están agotando los textos con los cuales se pueden entrenar los 'large language models'. “Estamos cerca de un estancamiento. Las limitaciones que hay no se van a superar fácilmente. No creo que vayamos a alcanzar una IA generalista [comparable con la inteligencia humana]”, afirma. 

La nueva tendencia es entrenar small language models, o sea modelos de IA más pequelos, basados en la documentación concreta de una empresa. “A una automovilística no le interesa una IA que sepa de turbinas de avión. A una farmacéutica no le interesa una IA que sepa de arquitectura”, observa Angulo. 

“Están circulando mensajes alarmistas. La IA seguirá siendo una fuente de emisiones pequeña, comparada con el transporte o la industria”, afirma Obradors, quien apuesta por una mejora de la eficiencia de chips y algoritmos, y por un mayor uso de energía renovable para alimentarlos.

En lo que todos los expertos consultados coinciden es que, a medida en que gastar energía se convierta en un lujo, se acabará la IA gratuita para todo el mundo. “Google está poniendo el foco en su gasto energético porque quiere advertir que va a cobrar para ciertos procesos”, afirma Angulo. 

Suscríbete para seguir leyendo