¿Sabías que la IA pronto podría necesitar tanta electricidad como un país entero?
En nuestra era informática en rápida evolución, la Inteligencia Artificial o IA se destaca como uno de los campos de estudio más importantes.
Los investigadores de IA se esfuerzan por desarrollar máquinas "inteligentes" que sean capaces de aprender y realizar tareas para resolver problemas y alcanzar objetivos.
Las aplicaciones de la IA van desde programas de reconocimiento de imágenes y rostros hasta asistentes virtuales impulsados por reconocimiento de voz (como Alexa y Siri), y software de producción y reconocimiento de idiomas como el popular ChatGPT.
Si bien este nuevo campo genera mucho entusiasmo por un futuro mejor, también plantea un problema formidable: el potente hardware que impulsa la IA consume grandes cantidades de electricidad.
Los expertos predicen que los servidores de IA podrían utilizar entre 85 y 134 teravatios hora (TWh) al año para 2027, lo que se aproxima al consumo anual de electricidad de los países de Argentina, Países Bajos y Suecia. Esto podría aumentar las emisiones de carbono del mundo en una cantidad significativa. Sin mencionar que, debido a su enorme hardware, los sistemas de IA también requieren grandes cantidades de agua para enfriarse.
Regulaciones y Mejoras
Dado que la IA es un campo relativamente nuevo, las regulaciones para controlar sus impactos ambientales son escasas.
Sin embargo, en octubre pasado, California aprobó nuevas leyes de divulgación climática que exigen que todas las grandes empresas, incluidas las que utilizan IA, revelen cuánto carbono utilizan sus operaciones y los riesgos climáticos involucrados. Estas leyes son las primeras de su tipo y se prevé que afectarán a unas 10.000 empresas. Muchos esperan que otros estados adopten leyes similares y esto se convierta en un estándar federal.
Mientras tanto, los investigadores de IA también están intentando reducir la cantidad de energía que consumen los modelos de IA. Investigadores del Centro de Supercomputación del Laboratorio Lincoln (LLSC) del MIT notaron que una unidad de procesamiento de gráficos (GPU), que es el hardware que ayuda a entrenar modelos de IA, consumía alrededor de 1.300 megavatios-hora de electricidad. ¡Esto se acerca a la cantidad de energía que utilizan 1.450 hogares estadounidenses al mes!
Los investigadores descubrieron que limitar la cantidad de energía que puede consumir una GPU podría reducir el consumo de energía entre un 12 y un 15 %. Esto también ha dado como resultado que las GPU funcionen alrededor de 30 grados Fahrenheit más frías, lo que significa que se usa menos agua para enfriar el sistema.
Además, LLSC ha creado nuevas técnicas para el entrenamiento de IA, como un sistema que pone fin a los modelos de IA ineficaces desde el principio. Se ha descubierto que esto reduce la energía utilizada para entrenar modelos en aproximadamente un 80%.
¿Qué sigue?
Estas técnicas de ahorro de energía no sólo reducen los costos en el desarrollo de la IA, sino que también alientan a las empresas a buscar estrategias para reducir el consumo de energía.
Recientemente, incluso la Fuerza Aérea de EE. UU., propietaria de miles de centros de datos de IA, ha estado buscando formas de reducir su uso de energía.
La enorme cantidad de uso de energía en la industria de la IA está impulsando a muchos investigadores y empresas a encontrar el punto ideal donde podamos disfrutar de todos los beneficios de la IA y reducir todas sus desventajas.
Fuentes: NYT, BBC, MIT, Stanford.edu, Our World in Data