La primavera de la inteligencia artificial
Estamos viviendo una nueva “primavera” de la inteligencia artificial (IA)[1]. Este es el epíteto específico que recibe, en el gremio de la tecnología, un período de desarrollo y elevada popularidad de nuevos modelos y tendencias en estas tecnologías.
No es la primera vez que nos ilusionamos con las promesas o nos asustamos con las amenazas de la IA y otras tecnologías relacionadas con ella, tales como la robótica.
En realidad, la IA, que, en pocas palabras, reúne todos los esfuerzos de investigación académica e innovación tecnológica destinados a conseguir que las computadoras realicen tareas “cognitivas”, de razonamiento o creativas, similares a las que realizamos los humanos, nació en el año 1959. Contrario a lo que creemos la mayoría, estamos hablando de un área de investigación tecnológica que tiene más de 60 años y que ha vivido otras primaveras; pero también, oscuros inviernos.
Sin embargo, esta “primavera” parece ser definitivamente diferente.
Como la mayoría hemos notado, el poder y el impacto que están exhibiendo distintos modelos y herramientas de inteligencia artificial, especialmente aquellos que se están poniendo al alcance de todos durante los últimos meses, y que, vale la pena mencionar, se suman a los cientos de herramientas que ya estaban en funcionamiento, parecen ser cualitativamente diferentes a cualquier cosa que hayamos visto antes.
En poco menos de 2 años, hemos visto aparecer en múltiples plataformas, especialmente en la web, herramientas computacionales que responden preguntas como si fueran verdaderos seres humanos; que son capaces de componer un poema o una canción con tan solo un par de ideas; que escriben programas de computadora como si fueran las más avezadas expertas en informática o que convierten una frase en imágenes increíbles, algunas de ellas surrealistas —como la que encabeza esta columna—, y otras que parecen salidas del taller de un artista muy humano.
Más recientemente, distintas empresas tecnológicas nos han sorprendido con programas capaces de simular la realidad, creando vídeos con una calidad que rivaliza con producciones humanas de la más alta factura; o herramientas que pueden sostener una conversación en tiempo real, usando, para ello, una voz desenfadada y hasta simpática que nada tiene que ver con las metalizadas voces de los ampliamente conocidos asistentes de voz como Siri o Alexa (que también son IA). Estas nuevas IA tienen ahora también la capacidad de ver el mundo a través de cámaras e interpretar lo que ocurre en él.
Mejor dicho, y como dirían en gringolandia, mind blowing! (¡alucinante! en español).
Detrás de todo está la energía
Lo que más nos ha sorprendido a la mayoría de los avances evidentes en las IA, es que todas estas cosas parecen inventadas ayer. Ha sido tan rápida su puesta a disposición al gran público, que muchos pensamos que detrás de estos avances tecnológicos ha ocurrido una especie de milagro.
No he hecho todavía una encuesta —debería—, pero juraría que más de la mitad de las personas creen que los algoritmos que usan las IA más poderosas de hoy —ChatGPT, Midjourney, Gemini, Claude— fueron inventadas por algunas personas jóvenes geniales encerradas en algún garaje en Silicon Valley —como reza el mito moderno— o en las oficinas de alguna empresa tecnológica o los laboratorios de paredes transparentes de una universidad de alto turmequé —como ocurre en la mayoría de los casos—.
Pero no es así. La actual primavera de la IA no ocurrió, por lo menos, en términos de investigación y desarrollo, de la noche a la mañana. La velocidad a la que está desarrollándose obedece a otros factores y uno de ellos es la abundante disponibilidad de energía.
Así como lo leen.
En medio de la crisis ambiental más profunda que ha vivido la humanidad —si no la biósfera en su conjunto—, una crisis producida en última instancia por la manera como modificamos el planeta para extraer la energía que requiere nuestra especie hipersocial e hipertecnificada, estamos viviendo la aceleración de una tecnología, entre fascinante y perturbadora, que se apalanca en la energía. O mejor, en monstruosas cantidades de ella.
No sé si reír o llorar.
Algunos amigos tecno optimistas, siguiendo la línea de Bill Gates, han tratado de tranquilizarme diciendo que hay tanto dinero en juego detrás del desarrollo de la IA, que tal vez al fin veremos avanzar proyectos de energías limpias, incluyendo proyectos de energía nuclear, que andaban antes a paso de tortuga. Otras personas del bando optimista me dicen que las IA podrían llegar con la solución a las preguntas sobre la sostenibilidad que la humanidad no ha podido responder.
Pero yo no dejo de preocuparme y en lo que queda de esta columna quiero contarles porqué.
Algunas cifras básicas
Comencemos con algunas cifras básicas, y qué mejor que hacerlo, para no desentonar, con datos tomados de un par de IA. De acuerdo a Copilot, el chatbot de Microsoft, que viene integrado ahora en el sistema operativo Windows:
“La IA consumirá [en 2024] aproximadamente 4,3 gigavatios (GW) de energía a nivel global. […] En 2022, el consumo de energía eléctrica de los centros de datos utilizados en aplicaciones de IA fue de 460 teravatios hora[2].”
Para hacernos una mejor idea de estas respuestas hagamos algunas comparaciones sencillas. Por ejemplo, la capacidad instalada de producción energética de Colombia es de cerca de unos 17 GW (gigavatios). Es decir, las IA en el mundo consumen, permanentemente, cerca del 25% de toda la energía producida por un país mediano como Colombia.
Por otro lado, es interesante notar que, según los datos de Copilot, el consumo total de energía eléctrica de los centros de datos usados por las IA es igual al consumo de 46 millones de habitantes de un país del primer mundo[3]. Es decir, una sola tecnología está consumiendo la misma energía y produciendo las emisiones de gases de efecto invernadero que consumen y producen las personas de un país avanzado de tamaño mediano. ¡Bienvenida IA-landia al club de los grandes emisores!
Por su lado, Chat GPT, la estrella de los chatbots del momento y una de las protagonistas indiscutibles del auge de las IA públicas en esta “primavera”, responde que:
“Entrenar un modelo como GPT-3 puede consumir cientos de megavatios-hora (MWh). Un estudio de 2019 encontró que entrenar un modelo de IA podría tener una huella de carbono equivalente a la de un automóvil que recorre más de 700 000 kilómetros.”
Aquí vale la pena aclarar que el consumo de energía por las IA debe discriminarse para que entendamos las distintas fases de su impacto.
En primer lugar, los modelos computacionales que usan herramientas como Chat GPT, Midjourney o Claude, y que les dan sus increíbles poderes, deben “entrenarse”. Es decir, para que conversen con nosotros y sepan más cosas que nosotros, estás inteligencias artificiales deben consumir inmensas cantidades de información, procesarla para aprender cómo funcionan nuestras lenguas, y también, para recordar los datos concretos por los que les vamos a preguntar.
De acuerdo con el propio Chat GPT[4], el modelo GPT-3 fue entrenado con un total de aproximadamente 570 Gigabytes de datos de texto. No parece mucho —todo cabría en un humilde disco duro externo— pero debe tenerse en cuenta que no son imágenes ni videos los que se usan aquí; son típicamente los objetos informáticos que usan más espacio. En otros términos, el conjunto de datos de entrenamiento de GPT-3 ocuparía más o menos 2 millones de millones de páginas de libros. Esto corresponde a 20 veces la cantidad de información que se ha impreso en la forma de libros en toda la historia de la humanidad[5].
Para ejecutar los programas de entrenamiento del modelo fue necesario el equivalente a 350 años de GPU[6]. Como el trabajo se realiza “en paralelo” esto implica que para dejar listo el algoritmo que ayuda a hacer las tareas de escolares perezosos, a escribir cartas de todo tipo o componer extraños poemas, fueron necesarios varios meses de cómputo en un gran cluster, que es, vale la pena mencionar, un verdadero monstruo come electricidad. Y este es solo uno de las decenas de modelos disponibles en el mercado.
Una vez entrenado, el modelo se pone a disposición en la página web del servicio o en las distintas aplicaciones que hacen consultas al modelo. Allí, se deben atender los 100 millones y más de usuarios que están registrados en la plataforma, tan solo para el caso de Chat GPT. Pero, ¿cuánta energía consume este proceso? De nuevo, Chat GPT tuvo la amabilidad de estimar por mí que, asumiendo unas 10 millones de consultas diarias, se podrían estar usando unos 2200 kWh por día para atender los prompts de millones de escolares, cientos de miles de programadores perezosos, miles de poetas frustrados y uno que otro columnista conchudo. Y esta es solo la punta del iceberg.
Si bien se podría decir que 2200 kWh es poco menos que el doble de la energía que consume un Colombiano típico al año, cuando se suma la energía que necesitan todas las demás IA y sus servicios relacionados, las cifras empiezan a ascender hasta hacerse realmente preocupantes.
Y este es solo el presente.
Con la velocidad a la que están creciendo los modelos, pero especialmente los negocios, se estima que el consumo de energía de las IA alcance los 20 GW anuales para 2028, y siga creciendo y creciendo en una espiral ascendente que se está sumando a las espirales de otros sectores sedientos de energía y que no parecen disminuir su ritmo de crecimiento, a pesar de las alarmantes señales que nos envía la crisis climática.
Recientemente Google, una de las empresas que encabeza no solo la investigación en IA sino también la innovación tecnológica en está área, anunció que en los últimos 5 años sus emisiones de gases de efecto invernadero aumentaron hasta en un 50%[7]. Una parte significativa de este aumento se debe al incremento en el consumo energético de los gigantescos centros de cómputo que almacenan y mueven los datos necesarios para entrenar los algoritmos, y también para atender los servicios que usan estos algoritmos.
Sumando la energía consumida por las IA y todos los servicios de almacenamiento y procesamiento en grandes centros de datos, se calcula que tan solo para el 2030 el 4,5% de la energía total consumida en el planeta irá a parar a “la Matriz”.
No sólo de energía viven las IA
El problema ambiental que implica el crecimiento de las IA no se reduce al incremento en sus necesidades energéticas. Otro de los recursos que consumen en abundancia los centros de computación en los que se entrenan y ofrecen sus servicios las IA que usamos todos los días es el agua usada para refrigeración. Pensar recalienta mucho, especialmente si eres un servidor plagado de GPU que corren modelos de inteligencia artificial que intentan hablar como humanos para hacerle la tarea a medio planeta.
En un estudio de 2023, un grupo de investigadores de Estados Unidos[8] estimó que el entrenamiento de GPT-3 (del que hablamos antes) evaporó directamente a la atmósfera 700 000 litros de agua fresca. No parece mucho. Un habitante Colombiano gasta en promedio más de 4 veces esa cantidad de agua por año. Pero hay que recordar que el entrenamiento es sólo una de las etapas de la vida de las IA. Los mismos investigadores han estimado que por cada 10-50 respuestas que da Chat GPT, se evapora el equivalente a medio litro de agua. ¿Se acuerdan que antes estimamos en 10 millones las consultas por día? Bueno, hagan la cuenta.
Siguiendo con las noticias tétricas, para el año 2027, el agua evaporada para hacer tareas de cómputo relacionadas con la IA alcanzará la medio bicoca de unos 5 000 millones de metros cúbicos por año, que equivale a la mitad del consumo de agua de todo el Reino Unido durante un año entero.
Más grave es que algunos de los lugares donde residen algunos centros de datos de los gigantes tecnológicos ya tienen problemas de disponibilidad de agua[9]. Mejor dicho, en esos lugares puede llegar el momento en el que haya que pensar si se refrigera la bestiecita o se suplen las necesidades humanas del líquido vital. Por supuesto estoy exagerando. ¿O no?
Y esto apenas comienza. Entre 2021 y 2022 el consumo de agua por los centros de datos de Google aumentó en un 20%, una buena parte debida al crecimiento en el uso de IA. Por su lado, la “sed” de los centros de datos de Microsoft aumentó en un 34% en el mismo período. Vale la pena anotar que OpenAI, la empresa que desarrolla Chat GPT, es la aliada incondicional de Microsoft en temas de IA. Vayan haciendo cuentas de cuánta agua gastaron en el último año haciendo tareas por allá.
Coda
De modo que la próxima vez que le pida a Siri ayuda para resolver un crucigrama, o que apele a Chat GPT para escribir ese código que resolverá la tarea pendiente o que use Midjourney para la portada de la columna que va a publicar, acuérdese que con las IAs no hay almuerzo gratis. Recuerde también, que estás tecnologías no las inventaron ayer y que lo que están aprovechando es la enorme disponibilidad de materia y energía que ha creado el crecimiento insostenible de la sociedad.
Declaración. Para escribir esta columna fueron necesarios 4 prompts en 3 modelos de inteligencia artificial. Para responder a esos prompts las IA involucradas consumieron aproximadamente 0.001 kWh de energía y evaporaron más de 100 ml de agua potable en algún lugar del planeta. Aunque no parecen números muy grandes, el uso por parte del autor de estas tecnologías contribuyó un poquito para que las empresas que las desarrollan sigan justificando el crecimiento insostenible de estás tecnologías en el uso de energía y agua potable. Les ofrezco mis más sinceras disculpas.
Referencias
[1] El concepto de “primavera de la inteligencia artificial” lo encontré en el interesante libro de Melanie Mitchel “Inteligencia Artificial: guía para seres pensantes”, que pueden conseguir en librerías locales (mejor) o en el peor de los casos, con distribuidores en línea con este enlace: https://tinyurl.com/2d8fvpy9.
[2] Para obtener las respuestas de los chatbots mencionados en el texto utilice la siguiente pregunta o prompt: “¿Cuánta energía consume actualmente la inteligencia artificial? ¿Puedes hacerme un balance y análisis de lo que consume en términos de las diferentes etapas así como de cómo se compara con otros requerimientos energéticos?”
[3] Para este cálculo asumí un consumo per cápita de 10 000 kWh por año, que es característico de los países industrializados de acuerdo con los datos publicados en https://www.datosmundial.com/america/colombia/balance-energetico.php.
[4] Para obtener la respuesta sobre la cantidad de datos use como prompt: “Podrías indicarme cuántos datos fueron requeridos para entrenar y probar un modelo como Chat GPT-4 y cuántas épocas fueron requeridas en el entrenamiento, así como cuánto tomó en total”.
[5] Para obtener los datos sobre el equivalente en número de páginas me valí nuevamente de Copilot y para ello use los siguientes prompts: “A cuántas páginas corresponden 570 GBytes de texto plano” y “Cuántas páginas de libros pueden haber en todo el mundo”.
[6] GPU es el acrónimo de “Graphical Processing Unit” que es básicamente un circuito que procesa enormes cantidades de información para realizar cálculos en una computadora. Las GPU se han utilizado tradicionalmente para cálculos relacionados con gráficos por computadora, pero más recientemente vienen usándose en cálculos científicos y hoy son las plataformas para la mayor parte del cálculo implicado en el entrenamiento de las IAs.
[7] Para un análisis de la situación de Google ver el artículo reciente: Google’s emissions climb nearly 50% in five years due to AI energy demand | Google | The Guardian.
[8] Para estimaciones del uso de agua por las IAs ver Li, P., Yang, J., Islam, M. A., & Ren, S. (2023). Making ai less» thirsty»: Uncovering and addressing the secret water footprint of ai models. arXiv preprint arXiv:2304.03271. Disponible aquí: 2304.03271 (arxiv.org).
[9] Para un reporte sobre el problema que enfrentan los sitios en los que se están instalando centros de datos y que empezarán a enfrentar problemas de disponibilidad de agua lean: https://www.latitudemedia.com/news/where-does-the-ai-boom-leave-googles-data-center-cooling-strategy.