talón La IA se une a la eficiencia: un nuevo chip reduce el consumo de energía de LLM un 50 % – Securities.io
Contáctenos

Inteligencia Artificial

La IA se une a la eficiencia: un nuevo chip reduce el consumo de energía de LLM en un 50 %

mm

Securities.io mantiene rigurosos estándares editoriales y podría recibir una compensación por los enlaces revisados. No somos asesores de inversiones registrados y esto no constituye asesoramiento de inversión. Consulte nuestra divulgación de afiliados.

Un chip de inteligencia artificial futurista y brillante

El auge actual de la inteligencia artificial (IA) está provocando un aumento repentino de los centros de datos, lo que genera una inmensa demanda de energía para hacer funcionar y refrigerar los servidores que hay dentro de ellos.

Si bien hay más de 8,000 centros de datos en todo el mundo, la mayoría de los cuales están en Estados Unidos, este número aumentará sustancialmente en los próximos años. 

Según estimaciones de Boston Consulting Group, la demanda de centros de datos aumentará entre un 15% y un 20% cada año hasta 2030. En este punto, la empresa espera que representen el 16% del consumo energético total de Estados Unidos, frente a un mero 2.5% antes del lanzamiento de ChatGPT de OpenAI en 2022.

Mientras tanto, el Informe especial sobre energía e inteligencia artificial Un informe de la Agencia Internacional de la Energía (AIE), publicado este año, prevé que la demanda de electricidad de los centros de datos de todo el mundo se duplicará al menos para finales de esta década, alcanzando unos 945 TWh. Esto equivale prácticamente al consumo actual de Japón. 

La organización intergubernamental autónoma con sede en París informa que la IA es el principal impulsor de este aumento y se proyecta que la demanda de electricidad de los centros de datos optimizados para IA se cuadruplicará para 2030.

En Estados Unidos específicamente, el consumo energético de los centros de datos ya representará aproximadamente la mitad del crecimiento de la demanda de electricidad entre ahora y 2030. Impulsada por el uso de IA, la economía estadounidense, según el informe, consumirá más electricidad para procesar datos en ese momento que para fabricar todos los bienes de uso intensivo de energía combinados.

Este apetito insaciable por la energía representa un grave problema para el avance y la adopción de la IA. Sin embargo, el lado positivo es el creciente número de investigadores y empresas que trabajan para reducir el consumo energético de la IA y hacerla más eficiente.

Lo interesante de estos esfuerzos es que muchos de ellos utilizan IA para abordar sus propios desafíos energéticos.

Justo este mes, un equipo de investigadores demostró un nuevo chip que usa IA para reducir la huella energética de los modelos de lenguaje grandes (LLM) en un 50%, lo que marca un avance importante para hacer que los LLM sean rentables y más sustentables de operar.

Nuevo chip aprovecha la IA para reducir el consumo energético de LLM

Nuevo chip que aprovecha la IA

Investigadores de la Facultad de Ingeniería de la Universidad Estatal de Oregón desarrollaron el nuevo chip de IA eficiente para resolver el problema del consumo masivo de electricidad de las aplicaciones de IA LLM como GPT-4 de OpenAI y Gemini de Google.

Un tipo de modelo de aprendizaje automático (ML), un modelo de lenguaje grande (LLM), se entrena previamente con grandes cantidades de datos para realizar tareas de procesamiento del lenguaje natural (NLP), como generación de texto, resumen, simplificación, razonamiento de texto, traducción de idiomas y más.

Los chatbots más populares y utilizados en la actualidad incluyen GPT-4o, o3 y o1 de OpenAI, Gemini y Gemma de Google, Llama de Meta, R1 y V3 de DeepSeek, Claude de Anthropic, Nova de Amazon, Phi de Microsoft y Grok de xAI.

En los últimos años, los LLM han transformado por completo el campo de la IA, permitiendo que las máquinas comprendan y generen textos similares a los humanos con mayor precisión. Sin embargo, esta evolución de los LLM ha resultado en un aumento exponencial de su tamaño.  

El tamaño de un LLM, medido por su número de parámetros, es el principal factor que determina su consumo energético. Esto significa que cuanto mayor sea el modelo, mayor será su necesidad de potencia computacional para el entrenamiento y la inferencia. 

Por ejemplo, ChatGPT-1 tenía poco menos de 120 millones de parámetros, que aumentaron a 175 mil millones de parámetros con GPT-3, y luego a aproximadamente 1.8 billones de parámetros con GPT-4.

Este enorme aumento en el tamaño y la capacidad de los LLM implica que su consumo energético también está aumentando a una escala sin precedentes. Además del tamaño del modelo, factores como el tipo de hardware utilizado para entrenar estos LLM, la duración del proceso de entrenamiento, la infraestructura (es decir, los centros de datos), el procesamiento de datos, la optimización del modelo y la eficiencia de los algoritmos influyen en el consumo energético de los LLM.

De ahí el nuevo chip de los investigadores de la OSU. Según Tejasvi Anand, profesor asociado de ingeniería eléctrica en la OSU y director del Laboratorio de Circuitos y Sistemas de Señal Mixta de la Universidad:

El problema es que la energía necesaria para transmitir un solo bit no se reduce al mismo ritmo que aumenta la demanda de velocidad de datos. Eso es lo que provoca que los centros de datos consuman tanta energía.

Para superar este problema, el equipo diseñó y desarrolló un nuevo chip que consume solo la mitad de energía en comparación con los diseños convencionales.

Anand y el estudiante de doctorado Ramin Javad presentaron esta nueva tecnología en la Conferencia de Circuitos Integrados Personalizados (CIC) del IEEE, celebrada en Boston el mes pasado. La conferencia, que incluye foros, paneles, exposiciones y presentaciones orales, se centra en el desarrollo de los circuitos integrados (CI), que constituyen la base de los sistemas electrónicos modernos, proporcionando funcionalidad y potencia de procesamiento en un formato compacto y eficiente.

Esta tecnología de vanguardia se desarrolló con el apoyo del Centro para la Conectividad Ubicua (CUbiC), la Corporación de Investigación de Semiconductores (SRC) y la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). Además, Javadi recibió el Premio al Mejor Trabajo Estudiantil en la conferencia.

Para el nuevo chip, los investigadores aprovecharon principios de IA que, señaló Javadi, reducen el uso de electricidad para el procesamiento de señales.

Según explicó, los LLM envían y reciben una gran cantidad de datos a través de conexiones cableadas, que son enlaces de comunicación de cobre en centros de datos. Todo este proceso requiere un consumo energético considerable, por lo que una posible solución es desarrollar chips de comunicación cableada más eficientes.

Javadi señaló además que, al enviarse a alta velocidad, los datos se corrompen al final del receptor y, por lo tanto, es necesario limpiarlos. Para ello, la mayoría de los sistemas de comunicación por cable existentes utilizan un ecualizador, que consume mucha energía.

“Estamos utilizando esos principios de IA en el chip para recuperar los datos de una manera más inteligente y eficiente, entrenando al clasificador en el chip para que reconozca y corrija los errores”.

– Javadi

Si bien se trata de un gran desarrollo, esta es solo la versión inicial del chip. Su próxima versión está en desarrollo para mejorar aún más su eficiencia energética.

En general, esta investigación en curso muestra un gran potencial para tener implicaciones de gran alcance para el futuro de la infraestructura de IA y las operaciones de los centros de datos. Sin embargo, esto requeriría la implementación exitosa de la tecnología a gran escala, lo cual nunca es tarea fácil.

Haga clic aquí para saber cómo la IA está revolucionando la ingeniería de microchips.

Dominar el apetito energético de la IA con avances en diferentes capas

Este último desarrollo de chip es solo uno de los muchos proyectos de investigación que abordan el problema del consumo energético de la IA. Analicemos brevemente las innovadoras maneras en que los investigadores lo han abordado.

Uso de la luz para la eficiencia energética de la IA 

A principios de este año, los científicos del USST desarrollado1 Un chip microscópico de IA, más pequeño que una mota de polvo o un grano de sal, que utiliza luz para procesar datos de cables de fibra óptica. Esto promete cálculos más rápidos con menor consumo de energía.

El chip manipula la luz para realizar cálculos instantáneos en lugar de interpretar las señales luminosas como lo hacen las computadoras tradicionales. Para ello, utiliza una red neuronal profunda difractiva totalmente óptica, una tecnología que utiliza capas de componentes apiladas, impresas en 3D y con patrones. Si bien es innovador, debe superar desafíos como el diseño específico para cada tarea, la sensibilidad a las imperfecciones y la dificultad de producción a gran escala para lograr funcionalidades sin precedentes en imágenes endoscópicas, computación cuántica y centros de datos.

Unos meses antes, los científicos del MIT también utilizaron la luz para realizar las operaciones clave de una red neuronal en un chip, lo que permitió realizar cálculos de IA ultrarrápidos (en medio nanosegundo) con una precisión del 92% y una enorme eficiencia energética.

Este trabajo demuestra que la computación —en esencia, la correlación de entradas y salidas— puede integrarse en nuevas arquitecturas de física lineal y no lineal que permiten una ley de escalamiento fundamentalmente diferente entre la computación y el esfuerzo necesario.

– Autor principal Dirk Englund

Los científicos desarrolló el chip fotónico2, que está compuesto de módulos interconectados que forman una red neuronal óptica. Cabe destacar que el uso de procesos de fundición comercial para su fabricación permite su escalabilidad e integración en la electrónica. Además, los científicos superaron el desafío de la no linealidad en la óptica mediante el diseño de unidades de función óptica no lineal (NOFU) que combinan la electrónica y la óptica.

Haga clic aquí para obtener más información sobre la nueva IA inspirada en el cerebro que aprende en tiempo real utilizando energía ultrabaja.

Una herramienta de software para el entrenamiento de IA y un sistema de refrigeración para centros de datos

Sistema de refrigeración para centros de datos

Mientras tanto, los investigadores de la Universidad de Michigan, se centró en el desperdicio de energía creado en el momento del entrenamiento de la IA, más específicamente, cuando se divide entre las GPU, una necesidad para procesar grandes conjuntos de datos de manera desigual. 

Entonces, desarrollaron una herramienta de software llamada Perseus que identifica las subtareas que tomarán más tiempo en completarse y luego reduce la velocidad de los procesadores que no están en esta "ruta crítica" para permitir que todos completen sus tareas simultáneamente, eliminando el uso innecesario de energía.

Esta herramienta de código abierto está disponible como parte de Zeus, una herramienta para medir y optimizar el consumo de energía de la IA.

Mientras tanto, los investigadores de la Universidad de Missouri recurrieron a ideando un sistema de refrigeración de próxima generación Para ayudar a los centros de datos a ser más eficientes energéticamente. También están fabricando un sistema de refrigeración que facilita la conexión y desconexión dentro de los racks de servidores.

La refrigeración y la fabricación de chips van de la mano. Sin una refrigeración adecuada, los componentes se sobrecalientan y fallan. Los centros de datos energéticamente eficientes serán clave para el futuro de la computación con IA.

Chanwoo Park, profesor de ingeniería mecánica y aeroespacial en el Mizzou College of Engineering

Con el apoyo de 1.5 millones de dólares de la iniciativa COOLERCHIPS del Departamento de Energía, el equipo desarrolló un sistema de refrigeración bifásica que disipa el calor de los chips de servidor mediante cambio de fase. No solo puede funcionar de forma pasiva sin consumir energía cuando se necesita menos refrigeración, sino que, incluso en modo activo, el sistema consume muy poca.

El hardware CRAM podría reducir el consumo de energía de la IA en 1000 veces

El verano pasado, los ingenieros de la Universidad de Minnesota Twin Cities desarrolló un dispositivo de hardware avanzado3 que podría reducir el consumo de energía de la IA en aproximadamente 1,000 veces.

Este nuevo modelo se llama memoria de acceso aleatorio computacional (CRAM) y, en este caso, los datos nunca salen de la memoria, sino que se procesan completamente dentro de la matriz de memoria, eliminando así la necesidad de transferencias de datos lentas y que consumen mucha energía.

Este estudio, que ha llevado dos décadas de desarrollo, forma parte de los esfuerzos del equipo por ampliar la investigación patentada del autor principal Jian-Ping Wang sobre dispositivos de uniones túnel magnéticas (MTJ). Estos dispositivos nanoestructurados se utilizan para mejorar sensores, discos duros y otros sistemas microelectrónicos como la memoria de acceso aleatorio magnético (MRAM).

“Como sustrato de computación en memoria digital de alta eficiencia energética, la CRAM es muy flexible, ya que permite realizar cálculos en cualquier ubicación de la matriz de memoria”, señaló el coautor Ulya Karpuzcu, profesor asociado del Departamento de Ingeniería Eléctrica e Informática. Además, puede reconfigurarse para adaptarse mejor a las necesidades de rendimiento de diferentes algoritmos.

IA inspirada en el cerebro: reducir el consumo de energía imitando la eficiencia humana

Como vimos, los investigadores están analizando diferentes aspectos de la IA para abordar sus problemas energéticos. Curiosamente, también están recurriendo al cerebro humano en busca de inspiración. Esto tiene sentido, después de todo, la IA es la simulación de los procesos de inteligencia humana por parte de máquinas, aunque es... nada cerca del pensamiento y razonamiento humano debido a que su capacidad de generalizar a través de variaciones es “significativamente más débil que la cognición humana”.

La investigación sobre la reducción de energía, inspirada en el cerebro, incluye el trabajo del profesor asociado Chang Xu, del Centro de IA de la Universidad de Sídney, quien señaló que los LLM que utilizan los recursos a plena capacidad, incluso para tareas sencillas, no son la forma correcta de hacer las cosas. Explicó:

Si pensamos en un cerebro humano sano, no activa todas sus neuronas ni utiliza toda su capacidad cerebral a la vez. Funciona con una eficiencia energética increíble: tan solo 20 vatios de potencia, a pesar de tener alrededor de 100 mil millones de neuronas, que utiliza selectivamente de diferentes hemisferios cerebrales para realizar diferentes tareas o para pensar. 

Por ello, están desarrollando algoritmos que evitan los cálculos redundantes que no son necesarios y no pasan a una fase avanzada de forma automática.

En otros casos, la investigación se inspiró en la neuromodulación del cerebro y creó un algoritmo llamado "sistema de almacenamiento'para reducir la energía en un 37% sin ninguna degradación de la precisión, la función de autorreparación de la célula cerebral llamada astrocitos para dispositivos de hardwarey obtuve una forma neuromórfica (inspirada en el cerebro) de computación (memristores) para trabajar juntos en varios subgrupos de redes neuronales.

Invertir en Inteligencia Artificial

Una empresa global de semiconductores, AMD (AMD ) es conocido por sus tecnologías de computación, gráficos y visualización de alto rendimiento. Si bien compite directamente con la favorita de la IA... NVIDIA (NVDA )Está ganando terreno rápidamente en los mercados de centros de datos y aceleradores de IA. Su serie MI300 se centra específicamente en cargas de trabajo de IA de última generación y aplicaciones de HPC.

Su presencia líder en el espacio de CPU para centros de datos, su fuerte enfoque en I+D, el crecimiento de los ingresos, la clientela y las adquisiciones hacen de AMD un jugador fuerte en el sector.

Advanced Micro Devices (AMD )

En 2022, AMD cerró un acuerdo récord en la industria de chips, valorado en 50 500 millones de dólares, con la adquisición de Xilinx, convirtiéndose en el líder del sector en computación adaptativa y de alto rendimiento. Recientemente, completó la adquisición de ZT Systems para abordar la oportunidad de un acelerador de IA para centros de datos de 2028 XNUMX millones de dólares en XNUMX.

El rendimiento de mercado de AMD también se está recuperando este año tras verse afectado por la turbulencia arancelaria. Al momento de escribir este artículo, las acciones de AMD cotizan a $120, un 6.9% menos en lo que va del año, pero solo un 47% por debajo de su máximo de marzo de 2024. Con esto, su capitalización bursátil es de $182.34 millones, con un BPA (TTM) de 1.36 y un PER (TTM) de 82.44.

En cuanto a los resultados financieros de la compañía, AMD reportó un aumento interanual del 36% en sus ingresos, alcanzando los 7.4 millones de dólares en el primer trimestre de 1, lo que la directora ejecutiva, Dra. Lisa Su, calificó como un "inicio de año excepcional", "a pesar del dinámico entorno macroeconómico y regulatorio". Este crecimiento fue impulsado por la expansión de los centros de datos y el impulso de la IA, añadió.

Durante este período, los ingresos operativos de AMD ascendieron a $806 millones, la utilidad neta a $709 millones y las ganancias diluidas por acción a $0.44. Para el segundo trimestre de 2, se proyectan aproximadamente $2025 millones en ingresos. 

Algunos de los desarrollos clave realizados por la empresa incluyen la expansión de las asociaciones estratégicas con Metaplataformas, Inc. (META ) (Llama), Alphabet Inc. (GOOGL ) (Gema), Oracle Corporation (ORCL ), Núcleo 42, Tecnologías Dell (DELL ), y otros. AMD, junto con Nokia, Cisco Systems, Inc. (CSCO ), y Jio también anunciaron una nueva Plataforma de IA de Telecomunicaciones Abierta para ofrecer soluciones impulsadas por IA para mejorar la eficiencia, la seguridad y las capacidades.

Esta semana, AMD y Nvidia se asociaron con Humain, una subsidiaria centrada en inteligencia artificial del Fondo de Inversión Pública de Arabia Saudita, para suministrar semiconductores para un proyecto de centro de datos a gran escala que se espera tenga una capacidad de 500 MW.

Haga clic aquí para obtener una lista de las principales empresas de informática no relacionada con el silicio.

Últimas tendencias y desarrollos de Advanced Micro Devices (AMD)

Conclusión

En los últimos años, la obsesión por la IA ha experimentado un crecimiento explosivo, y con razón. Esta tecnología, después de todo, tiene un gran potencial para transformar una amplia gama de industrias, desde la salud, la manufactura y la ciencia de los materiales hasta las finanzas, el entretenimiento, la educación, el comercio minorista y la ciberseguridad.

Sin embargo, el avance tecnológico, la creciente adopción y la posterior expansión de estas LLM han resultado en una demanda sustancial de energía, lo que contribuye a las emisiones de gases de efecto invernadero (GEI) y al cambio climático, aumenta el costo económico e impacta la sostenibilidad de la tecnología.

Esto representa un gran desafío para la IA. Si queremos aprovechar al máximo su potencial en términos de reducción de costos, aumento de la productividad y mejora de la toma de decisiones a gran escala, los modelos deben ser rentables y sostenibles.

Sin embargo, lo bueno es que los investigadores de todo el mundo ya están trabajando arduamente para hacer que la IA sea energéticamente eficiente, como lo demuestra el chip impulsado por IA de Oregon State, lo que sugiere una gran posibilidad de alinear la innovación con la sustentabilidad.

Por supuesto, las tecnologías propuestas deben superar su mayor obstáculo para lograr un impacto real: la escalabilidad. Aun así, algo está claro: ¡el futuro de la IA más ecológica es factible y está llegando!

Haga clic aquí para aprender todo sobre invertir en inteligencia artificial.

Estudios referenciados:

1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X. y Zhang, C. (2025). Transporte de imágenes totalmente óptico a través de una fibra multimodo utilizando una red neuronal difractiva miniaturizada en la faceta distal. Nature Photonics, 19, 486–493. https://doi.org/10.1038/s41566-025-01621-4
2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, MJ, Lukin, MD, y Lončar, M. (2024). Red neuronal profunda fotónica de un solo chip con entrenamiento solo hacia adelante. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z
3. Lv, Y., Zink, BR, Bloom, RP, Roy, A., Vaddi, K., Shang, L. y Manipatruni, S. (2024). Demostración experimental de memoria de acceso aleatorio computacional basada en unión de túnel magnético. npj Unconventional Computing, 1, 3. https://doi.org/10.1038/s44335-024-00003-3

Gaurav comenzó a operar con criptomonedas en 2017 y desde entonces se ha enamorado del espacio criptográfico. Su interés por todo lo criptográfico lo convirtió en un escritor especializado en criptomonedas y blockchain. Pronto se encontró trabajando con empresas de cifrado y medios de comunicación. También es un gran fanático de Batman.

Divulgación anunciante: Securities.io está comprometido con estándares editoriales rigurosos para brindar a nuestros lectores reseñas y calificaciones precisas. Es posible que recibamos una compensación cuando hace clic en enlaces a productos que revisamos.

ESMA: Los CFD son instrumentos complejos y conllevan un alto riesgo de perder dinero rápidamente debido al apalancamiento. Entre el 74% y el 89% de las cuentas de inversores minoristas pierden dinero al operar con CFD. Debe considerar si comprende cómo funcionan los CFD y si puede permitirse el lujo de correr el alto riesgo de perder su dinero.

Descargo de responsabilidad sobre consejos de inversión: La información contenida en este sitio web se proporciona con fines educativos y no constituye asesoramiento de inversión.

Descargo de responsabilidad de riesgo comercial: Existe un grado muy alto de riesgo involucrado en la negociación de valores. Negociar con cualquier tipo de producto financiero, incluidos Forex, CFD, acciones y criptomonedas.

Este riesgo es mayor con las criptomonedas debido a que los mercados están descentralizados y no regulados. Debe tener en cuenta que puede perder una parte importante de su cartera.

Securities.io no es un corredor, analista o asesor de inversiones registrado.