スタブ AIと効率性の融合:新しいチップがLLMの電力消費を50%削減 – Securities.io
私達と接続

Artificial Intelligence

AIと効率性の融合:新しいチップがLLMの電力消費を50%削減

mm

Securities.ioは厳格な編集基準を維持しており、レビューされたリンクから報酬を受け取る場合があります。当社は登録投資顧問ではなく、これは投資アドバイスではありません。 アフィリエイト開示.

光り輝く未来的なAIチップ

現在進行中の人工知能 (AI) ブームによりデータ センターが急増し、データ センター内のサーバーを稼働および冷却するための電力需要が急増しています。

世界中に 8,000 を超えるデータセンターがあり、そのほとんどは米国にありますが、今後数年間でこの数は大幅に増加するでしょう。 

ボストン コンサルティング グループの推計によると、データセンターの需要は15年まで毎年20~2030%増加する見込みだ。同社は現時点で、データセンターが米国の総電力消費量の16%を占めると予想しており、これはOpenAIが2.5年にChatGPTをリリースする前のわずか2022%から増加することになる。

一方、 エネルギーとAIに関する特別レポート 国際エネルギー機関(IEA)が今年発表した予測によると、世界のデータセンターの電力需要は945年代末までに少なくとも倍増し、約XNUMXTWhに達すると予測されています。これは、現在の日本の消費量とほぼ同等です。 

パリに拠点を置くこの自治政府間組織は、AIがこの急増の最大の要因であり、AIに最適化されたデータセンターからの電力需要は2030年までにXNUMX倍以上に増加すると予測していると報告している。

特に米国では、データセンターによる電力消費が、現在から2030年までの電力需要の増加分の約半分を占める見込みです。報告書によると、AIの利用拡大により、米国経済はXNUMX年時点で、エネルギー集約型製品の製造にかかる電力消費量を合わせたよりも、データ処理にかかる電力消費量が多くなる見込みです。

この飽くなきエネルギー消費は、AIの進歩と普及において大きな問題となっています。しかし、明るい兆しとしては、AIの電力消費量を削減し、エネルギー効率を向上させることに取り組む研究者や企業が増えていることが挙げられます。

こうした取り組みで興味深いのは、その多くが AI を活用して自社のエネルギー課題に取り組んでいることです。

今月、研究者チームが AI を使って大規模言語モデル (LLM) のエネルギー フットプリントを 50% 削減する新しいチップを実演しました。これは、LLM のコスト効率を高め、より持続可能な運用を実現するための大きな進歩です。

新しいチップはAIを活用してLLMのエネルギー消費を削減します

AIを活用した新しいチップ

オレゴン州立大学工学部の研究者らは、OpenAI の GPT-4 や Google の Gemini などの LLM AI アプリケーションの膨大な電力消費問題を解決するために、新しい効率的な AI チップを開発した。

機械学習 (ML) モデルの一種である大規模言語モデル (LLM) は、テキスト生成、要約、簡素化、テキスト推論、言語翻訳などの自然言語処理 (NLP) タスクを実行するために膨大な量のデータで事前トレーニングされています。

現在最も人気があり、広く使用されているチャットボットには、OpenAI の GPT-4o、o3、o1、Google の Gemini と Gemma、Meta の Llama、DeepSeek の R1 と V3、Anthropic の Claude、Amazon の Nova、Microsoft の Phi、xAI の Grok などがあります。

ここ数年、LLMは機械が人間のようなテキストをより正確に理解・生成できるようにすることで、AI分野に劇的な変革をもたらしました。しかし、LLMの進化は、その規模を飛躍的に増大させることにつながっています。  

LLMのサイズ(パラメータ数で測定)は、エネルギー消費の主な要因です。つまり、モデルが大きくなるほど、学習と推論に必要な計算能力も大きくなります。 

たとえば、ChatGPT-1 のパラメータ数は 120 億 175 万弱でしたが、GPT-3 では 1.8 億に急増し、GPT-4 では約 XNUMX 兆に増加しました。

LLMの規模と機能の急激な増加は、そのエネルギー消費量もかつてない規模で増加していることを意味します。モデルのサイズに加え、LLMの学習に使用されるハードウェアの種類、学習プロセスの所要時間、インフラストラクチャ(データセンターなど)、データ処理、モデルの最適化、アルゴリズムの効率といった要因が、LLMのエネルギー消費量に影響を与えます。

オハイオ州立大学の研究者による新しいチップが誕生した。同大学の電気工学准教授であり、同大学のミックスドシグナル回路・システム研究室の所長も務めるテジャスヴィ・アナンド氏は次のように述べている。

「問題は、1ビットの伝送に必要なエネルギーが、データレートの需要の増加と同じペースで削減されていないことです。これがデータセンターがこれほど多くの電力を消費する原因となっています。」

この問題を克服するために、チームは従来の設計に比べて半分のエネルギーしか消費しない新しいチップを設計・開発しました。

アナンド氏と博士課程の学生ラミン・ジャバド氏は、先月ボストンで開催されたIEEEカスタム集積回路(CIC)会議でこの新技術を発表しました。フォーラム、パネルディスカッション、展示、口頭発表が行われるこの会議は、コンパクトで効率的なパッケージに機能と処理能力を提供することで現代の電​​子システムの構成要素となるICの開発に焦点を当てています。

この最新技術は、ユビキタス・コネクティビティ・センター(CUbiC)、半導体研究会社(SRC)、国防高等研究計画局(DARPA)の支援を受けて開発されました。また、この技術により、Javadi氏は同会議で最優秀学生論文賞を受賞しました。

研究者たちは、新しいチップのために実際に AI の原理を活用し、信号処理の電力使用量を削減したとジャバディ氏は指摘した。

彼が説明したように、LLMはデータセンター内の銅線ベースの通信リンクである有線接続を介して大量のデータを送受信します。このプロセス全体には多大なエネルギーが必要となるため、「解決策の一つとして、より効率的な有線通信チップの開発が挙げられます」。

ジャバディ氏はさらに、高速で送信すると受信側でデータが破損し、その結果、クリーンアップが必要になると指摘した。この目的のため、既存の有線通信システムの大部分はイコライザーを利用しており、これは多くの電力を消費する。

「私たちは、オンチップのAI原理をオンチップで使用し、オンチップ分類器にエラーを認識して修正するようにトレーニングすることで、よりスマートかつ効率的にデータを回復しています。」

– ジャバディ

これは大きな進歩ですが、チップの初期バージョンに過ぎません。エネルギー効率をさらに向上させる次期バージョンは現在開発中です。

全体として、この進行中の研究は、AIインフラとデータセンター運用の将来に広範な影響を与える可能性を秘めています。しかしもちろん、そのためにはこの技術を大規模に導入することが不可欠であり、それは決して容易なことではありません。

AI がマイクロチップのエンジニアリングにどのような変化をもたらしているかを知るには、ここをクリックしてください。

レイヤーを越えたブレークスルーでAIのエネルギー消費を抑制する

この最新のチップ開発は、AIのエネルギー消費問題に取り組む数多くの研究プロジェクトの一つに過ぎません。それでは、研究者たちがこの問題に取り組んでいる革新的な方法を簡単に見ていきましょう。

AIのエネルギー効率向上のための光の利用 

今年初め、USSTの科学者たちは 発展した1 ほこりや塩粒よりも小さな、超小型のAIチップ。光ファイバーケーブルから送られてくるデータを光を使って処理します。これにより、消費電力を抑えながら高速な計算が可能になります。

このチップは、従来のコンピュータのように光信号を解釈するのではなく、光を操作して瞬時に計算を実行します。そのために、パターン化された3Dプリントされたコンポーネントの層を積み重ねる「全光回折型ディープニューラルネットワーク」技術が採用されています。画期的ではありますが、内視鏡画像診断、量子コンピューティング、データセンターにおける「前例のない機能」を実現するには、タスク固有の設計、欠陥への敏感さ、大量生産の難しさといった課題を克服する必要があります。

その数か月前には、MITの科学者らも光を使ってチップ上のニューラルネットワークの主要な演算を実行し、92%の精度と莫大なエネルギー効率で超高速AI計算(XNUMXナノ秒以内)を可能にした。

「この研究は、コンピューティング(本質的には入力から出力へのマッピング)が、線形および非線形物理学の新しいアーキテクチャにコンパイルされ、計算と必要な労力の根本的に異なるスケーリング則を可能にすることを示しています。」

– 上級著者ディルク・エングルンド

科学者 フォトニックチップを開発した2は、相互接続されたモジュールで構成され、光ニューラルネットワークを形成します。特筆すべき点は、商用ファウンドリプロセスを使用することで、スケールアップが可能になり、電子機器に統合できることです。また、科学者たちは、電子機器と光学を組み合わせた非線形光学機能ユニット(NOFU)を設計することで、光学における非線形性の課題を克服しました。

超低電力でリアルタイムに学習する、脳に着想を得た新しい AI について詳しくは、ここをクリックしてください。

AIトレーニング用ソフトウェアツールとデータセンター向け冷却システム

データセンター向け冷却システム

一方、ミシガン大学の研究者らは、 エネルギーの無駄を狙った AIトレーニング時に作成され、より具体的には、巨大なデータセットを不均等に処理するために必要なGPU間で分割されるときに作成されます。 

そこで、彼らは、完了までに最も長い時間を要するサブタスクを識別し、この「クリティカル パス」上にないプロセッサの速度を下げてすべてのプロセッサが同時にタスクを完了できるようにし、不要な電力消費を削減する Perseus と呼ばれるソフトウェア ツールを開発しました。

このオープンソース ツールは、AI のエネルギー消費を測定および最適化するツールである Zeus の一部として利用できます。

一方、ミズーリ大学の研究者たちは 次世代冷却システムの考案 データセンターのエネルギー効率向上を支援するため、サーバーラック内での容易な接続と切断を可能にする冷却システムの開発も進めています。

「冷却とチップ製造は密接に関係しています。適切な冷却がなければ、コンポーネントは過熱して故障します。エネルギー効率の高いデータセンターは、AIコンピューティングの未来の鍵となるでしょう。」

ミズーリ大学工学部の機械・航空宇宙工学教授、チャンウー・パーク氏

DOEのCOOLERCHIPSイニシアチブから1.5万ドルの資金援助を受け、チームは相変化によってサーバーチップの熱を放散する二相冷却システムを開発しました。このシステムは、冷却能力が低い時にはエネルギーを一切消費せずにパッシブモードで稼働できるだけでなく、アクティブモードでもごくわずかなエネルギーしか消費しません。

CRAMハードウェアはAIのエネルギー消費を1000分のXNUMXに削減できる

昨年の夏、ミネソタ大学ツインシティ校のエンジニアたちは 高度なハードウェアデバイスを開発した3 これにより、AIのエネルギー消費を約1,000分のXNUMXに削減できる可能性がある。

この新しいモデルは計算ランダムアクセスメモリ (CRAM) と呼ばれ、データがメモリから外に出ることはなく、メモリアレイ内で完全に処理されるため、大量のエネルギーを消費する低速なデータ転送が不要になります。

20年をかけて開発された本研究は、筆頭著者であるJian-Ping Wang氏による磁気トンネル接合(MTJ)デバイスに関する特許取得済みの研究成果を基盤に、研究チームが着手した成果の一部です。これらのナノ構造デバイスは、センサー、ハードドライブ、そして磁気ランダムアクセスメモリ(MRAM)などのマイクロエレクトロニクスシステムの性能向上に用いられています。

「極めてエネルギー効率の高いデジタルベースのインメモリコンピューティング基盤であるCRAMは、メモリアレイ内の任意の場所で計算を実行できるという点で非常に柔軟性が高い」と、電気・コンピュータ工学科の准教授で共著者のウリヤ・カルプズク氏は指摘する。また、CRAMは、さまざまなアルゴリズムのパフォーマンスニーズに合わせて再構成することもできる。

脳に着想を得たAI:人間の効率を模倣して電力消費を削減

ご覧いただいたように、研究者たちはAIのエネルギー問題に対処するために、AIの様々な側面に注目しています。興味深いことに、彼らは人間の脳にも着想を得ようとしています。これは理にかなっています。結局のところ、AIは人間の知能プロセスを機械でシミュレーションするものですが、 人間の思考や推論には程遠い さまざまなバリエーションを一般化する能力が「人間の認知能力よりも著しく弱い」ためです。

脳に着想を得たエネルギー削減研究には、シドニー大学AIセンターのチャン・シュー准教授の研究が含まれており、同准教授は、たとえ単純なタスクであっても、法学修士課程の学生がリソースをフル稼働させるのは正しいやり方ではないと指摘し、次のように説明した。

「健康な人間の脳について考えてみると、すべてのニューロンが一度に発火したり、脳のパワーをすべて使い切ったりするわけではありません。約20億個のニューロンを持ちながら、わずか100ワットという驚くべきエネルギー効率で動作します。脳の異なる半球からニューロンを選択的に使い分け、異なるタスクや思考を実行しています。」 

そのため、彼らは、必要のない冗長な計算を回避し、自動的に高速化しないアルゴリズムを開発しています。

他の例では、研究は脳の神経調節からヒントを得て、「スタッシングシステム' 精度の低下なしにエネルギーを37%削減するために、脳細胞の自己修復機能と呼ばれる ハードウェアデバイス用のアストロサイト、そして脳にヒントを得たニューロモルフィック型コンピューティング(メモリスタ)を 共に働く ニューラル ネットワークのいくつかのサブグループで。

人工知能への投資

世界的な半導体企業、 AMD (AMD ) 高性能コンピューティング、グラフィックス、可視化技術で知られています。AIの寵児と直接競合している一方で、 NVIDIA (NVDA )同社はデータセンターおよびAIアクセラレータ市場で急速に地位を確立しています。MI300シリーズは、特に次世代AIワークロードとHPCアプリケーションをターゲットとしています。

データ センター CPU 分野での主導的な存在、強力な研究開発への注力、収益の成長、顧客、買収により、AMD はこの分野で強力なプレーヤーとなっています。

高度なマイクロデバイス (AMD )

2022年、AMDはザイリンクスを買収し、チップ業界記録となる50億ドル規模の取引を成立させ、業界の高性能・アダプティブコンピューティングのリーダーへと躍り出ました。そして最近では、500年に2028億ドル規模のデータセンターAIアクセラレータ市場が見込まれることに対応するため、ZT Systemsの買収を完了しました。

AMDの市場パフォーマンスも、関税の混乱から回復しつつあります。執筆時点でAMDの株価は120ドルで取引されており、年初来で6.9%下落していますが、47年2024月の最高値からは約182.34%下落しています。これにより、時価総額は1.36億82.44万ドルとなり、EPS(過去XNUMXヶ月間)はXNUMX倍、PER(過去XNUMXヶ月間)はXNUMX倍となっています。

同社の財務状況について、AMDは36年第7.4四半期の売上高が前年比1%増の2025億ドルに達したと報告しました。CEOのリサ・スー博士は、この数字を「ダイナミックなマクロ経済環境と規制環境にもかかわらず、素晴らしいスタート」と評しました。この成長は「データセンターとAIの勢いの拡大」によるものだと彼女は付け加えました。

この期間、AMDの営業利益は806億709万ドル、純利益は0.44億2万ドル、希薄化後2025株当たり利益は7.4ドルでした。XNUMX年第XNUMX四半期の売上高は約XNUMX億ドルと予測されています。 

同社が行った主な開発には、以下の企業との戦略的パートナーシップの拡大が含まれる。 Meta Platforms、Inc。 (META ) (ラマ)、 アルファベット (GOOGL ) (ジェマ) オラクル・コーポレーション (ORCL )、コア42、 Dellテクノロジ (DELL )、その他。AMDはノキアとともに、 シスコシステムズ株式会社 (CSCO )、および Jio も、効率、セキュリティ、機能を強化する AI 主導のソリューションを提供する新しい Open Telecom AI Platform を発表しました。

今週、AMDとNvidiaはサウジアラビアの公共投資基金のAIに特化した子会社であるHumainと提携し、500MWの容量を持つと予想される大規模データセンタープロジェクトに半導体を供給することになった。

シリコン以外のコンピューティング企業のトップリストについては、ここをクリックしてください。

アドバンスト・マイクロ・デバイス(AMD)の最新動向と開発

結論

ここ数年、AIブームは爆発的な成長を遂げてきましたが、それには十分な理由があります。この技術は、医療、製造、材料科学から金融、エンターテインメント、教育、小売、サイバーセキュリティに至るまで、幅広い業界を変革する大きな可能性を秘めています。

しかし、これらの LLM の技術の進歩、採用の増加、およびそれに続く拡大により、エネルギーの需要が大幅に増加し、温室効果ガス (GHG) の排出と気候変動に寄与し、経済コストが増加し、技術の持続可能性に影響を与えています。

これはAIにとって大きな課題です。コスト削減、生産性向上、そして大規模な意思決定の改善というAIの真の潜在能力を最大限に発揮するためには、モデルは費用対効果と持続可能性を実現しなければなりません。

しかし幸いなことに、オレゴン州立大学の AI 搭載チップからも明らかなように、世界中の研究者がすでに AI のエネルギー効率化に熱心に取り組んでおり、イノベーションと持続可能性を一致させる大きな可能性を示唆しています。

もちろん、提案された技術は、現実世界への影響を実現する上で最大の障害であるスケーラビリティを克服する必要があります。しかし、一つ確かなことがあります。それは、より環境に優しいAIの未来は実現可能であり、そしてそれはもうすぐ到来するということです。

人工知能への投資について詳しくは、ここをクリックしてください。

参照された研究:

1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X., & Zhang, C. (2025). 遠位端面における小型回折ニューラルネットワークを用いたマルチモードファイバーを介した全光画像伝送. Nature Photonics, 19, 486–493. https://doi.org/10.1038/s41566-025-01621-4
2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, MJ, Lukin, MD, & Lončar, M. (2024). 順方向学習のみを用いたシングルチップフォトニックディープニューラルネットワーク. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z
3. Lv, Y., Zink, BR, Bloom, RP, Roy, ​​A., Vaddi, K., Shang, L., & Manipatruni, S. (2024). 磁気トンネル接合型計算ランダムアクセスメモリの実験的実証. npj Unconventional Computing, 1, 3. https://doi.org/10.1038/s44335-024-00003-3

ガウラフ氏は 2017 年に暗号通貨の取引を開始し、それ以来暗号通貨の世界に夢中になっています。 暗号通貨全般に対する彼の興味は、彼を暗号通貨とブロックチェーンを専門とするライターに変えました。 すぐに、彼は仮想通貨会社やメディアと協力していることに気づきました。 彼はバットマンの大ファンでもあります。

広告主の開示: Securities.io は、読者に正確なレビューと評価を提供するために厳格な編集基準に取り組んでいます。 当社がレビューした製品へのリンクをクリックすると、報酬を受け取る場合があります。

ESMA: CFD は複雑な商品であり、レバレッジにより急速に資金を失う高いリスクが伴います。 個人投資家口座の 74 ~ 89% が CFD 取引時に損失を出しています。 CFD の仕組みを理解しているかどうか、また、お金を失う高いリスクを冒す余裕があるかどうかを検討する必要があります。

投資アドバイスの免責事項: このウェブサイトに含まれる情報は教育目的で提供されており、投資アドバイスを構成するものではありません。

取引リスクの免責事項: 有価証券の取引には非常に高いリスクが伴います。 外国為替、CFD、株、暗号通貨を含むあらゆる種類の金融商品の取引。

仮想通貨では市場が分散化されており規制されていないため、このリスクはより高くなります。 ポートフォリオの大部分を失う可能性があることに注意してください。

Securities.io は登録されたブローカー、アナリスト、または投資アドバイザーではありません。