stub Emerging Technologies Shaping the Future of AI Hardware – Securities.io
与我们联系

人工智能

塑造人工智能硬件未来的新兴技术

mm

Securities.io 保持严格的编辑标准,并可能从审核过的链接中收取报酬。我们不是注册投资顾问,这不是投资建议。请查看我们的 关联公司披露.

新型计算

随着过去几年人工智能技术的指数级进步,人工智能硬件制造商成为主要赢家。这是因为现代人工智能主要使用神经网络技术,其使用计算能力的方式与传统计算机截然不同。

它们不再使用功能强大的 CPU 进行复杂的计算,而是并行执行数千或数百万次较简单的计算。

(有关神经网络的发明和工作原理,请参阅" "。投资诺贝尔奖成果 - 人工神经网络,人工智能的基础")

迄今为止,图形卡或 GPU(图形处理单元)一直是开发人工智能的首选工具,大幅提高了 Nvidia 等行业领导者的收入和利润。 (NVDA -3.65%).

人工智能硬件市场预计将保持超高速增长,2025 年至 2035 年的年复合增长率将达到 31.2%

资料来源 根源分析

在此期间,随着用于人工智能计算的 GPU 逐步被专为这一应用而设计的芯片所取代,许多新型人工智能硬件也应运而生。

从长远来看,从特定应用设计到非硅芯片,甚至使用真正的生物神经元,更奇特的计算形式可能会进入人工智能硬件市场。

人工智能思维如何发挥作用

传统超级计算机与人工智能的根本区别在于处理数据的方式。神经网络不是解决复杂的计算,而是创建连接成网络的虚拟节点。最初的神经网络只有几十个节点,几百个连接,而像 ChatGPT 所用的现代神经网络则使用了数万亿个可能的连接,复杂程度与人脑不相上下。

 

资料来源 诺贝尔奖

这种不同的微积分方法需要能够并行执行数百万次运算的硬件,即使每次运算的专用计算能力相对较小。

幸运的是,这种类型的硬件已经运行多年,例如使用 GPU 进行图形渲染,主要用于 3D 模拟和电子游戏,也使用这种类型的许多小型并行计算。

这就是为什么最初(也是目前)在获取足够人工智能芯片的竞赛中获胜的是 GPU 市场的领导者 Nvidia。

更快的图形处理器

随着更高效算法的发明和人工智能的快速发展,人工智能的潜在应用在 20 世纪 20 年代呈现爆炸式增长。

这导致 为获得足够的硬件,尤其是 2023 年的 Nvidia GPU,竞争日益激烈.

与此同时,人们对人工智能潜在应用的期望越来越高,要求人工智能越来越智能,这本身就需要更强的计算能力。虽然获得更多 GPU 是一种解决方案,但还需要更好的 GPU。

该行业在不到 8 年的时间里实现了 1000 倍的业绩增长。

资料来源 英伟达

它能持久吗?

有迹象表明,GPU 性能的提升可能很快就会放缓。首先,所有 "简单 "的改进,比如将 GPU 做得更大、晶体管更小、更密集,都已经达到了极限。因此,进一步的改进必须来自更彻底的重新设计和创新。

次要问题也在悄悄地影响着整个行业。例如,密度更大、功能更强的 GPU 正在产生大量废热,以至于更多的废热只会融化芯片。

这些废热也说明浪费了大量电力。对于人工智能公司来说,确保充足、稳定的基荷电力供应正成为一个问题、 所有大型科技公司都急于确保核电站的供应.

最后,人工智能计算正变得越来越专业化,不同的公司和不同的应用出现了不同的方法,每种方法对硬件都有不同的要求。因此,最有可能的是,所有人工智能公司都使用通用 GPU 的时代即将结束,即使是缓慢地结束。

超级 GPU 时代

到目前为止,大多数人工智能数据中心都是将数千个 GPU 连接到专用服务器上。

要立即解决日益严重的过热和功耗问题,就必须构建集成硬件,而不仅仅是积累单个 GPU。

"在当今的数据中心,由于对功耗和散热的要求更高,在一个机柜中无法安装与前几代 GPU 相同数量的英伟达 H100 服务器或 GB200 超级芯片计算托盘。

在这方面迈出的重要一步是 Nvidia 最近发布的 GB200 NVL72.这种硬件的设计目的是作为一个单一的大型 GPU,使其功能比之前破纪录的 H100 型号还要强大得多。

热效率的提高和功耗的降低使我们能够更灵活地在一个机架上安装更多的 GPU,这意味着我们可以为客户提供更多的 GPU。

这也将大大提高能效,这是至关重要的一点,因为按照人工智能数据中心的建设速度,人工智能行业可能会先出现能源短缺,然后再出现芯片短缺。更多的计算和能效意味着更少的废热,这也暂时解决了过热问题。

资料来源 英伟达

目前是 CoreWeave 已成为首家提供普遍可用的 Nvidia®(英伟达™)云计算服务的云计算提供商。 GB200 NLV72 例.

(有关 CoreWeave 及其为开发人工智能解决方案的公司提供人工智能云计算的更多信息,请参阅" "。CoreWeave:云人工智能超级分频器").

非 GPU 人工智能硬件

现场可编程门阵列 (FPGA)

另一种用于人工智能开发的硬件是现场可编程门阵列。现场可编程门阵列是一种集成电路,可以重新编程以更高效地执行特定任务。它们通过组件之间可配置的互连来工作。

这使得 FPGA 比 GPU 更为灵活,在特定类型的计算中具有更大的优化潜力。

FPGA 还比 GPU 更省电。FPGA 的低延迟(快速反应时间)也使其在需要快速反应的实际应用中非常高效。

然而,FPGA 也无法处理需要大量功耗的苛刻计算。

另一个问题是,虽然 FPGA 可以重新编程,但这可能是一个耗时耗力的过程。因此,FPGA 的设计、制造和编程速度要慢得多。在一个每 6 个月就会取得革命性进展的领域,这可能是一个严重的问题。

这意味着到目前为止 FGPA 的用例主要集中在人工智能的某些应用上而一般开发仍依赖于效率较低但用途广泛的 GPU:

  • 实时处理:W如数字信号处理、雷达系统、自动驾驶汽车和电信等需要快速处理输入的数据。
  • 定制硬件加速 通过优化特定类型的数据类型或算法,可对可配置 FPGA 进行微调,以加速特定的深度学习任务和 HPC 集群。
  • 因此,现代人工智能数据中心可能会逐渐成为 GPU 和 FPGA 的混合体,每种硬件都专用于它能执行得最好的子任务。
    • 边缘计算: 这使得计算和存储能力更接近终端用户,例如直接安装在汽车或无人机上。在这些情况下,FPGA 的低功耗和紧凑尺寸是其优势所在。

专用集成电路 (ASIC)

ASIC 系统是为特定计算类型而构建的,只能执行这些计算。因此,与其说它是计算机芯片,不如说它是纯集成电路;FPGA 有时也被称为可编程 ASIC。

使用 ASIC 而不是 FPGA 或 GPU 的原因是,ASIC 比任何其他逻辑设备都要快得多。它们还更节能,体积更小。

这就是为什么 ASIC 矿机被用于加密货币挖矿的原因,其设计经过优化,可执行所需的特定类型计算。

资料来源 Wevolver

然而,ASIC 的设计也要复杂得多,因此只有为经常重复的任务开发 ASIC 才有意义,才能收回设计成本。总之,ASIC 只有在考虑大规模生产时才具有经济意义。

定制设计还需要专业知识,而广泛使用的编程语言和程序库有可能无法使用。

不过,这种定制设计的需求也可以成为一种优势,因为它可以提供额外的知识产权(IP)保护。

ASIC 的用例与 FPGA 类似:边缘计算、图像识别、电信和信号处理,但比 FPGA 更需要经常重复计算。

由于它们不够灵活,因此也不太可能单独胜任任何复杂的人工智能任务。不过,它们可以集成到人工智能硬件系统中,以提高效率和速度。

值得注意的是,像 蚀刻 发展中 专为变压器计算而设计的 ASIC (聊天 GPT 中的 "T")。

资料来源 蚀刻

神经形态芯片

除了改进 GPU 或构建更高效的专用集成电路(ASIC)外,其他概念还着眼于彻底改变计算的执行方式。

一种想法是,如果我们要设计一个神经网络,就应该有一个能反映它的芯片架构。

这就是神经形态芯片的理念,它在硬件层面像相互连接的神经元一样工作,而不是通过复杂的数学方程和数百万次并行计算来模拟。

这些设备有时也被称为 NPU(神经处理单元)通常将许多不同类型的组件组合到一个单元中。

神经形态芯片通常使用复杂的电信号,更接近模拟数据。这与使用二进制信号(0 和 1)的冯-诺依曼设计的 "普通 "计算机不同。

资料来源 技术目标

目前,人们正在探索许多方法来制造神经形态芯片:

光子芯片

另一种绕过硅硬件当前许多限制的方法是改用 光子计算机.携带信息的不是电子,而是激光发出的光子。

这种方法的优点是不易过热,而且光是宇宙中运动速度最快的物体。

目前,光子元件(尤其是存储器)的耐用性一直是个问题、 但这种情况正在迅速改变.

光子学的其他最新进展包括

使用实际神经元

要想进一步推动人工智能达到与真实大脑类似的性能,另一种方法或许就是首先使用大脑。

毕竟,如果一个由真实神经元组成的神经网络能够在自然界中具有高度适应性并擅长模式识别,那么它为什么不能在更人工的环境中发挥作用呢?

2025 年 3 月,这一概念又有了新的发展。 皮质实验室 的 CL1这是第一个合成生物智能(SBI)。

资料来源 皮质实验室

真正的神经元是在营养丰富的溶液中培养出来的,为它们提供健康所需的一切。它们在硅芯片上生长,硅芯片向神经结构发送和接收电脉冲。

这确实模糊了人工智能和自然智能之间的界限。由真正的神经元组成的计算机还是人工智能吗?

我们用硬硅和软组织的混合物将神经元整合到生物操作系统中。您可以直接连接到这些神经元。直接在真实神经元上部署代码,解决当今最棘手的挑战。

神经元可以自我编程,无限灵活,是 40 亿年进化的结果。数字人工智能模型花费大量资源试图模仿的东西,我们却从一开始就在模仿。

这可能是一个真正的突破 如果认为人脑与其说是一个电子系统,不如说是一台量子计算机的某些理论被证明是正确的.

虽然它在很大程度上仍是一项新兴技术,但随着传入领域取得的进展,如 人体器官的 3D 打印包括 功能性脑组织以及 器官组织的生产 (迷你大脑)的公司,如 最终火花 和 生物.

脑机接口

另一种提升人工智能硬件的方法是将其与另一种生物超级计算机直接对接,即已经在我们头骨中并进行思考的大脑。

起初,脑机接口(BCI)可能是 主要用于帮助神经系统疾病患者.

新方法使 植入物更耐用,创伤更小 应该也有帮助。

从长远来看,这也会模糊机器智能和人类智能之间的界限。如果你是在人工智能的帮助下通过 BCI 与我们直接互动来思考问题,那么到底是谁在思考呢?

然而,出于伦理和安全方面的考虑,这很可能是最遥远的技术之一,尽管科幻作品如 改变的碳, 神经漫游者赛博朋克 2077.

(我们在" "中介绍了该领域最著名的公司)。5 家最佳脑机接口 (BCI) 公司").

真正需要多少计算能力?

深度搜索

多年来,每家人工智能公司都在竞相以最快的速度增加计算量,认为越多越好。

这一点受到了以下方面的质疑 中国人工智能公司 DeepSeek 的横空出世.DeepSeek 的效率是其竞争对手的 10-100 倍,而同等或更优性能的成本仅为 3%-5%,因此,DeepSeek 挑战了需要更强计算能力才能构建更好人工智能的要求。

DeepSeek 如此注重模型效率的一个重要原因是,中国的人工智能公司获得人工智能芯片的机会有限。这一点在 DeepSeek 发布后不久,其他中国公司的人工智能模型表现同样抢眼的情况下就显而易见了:阿里巴巴的 Qwen、Moonshot AI 的 Kimi、ByteDance 的豆包或百度的 Ernie Bot。

俗话说,"需要是发明之母"。

在未来几年里,人工智能行业很可能会同时关注更好的性能和更高的效率。

但是,这并不是说更多的计算不会带来更好的结果。只是,这并不是 只是 人工智能行业的成功之路并不平坦,像 OpenAI 这样资金雄厚的公司在支出方面可能有些松懈。

目前,大多数人工智能都是正在进行中的实验设计,应用范围有限。它们越多地融入全球数百万公司的工作流程,对人工智能计算的需求就越大。

计算需求越大,就越需要更高效、能耗更低的硬件。

因此,与传统计算一样,我们可以认为市场仍将需要不断改进的芯片,尤其是人工智能可能很快就会成为世界上最大的能源消耗之一。

边缘人工智能与人工智能 PC

DeepSeek 和其他对计算要求较低的人工智能中文模型的出现带来的另一个影响是,人工智能模型,尤其是 "提炼 "后的模型,现在可以在高端单机上运行,而不是在千兆瓦级的巨型人工智能数据中心上运行。

这证明了 EdgeAI 支持者的观点,即大量的人工智能计算需要在 "现场 "完成,而不仅仅是在云端。

由于 DeepSeek 是一种开源模式,这也为许多人工智能计算机的个人实验开辟了道路:其功能强大到足以运行人工智能模型,但价格便宜、体积小到足以被个人购买。总体而言,这并不会导致人工智能计算需求的减少,而可能会导致开发和使用人工智能应用的过程更加分散。

因此,人工智能个人电脑很可能成为个人电脑制造领域的新趋势、 专业媒体已经详细讨论了这一问题以及哪种品牌最好 尤其是人工智能正逐渐进入大多数科技公司的产品中,包括微软 (MSFT -1.98%)在 Windows 操作系统和该公司的其他软件中,Copilot 几乎无处不在。

结论

从游戏 GPU 开始,人工智能硬件正在迅速发展。从专为人工智能设计的 GPU 开始,到从零开始设计的 "超级 GPU",以适应人工智能数据中心,降低能耗和发热量。

下一步,通用 GPU 可能会与 ASIC 和 FGPA 芯片进一步整合,以更低的功耗和空间需求执行特定的人工智能任务。

展望未来,人工智能计算的赢家将是哪种技术:神经形态芯片、光子学、自旋电子学,甚至是经过训练能与硅基板互动的实际生物神经元,以及通过直接相位与我们的大脑直接互动的人工智能。

就所有这些技术而言,可以肯定的是,人工智能能力的爆炸式增长以及与之相关的应用的爆炸式增长将使对更多更好的人工智能硬件的需求不断增长。

因此,即使更高效的人工智能模型(如 DeepSeek)出现在市场上,对人工智能 PC 的突然需求热潮也能很好地说明,在未来几年里,人工智能硬件可能会一直处于供不应求的状态。

人工智能硬件领域的领导者

英伟达

英伟达公司 (NVDA -3.65%)

英伟达已经从一家专门生产图形卡的小众半导体公司发展成为一家科技巨头,站在人工智能革命及其所需的大量硬件的最前沿。

这要归功于英伟达™(NVIDIA®)图形处理器通用编程接口 CUDA 的开发,它为游戏以外的其他用途打开了大门。

"研究人员意识到,通过购买这种名为 GeForce 的游戏卡,将其添加到你的电脑中,你基本上就拥有了一台个人超级计算机。分子动力学、地震处理、CT 重建、图像处理--一大堆不同的东西"。

黄仁勋在接受红杉采访时表示

GPU 更广泛的应用,尤其是英伟达™(NVIDIA®)硬件的应用,创造了一个基于以下方面的正反馈循环 网络效应使用越多,熟悉它的最终用户和程序员就越多,销售量就越大,研发预算就越多,计算速度就越快,使用就越多,等等。

资料来源 英伟达

如今,已安装的 CUDA GPU 数以亿计。

人工智能计算能力发展的另一个显著特点是,它遵循的是指数规律,而不是 CPU 的线性摩尔定律。这是因为不仅 GPU 硬件越来越好,而且所需的处理能力也随着神经网络训练方法的彻底改进而降低。

在 GPU 和人工智能领域处于领先地位、 英伟达还非常积极地将量子计算发展成为新的增长引擎.

与为神经网络应用部署 CUDA 的方式类似,英伟达发布了用于量子计算的 CUDA-Q,提供量子云系统,通过云服务租用英伟达量子计算能力。

资料来源 英伟达

这其中还包括英伟达用于研究人员模拟量子计算机的 cuQuantum、用于量子加密的 cuPQC 以及用于整合经典计算和量子计算的 DGX Quantum 等技术。

总体而言,英伟达利用其在人工智能和人工智能硬件领域的领先地位,走在了构建量子计算生态系统的最前沿。

资料来源 英伟达

Nvidia 在人工智能、加密货币挖矿以及不久的量子计算领域都拥有强大的优势,它完全有能力在未来十年成为计算硬件领域的主导公司之一。

有关 Nvidia 的历史、商业模式和创新的更多信息,请参阅" "。英伟达™(NVDA)聚焦:从图形巨人到人工智能泰坦".

英伟达最新动态

乔纳森曾是一名生物化学家,从事过基因分析和临床试验。他现在是一名股票分析师和金融作家,在他的出版物''中重点关注创新、市场周期和地缘政治。欧亚世纪".

广告商披露:Securities.io 遵循严格的编辑标准,为读者提供准确的评论和评级。当您点击我们所评论产品的链接时,我们可能会收取报酬。

ESMA:差价合约是一种复杂的工具,由于杠杆作用而具有快速亏损的高风险。74-89% 的散户投资者账户在交易差价合约时会亏损。您应该考虑自己是否了解差价合约的工作原理,以及是否能够承受高亏损风险。

投资建议免责声明:本网站所含信息仅用于教育目的,不构成投资建议。

交易风险免责声明:证券交易的风险非常高。交易任何类型的金融产品,包括外汇、差价合约、股票和加密货币。

由于市场分散且不受监管,加密货币的这种风险更高。您应该意识到,您可能会损失您投资组合中的很大一部分。

Securities.io 不是注册经纪人、分析师或投资顾问。