人工智能
边缘人工智能:为什么 AMD 是 2026 年最具价值的选择

人工智能(AI)是本世纪最重要的科技颠覆者之一。 推动根本性转变 遍及各行各业乃至整个社会。
数据显示,大约 六分之一的人 目前全球都在使用生成式人工智能工具。此外,90%的科技从业人员已经在工作中应用人工智能。尽管人工智能已被广泛采用,但预计到2033年,人工智能行业仍将增长约9倍。
随着人工智能技术的广泛应用,计算成本飙升,延迟问题日益严峻,安全性、能源消耗和可扩展性方面的担忧也随之而来。企业现在意识到,不断地将数据发送到远程服务器进行人工智能推理——即云计算或云人工智能——成本高昂、速度缓慢,并且存在隐私风险。
在云端人工智能领域,企业利用AWS、Azure和谷歌云等平台的庞大资源来提供人工智能服务。这使得用户无需构建自己的基础设施,即可通过互联网按需访问人工智能模型。
云端人工智能的基础是超大规模数据中心——这些规模庞大的人工智能数据中心提供极高的可扩展性,能够处理远超传统本地部署能力的工作负载。凭借其庞大的横向服务器阵列,它们为企业提供高效访问、构建、训练、部署和维护人工智能应用程序所需的资源。
云计算与人工智能的结合带来了成本效益高、可扩展性强以及能够利用共享模型等优势。但与此同时,它也存在一些显著的缺点,例如由于计算资源、存储、数据传输以及持续使用所需的专业知识等原因,导致成本高昂。
云计算人工智能面临的其他问题包括延迟、安全风险、数据隐私、对互联网的依赖、控制力有限以及供应商锁定。
由于云计算对于消费级应用、笔记本电脑、工业系统和实时应用场景而言成本高昂且充满挑战,企业正在转向“边缘人工智能”。在设备本地进行推理,而不是依赖昂贵的云端GPU,正在重塑人工智能在数据中心之外的部署方式。
滑动滚动→
| 尺寸 | 云端人工智能(集中式推理) | 边缘人工智能(设备端/本地推理) |
|---|---|---|
| 延迟 | 网络往返会增加延迟;负载变化时延迟会发生变化 | 毫秒级响应;性能稳定 |
| 单位经济学 | 持续的GPU、带宽和存储费用 | 前期硅片成本;在设备寿命期内摊销 |
| 隐私与合规 | 数据离开设备;更高的风险暴露度 + 治理开销 | 敏感数据可保留在本地;降低暴露面 |
| 可靠性 | 取决于网络和服务可用性 | 可在离线或网络状况不佳的情况下工作 |
| 可扩展性 | 通过数据中心容量和GPU供应进行扩展 | 通过将推理分布到各个端点来扩展规模 |
| 最合适 | 训练、大规模批量推理、集中式分析 | 实时应用:个人电脑、机器人、车辆、摄像头、工业 |
边缘人工智能详解:为什么推理正在向设备端转移

该行业正在经历一场向边缘人工智能的战略和架构转变,将人工智能从集中式、耗电的数据中心转移到本地推理硬件。
边缘人工智能将人工智能与边缘计算相结合,使设备能够在本地处理数据,从而摆脱对云计算的依赖。“边缘”指的是正在使用的设备,例如手机、汽车、相机、电视、传感器或医疗设备,因此边缘计算意味着用于处理数据的计算机位于该设备附近或内部。
除了收集和处理数据的边缘设备外,其他关键组件还包括在云端训练并部署在边缘的 AI 模型,以及在本地高效处理 AI 任务的专用硬件芯片。
通过转向节能设备,其目标是通过在用户设备上(数据实际生成的地方)实现实时处理,来解决延迟和数据隐私等关键问题。
这意味着计算无需发送到异地数据中心,而是在数据源附近进行,从而使设备能够在几毫秒内做出决策,而无需互联网连接。数据基本上在设备生成后立即投入使用。
这种实时处理对于需要快速响应时间的机器人、自动驾驶汽车和监控应用至关重要。
边缘计算还能消除数据往返传输的需求,从而减轻数据中心的沉重压力。在边缘人工智能中,只有相关数据才会被发送到云端,从而降低带宽需求和相关成本。
除了成本效益之外,从千兆瓦级数据中心转向本地设备还能带来更高的能源效率,因为它们可以以极低的能耗运行人工智能。通过将敏感数据保存在本地,企业可以进一步解决安全问题,防止未经授权的访问和数据泄露。
由于速度快、成本低、隐私性好、能效高等优点,人工智能推理越来越多地在边缘端进行。
在人工智能领域,推理是模型实际运行的过程——它在模型完成训练并停止学习之后开始。推理是指模型开始工作,从数据中得出结论,并将这些知识转化为现实世界的结果。
本地推理是指使用专用芯片(例如嵌入 CPU 或片上系统 (SoC) 中的 NPU(神经处理单元))直接在用户机器上运行 AI 模型,而不是将每个请求发送回云端 GPU。
NPU(神经网络处理单元)是专为深度学习任务中的复杂计算而优化的AI芯片,例如自然语言处理、语音处理、目标检测和图像识别。这些专用AI加速芯片能够以极低的能耗实现快速的本地推理,从而支持实时应用。
实际上,本地推理意味着您的笔记本电脑、PC、嵌入式系统甚至智能手机都可以运行大型语言模型(LLM 查询)、视觉模型或助手工作负载,而无需访问大型、昂贵、功能强大的服务器。
这可以降低延迟、减少带宽成本、提高隐私性并减少服务器费用。由于边缘人工智能系统无需持续的互联网连接即可运行,因此具有更高的可靠性,使其适用于偏远地区。
随着人工智能工作负载从实验扩展到日常使用,这种向本地推理的转变不再是理论上的,而是必然的,因为数十亿台设备获得了人工智能功能,而基于云的推理在大规模应用时变得不可持续。
边缘AI 市场研究估算 到本十年末,边缘人工智能处理器的价值可能接近 60 亿美元,高于 2020 年的 9 亿美元,这主要得益于 PC 和设备中的本地计算。
今年,本地推理的趋势已经从研究演示转向实际产品,正如 CES 2026 所展示的那样,数十款 AI PC 和边缘计算设备都展示了其设备端推理能力。
例如,安霸 发布了其 CV7 视觉 SoC 高通公司凭借其先进的设备端边缘人工智能处理技术,为各种实时感知应用提供了强大的支持。高通公司加倍投入垂直整合,致力于实现“无处不在的智能计算”。 骁龙 X Elite Gen 2 电脑博通公司也是 聚焦 将“神经网络引擎”集成到处理器中以实现本地人工智能,特别是针对智能家居应用。
说到像这样的巨头 Apple (AAPL -0.26%) 与 NVIDIA公司 (NVDA -0.71%)前者采用的是混合模型 设备上的人工智能 和“私有云计算”,而后者正在向“物理人工智能以及设备端处理。
物理人工智能将人工智能从数字世界扩展到机器人、无人机和工业机械领域,是边缘人工智能领域的新兴趋势之一,预计将成为主要的增长驱动力。
为什么AMD有望赢得边缘AI硬件周期
在边缘人工智能股票领域,最值得关注的公司之一是…… 高级微设备公司 (AMD -0.61%)该公司为数据中心、人工智能、游戏和嵌入式应用开发半导体、处理器和 GPU。
本月初, CES 2026AMD董事长兼首席执行官苏姿丰分享了公司实现目标的愿景。 适合所有人的人工智能 她强调了 面向边缘的人工智能战略 涵盖 PC、嵌入式设备和开发人员,强化了该公司专注于超大规模云环境之外的本地推理硬件的理念。
作为这一战略的一部分,该公司推出了一系列全新的AI处理器。其中包括面向AI PC的Ryzen AI 400系列处理器,该系列处理器内置NPU,可提供约60 TOPS的AI计算能力,用于本地推理。这款最新版本的AMD AI PC芯片拥有12个CPU核心和24个线程,其多任务处理速度比竞争对手快1.3倍,内容创作速度也快1.7倍。
搭载 Ryzen AI 400 系列处理器的 PC 将于本季度上市。
在新闻发布会上,AMD客户端业务高级副总裁兼总经理Rahul Tikoo指出,他们的AI PC平台已扩展到250多个,比去年增长了一倍。他表示:
“未来几年,人工智能将像一张多层次的网,渗透到个人层面的各个计算领域。我们的人工智能电脑和设备将彻底改变我们的工作方式、娱乐方式、创造方式以及人与人之间的联系方式。”
AMD还在全球最大的消费电子展上推出了Ryzen AI Max+芯片。该芯片面向高端笔记本电脑和迷你PC,用于高级本地推理、内容创作和游戏。
对于开发者而言,AMD 发布了用于设备端模型开发的 Ryzen AI Halo 平台,该平台将在下一季度为紧凑型台式电脑带来强大的 AI 开发能力。
与此同时,其全新的嵌入式 x86 处理器产品组合旨在为边缘 AI 应用提供强大支持。全新的 P100 和 X100 系列处理器可为智能医疗、汽车数字座舱和人形机器人提供高性能 AI 计算能力。
“无论你是谁,无论你每天如何使用科技,人工智能都在重塑日常计算。你每天都会与电脑进行数千次交互。人工智能能够理解上下文、学习上下文、实现自动化、提供深度推理,并为每个人提供个性化定制。”
– Rahul Tikoo,客户业务高级副总裁兼总经理
通过这些举措,这家美国芯片制造商正瞄准设备端人工智能工作负载,并为行业发展做出贡献。 推动局部推理 与 分布式智能 覆盖数十亿个终端。
除了支持边缘AI计算外,该公司还展示了其先进的AI处理器,这些处理器用于数据中心服务器机架。MI400系列芯片的企业版(MI440X)专为本地部署而设计,但并非专门针对AI集群。
为了满足OpenAI等公司的未来计算需求,AMD还预览了MI500平台。该公司表示,该平台旨在实现系统和机架层面的性能提升,相比前几代产品,而非简单的芯片升级。这些芯片将于明年上市。
除了令人印象深刻的产品组合外,AMD 还拥有一批优秀的客户,包括 OpenAI、Blue Origin、Liquid AI、Luma AI、World Labs、Illumina、Absci、AstraZeneca 和 Generative Bionics,这些客户一直在利用该公司的技术将人工智能的承诺转化为现实世界的影响。 据苏:
“随着人工智能的普及加速,我们正步入兆兆级计算时代,这得益于训练和推理能力的空前增长。AMD 正通过端到端的技术领先优势、开放平台以及与生态系统内合作伙伴的深度协同创新,为人工智能的下一阶段构建计算基础。”
她在一次采访中指出,鉴于人工智能的需求“非常巨大”,而且“呈爆炸式增长”,为了在人工智能市场保持竞争力,需要对计算能力和尖端硬件进行大规模、不可避免的投资。
她表示,为了跟上人工智能的发展步伐,世界需要超过“10亿次浮点运算/秒”(yottaflops)的计算能力,比2022年的计算能力“高出10,000万倍”。为此,她分享了公司构建亿次级基础设施的蓝图,并发布了AMD“Helios”机架级平台,该平台可在单个机架中提供高达3亿次浮点运算/秒的人工智能性能。
在同一活动中,AMD 的主要竞争对手英伟达也发布了其产品。 下一代维拉·鲁宾平台该产品由六枚芯片组成,预计将于今年晚些时候推出。
但英伟达继续专注于超大规模计算,推出顶级巨型GPU和企业级解决方案,而AMD则采取多元化的产品策略,以更低的总体成本实现人工智能功能。这种对比日益凸显了AMD与英伟达在2026年竞争格局中的差异。
AMD正通过降低“AI PC”芯片的价格来抢占新兴AI PC市场更大的份额,从而降低OEM厂商和消费者对高性能AI处理器的接受度。因此,AMD被视为市场上被低估的关键AI股票之一。
截至1月20,2026AMD市值达377.4亿美元,股价为231.87美元,年初至今上涨8.25%,过去一年上涨90.87%。其每股收益(TTM)为1.92美元,市盈率(TTM)为120.97倍。
Advanced Micro Devices,Inc. (AMD -0.61%)
AMD 的财务状况也十分强劲。AMD 执行副总裁、首席财务官兼财务主管 Jean Hu 指出:“我们对人工智能和高性能计算的持续投资正在推动显著增长,并使 AMD 能够创造长期价值。”
这一点在这家全球半导体公司2025年第三季度创纪录的9.2亿美元营收中可见一斑。其中,数据中心业务营收4.3亿美元,同比增长22%;客户端和游戏业务合计营收4亿美元,同比增长73%;嵌入式业务营收857亿美元,同比下降8%。
AMD的营收仍然没有像上季度那样包含其Instinct MI308芯片在中国的出货量,不过该公司预计很快就能从中获得营收。“我们已经获得了一些MI308的授权,”苏姿丰当时表示,“我们仍在与客户探讨市场需求以及整体的机遇。”
该期间的营业收入为1.3亿美元,净收入为1.2亿美元,毛利率为52%。稀释后每股收益为0.75美元。
苏姿丰表示:“我们本季度表现出色,营收和盈利均创历史新高,这反映了市场对我们高性能EPYC和Ryzen处理器以及Instinct AI加速器的广泛需求。”她补充道:“随着我们不断扩张的计算业务和快速发展的数据中心AI业务推动营收和利润的显著增长,这标志着我们增长轨迹的明显提升。”
当时,这家半导体巨头指出,其人工智能平台的客户需求正在加速增长,这一点从其与合作伙伴不断深化的合作关系中可见一斑。 OpenAI, 神谕 (ORCL +2.97% ), 思科 (CSCO +0.34% ), IBM (IBM -1.32%)以及 Cohere。
美国能源部还与AMD公司达成一项价值1亿美元的合作协议,共同建造两台下一代超级计算机,旨在“加速”药物研发、核能和国家安全技术领域的进步。第一台名为Lux,将采用MI355X人工智能芯片和网络芯片,使其成为美国首台人工智能工厂超级计算机。更先进的Discovery超级计算机将基于MI430系列人工智能芯片。
AMD预计上一季度营收约为9.6亿美元,非GAAP毛利率为54.5%。
上周,AMD的制造合作伙伴台积电(TSMC)——全球最大的芯片代工制造商——也公布了超出预期的第四季度财报,利润增长35%。该公司预计今年将增加资本支出,这表明其对人工智能领域的布局充满信心。
“我们预计,市场对我们领先的工艺技术的持续强劲需求将支撑我们的业务发展。”
——台积电首席财务官黄文德
因此,在努力追赶英伟达的同时,AMD 正在深入人工智能加速器、边缘计算和高性价比平台领域,将自己定位为不断发展的人工智能领域中一个引人注目的价值驱动型替代方案。
边缘人工智能是下一个重要的硬件周期
人工智能领域正以惊人的速度发展,其应用范围已渗透到智能手机、可穿戴设备、显示器、无人机、机器人和自动驾驶汽车等各种设备中。随着人工智能模型效率的不断提高,以及该技术的应用从实验阶段转向部署和规模化,为了跟上人工智能蓬勃发展的步伐,整个行业正从云端转向边缘计算。
尽管英伟达凭借高端GPU和生态系统锁定继续主导数据中心训练和超大规模推理领域,但硬件周期正从集中式数据中心转向日常设备,在这些设备中,价值、效率和价格才是最重要的。在这个设备级AI的新时代,AMD凭借其对本地推理、嵌入式NPU和AI PC处理器的战略性关注脱颖而出,使其成为2026年极具吸引力的价值投资标的。
边缘人工智能仍处于早期阶段,但其潜力巨大。通过将智能嵌入到每个设备中,它可以使人工智能在任何地方运行,而无需考虑网络连接。随着万物皆可计算机,边缘人工智能的机遇可能非常巨大,甚至超过云计算。但人工智能的未来并非取代云计算,而是可能呈现混合模式:云平台负责训练,边缘设备则提供实时推理,这标志着下一个重要的计算范式。















