

“咱们的芯片业务火热。”
这句话既不是出自英伟达、英特尔,也不是谷歌、微软,而是来自于亚马逊CEO安迪·杰西(Andy Jassy)最新的股东信。
他还补充到,Trainium芯片的需求正在爆发。
这听起来些许有点反直观。
因为昔日一段时辰,你听到的亚马逊,大约率不是这个故事。
你听到的应该是亚马逊如何裁人,是解放现款流被AI基建吞掉,是AWS增速被质疑,是它和甲骨文沿途被放进了“AI包领班”那一拨里。
在好多东说念主的印象里,亚马逊根柢就不是一家站在AI潮头的公司。
模子这边,OpenAI有ChatGPT,Anthropic有Claude,谷歌有Gemini。要是我问你亚马逊最强的模子叫什么,好多东说念主可能还真得先搜一下。
但在环球没若何珍贵的地点,亚马逊其实照旧暗度陈仓了。
在这封股东信里说写到,AWS的AI业务年化收入照旧卓越150亿好意思元。
更要津的是,包含Graviton、Trainium和Nitro在内的亚马逊自研芯片业务,年化收入照旧卓越200亿好意思元,而且还在以三位数同比增长。
安迪暗示,要是把这块业务单独拆出来,像英伟达、英特尔那样奏凯向第三方卖芯片,它的年化领域节略不错达到500亿好意思元。
这个领域就不行再管它叫“里面降本器具”了,这是一块委果长出来的新业务。
更进攻的是,亚马逊面前不是只作念芯片。它有底层芯片,稀有据中心,有AWS,有Bedrock,有Anthropic这样的深度绑定客户,也有OpenAI、苹果这些外部大客户。
换句话说,天然模子本人没那么亮眼,不外亚马逊的确是一家全栈AI公司了。
微软还在OpenAI、Copilot、Azure和Maia之间摸索主轴,但亚马逊的标的反而越来越明晰。
让AI尽可能跑在AWS上,尽可能铺张AWS我方的芯片,终末把AI时期的利润率和适度权重新抓回我方手里。
是以我才认为,芯片正在成为亚马逊的“AWS”。
就比如Anthropic,面前他们的Claude模子,十足照旧在亚马逊的芯片上跑过了。
为了吃定Anthropic这个大客户,亚马逊还成心建了一个AI算力集群,叫Project Rainier。
这个集群是全球已知最大的非Nvidia算力集群之一,仅印第安纳州New Carlisle这一处园区,那时就照旧部署了节略50万颗Trainium2芯片。
到2025年底,领域照旧扩大到100万颗芯片。而这些芯片存在的贪图就一个,跑Claude。
亚马逊都这样客气了,Anthropic天然也得有来有往,后者奏凯参与了亚马逊Trainium3芯片的瞎想责任。
以前都是芯片公司有什么芯片,AI公司才能考验若何的模子。面前反过来了,AI公司运转教云厂商若何造芯片。
问题也随之而来。亚马逊为啥非要我方造芯片?它确实是为了挑战英伟达,如故仅仅想把AWS的利润率再举高少量?
归根结底,亚马逊造芯片这件事,名义看是个硬件故事,但你只消往深处看,就会发现如故亚马逊那套平台逻辑,把别东说念主的增长,造成我方的基础样式收入。
01
一场从2015年运转的豪赌
Annapurna Labs树立于2011年,然后他们就一直处于隐身方式。
这家公司由三位工程师创立,他们接受了一种很反水的瞎想理念,从云打算、数据流量、实践需求倒推且归,再瞎想芯片。这种反向念念维规律,碰巧与亚马逊的责任样貌完全契合。
2015岁首,亚马逊以3.5亿好意思元收购了一家以色列芯片创业公司Annapurna Labs。

莫得新闻发布会,在亚马逊的财报中,也只消一条粗略声明。那时通盘东说念主都认为,这仅仅亚马逊辽远投资中不起眼的一笔。
收购完成后,亚马逊并莫得急于推坐褥物。Annapurna Labs的团队先是参与了AWS干系名堂,自后运转给Nitro System的底层作念硬件瞎想。
Nitro System是AWS的一套云基础样式底层架构。它是把原本由做事器主CPU和传统凭空化软件负责的好多事情,拆出来交给成心的硬件去作念。
Annapurna Labs等于负责来瞎想这个硬件。
有一说一,这仅仅楚囚对泣,或者你不错奏凯领路为Annapurna Labs在融入亚马逊这个环球庭之前的一次团建,委果的故事要从2018年运转讲起。
3年之后,AWS推出了Inferentia,这是一款成心用于推理的机器学习芯片。
亚马逊认为,与考验比拟,推理任务对芯片的条款略低,更容易切入。这属于东说念主之常情,好多国内作念AI芯片的厂商也秉持着相易的宗旨。
2019年,搭载Inferentia芯片的Inf1实例讲求上线。
这玩意到底性能如何呢?亚马逊之前有一套搭载英伟达T4 GPU的云做事器,主打图形渲染、视频惩办和机器学习推理。
Inf1比G4多了最高3倍的迷糊,每次推理成本最多低40%。
关联词,Inf1在市集上却没什么声量。原因在于它是成心为推理场景作念了优化,荒谬安妥用来作念保举系统、图像识别、语音识别、NLP推理这些。
可问题就在于,亚马逊的通盘这个词芯片生态刚起步,你想用Inf1,就必须得用亚马逊我方的AWS Neuron SDK。
这个SDK的框架天然维持TensorFlow/PyTorch/MXNet,但兼容性和熟练度远不如英伟达的CUDA。而况早期编译器截止好多,比如适度流、模子大小、BERT序列长度等都有敛迹。
是以Inf1更像是个倡导产物,仅仅给市集打了个样,乐鱼体育官方网站亚马逊我方也深知这少量。
不外Inf1的施展如故超出了亚马逊的预期,于是接下来,亚马逊运转大喊大进。
2021年,AWS讲求发布了首款面向客户用于考验AI模子的芯片Trainium。考验芯片的本领难度远高于推理芯片,第一代Trainium基于7纳米工艺,领有约550亿个晶体管,于2022年运转为EC2 Trn1实例提供算力。
亚马逊暗示,在特定责任负载下,Trainium的每token成本比A100集群低54%。对于GPT类模子,Trainium的迷糊量与A100十分,但成本只消一半把握。
2023年底,亚马逊在re: Invent大会上发布了第二代Trainium2芯片。这款芯片接受5纳米工艺,打算中枢数目是第一代的4倍,考验速率训诫4倍,内存容量权贵增多。
Trainium2针对生成式AI考验作念了成心优化,维持结构化阑珊性,能够更高效地惩办诳言语模子的考验任务。且相较于基于H200/H100的同类云配置,价钱性能可再训诫30%到40%。
2024年12月,亚马逊在re: Invent大会上初度公布了新一代Trainium3芯片。这是AWS首款接受3纳米工艺的AI芯片。
到2025年底,Trainium3被讲求集成到Trn3 UltraServer中,每台做事器搭载144颗芯片,提供362 petaflops的总算力。这些做事器接受液冷本领,能效比前代训诫约4倍。
AWS暗示在部分考验和推理场景下,客户可将成本进一步压低至英伟达GPU决议的一半把握。
从2015年到2026年,亚马逊在芯片业务上的参加是渐进式的,因此越后头参加越大。
2025年,亚马逊的成本支拨达到约1250亿好意思元,其中绝大部分流向AI所需的数据中心、电力和芯片。
2026年,这个数字瞻望将达到2000亿好意思元,比分析师预期高出近40%,也卓越了谷歌告示的1850亿好意思元上限。
02
亚马逊的芯片为啥能卖出去?
钱,不行只花不赚。
前文提到亚马逊芯片业务的年化营收已卓越200亿好意思元,是这个数字包括Graviton惩办器、Trainium考验芯片和Nitro网罗芯片的总收入。
这封信还走漏,要是芯片业务行动沉寂公司运营,像英伟达或英特尔那样奏凯向第三方销售芯片,年化营收领域可达500亿好意思元。
Graviton内容上等于Annapurna Labs蛊卦的一款Arm做事器CPU,用来替代英特尔和AMD那类传统x86惩办器,负责跑Web做事、数据库、容器和多样企业诓骗。
你可能要问了,那为啥要有这玩意呢?我用英特尔的CPU不行吗?
AWS上有普遍的责任负载,其实根柢不需要GPU,也不需要什么AI芯片,这些东西吃的等于最广博、最踏实、最长久的做事器CPU算力。
对这些常见的责任负载来说,Graviton更低廉、更省电,还更容易实行。
面前,开云app下载亚马逊的芯片主要通过AWS以租用样式提供给客户,而不是奏凯销售硬件。客户购买的是EC2实例的打算智力,背后可能是Graviton、Trainium或Inferentia芯片。
这种买卖方式与传统芯片厂商完全不同,倒是和网上一些租显卡的个体户很像。
从自后的拆伙看,Graviton也照实成了亚马逊自研芯片里最早跑互市业闭环的产物。它不像Trainium那样需要客户重写普遍考验经过,也不像Inferentia那样强依赖特定推理场景。
在AWS弹性打算产物的1000个最大客户中,卓越90%正在使用Graviton芯片。AWS还长远,有卓越5万名客户在使用Graviton。有名企业如苹果、SAP、Pinterest、Datadog都是Graviton的用户。
所谓一分钱难倒英豪汉,好多公司迁徙到Graviton,等于因为它低廉、踏实,而且迁徙成本低。
Graviton先帮亚马逊解释了一件事,只消价钱低廉,客户并不在意我方用的是什么芯片。
而这件事一朝被解释,Trainium和Inferentia后头的故事才委果有了链接讲下去的底气。
Trainium和Inferentia的客户就相对少一些,它们最大的客户是Anthropic。
2024年底,Anthropic告示了Project Rainier,将使用一个领有近50万颗Trainium2芯片的算力集群考验Claude模子,著述着手我就提到了。
这个集群在2025年参加使用,是那时寰球上最大的机器学习考验集群之一,算力是Anthropic之前使用集群的五倍以上。
2025年,OpenAI先与AWS达成了领域达380亿好意思元的长久云勾通快乐。到了2026年2月,亚马逊又告示向OpenAI投资500亿好意思元,并阐发OpenAI将通过AWS基础样式铺张约2吉瓦的Trainium打算容量。

筹商到Anthropic和亚马逊我方的Bedrock做事照旧使用了普遍Trainium芯片,亚马逊果然还能腾脱手接下OpenAI这笔大票据,可见那时的亚马逊照旧All In芯片了。
除此之外还有苹果,它们的搜索产物接受了Graviton 4和Inferentia 2,机器学习推理责任负载的效能提高了40%以上。苹果还在早期阶段测试Trainium 2,初步拆伙自满,在Trainium 2上对模子进行预考验,效能将训诫50%。
关联词正直亚马逊以为我方的芯片功法就要真金不怕火成的时候,有东说念主给他们泼了一盆冷水。
2025年7月,一份亚马逊里面标注为“隐秘”的文档自满,AI初创公司Cohere发现Trainium 1和Trainium 2芯片的性能“不足”英伟达的H100 GPU。
蛊卦了Stable Diffusion的图像生成公司Stability AI也得出肖似论断,认为Trainium 2在蔓延方面施展欠安,使其在速率和成本上“竞争力较弱”。
新加坡AI考虑机构AI Singapore的测试标明,配备英伟达GPU的AWS G6做事器在多个使用场景下的成人性能都优于Inferentia 2。
亚马逊对此复兴称,这些反映“并非刻下情况”,Trainium和Inferentia照旧在Ricoh、Datadog、Metagenomi等客户那儿赢得了“出色恶果”。
03
云巨头造芯片
尽管如斯,需求仍在快速增长。
亚马逊的股东信中走漏,两家大型AWS客户曾条款购买2026年通盘的Graviton实例容量,但亚马逊因需要关切其他客户的需求而婉拒了这两笔大票据。
AWS在2025年新增了3.9吉瓦的电力容量,瞻望到2027年底总电力容量将翻倍。
亚马逊造芯片的故事,从2015年的一笔低调收购,到2026年景为年化200亿好意思元的业务,用了11年时辰。

你要非得说这个增长多高多快,那也无意见得,但至少说得昔日。问题就在于,这条路能走多远,能否委果复制AWS的生效。
亚马逊造芯片的中枢逻辑很浅易,质问成本,提高利润率。但这个逻辑能否树立,取决于三个问题:芯片确实更低廉吗?客户满足为此付出迁徙成本吗?多久能收回投资?
发轫,客户需要使用AWS的Neuron SDK对代码进行适配。
Anthropic的工程师走漏,将考验经过迁徙到Trainium3节略需要三周时辰,这比早期几代定制芯片所需的数月时辰大幅裁减,但仍然是一笔不小的工程参加。
其次,不是说通盘的模子架构它都能用Trainium来跑。
有些架构需要CUDA进行特定操作,而且一些公司它是财大气粗的类型,条款算力必须达到极限,而这时候,仍然只可使用英伟达的产物。
要是把视角再往外拉少量,你会发现亚马逊对芯片这件事的执念,其实也和它我方在AI战场上的难过处境干系。
我就举一个例子,要是问你,亚马逊的模子是啥,你要是不去搜索,能立马回答得上来吗?
亚马逊不是没作念模子,违抗,它很早就布局了我方的Titan模子眷属,自后又推出了Nova,想把文本、图像、视频这些生成智力都补皆。
后头还有遮蔽消费端到企业端的多样AI产物,比如Bedrock、Q,再到升级版Alexa。
问题在于,亚马逊每一步都随着掺和了,关联词每一步都莫得让客户们幽闲。这就导致亚马逊在AI产业上头掉队了。
除了亚马逊,云巨头也都在重塑AI芯片市集。
谷歌的TPU照旧迭代到第五代,微软也在蛊卦我方的AI芯片Maia。
谷歌天然不奏凯卖TPU,不外好赖还建了个云平台,对外售售TPU的算力。微软倒好,这个Maia就从来莫得对外放出来过。
关联词Maia的近况,并不乐不雅。
2023年的时候,微软本想用Maia 100来跑OpenAI、Copilot这些大模子,但等产物刚运转部署的时候发现,Maia 100的算力远远不够撑持那时的ChatGPT,是以OpenAI也只可遴荐英伟达。
2025年,微软下一代Maia被爆出难产,因此其量产时辰从2025年推迟到了2026年,原因包括瞎想半途变更、团队流动和工程鼓动不顺,而且按那时外媒走漏的音尘,新Maia的性能也比不上英伟达刚刚发布的Blackwell。
到了2026年1月,微软总算是讲求拿出了接受3nm工艺的Maia 200,但它的定位是推理,并不行像英伟达的GPU相同用来考验大模子。
关联词市面上照旧充满了替代产物,微软不仅本领上莫得发轫,就连产能和铺设速率也比不外亚马逊和谷歌,这就导致微软的Maia没能掀翻什么风波。
改日的AI芯片市集可能会分化为两个档次,一个是英伟达、AMD主导的通用市集,另一个是云巨头各自的闭塞生态。
对于初创公司和中小企业来说,遴荐哪个云平台,就意味着遴荐了背后的芯片架构。要是深度依赖AWS的Trainium,将来迁徙到其他平台的成本会相称高。
亚马逊以前掉队了,是以它才想要去锁定中小企业改日,指不定能在AWS上再养出来几个OpenAI、Anthropic这样的企业。
但从另一个角度看,云巨头的自研芯片也在推动通盘这个词行业的逾越。英伟达之是以能够长久保管高利润率,部分原因是缺少灵验竞争。
当亚马逊、谷歌、微软都运转我方造芯片,就会去倒逼英伟达降价、加速迭代。
最终受益的是通盘这个词AI行业。
亚马逊造芯片能否成为下一个AWS,取决于如何界说“生效”。
要是生效意味着像AWS那样创造一个全新的行业,转换通盘这个词科技生态,那么显然,它并不行成为下一个AWS。芯片行业照旧存在了几十年,亚马逊不是在创造新市集,而是在重新分拨现存市集的份额。
但要是生效意味着扶持一个可不息的、有竞争力的业务,为AWS提供成本上风和计策适度权,那么亚马逊照旧在这条路上走得很远。
200亿好意思元的年化营收,90%以上的头部客户接受率,Anthropic和OpenAI这样的标杆案例,这些都足以解释Trainium的生效。
更进攻的是,当你领有从芯片到数据中心到软件平台的好意思满堆栈,你就不错针对特定责任负载进行端到端的优化,这是购打通用芯片无法杀青的。
从这个意念念上说,亚马逊造芯片的故事,不是对于能赚些许钱,而是对于谁掌持适度权。
在AI时期,算力等于石油,谁适度了算力的生产和分拨,谁就掌持了改日。
亚马逊不想把这个适度权完全交给英伟达,就像它当年不想把云基础样式的适度权交给英特尔相同。
就算到终末开云,Trainium不行与英伟达平起平坐,它也照旧解释了云巨头有智力挑战芯片巨头的把持地位。这本人亦然一种生效。
滚球app中国官方网站
备案号: