| 世界首款!黄仁勋投下芯片核弹 中国AI面临大考 | |
| www.wforum.com | 2026-02-27 08:06:45 火星宏观 | 0条评论 | 查看/发表评论 |
|
|
|
|
|
|
|
|
英伟达CEO黄仁勋预告,将于2026年下半年投产,2028年推出全球首款1.6纳米AI芯片“Feynman”,采用台积电A16制程与背面供电技术,算力与能效大幅跃升。此举将加速全球AI迭代,巩固英伟达霸主地位,同时对大陆芯片制造业形成严峻考验,倒逼国产替代加速与政策加码。 一、英伟达黄仁勋预告AI芯片大黑马——首款1.6纳米芯片AI GPU问世。 科技界爆出春雷,芯片行业线程继续突破!2月26日(周四),英伟达(NVIDIA)CEO黄仁勋亲自预告AI芯片首个大黑马——世界前所未见的首款1.6纳米芯片的全新芯片架构Feynman,将在台积电投产。 周四下午,中时新闻网报道称,英伟达年度技术盛会“GTC 2026”定于3月16日至19日在美国加州圣荷西登场,英伟达CEO黄仁勋在宣布这一消息的同时向媒体预告称,本届“GTC 2026”大会的重头戏将是发表世界前所未见的全新芯片架构Feynman,该产品是全球首款导入台积电1.6纳米的A16先进制程,预计Feynman芯片将于2028年正式投入市场,成为全球首款迈入1.6纳米里程碑的革命性AI GPU。 Feynman将衔接已量产的Blackwell,以及预计于2026年问世的Rubin架构,成为英伟达下一世代人工智能数据中心GPU的旗舰产品。这不仅是英伟达首度切入1.6纳米级制程,更标志着AI算力进入全新纪元。 为了克服先进制程的物理限制,Feynman 将采用“超级电轨”(Super Power Rail, SPR)技术,将供电线路移至晶圆背面,使逻辑密度提升约10%、功耗降低约15%,同时解决了长期困扰半导体业已久的SRAM压缩瓶颈。即透过新技术让原本难以压缩的内存单元成功瘦身,释放出更多芯片空间来堆叠算力。 此外,市场盛传Feynman可能整合类LPU(语言处理单元)技术,强化对大型语言模型(LLM)与生成式AI推理任务的专项加速能力。Nvidia最近收购了Groq。这有望为大型语言模型工作负载带来巨大的性能提升。不过,具体架构与技术细节,仍待英伟达在2026年GTC大会上正式揭晓。
传英伟达也接触英特尔代工。 在芯片产能布局方面,台积电正为16A制程积极扩充产能,而英伟达已取得A16的独家量产权,据目前时间表,Feynman预计于2026年下半年投产、2028年启动出货,但由于先进制程高度复杂,客户端的终端交付可能延后至2029至2030年。 值得注意的是,市场也传出英伟达正考虑将部分Feynman GPU外包给英特尔(Intel)生产,双方目前仍就封装与制造合作细节进行磋商。 二、1.6纳米制程的Feynman提前18个月投产,预示着芯片产业的时不我待。
2025年3月19日,科技新报曾经报道称,英伟达在 GTC 2025 公布的2026年与2027年数据中心路线图更新,展示即将推出的以天文学家Vera Rubin命名的Rubin系列与Rubin Ultra。同时,在英伟达的蓝图中,也可看到Rubin系列的下个继任者是Feynman,该命名取自理论物理学家Richard Feynman,当时计划2028年投产。 在GTC 2025大会上,英伟达CEO黄仁勋透露,Blackwell B200 其实每颗GPU含两个芯片(die),使NVLink拓扑结构发生变化。虽然 Blackwell B200 NVL72 是这个名称,但称为 NV144L 应该更合适,因此英伟达计划Rubin产品线调整名字。 此外,Rubin产品线将从HBM3/HBM3e转向HBM4,并在Rubin Ultra采用HBM4e,内存容量维持288GB,与B300相同。带宽则从8TB/s提升至13TB/s,NVLink速度将提升一倍。另一个重点是 Vera CPU,取代目前的 Grace CPU。
Vera 是相对小巧紧凑的CPU,配备88颗客制化ARM 核心和176个线程,并且内建1.8TB/s的NVLink核心对核心连接埠,可与Rubin GPU直接连接,进一步提升运算效能与整合性。 Rubin Ultra GPU将采用四个 GPU 芯片(die)封装在一个模块内,提高计算密度。 Rubin Ultra预期 2027 下半年推出,现在也提前一年至2026年。这预示着GPU 的性能将迎接大幅度升级,整个机架的设计将被全新架构 NVL576 取代。 三、英伟达1.6纳米的Feynman芯片提前面世,对全球人工智能行业有何影响?
英伟达提前18个月启动Feynman架构量产(2026年下半年投产、2028年出货),标志着AI算力进入“1.6纳米时代”,将对全球人工智能行业产生革命性推动。 首先,性能与能效大幅跃升。 采用台积电A16制程并引入超级电轨(SPR)背面供电技术,逻辑密度提升约10%、功耗降低约15%,同时突破SRAM缩放瓶颈。这意味着单芯片算力将远超Blackwell和Rubin,训练万亿参数大模型的时间可能缩短30%-50%,推理延迟大幅降低,单瓦性能比显著提高。大型语言模型、Agentic AI、多模态生成等前沿应用将迎来爆发式发展,AI训练成本有望下降20%以上,推动AI从“实验室”走向大规模商业落地。 其次,将加速行业迭代节奏。 英伟达一年一迭代的路线图(Blackwell→Rubin→Feynman)进一步固化其绝对领先地位,迫使AMD、Intel、Groq等竞争者加速追赶,全球AI供应链将围绕HBM4/HBM5、先进封装、硅光子等技术狂飙突进。数据中心电力效率提升,也将缓解AI耗电危机,为全球建设“吉瓦级”AI工厂提供硬件基础。 第三,引发资本与应用双重热潮。 更多机构将加大AI基础设施投资,AI在医疗、科研、金融、自动驾驶等领域的渗透率将加速提升。但同时也加剧垄断担忧,可能引发更多反垄断讨论与开源替代浪潮。 第四,这一消息是对大陆芯片制造业和人工智能行业的又一次严峻考验。
对大陆芯片制造业而言,1.6nm 的Feynman芯片提前18个月投产,是对现有技术封锁的又一次严峻考验。 中芯国际目前量产节点停留在7nm/5nm,距离1.6nm仍有巨大鸿沟,且受EUV光刻机禁运影响,短期内难以跟进。这将进一步拉大中外先进制程差距,台积电A16初期产能几乎被英伟达独占,中国厂商获取最先进AI芯片的窗口期被大幅压缩。 对人工智能行业而言,短期内,尽管面临出口管制,大陆AI企业仍将高度依赖英伟达GPU,但Feynman的能效优势会让“买不到最强芯片”的痛点更加突出,训练大模型的成本与速度劣势可能进一步显现。部分企业或被迫转向国产替代方案(如华为昇腾、壁仞、寒武纪等),倒逼国内AI芯片生态加速成熟。 长期看,这是一记“警钟”。它将极大刺激国家与企业加大对国产先进制程、3D堆叠、存算一体、新型芯片的投入。预计“十四五”后半段及“十五五”期间,国家在芯片专项资金、人才引进、供应链本土化政策将进一步加码。 总体而言,此次英伟达1.6nm 的Feynman芯片提前量产,将把全球AI发展推向一个新高度,让“AI无处不在”从愿景变为现实。 短期将给大陆芯片和人工智能行业带来压力,长期将成为中国芯片与AI产业“自立自强”的强大外部动力。若政策执行得力、产业链协同到位,完全有可能在10年内将差距缩小到可控范围。 |
|
|
|
|
|
|
| 歼-20完全体首秀,为何让俄军工圈集体破防 | |
| 习近平大清洗影响到底有多大?华盛顿报告说 | |
| 美军开打前夜 伊朗突然握住中国“长矛”? | |
| 严重透支!人形机器人 彻底无感了 | |
| 2万吨巨舰+155mm巨炮 中国海军的又一张王牌 |





