8月10日消息(岳明)华为将于8月12日在2025金融AI推理应用落地与发展论坛上,发布AI推理领域的突破性技术成果。据透露,这项成果或能降低中国AI推理对HBM(高带宽内存)技术的依赖,提升国内AI大模型推理性能,完善中国AI推理生态的关键部分。
进入到2024以来,AI推理算力需求悄然兴起,成为市场关注的焦点。据 Wind 转引英伟达FY24Q4 业绩会纪要,公司2024财年数据中心有40%的收入来自推理业务。IDC 数据显示,随着训练模型的完善与成熟,模型和应用产品逐步投入生产,推理端的人工智能服务器占比将随之攀升,预计到 2027 年,用于推理的工作负载将达到 72.6%。
其实,无论是训练还是推理,算力和存储是两个率先受益的领域,特别是在当前国产化大趋势下,算力和存储将决定未来十年AI胜负的关键。但从技术与产品成熟度角度来看,国产HBM较海外产品存在较大技术差距。在这种情况下,“弯道超车”是更好的选择。
正如华为CEO任正非所言,“华为单芯片还是落后美国一代”,“但我们用数学补物理、非摩尔补摩尔,用群计算补单芯片,在结果上也能达到实用状况。 ”CloudMatrix 384已经在AI算力上实现了“弯道超车”,在HBM上,我们也同样期待。
什么是HBM
高带宽内存(HBM) 是下一代 DRAM(动态随机存取存储器)技术,可实现超高速和宽数据传输,主要用于解决大模型训练与推理的内存带宽瓶颈问题。
HBM的核心创新在于其独特的3D堆叠结构,其中多个DRAM芯片(4层、8层甚至12层)使用先进的封装技术垂直堆叠。3D结构使 HBM 能够以比 GDDR 等传统内存解决方案高得多的带宽(数据传输速率)运行。
HBM凭借高带宽和低延迟特性,成为AI大模型训练与推理的关键组件。在AI芯片 中,HBM作为“ L4缓存 ”,可提升数据读写效率,缓解内存带宽瓶颈,从而增强AI模型的运算能力。
HBM市场格局
与GPGPU产品一样,HBM特别是HBM3规格以上的产品,需求量非常大,且一直被国外厂商所垄断。
2025年初,HBM3芯片现货价较2024年初暴涨300%,单台AI服务器的DRAM用量是传统服务器的8倍。
从市场格局来看,还是以海外厂商为主:SK海力士的市场份额53%,率先量产HBM3E;三星电子的市场份额占比38%,计划2025年将HBM供应量扩大至去年两倍;美光科技的市场份额10%,目标2025年市占率提升至20%以上。国内厂商以长鑫存储为主,推出国产DDR5内存,打破三星、SK海力士与美光垄断,HBM业务同步发展。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。