大模型再掀算力浪潮,曙光“ALL in”

伴随8家大模型陆续通过《生成式人工智能服务管理暂行办法》备案,文心一言率先向全社会全面开放,AIGC将真正迎来在国内实际落地开花的时期,“百模大战”也将愈演愈烈。

ChatGPT带动AIGC火爆的背后,人工智能算力需求也随之暴涨。公开资料显示,GPT-4的模型拥有近1.8万亿参数、13万亿训练数据,其训练一次的成本高达6300万美元,大模型对算力的依赖显而易见。除增加算力资源供给外,算力利用率优化、使用门槛降低也至关重要。

无疑,实现算力、算法及应用的智能、协同调度,将算力更高效地转化为生产力,成为制胜百模争“算”时代的关键。

图片1.png

作为全产业链覆盖的核心信息基础设施企业,曙光对于大模型及大规模算力的支持与经验,远早于2023年。

近年来,基于对产业的深入洞察和前瞻预判,曙光在全国范围内构建了包括智算中心、云中心、一体化大数据中心在内的各类算力中心,掌握了丰富多样且通用性极强的算力资源。通过智能化调度和资源管理,将算力资源上云联网,并以创新型算力服务平台为出口,面向不同行业区域的用户提供可便捷获取的算力和应用。

截至目前,曙光已参与“悟道2.0”、“紫东太初”、“文心一言”、“通义千问”等多类大模型的训练、微调、推理等工作,为其提供强劲算力支撑。累计完成30余个国内外主流大模型的适配孵化,包括业界熟知的GPT系列、LLaMA系列、GLM系列等。同等条件下,大模型训练效率及训练稳定性都得到显著提升。

此外,针对大模型训练带来的挑战,曙光紧密协同生态伙伴,与百度、阿里、智源研究院、智谱AI、复旦大学、之江实验室、捷通华声等业内领先企业及科研院所深度合作,充分调动起政、产、学、研、用各方力量,打造了面向不同应用场景的大模型一体机、大模型存储解决方案等,提供从底层算力、框架、算法、应用等全栈AI能力,满足多场景需求,加速大模型探索创新及产业化落地。

与此同时,由于大模型对算力的巨大需求,能耗问题日益严峻。自2011年开启,曙光便致力于相关探索,研发了领先的浸没式相变液冷技术和冷板式冷却技术,构建了包含计算和存储的全栈绿色计算方案,并已成功实现商业化部署。相比传统风冷模式,在同等功率下,可为AI计算核心部件降温20-30°C;在同等性能下,为算力设备降低能耗30%。目前,中国有超过58%的液冷数据中心选择了曙光的技术方案。

信息产业在演变的每个阶段,都会有主流的技术应用方向。在“万变”的环境中,唯有把握前瞻趋势、坚持打造核心竞争力才是应对变化的“不变”法则。无论是大模型,还是下一个新“风口”,曙光早已在等候。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )