6月4日消息,昆仑万维宣布开源 2 千亿参数稀疏大模型 Skywork-MoE , 性能强劲, 同时推理成本更低。Skywork-MoE 的模型权重、技术报告完全开源,免费商用。
据介绍,Skywork-MoE 基于之前昆仑万维开源的 Skywork-13B 模型中间 checkpoint 扩展而来, 是首个完整将 MoE Upcycling 技术应用并落地的开源千亿 MoE大模型,也是首个支持用单台 4090 服务器推理的开源千亿 MoE大模型。
在相同的激活参数量 20B(推理计算量)下,Skywork-MoE 能力在行业前列,接近 70B 的 Dense 模型。使得模型的推理成本有近 3 倍的下降。同时 Skywork-MoE 的总参数大小比 DeepSeekV2 的总参数大小要小 1/3,用更小的参数规模做到了相近的能力。
昆仑万维表示,希望本次开源的 Skywork-MoE 模型、技术报告和相关的实验结果可以给开源社区贡献更多的 MoE 训练经验和 Know-how,包括模型结构、超参选择、训练技巧、训练推理加速等各方面, 探索用更低的训练推理成本训更大更强的模型,在通往 AGI 的道路上贡献一点力量。
- 索尼起诉腾讯新游抄袭 指控其克隆经典作品
- 星链因软件故障全球中断2.5小时 全球多地无法正常接入网络
- 谷歌被判22.5亿元天价赔偿背后:安卓数据暗箱操作的五年拉锯战
- HDC 2025:开发者搭上“鸿蒙快车”,鸿蒙生态加速前行
- HarmonyOS 6开发者Beta正式启动:打造无处不在的AI体验
- 马蜂窝发布夏季“旅行蜂向标”,进山、玩水、拥抱草原是最受关注的夏季玩法
- 饿了么灰测“悦享会员”加码用户体验,提供一系列专属优惠和个性化服务
- 启信宝2025奶茶趣味报告:奶茶企业5年激增140%,40万家共筑3500亿帝国
- 《黑神话:悟空》PS5国行版将于6月18日正式发售,建议零售价268元起
- 报告:2029年美国AI搜索广告支出将达260亿美元,占比13.6%
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。