开源才是大模型的未来?

科技云报道原创。

一年前,ChatGPT横空出世;7个多月后,Meta宣布开源LLaMA 2,并且可免费商用。

这一天,也成为大模型发展的分水岭。短时间内,LLaMA 2对一些闭源的大模型厂商造成了致命性的打击。

随后,全球头部厂商和创业公司纷纷加入开源浪潮中。目前,国内也有近一半的大模型选择了开源的方式:

今年7月,智谱AI宣布开源大模型ChatGLM-6B和ChatGLM2-6B,这两个模型的下载量已经先后超过300万和120万。8月,阿里宣布开源通义千问70亿参数模型Qwen-7B,一个多月下载量破100万;12月,阿里持续开源通义千问720亿参数模型Qwen-72B、18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。9月,百川智能宣布开源Baichuan-7B、13B两款大模型,其下载量目前已经突破500万,200多家企业申请部署开源大模型。11月,元象XVERSE宣布开源650亿参数高性能通用大模型XVERSE-65B;11月底,浪潮信息发布完全开源且可免费商用的源2.0基础大模型,包含1026亿、518亿、21亿不同参数规模......

仅仅在过去的一个月内,国内最大开源模型的参数纪录就已经被刷新了N次。性能参数、性价比、可靠性,正成为抢占先机的关键词,而开源似乎也成为大模型发展的主流趋势。

有业内人士认为,未来90%的企业会倾向基于开源大模型发展。那么,开源是否真的是大模型的未来?

开源大模型快速赶超

开源大模型的核心理念是开放源代码,允许公众访问、使用、修改和分发模型的源代码。

面对市场竞争,开源大模型的免费使用是非常有吸引力的获客手段;同时,低成本的试错也有助于开源大模型更快触达潜在用户群体,降低企业认知和决策难度,加速创新。

从技术角度看,大模型涉及许多技术问题,单靠一家企业很难解决。开源大模型鼓励全球开发者社区的参与和贡献,这种集体智慧能够加速技术的迭代和创新,如GitHub上的众多AI项目就证明了这一点。

不仅如此,开源代码使得研究人员和用户能够审查模型的工作原理和决策过程,从而提高大模型的透明度和可信赖性。这对于解决AI的公平性、偏见和伦理问题至关重要。

事实上,自从LLaMA 2开源后,业界开始意识到大模型技术没有任何护栏。

基于成本的考虑,许多企业选择放弃支付上千万元的调用闭源大模型API的费用,转而部署和微调LLaMA 2。

创业者们的目光从解构、增强LLaMA 2转向了构建行业专有大模型,又掀起了一波LLaMA 2+司法、LLaMA 2+医疗等一系列的行业开源大模型。据不完全统计,LLaMA 2开源后,国内就涌现出了十几个开源行业大模型。

一份从谷歌内部泄露出来的备忘录(标题是《我们没有护城河》)证实了这种观点:

“我们无法赢得这场军备竞赛,OpenAI 也一样。当我们争吵不休的时候,第三个派系(开源)却在悄悄地吃掉我们的午餐”。

谷歌备忘录作者发现,自从LLaMA开源后,立刻出现了大量的创新,重大开发成果之间的间隔也在缩短。

Meta是一个明显的赢家,他们有效地获得了整个星球的免费劳动力,大多数开源创新都发生在他们的架构之上,没有什么能阻止他们将其直接整合到他们的产品中。

“当免费、不受限制的替代品在质量上具有可比性时,人们就不会为受限制的模型付费”,备忘录里写道。

最近,Meta首席AI科学家Yann LeCun转发了方舟投资(ARK Invest)制作的一张趋势图,描绘了开源社区与闭源模型在生成式AI上的发展。

“开源人工智能模型正走在超越专有模型的路上”,他感概道。

有网友甚至表示,我们正在接近一个临界点。以目前开源社区项目的发展速度,开源大模型将在未来12个月内达到GPT-4的水平。

未来1-2年,开源力量可能在与闭源大模型分庭抗礼。

开源大模型的商业化挑战

尽管开源已成为现阶段大模型发展的一种主流趋势,开源大模型的发展速度也远快于封闭生态系统,但并非所有的厂商都选择开源路线,也并不代表厂商会一直开源所有的大模型。

比如,以开源切入大模型赛道的百川智能,在发布完Baichuan-7B、Baichuan-13B开源大模型后,参数更大的Baichuan-53B大模型则选择了闭源。

由此可见,开源或闭源并非大模型的唯一发展路径。在当下,能够闭源的大模型一定是可以提供足够高的价值,帮用户更好地完成高性能的大模型训练、推理和部署,通过调用API的方式来帮助用户降低门槛。

这也是OpenAI等AI巨头闭源的思路,因其自身技术的绝对领先优势,使得其价值也非常的大。

相比之下,开源大模型除了快速迭代、证明自己的价值,还面临着更多的挑战,比如:

由于源代码的公开性,开源大模型可能更容易受到恶意攻击或滥用,确保数据安全和用户隐私需要额外的努力和监管。

同时,来自商业模式的不确定性,如何在保持开放的同时实现可持续的商业发展,始终是开源需要解决的重要问题。

回顾历史,红帽在开源商业化成功的道路上已做出了示范。作为最早通过提供企业级 Linux 发行版和相关服务的公司,红帽通过订阅模式为客户提供技术支持、更新和定制化服务。

红帽的商业化路径具体而言:在最上游的开源社区,参与开源技术贡献,做大做强生态;提取开源社区中的上游技术产品,沉淀到自己小开源社区;再将其认为最有价值的技术检验、测试、打包,形成新的产品组合,完成闭源出售给客户。

同样将开源成功商业化的公司还有MongoDB, Databricks, Cloudera, GitLab, Docker, MySQL AB......这些案例都表明,开源软件可以通过提供增值服务、技术支持、企业级特性、云服务等方式实现商业化,同时保持与开源社区的互动和合作。

尽管珠玉在前,但并不代表开源大模型商业化是一件容易的事。

在如此多的开源大模型竞争压力下,如何提高自身大模型在用户中的知名度和接受度,让用户从免费使用转向付费服务,同时还要防止竞争对手可能基于相同的代码库创建自己的产品或服务,都考验着开源大模型厂商的能力和速度。

开源与闭源大模型的协同演化

实际上,开源大模型和闭源大模型各有优劣,且在不同的应用场景和需求下各有其适用性,两者并非绝对的对立面,而是可以在某些方面相互借鉴和融合。

开源是为了保持社区的繁荣和多样性,能够保证技术、产品能够源源不断补充新鲜的血液和产生新的变化。

闭源的商业化版本是用来满足商业化的需求,即安全、低成本、高效、持续有价值的服务。对比商业版本,开源版本一定是滞后的,包括技术的迭代、维护等等。

因此,两者的优势并不在同一个位置,也很难断言哪一个模式将完全主导大模型的未来。相反,可以预见的是,开源和闭源大模型将在以下几个方面实现协同演化:

一是,共享与竞争并存。

开源大模型和闭源大模型将在某些领域展开激烈的竞争,如自然语言处理、计算机视觉等。同时,它们也可能在其他领域共享成果和技术,推动整个AI行业的进步。

二是,混合模式的出现。

为了兼顾创新速度、透明度、安全性和商业利益,一些公司可能会选择采用混合模式,即开放基础模型的源代码,但保留高级功能或特定应用的闭源。

这种模式既可以吸引开发者和用户的参与,又可以保护公司的核心竞争力。

三是,标准化与监管的加强。

随着AI技术的发展和应用的普及,政府和行业组织可能会加强对开源和闭源大模型的标准化和监管工作,以确保模型的安全、公平和透明。

这将进一步规范市场行为,促进开源和闭源大模型的健康发展。

结语

当然,无论是开源还是闭源,重要的是持续创新、提升透明度和安全性,以及实现AI技术的社会价值和经济价值的最大化。比起断定谁会是大模型的未来,不如去关注如何合理利用这两种模式,去塑造一个更加智能、开放、安全和可持续的AI未来。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2023-12-27
开源才是大模型的未来?
科技云报道原创。一年前,ChatGPT横空出世;7个多月后,Meta宣布开源LLaMA 2,并且可免费商用。这一天,也成为大模型发展的分水岭。短时间...

长按扫码 阅读全文