傅盛:每个企业拥有私有化大模型的时代到来了

随着人工智能技术的迅猛发展,大模型已成为推动AI前进的关键驱动力。然而,对于企业而言,如何确保数据安全和隐私保护,成为了一个不可忽视的问题。

对此,某零售集团的技术负责人表示,他们现在实验的AI大模型仍然局限在单店上,出于安全和权限的考虑,不敢给大模型喂更多的数据。企业的这种谨慎态度,正是出于对数据安全和隐私保护的深刻认识。

在推动AI大模型应用的过程中,猎户星空深刻认识到,数据安全和隐私保护对于企业的重要性。有些内容不应该使用ChatGPT等公有大模型来制作,因为一旦机密泄漏,就会威胁到公司的安全。

例如用户想要使用AI大模型时,就需要把自己的知识、数据先输入给大模型。这样,用户会因此获得大模型的帮助,大模型也会越来越聪明。但是,如果是像ChatGPT这样的公有大模型,用户的自己的数据也会被用来帮助同样使用这一模型的竞争对手。

事实上,越来越多的业内人士已经意识到,由于企业级应用往往涉及专业场景和多人协同工作,所以更关注协同办公场景和数据的私有性。对于那些拥有特别敏感且高价值数据的企业而言,更需要定制化或私有化AI大模型。正如中国移动汪恒江指出,“我们很多数据是一定需要私有化和个性化,不能公开,这是一定的,特别是在端侧,我们手机里面、个人的家庭硬件里面有很多的隐私数据。”

对于那些从事工程报价软件的公司而言,他们也绝对不愿意将报价信息提供给公有的大模型。同样的情况也适用于半导体等公司,以及涉及医疗领域中的隐私数据和整车厂拥有大量汽车零配件BOM数据等。因为这些企业的数据都有很高的价值。

因此在许多领域中,仅仅依赖通用大型模型可能无法实现落地推进,特别是在企业的安全和金融、政务等方面。这些公司和组织要想踏上AI大潮,只能建立私有的模型。

傅盛指出,Open AI今天几乎已经把互联网上所有公开出版的数据都给读取了。但互联网再浩瀚也是人类知识体系的冰山一角。每一个公司的文档都有自己的竞争力和特点。他强调,“企业要有持续的竞争力,就应该使用私有化大模型,让经营数据内循环,让企业过去留在每个人脑海的经验变成整个决策智能的一部分。”

不管如何,企业大模型的私有化是AI决策智能发展的必然趋势。随着企业对数据安全和隐私保护的需求日益增强,以及公有大模型的潜在风险逐渐显现,企业将更加倾向于建立私有的AI大模型。只有这样,企业才能在AI大潮中保持持续的竞争力并实现可持续发展。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )