趋势丨NPU时代来临,瑞芯微加持百度飞桨打造AI应用落地

前言:

AI时代,深度学习框架和操作系统类似,起着承上启下的作用,连接芯片与应用,拥有强大算力的AI芯片加持,AI技术将得到更广泛普及。

NPU成移动AI的核心载体

手机正常运行离不开SoC芯片,其集成的各个模块共同支撑手机功能实现,如CPU负责手机应用流畅切换、GPU支持游戏画面快速加载,而NPU(神经网络处理器)就专门负责实现AI运算和AI应用的实现。

NPU又叫独立网络加速引擎。可以按照字面意思理解,它是专门用来处理数据包转发的芯片。主要的工作是收到数据包,按照包的地址,快速转发出去,就像一条快递传送带。并且它只负责包的转发,无法处理其他业务逻辑。

CPU像是人的大脑,可以计算加减乘除,也可以用来学习英语,还可以用来逻辑推理,NPU更像是计算器,只能计算加减乘除,但因为“专器专用”,NPU处理效率很高,功耗更低。

如果没有NPU,数据包的转发也能通过CPU来进行处理,但当设备多数据量大时,CPU占用就会变高,处理不过来时就会丢包,导致网络无法使用。而这些特定的数据包转发规则,可以交由NPU处理,CPU可以减少最多99%的工作量。

深度学习+开源的百度飞桨

在海量数据时代,数据的收集、组织、分析、运用都将推动社会的发展。随着数据量的不断增长、算法不断演进和迭代,对极致算力的需求也越来越大,而软硬件的充分结合则显得尤为重要。

百度飞桨是国内自主研发、开源开放、功能最完备的产业级深度学习平台,集深度学习核心框架、基础模型库、端到端开发套件、工具组件和服务平台于一体,提供深度学习和机器学习任务开发、训练、部署能力,加速企业从算法研发到产业落地的过程。

飞桨框架是源自产业实践深度学习框架,同时支持静态图和动态图搭建网络,支持高效大规模分布式训练,同时推出了像PaddleSlim模型压缩还有安全加密的工具,以及在服务端和移动端进行预测部署一些引擎。

而Paddle Lite是飞桨推出的一套功能完善、易用性强且性能卓越的轻量化推理引擎,支持多种硬件、多种平台,具备轻量化部署、高性能实现等重要特性。

在算力层向上,向下连接芯片,向上连接了应用场景的就是深度学习框架及平台,在AI时代能够帮助开发者便捷、快速完成深度学习技术研发的作用。

据IDC报告显示,百度飞桨与谷歌、Facebook名列前三,领衔中国深度学习平台市场,也是市场份额前五中唯一的国货。

12下一页>

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2020-05-22
趋势丨NPU时代来临,瑞芯微加持百度飞桨打造AI应用落地
前言:在AI时代,深度学习框架和操作系统类似,起着承上启下的作用,连接芯片与应用,拥有强大算力的AI芯片加持,AI技术将得到更广泛普及。

长按扫码 阅读全文