英研究团队研发非神经网络硬件降低人工智能功耗

日前,英国纽卡斯尔大学的研究人员研发出一种非神经网络硬件,可以显著降低人工智能的功率消耗。

研发团队训练了一个神经网络,利用Tsetlin机器技术,来从标准MNIST数据集识别手写数字。

纽卡斯尔大学高级讲师Rishad Shafik表示:“即开即用的神经网络让我们每焦耳可以进行不到10万亿次操作。而使用我们设计的第一台Tsetlin机器,这个数值能达到65万亿次。这种改进主要来自于简化过的逻辑设计。”

他补充说,在识别随机说话者说出的关键词时,一台Tsetlin机器“可以识别15个单词,与神经网络识别一个单词所需的能量消耗相同”。

Tsetlin机器是一种“学习自动机”(learning automata),它最早是由俄罗斯科学家Mikhail Tsetlin在20世纪60年代发明的一种机器学习算法。Shafik解释说,这种算法的问题在于,在其基本形式中,“学习自动机几乎不可能在硬件上实现,因为有大量的状态需要去适应”。

挪威阿格德大学的AI教授Ole-Christoffer Granmo说,在过去的几年里,他通过将学习自动机与经典的博弈论和布尔代数相结合,找到了一种降低学习自动机复杂性的方法。他将简化版的学习自动机应用到软件中,并以该学科创始人的名字将其命名为“Tsetlin机器”(Tsetlin machine)。

在Granmo的研究基础以及他本人的协助下,纽卡斯尔团队找到了一种能够有效地将Tsetlin机器的数据类型和基础算法映射到逻辑门上的方法,并在FPGA和定制ASIC上成功实现,他们采用的的形式不仅适用于训练/学习AI阶段,同时也适用于训练之后,也就是所谓的AI推理阶段。

Shafik将Tsetlin机器和神经网络之间的功耗差别归结于它们映射到硬件上的方式:神经网络,包括二值神经网络在内,都是算术,它们包含了许多乘法和加法操作,而Tsetlin机器硬件不使用算术。他表示:“这纯粹是逻辑上的平行操作。”

纽卡斯尔微系统研究小组组长Alex Yakovlev,同时也和Shafik一样是AI团队的领导者,他表示:“能量效率是人工智能最重要的赋能因素,同样重要的是能够解释AI决策的能力。对于这两方面,我们需要摆脱算术,而我们的Tsetlin机器硬件设计正好帮我们解决了这一问题。”

这样的机器能做什么?“任何类型的机器学习都需要训练。”Shafik说道,“本质上,它能够做神经网络可以做的任何事情。”

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2020-07-28
英研究团队研发非神经网络硬件降低人工智能功耗
日前,英国纽卡斯尔大学的研究人员研发出一种非神经网络硬件,可以显著降低人工智能的功率消耗。研发团队训练了一个神经网络,利用Tsetlin机器技术,来从标准MNIST数据集识别手写数字。

长按扫码 阅读全文