深度学习的未来在单片机身上?

简介:

Pete Warden,是谷歌TensorFlow团队成员,也是TensorFLow Mobile的负责人,常年遨游在深度学习的大海。

975b89985985870e1989b674a32074b48b1d3fce

另外,这些看上去很熟悉的书,也是他的作品。

除此之外,皮特有个新的想法要和大家分享——

他坚定地相信,未来的深度学习能够在微型的、低功耗的芯片上自由地奔跑。

换句话说,单片机 (MCU) ,有一天会成为深度学习最肥沃的土壤。

这里面的逻辑走得有些绕,但好像还是有点道理的。

为什么是单片机

单片机遍地都是

根据皮特的估计,今年一年全球会有大约400亿枚单片机 (MCU) 售出。

b78257fefc30d8009a56d38158db4f5b8b019028

MCU里面有个小CPU,RAM只有几kb的那种,但医疗设备、汽车设备、工业设备,还有消费级电子产品里,都用得到。

这样的计算机,需要的电量很小,价格也很便宜,大概不到50美分。

之所以得不到重视,是因为一般情况下,MCU都是用来取代 (如洗衣机里、遥控器里的) 那些老式的机电系统——控制机器用的逻辑没有发生什么变化。

能耗才是限制因素

任何需要主电源 (Mains Electricity) 的设备,都有很大的局限性。毕竟,不管到哪都要找地方插电,就算是手机和PC都得经常充电才行。

c93ba7852ceca9f9c5467e18796fbbc5d6b4e3d9

然而,对智能产品来说,在任何地方都能用、又不用经常维护,才是王道。

所以,先来看下智能手机的各个部位用电有多快——

· 显示器400毫瓦
· 无线电800毫瓦
· 蓝牙100毫瓦
· 加速度计21毫瓦
· 陀螺仪130毫瓦
· GPS 176毫瓦

相比之下,MCU只需要1毫瓦,或者比这更少。可是,一枚纽扣电池拥有2,000焦耳的电量,所以即便是1毫瓦的设备,也只能维持1个月。

当然,现在的设备大多用占空比 (Duty Cycling) ,来避免每个部件一直处在工作状态。不过,即便是这样,电量分配还是很紧张。

CPU和传感器不太耗电

CPU和传感器的功耗,基本可以降到微瓦级,比如高通的Glance视觉芯片。

相比之下,显示器和无线电,就尤其耗电了。即便是WiFi和蓝牙也至少要几十毫瓦。

269d76685c4c581133841ae49f6e5c59aa0ea2f3

因为,数据传输需要的能量,似乎与传输距离成正比。CPU和传感器只传几毫米,而无线电的传送距离以米为单位,就要贵得多。

传感器的数据都去哪了

传感器能获取的数据,比人们能用到的数据,多得多。

皮特曾经和从事微型卫星拍摄的攻城狮聊过。

他们基本上用手机相机来拍高清视频。但问题是,卫星的数据存储量很小,传输带宽也很有限,从地球上每小时只能下载到一点点数据。

就算不涉及到地外事务,地球上的很多传感器也会遇到这样的尴尬。

269d76685c4c581133841ae49f6e5c59aa0ea2f3

一个很有趣的栗子,来自皮特的一个好基友,每到12月,他家上网流量就会用到爆炸。后来,他发现是那些给圣诞节挂的彩灯,影响了视频下载的压缩比例,多下载了很多帧。

跟深度学习有什么关系

如果上面这些听上去有点道理,那么就有一大片市场等待技术来挖掘。

我们需要的是,能够在单片机上运转的,不需要很多电量的,依赖计算不依赖无线电,并且可以把那些本来要浪费掉的传感器数据利用起来的,设备。

这也是机器学习,特别是深度学习,需要跨越的鸿沟。

天作之合

深度学习就是上面所说的,计算密集型,可以在现有的MCU上运行得很舒服。

这很重要,因为很多其他的应用,都受到了“能在多短的时间里获得大量的储存空间”这样的限制。

b2b608fda2019c71385efa218570a40ebe58ecbe

相比之下,神经网络大部分的时间,都是用来把那些很大很大的矩阵乘到一起,翻来覆去用相同的数字,只是组合方式不同了。

这样的运算,当然比从DRAM里读取大量的数值,要低碳得多。

需要的数据没那么多的话,就可以用SRAM这样低功耗的设备来存储。

如此说来,深度学习最适合MCU了,尤其是在8位元计算可以代替浮点运算的时候。

深度学习很低碳

皮特花了很多时间,来考虑每次运算需要多少皮焦耳

比如,MobileNetV2的图像分类网络,的最简单的结构,大约要用2,200万次运算。

如果,每次运算要5皮焦,每秒钟一帧的话,这个网络的功率就是110微瓦,用纽扣电池也能坚持近一年。

对传感器也友好

最近几年,人们用神经网络来处理噪音信号,比如图像、音频、加速度计的数据等等。

43fdbf01decb6a5252a9edb74cbfb5cf59fa44db

如果可以在MCU上运行神经网络,那么更大量的传感器数据就可以得到处理,而不是浪费。

那时,不管是语音交互,还是图像识别功能,都会变得更加轻便。

虽然,这还只是个理想。

最后一句

果然,TensorFlow Mobile的老大,满脑子还是便携设备的事。


原文发布时间为:2018-06-13

本文来自云栖社区合作伙伴“半导体行业观察”,了解相关信息可以关注“半导体行业观察”。

相关文章
|
2月前
|
机器学习/深度学习 人工智能 编解码
哲学家解析Sora本质,AI视频离世界模拟器还有多远?
【2月更文挑战第24天】哲学家解析Sora本质,AI视频离世界模拟器还有多远?
32 2
哲学家解析Sora本质,AI视频离世界模拟器还有多远?
|
12月前
|
机器学习/深度学习 计算机视觉
深度学习模型模拟大脑地形图,有助于回答大脑不同部分如何协同工作
深度学习模型模拟大脑地形图,有助于回答大脑不同部分如何协同工作
|
12月前
|
机器学习/深度学习 人工智能 编解码
人脑90%都是自监督学习,AI大模型离模拟大脑还有多远?
人脑90%都是自监督学习,AI大模型离模拟大脑还有多远?
165 0
|
机器学习/深度学习 存储 人工智能
MIT新材料打造「人造突触2.0」,模拟深度学习训练提速100万倍!
MIT新材料打造「人造突触2.0」,模拟深度学习训练提速100万倍!
101 0
|
机器学习/深度学习 数据采集 人工智能
基于深度学习设计AI麻将程序
基于深度学习设计AI麻将程序
1330 0
基于深度学习设计AI麻将程序
|
人工智能 监控 算法
游戏人工智能——有限状态机实验
实验四:有限状态机实验 一、实验目的 通过蚂蚁世界实验掌握游戏中追有限状态机算法 二、实验仪器 Win10下的Visualstudio 三、实验原理及过程 //描述有限状态机的算法原理 //描述程序实现时的思路包括对每个函数模块进行详细说明 有限状态机(FSM)是表示有限个状态及在这些状态之间的转移和动作等行为的数学模型,在计算机领域有着广泛的应用。通常FSM包含几个要素:状态的管理、状态的监控、状态的触发、状态触发后引发的动作。有限状态机是由寄存器组和组合逻辑构成的硬件时序电路
269 0
游戏人工智能——有限状态机实验
|
机器学习/深度学习 存储 算法
UIUC陈德铭教授:「万能芯片」FPGA与深度学习
FPGA 与深度学习的关系究竟是什么?它适合加速何种类型的运算?适合应用于何种场景?6 月,机器之心采访了美国伊利诺伊大学香槟分校电气与计算机工程系(UIUC ECE)教授、深度学习算法硬件加速解决方案创业公司 Inspirit IoT 创始人陈德铭,与他聊了聊「万能芯片」FPGA 在深度学习领域的用法。陈教授于近期宣布兼任国内计算机视觉领域创业公司触景无限的首席科学家。
390 0
 UIUC陈德铭教授:「万能芯片」FPGA与深度学习
|
机器学习/深度学习 数据采集 存储
神经拟态芯片拉近AI与人脑距离
神经拟态即通过模拟人脑神经元的工作机制,让计算机具备像人一样的自然智能特性。英特尔公布的另一项研究显示,将上述768块神经拟态芯片集成在5台标准服务器大小的机箱中形成的神经拟态系统——Pohoiki Springs,已经相当于拥有了1亿个神经元的大脑,而这相当于一个小型哺乳动物的大脑神经元数量。
|
机器学习/深度学习 TensorFlow 算法框架/工具
计算机图形学遇上深度学习
今日,TensorFlow 宣布推出 TensorFlow Graphics,该工具结合计算机图形系统和计算机视觉系统,可利用大量无标注数据,解决复杂 3D 视觉任务的数据标注难题,助力自监督训练。
2653 0
|
机器学习/深度学习 人工智能 自动驾驶
吴恩达:模拟人脑,未来AI执行精神层面任务有望快过人类!
AI在未来如何实现真正的“智能”?这个问题似乎遭遇瓶颈。目前深度学习对人类大脑的模拟仍然处于初级阶段,是否应该沿这条路继续走下去?吴恩达认为,通过深度学习模拟大脑,未来的AI能够比人类更快地完成精神层面的任务。也有研究人员认为,应从大自然中寻找灵感,让AI建立关于世界的“心理模型”。
1267 0