深度学习
- 众所周知,深度学习起源于神经网络,而在感知机时代,机器学习就已盛行。
- 不提所谓的三起三落,回顾历史,机器学习方法已经应用了几十年。
- 在深度学习之前,机器学习方法具有很大的局限性,它无法解决较复杂的模型,在一些典型的图像处理和自然语言识别应用中都表现不佳。
最近听到最多的观点
- “深度学习在性能上的卓越表现依赖于海量数据与计算能力,而人脑只用到了小数据与不大的计算能力就解决了复杂的计算模型,说明深度学习的算法刚刚起步,还有待提升。”
- 乍一看是不是很有道理?
前面和后面都对了,中间的话毫无道理
- 首先必须承认,深度学习对数据的依赖是极大的;同时,大牛们都认为现有的算法需要革新。
- 但是人脑的判断只用了少量数据和少量计算力吗?
人脑用到了极其大量的数据
- 这个数据量是远超深度学习的!
- 以图像识别为例,人出生后,为了训练好认知的模型,接受了海量数据。人眼的分辨率在5亿像素左右(是不是远超我们使用的图像?),刷新频率在75帧以上,从出生到现在,我们接受到了多少图像?
- 是不是很可怕的数据量?
人脑的算力
- 这部分其实没有太多可以争辩的。
- 从生物学来说(底层),人脑神经元刺激信号的信息传递,类比于计算机晶体管的化,是要强很多的。
- 仅看人眼中用于处理图像的细胞,它们采用的“模糊处理算法”这个算力就极其可观了,更不用说脑部神经中枢的”CPU“计算能力。
- 直观上感觉不如计算机,只是因为人脑更倾向于高层的计算调度,就像使用了一个高级的API。如果要强行做底层的运算,速度很难被开发出来,而使用这个API已经封装好的模型,则算力全开。