八零电子书

首页 书库 全本 排行 记录
第11章 开辟新战场 (2/3)

点击一下,解锁更多精彩小说

度学习相反。

那些训练方法白盒化程度更高,也就是机器学习的决策过程的可解释性,人类更能理解,也就更容易干预,便于人类

“手把手教机器快速进步”。而这些算法的缺点,就是

“学习进化的上限比较低”(这里是笼统概括,实际科学原理比这个复杂得多。

但是写给外行人看,只能这样不太准确地类比一下了。)换句话说,要是人类继续被摩尔定律束缚、靠电脑CPU运算速度的技术提升,来满足训练算力的话,那么那些白盒度更高、更容易用少量算力就初步训练出成绩的人工智能学习路径,说不定就能在历史选择中胜出

“深度学习/卷积神经网络”这条技术路线了。但是,地球上偏偏在你2007~2009年,诞生了分布式架构算力设计。

这玩意儿,最初是出现在很多硅谷IT公司,那些程序员嫌弃代码写好后、编译速度太慢,甚至觉得光靠专门的编译服务器都不够用,所以天马行空地创新出一个

“分布式编译架构”,让一家公司里所有同一局域网内的电脑,都可以加入这个架构,然后把编译任务拆分分配给所有电脑,让所有CPU共同分包编译。

分布式编译是从07年出现的,一两年之内,这玩意儿就成长成了

“云计算”。有了云计算之后,应用就很广泛,而云计算对人工智能训练的最大影响,就是某个智能在执行机器学习的时候,不用再受限于这个机器人本身那颗CPU的算力了——机器人自己的CPU不够快,可以接入云,用云上的几千几万台机器的CPU帮你一起算。

这时候,摩尔定律就不重要了。只要算力任务能高效拆分,单颗CPU弱一点就弱一点了,咱可以芯海战术堆数量嘛。

如此一来,其他那些

“算力效率更高、白盒可解释性更强、但训练上限和自动化程度更低的算法”,一下子就争不过深度学习了。

因为深度学习原先最大的瓶颈,就是黑盒,算力效率低下。但云计算的出现,让算力瞬间没那么值钱了,可以大水漫灌狂训你。

……这些道理,顾玩心知肚明,不过他没法全部告诉麻依依。他只能鼓励麻依依,让她往这个领域布局,夫妻俩暂时把外围科技先凑起来。

幸好,时间上也不是非常紧急。地球上杰夫辛顿让学界接受深度学习,就花了两年。

至于后来从学界承认到产业界承认,又花了四年——其中三年都是在等云计算的出现。

他的成绩06年在学界就初步被认可了,但09年云计算才正式出现,2010年杰夫辛顿才被谷歌高薪挖走。

后世的人工智能,用一句话概括运作原理,就是

“使用云计算的算力,用深度学习算法处理学习大数据”。算力,算法,大数据。

三要素里,从技术难度来说,最先有的是大数据,这是一种资源,有稀缺性,但却没有技术含量,所以是最早出现的。

算法,或者说深度学习的思路,是第二个出现的(06年)用这种算法处理这些数据的算力,是最后出现的(09年)三要素都齐了之后,第二年地球上谷歌就开始在这条路上狂奔了。

顾玩觉得,就算自己开了挂,也有1年多的时间,先把基础算法方面的架构性论文发完。

具体追求产业界应用的事儿,将来去留学开公司期间再说好了。而且,把算法渊薮阶段的论文,在中国念书的时候就发表,将来也好撇清跟老外的关系——

(本章未完,请点击下一页继续阅读)

(本章完)