第11章 开辟新战场

    第11章 开辟新战场 (第2/3页)

玩也深谙地球上人工智能发展的另一个重要契机——在深度学习和卷积神经网络发展起来之前,这条技术路线的认可度并不高,因为这条技术路线哪怕试水到04年,初步原理略微跑通了,学界也依然发现有问题:这个算法的缺点,是训练效率太低。

    也就是说消耗的算力极大,而机器学习的进步速度其实很慢,还无法进行白盒逻辑解释,也就无法通过人工干预/

    “教导”来让机器的学习速度加快。当时还有另外两三条技术路线,那些路线的优缺点正好与深度学习相反。

    那些训练方法白盒化程度更高,也就是机器学习的决策过程的可解释性,人类更能理解,也就更容易干预,便于人类

    “手把手教机器快速进步”。而这些算法的缺点,就是

    “学习进化的上限比较低”(这里是笼统概括,实际科学原理比这个复杂得多。

    但是写给外行人看,只能这样不太准确地类比一下了。)换句话说,要是人类继续被摩尔定律束缚、靠电脑CPU运算速度的技术提升,来满足训练算力的话,那么那些白盒度更高、更容易用少量算力就初步训练出成绩的人工智能学习路径,说不定就能在历史选择中胜出

    “深度学习/卷积神经网络”这条技术路线了。但是,地球上偏偏在你2007~2009年,诞生了分布式架构算力设计。

    这玩意儿,最初是出现在很多硅谷IT公司,那些程序员嫌弃代码写好后、编译速度太慢,甚至觉得光靠专门的编译服务器都不够用,所以天马行空地创新出一个

    “分布式编译架构”,让一家公司里所有同一局域网内的电脑,都可以加入这个架构,然后把编译任务拆分分配给所有电脑,让所有CPU共同分包编译。

    分布式编译是从07年出现的,一两年之内,这玩意儿就成长成了

    “云计算”。有了云计算之后,应用就很广泛,而云计算对人工智能训练的最大影响,就是某个智能在执行机器学习的时候,不用再受限于这个机器人本身那颗CPU的算力了——机器人自己的CPU不够快,可以接入云,用云上的几千几万台机器的CPU帮你一起算。

    这时候,摩尔定律就不重要了。只要算力任务能高效拆分,单颗CPU弱一点就弱一点了,咱可以芯海战术堆数量嘛。

    如此一来,其他那些

    “算力效率更高、白盒可解释性更强、但训练上限和自动化程度更低的算法”,一下子就争不过深度学习了。

    因为深度学习原先最大的瓶颈,就是黑盒,算力效率低下。但云计算的出现,让算力瞬间没那么值钱了,可以大水漫灌狂训你。

    ……这些道理,顾玩心知肚明,不过他没法全部告诉麻依依。他只能鼓励麻依依,让她往这个领域布局,夫妻俩暂时把外围科技先凑起来。

    幸好,时间上也不是非常紧急。地球上杰夫辛顿让学界接受深度学习,就花了两年。

    至于后来从学界承认到产业界承认,又花

    (本章未完,请点击下一页继续阅读)