AlphaGo彻底战胜人类意味着什么?

AlphaGo彻底战胜人类意味着什么?
低voc“你必须明白,这些人中的大部分还没有准备好去拔掉他们身上的控制物。他们中的很多人都如此习惯于、并且无望地依赖于这个控制系统,甚至会反过来维护它!”
—《黑客帝国》
阿尔法狗与人类顶尖棋手的人机大战注定成为人工智能的里程碑事件,当AI变得越来越复杂,越来越聪明,以至于在多个领域全面超越人类的时候,那时的AI会是提高人类生产力和生活质量的好助手?抑或是彻底控制奴役人类的天网?现在还难以下结论,但可以肯定的是接下来数十年里AI对人类生活造成的冲击将是巨大的,本文就来说说阿尔法狗彻底战胜人类到底意味着什么。
1.“猫”和“狗”的野蛮生长
动态秤2012年,GoogleX的“猫”AI面世,纽约时报曾以《需要多少计算机才能正确的识别猫?16000台》为标题报道吴恩达领导的GoogleX实验室是如何训练机器认识猫的,最为特别的是,谷歌的猫AI不需要任何外界信息的帮助,它就能从数千万张图片中出那些有猫的图片。
传统的人脸识别是由程序员预先将整套系统编程实现,告诉计算机人脸应该是怎样的,电脑才能对包含同类信息的图片作出识别,而谷歌AI却是自己发现了‘猫’的概念,之前没有人告诉过它‘猫’是什么,也没有人类告诉它猫应该长成什么模样。
2009年,斯坦福大学华人教授李飞飞创立了全球最大的图像识别数据库-ImageNet,收集了大量带有标注信息的图片数据供计算机视觉模型进行训练,拥有1500万张标注过的高清图片,总共22000类。2012年,Hinton的学生Alex依靠8层深的卷积神经网络一举获得了基于ImageNet的ILSVRC比赛冠军,瞬间点燃了卷积神经网络研究的热潮。
后来每年一度基于ImageNet数据库的深度网络对象识别比赛牵动着各大公司的心弦,2014年,Google深度网络在ImageNet ILSVRC的比赛中取得第一名,识别错误率为6.67%,2015年,微软研究院的Kaiming-He等4名华人提出的152层深度残差网络获得冠军,识别错误率仅为3.57%,超越人类的识别能力。2016年,李飞飞团队在教会了计算机去识别图像的基础上,让计算机像一幼儿一样学会看图说话,并会用“句子”进行交流,例如不止是说某张图里有只“猫”,还可以说“这只猫是坐在床上的”。
2016年,英国伦敦的DeepMind(2014年被谷歌收购)五年磨一剑,“狗”(AlphaGo)AI横
空出世,与李世石人机大战4:1获胜。DeepMind的创始人杰米斯.哈萨比斯(Demis Hassabis)志向远大,其远景目标直指通用人工智能。虽然围棋艺术很主观,但AlphaGo却把围棋下得很客观,阿尔法狗设计了在每一步都会分析有什么影响,用哈萨比斯的话讲,AlphaGo已经可以模仿人的直觉,而且具备创造力,通过组合已有知识或独特想法的能力,不过这些能力目前仅仅局限于围棋。
李开复关于阿尔法狗的评价很高:“AlphaGo是一套设计精密的卓越工程,达到了历史性的业界里程碑,这套工程不但有世界顶级的机器学习技术,也有非常高效的代码,并且充分发挥了谷歌在全球最宏伟的计算资源”。当然也有IBM的工程师匿名评价了他家的“沃森”(Watson)和“狗” (AlphaGo)的智力,声称沃森和AlphaGo的智力对比,基本上是狗和人的对比,Watson虽是人名,但是在阿法狗的智商面前,他才是真的狗。
由此看来,大家应该知道阿尔法狗的技术有多牛了。从某种程度上讲,狗用的不是谷歌工程师写的一般意义上的算法,而是用的一套类人的学习框架(强化学习+深度学习),反复学习棋谱,自己和自己对战,类似于人类的学习方式,强化学习让狗拥有了初步的自我学习和博弈思考能力。
当今世界,不少领域有着巨量信息和超级复杂的系统,例如电信、医疗、金融、天文、气候和经济领域,即使是领域内的专家也无法应对海量数据和系统的复杂性。同时,数以亿计的移动传感器、智能手机和互联网、无联网、企业系统还在源源不断地喂养数字地球,全球互联网和企业系统海量数据的爆炸式增长,给基于深度学习的人工智能插上了腾飞的翅膀。
我在前文《深度学习的深度价值是什么》曾提过,深度学习的核心技术是几十年前就提出的人工神经网络,如果将人工神经网络比为火箭发动机一代,那么深度学习就是火箭发动机二代,升级了训练方式(Hinton大神首创),加装了高性能计算配置(做游戏显卡起家的Nvidia居功至伟),最关键的是有了互联网和企业级巨头们的海量大数据燃料。为什么神经网络换马甲为深度学习之后,能获得突破性进展(图像、语音、翻译等多个领域接近或完败人类),上述三个方面的天时地利人和发挥了关键作用。
tuner接口另外我们都知道,伟大的东西往往很简单,好比爱因斯坦的EMC方程,深度学习也是一种朴素、简单、优美而有效的方法:像小孩搭积木一样简单地构建网络结构;性能不够,加层来凑的朴素思想,这种标准化、易用性的处理架构,极大降低了机器学习的难度,当然
最关键还是效果,就某些应用领域而言,深度学习在大数据环境下的学习能力完败传统方法。  而阿尔法狗(AlphaGo)彻底战胜人类顶尖高手,就是深度学习技术应用的极致体现。大数据时代,AI生逢其时,就像哈勃望远镜一样,可以推进人类文明的进步,从癌症、发现引力波、金融交易、安全防控到气候模拟等。可以预见的是,随着深度学习技术和这一波“猫”“狗”AI工程的野蛮生长,人类正在大踏步迈入人工智能时代。
遥控干扰器2.阿尔法狗vs.人工智能计划
2016年第一次人机大战开始之前,笔者当时做了一个简要的论述:“在我看来,本次人机大战,机器智能战胜高智商人类的可能性极大!在不远的将来,人类有限的感知计算在拥有超级强大计算资源并结合智能算法的机器面前将不堪一击。同时,这次人机大战也是对大数据深度学习技术的一次实战检验。为什么这样讲,虽说博弈搜索技术已在国际象棋的对弈中取得了巨大的成功,但却难以适用于围棋,因为围棋棋盘横竖各有19条线,共有361个落子点,双方交替落子,这意味着围棋总共可能有10^171(1后面有171个零)种可能性。
这个数字到底有多大,我们宇宙中的原子总数是10^80(1后面80个零,这个估算数据来源于网络,无法确认)。就是说穷尽整个宇宙的原子数也不能存下围棋的所有可能性。另外,
从搜索树的分枝数看,国际象棋约为35,如果只构造分析7步棋的博弈搜索树,则只需甄别35^7≈650*10^8种变化,这对每秒计算2亿步棋的“深蓝”计算机而言,想一步棋约需5分钟。而围棋的分枝数约为200,若也分析7步棋的变化,则要计算200^7个结果,想一步棋则需2年时间。”下面是国际象棋和围棋的计算复杂度比较示意图。
琴谱架从上面两种博弈的计算复杂度比较图可以看出,围棋变化的复杂度要比国际象棋高得多,对围棋进行全局博弈的穷举式搜索,就传统的计算机处理技术来讲显然是不可能实现的。所以说围棋的挑战被称为人工智能领域的“计划”,宇宙原子数都不能穷尽的可能性,机器不可能穷举哪怕少部分比例的围棋走法,机器要下赢围棋没有什么套路可言,唯一的办法就是学会“学习”,自我学习,而不能靠死记硬背。那阿尔法狗为什么会在短短几年时间内就能进行学习,并超越人类顶尖棋手的智慧呢?下文就要来说说狗的核心技术-深度学习和强化学习。
3.阿尔法狗的类脑学习方法
一般来讲,机器学习分为监督学习(需要老师教)、无监督学习(不需要老师教)和半监督学习(自我学习和老师指导结合),而AlphaGo用到的强化学习技术就有点类似半监督
学习。在笔者看来,阿尔法狗基于深度学习+强化学习+蒙特卡洛树决策的组合式学习方法(或者说学习框架)可能已经站在了人类大脑学习的门口,为什么这样讲,我们来看看阿尔法狗的系统架构。AlphaGo不是一个预编程的围棋程序,而是采用了与人类学习类似的机制,用到的核心技术如下图(分析得十分详细,感谢微软亚洲研究院郑宇和张钧波两位作者)。
人类下棋的思维方式,一般是根据输入的局面,进行候选招法和形势判断,综合比较以后给出最终落子策略。AlphaGo的学习方法与此非常相似,从上面架构图分析可以看出,阿尔法狗的学习分为三个阶段进行:
(1)基础学习阶段-通过对棋谱的深度学习完成策略网络的构建,直接使用人类高手的落子弈法(也就是棋谱),采用深度学习技术训练一种有监督学习型走棋策略网络。这个策略网络能对走子时的弈法快速采样,用来预测一个局面数据集中人类棋手的落子情况。AlphaGo的策略网络,就对应了人类“选点”决策过程,选点决策要基于我们历史的学习情况,老师的指导情况,来决定其掌握的基础博弈水平。这个过程在于快速的学习历史棋盘,获取较优的下棋选择,类似于我们的观察学习获得的第一反应,准确度不高所以我称之为基础学习。
超薄继电器

本文发布于:2024-09-22 16:37:28,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/4/220486.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:学习   人类   深度   围棋
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议