网易科技讯10月28日消息,由网易科技和网易智能主办的第七季“网易开物沙龙”今日在杭州浙江大学召开,本次沙龙的主题为“AI将引发生活大爆炸?”。会上,IBM中国研究院资深研究员严骏驰结合了在IBM的工作经历和观察,分享了对人工智能的看法。
严骏驰介绍早在上世纪1997年,IBM的科学家研发的深蓝程序击败了当时的国际象棋冠军。严骏驰表示因为边界条件比较封闭,规则能够清晰定义,信息较为对称的理想条件,棋类游戏一直是人工智能技术非常重要的试金石。
严骏驰认为人工智能已经征服了棋类。同时他亦解释到深蓝国际象棋程序基于专家理解,设定函数,程序相对封闭,棋艺并不会长进;而现在很多围棋程序则基于机器学习,通过大量的棋盘的数据训练网络,具有自我学习、自我演化的能力,甚至还能模仿棋手的风格。
此外,严骏驰也提到IBM研发的软硬件高度集成优化的DeepQA系统。严骏驰表示,现实生活中强AI需要解决的问题很多是面向开放环境,比如在进行人机问答的时候,机器往往需要去挖掘人的主观意图。
目前,大数据以及强计算力对以神经网络、深度学习为代表的人工智能技术起着基础性作用。严骏驰认为即便神经网络式微了,依然有很大的可能性开发出更好的机器学习模型和人工智能的软件,在大数据和强计算力的支持下保证人工智能的研究和应用一直兴旺下去。第三次面临AI冬天的可能性会大幅降低。(五比一)
以下为演讲原文:
严骏驰:各位来宾大家好,非常荣幸由浙江大学和网易科技提供这么好的机会,今天下午和大家在这里通过自己在IBM多年工作的观察和体会分享一些自己对AI技术的理解。
我想从下棋,还有刚才的两位嘉宾都提到的谷歌的AlphaGO围棋比赛开始我今天的探讨。所以我的PPT也是从下棋这个事情开始讲起。第一页咱们看到左边是我们上世纪1997年IBM的科学家研发的深蓝击败了当时的国际象棋冠军,另一边是AlphaGO的团队在自然杂志发表的论文的封面。在这里我想表达的一个观点是对于像人工智能这样的技术,棋类游戏的研发一直是人工智能非常重要的试金石,主要它具有边界条件封闭,规则都是定义清晰的特点。然后它的棋牌上的信息都是明确确定的,比赛双方的信息都是完全对称的。所以这就是为什么说很多人工智能研究的学者都会把棋类作为他们试金平台。
讲到棋类IBM作为一家有百年历史的企业,在上世纪50年代其实就是人工智能这个概念被提出的第一年,就开发了一个与人类选手进行对弈的西洋跳棋的程序, 90年代IBM人员进一步开发了一个达到世界冠军水准的西洋陆战棋的程序,直至1997年众所周知IBM研发的深蓝技术打败了当时的国际象棋冠军,取得了人工智能史上的一个里程碑。
事实上,围棋一直被认为是棋类的皇冠。机器获得了围棋比赛的胜利,说明棋类已经被人工智能技术完全征服了,或者说棋类已经不是一个人工智能技术,已经没有那么高大上了。
为什么说围棋会那么困难?因为围棋它的棋盘格非常大,总子的棋数非常多,具体来讲,它有一个分支因子的概念。一步围棋往往有250个可选择的比较好的下一步走法,对比国际象棋是几十,所以一下子有一个数量级的差别,导致围棋一直以来是非常难以解决的问题。刚才吴飞教授提到直觉的概念,围棋是一个非常好的例子,很多专业选手都会有一个棋感或者大局观的概念,但是传统的围棋程序很难用一些精巧的专家规则、知识库进行对大局观进行很好的目标函数的设计。这个时候值得注意的事件是说在2012年的时候,Hinton教授为代表的团队发表一篇论文,将深度学习非常成功的用到图片的分类里头,像吴院长说到的,最新的围棋人工智能技术在做围棋比赛的时候,也是把棋盘看成图象,用神经网络进行提取,抛开了原有的做深蓝技术采用的一些专家规则和一些知识库的做法。AI技术已经进入寻常百姓家,比如国内的一个围棋网站天弈围棋,可以很容易的跟人工智能的围棋比赛,可以达到比较高级的业余的选手的水准,它也在不断的更新和演进,用的技术是类似的。
我们再从一个更广的角度来看刚才一个深蓝国际象棋和现在围棋的比较。刚才我讲到深蓝的国际象棋的程序是通过非常多的国际象棋专家对棋盘的深刻的理解和抽象,设计出非常好的规则和目标函数来指导程序的执行。但反过来说这个程序往往是封闭的,即使这个程序下了一百一千一万盘棋,棋艺是不会有长进的,因为程序已经事先编好了。但是AlphaGO,或者以沃森为代表的我们叫认知计算的基于机器学习的程序来说,可能它的程序反而是比较精简和逻辑简单的,比如一层层的神经网络,卖点是我需要有大量的棋盘的数据训练网络,这个程序就有自我学习、自我演化的能力,你教的棋局越多能力越强,甚至学习不同人的风格。从历史的角度来看,我们把40年代以前称为制表机的时代,50年代计算机兴起的时候可以叫做一个编程的时代,主要是满足一些传统的计算机应用的业务。当然从这里,IBM觉得从11年自己的沃森DeepQA出来之后我们进入一个认知计算的时代,计算机可以有自我学习、演化、与人交互的能力。从一个完全代码控制变成更趋向数据驱动的技术演进。
谈到刚才的认知的时代不得不提一下IBM的沃森DeepQA技术,当时在美国一个益智游戏Jeopardy!中,当时它获得了当时美国的全美冠军,比起围棋这种条件清晰的场景,现实生活中强AI需要解决的问题很多是在开放的环境下。人机问答更接近这样的场景,因为人提的问题本身是带有歧异性的,像三位吴飞老师到底哪一位是我这个问题真正所指的,可能需要上下文的信息和主持人提示消减它的歧异。还有人本身是比较主观的生物,你要跟人交流的时候,一方面需要挖掘它潜在的意图,另一方面能不能在多轮问答带来更多的趣味性,这些不是像围棋、象棋可以非常容易进行量化的。当然这也是更靠近真正的强AI或者开放环境下AI在技术上的挑战。
这里可以回顾一下沃森DeepQA的开发历程,在2007年开始要做这个事情的时候,拿当时开源或者论文发表的系统来看,它的效果是非常差的,图中左下方是当时基准系统的性能曲线,它的能力是比较弱的,右上方是顶尖选手在人机问答的表现,他能回答很多问题,而且覆盖率非常高。IBM在07年开始直至11年对系统进行了大量的改进和提升,包括软件、硬件、算法方面的集成,大家可以看到这条曲线是不停的增长的,直至10年初已经基本可以和当时的人类顶尖选手一较高下,直至11年它在电视上获得全美冠军。
这里可以看到DeepQA这种人工智能、大数据驱动的系统是软硬件结合非常紧密的。它的一个挑战是功耗比较高。针对这个问题IBM也进行了多年的探索,怎么降低芯片的功耗,降低发热程度。毕竟IBM传统上是一家硬件为主的公司,慢慢转型到一家向软件、大数据、云计算发展的一个新型公司,所以IBM有在系统级硬件和软件方面的积累,这个就帮助它更好地在AI这个大的框架下做一个全局的改进。
举例来说在美国DARPA资助下,IBM研发和高校研制了一款SyNAPSE神经芯片。事实上现在的芯片一般来说可能要一两百瓦的功率,人脑的功率在70瓦左右,这个芯片可以只做到几十毫瓦的低功耗,为无法联网环境中的计算带来了非常重要的硬件的基础的支持。
现有的研发手段还是通过脑启发的方式进行的,并不是建立在大脑人脑非常深刻的物理和机理进行的,从脑启发的计算到内容计算中间的路径还是非常长的,离它真正的商用,如何替代现有的一些计算的体系可能还需要一段的时间。
最后我想从AI的历史,总结一下个人的一些看法。大家知道从56年,我们叫AI的元年,60个年头了,中间经历过专家系统和神经网络为代表的人工智能的两次浪潮,最近的深度学习到来很多人认为是第三次人工智能高潮的来临。从某种角度看,深度学习与以神经网络为代表的人工智能方法论是相似的,都是基于连接主义的计算体系。在我看来,更本质的地方是说我们现在拥有了更大的计算资源,当时在80年代是没有的。另外也包括现在的大数据,各行各业产生不同的数据以及全社会的力量在支持这些数据的采集,搜集和处理,而且大家都认同数据的重要性。所以我认为是大数据和计算力的加强导致了人工智能的再一次兴起。恰恰以神经网络、深度学习为代表的技术特别符合刚才说的大数据和大计算力的支持,是一个能够非常好地把这两个优势结合在一起的机器学习技术。从这个角度来说,即使将来神经网络式微了,还是可以开发出更好的机器学习模型和人工智能软件,继续在大数据和强计算力的支持下保证我们的人工智能的研究和应用一直兴旺下去。第三次面临AI冬天的可能性会大大降低。
今天先分享到这里,谢谢大家。