2018年谷歌I/O大会上,CEO Sundar Pichai展示了一项技术,用Google Assistant在没有人类干涉情况下进行预约服务。
当听到对方回复“让我查询一下时间”时,Google Assistant回复了声“嗯哼”,技惊四座。一般情况下,人们对于这部分的回应可能会认为是“好的”之类,能在当下出现这种极其接近人类的情感化回复,已经是很让人惊讶的表现了。
但事实似乎并非如此。近日美国媒体的报道指出,现实生活中谷歌智能助手绝大部分仍是由谷歌呼叫中心的员工代为处理。为此,谷歌官方回应是,为了保障餐厅在接受订餐时的体验,并未强力去人工化。
一石惊起千层浪。似乎这家全球领先的AI技术公司遭遇了一场信任危机,而关于背后的AI技术发展,也在AlphaGo后并未再有让人惊喜甚至“惊惧”的表现。
近日,清华大学人工智能研究院院长张钹接受媒体采访也指出,AI奇迹短期难再现,深度学习潜力已近天花板。
深度学习的瓶颈
从技术角度来看,近些年人工智能实现飞跃突破的背后,是由一个叫做“深度学习”技术的加速突破带来的。
但其实早在2006年,“深度学习”这一概念便被Geoff Hinton发表论文时正式提出。他也因此被称为“深度学习之父”、“神经网络先驱”,并获得2019年的“图灵奖”。
为什么到了近两年,深度学习才终于在AI世界“有了姓名”,Hinton为什么到今年才为此获奖?这与深度学习本质上存在一定瓶颈有关。
Hinton教授发表论文后的2006年到2012年间,限于整体计算机算力和数据基数问题,深度学习并没有条件发挥它的真实效力。在2012年,Hinton教授和他的两个学生在ImageNet比赛上,使用深度学习技术将识别错误率从26.2%猛然降低到15.3%,这才使深度学习被广为关注起来。
到了2016年,谷歌推出的AlphaGo系统陆续击败人类围棋世界冠军,甚至引发过关于“机器将取代人类”的论调(当然答案是否定的)。这背后都有赖于“深度学习”技术的推动。
以至于到今天,“深度学习”一度成为可以跟“人工智能”并肩的词汇而普世。
“深度学习”技术逐渐成熟的背后,是与深度神经网络层数的演进有关。从20世纪80年代开始,神经网络经历过单层神经网络、多层神经网络和深度神经网络三次发展阶段,演进带来的是,能够容纳的数据量有了巨大扩容。
当然问题也就随之而来,这意味着深度学习的发展,有赖于对有效数据的积累和学习,而有效数据则有赖于人类介入进行大量的数据标注。
在5月25日举行的2019未来论坛·深圳技术峰会上,美团搜索与NLP部负责人王仲远就指出,深度学习其中一个本质,是需要大量的标注数据来寻找事物之间的静态映射关系。
显然目前不太适合深度学习的问题也很多,比如一些创造性活动中,数学家、物理学家的工作就无法被人工智能简单取代;再比如一些无法提供大量标注数据的领域、一些结果需要可解释的领域。这些都成为深度学习技术目前应用的一个瓶颈。
深醒科技创始人、首席科学家袁培江此前也向21世纪经济报道表示,AI技术的发展在不断迭代。理论上机器学习掌握了所有存储在其中的数据,就可以达到100%准确度。围棋博弈的棋盘变化情况达到10的172次方,但还可以继续优化,这是漫长的过程。
他认为,依靠粗暴的数据驱动会有阈限,当前深度学习的方法很快会遇到天花板。业界正在谋求算法数据可解释性、模型合理性的进一步探索。“准确率从90%到99.99%会发展很快,但到小数点精确到更后面时,技术瓶颈会越来越明显。那么与应用落地结合,尤其和其他数据结合是必然。”
如何突破瓶颈?
深度学习的发展其实远远没有达到能够“惊人”的地步。也因此,伴随着“AI代人”说法而生的,还有“弱人工智能”这个对当下阶段的定义。
这背后涉及的,其实是关于深度学习的“黑盒子”问题。由于人脑的运作存在诸多包括感情、记忆、常识等主观因素共同影响,这并不是现阶段机器可以全部学习到的内容。而学界关于人脑运作机制问题尚未有进一步的进展。
目前专家们同样还不能解释AI算法背后的运算机制如何解释。一个表现是,当需要辨别上图中哪个动物是“kiki”,哪个是“bouba”时,人类多数会认为前者是kiki。按照心理学家的解释,这是因为“kiki”发音显得更加尖锐,这与前者图片相符。但实际上,这两者并不存在于世上。但对于机器而言,这恐怕难以得出答案了。
因此关于深度学习,业界开始出现两种探索思路。一种是换一种技术架构,另一种是针对深度学习目前的瓶颈,研发新的改善方向,
中国自动化学会副理事长陈俊龙研究“宽度学习”架构。他曾向21世纪经济报道介绍,宽度学习和深度学习网络架构,本质上是结构和算法的差别。深度神经网络学习架构,是在结构固定以后才开始学习。那么此后学习期间如果出现不准确,就要重新设计网络、再学习一次。宽度则是设计好网络后,当面临学习不准确的情况,可以随时以横向的方式进行增量扩充,即通过增加神经元,以提高准确度。
“所以宽度学习是增量学习的做法,时时可以增量学习。”陈俊龙表示,以往深度神经网络由于数据量过大、建设程序复杂,需要将数据上传到云端运算,但宽度学习的横向扩充模式,就可以直接用于“端”(边缘)侧,这也成为宽度学习架构最大的优点。
据介绍,宽度学习系统的网络架构,按照目前的测试,其应用时耗费的神经元和所需速度是深度学习的“至少一半”。
在2019未来论坛现场,上海交通大学教授张娅介绍了她的研究方向。由于深度学习需要标注大量数据集,她的出发点在于,希望标注更少数据进行计算,减少单位标注数据的成本,以及减少采集数据的噪声,针对这三点进行研发。
“AI是一个大潮流,但每一个AI产品的落地都需要重新采集数据集,需要从零开始训练模型,这其实对AI的落地应用有很大限制。我们希望通过这种资源受限的机器学习研究,得以使这方面得到一定突破,当然其实现在从学术角度的研究,我们还有更多方向在做,比如自监督学习等等,我认为这些都是未来AI能够真正从一个行业或者说领域人工智能走向真正通用人工智能的必经之路。”张娅这样总结道。
能怎么应用?
智能语音助手的开发者,并不完全让助手“放飞自我”当助理。不论是否真的出于对餐厅尊重,还是对机主尊重才介入人类帮助,无疑都显示出当前AI技术应用能力还相对弱。
但也并不意味着,目前的AI应用就是一种空谈。实际上人工智能已在一些领域悄然发挥作用。
一位AI从业者就向21Tech表示,代人预约(如带点外卖等)就是他认定的一种应用方向,为此他在不断努力。更有手机业人士推测,未来内置在手机中的智能语音助手,会根据手机主人平常的生活行为,提前自主通过手机软件,在没有机主操作情况下,进行代点外卖行为。
前述论坛上,王仲远介绍道,其所在团队开发出的美团大脑,就是通过不断优化其中模型的精细度,更好对平台中的商家进行精确定义,从而让用户有更合适的选择。“除了搜索以外,实际上美团大脑还有非常多的应用场景,比如说商户的运营、金融的反欺诈、旅游的规划以及未来开发中的智能助理。”
更远大的在于医学和金融层面。普林斯顿大学运筹金融系终身教授王梦迪研究的主题是强化学习。本质上这属于深度学习和增强学习反馈,是基于非同步大规模并行计算的快速算法。其需要实时数据收集,并进行在线大规模实验。
她所在团队的这些研究也有了突破性应用进展。据她在论坛上介绍,美国每年会发生70万例膝关节置换手术,其康复时长在100多天,整个成本达到16500-33000美元。
这类手术本身极其复杂,根据个体特异性,往往伴随适应症、并发症等情形。因此这会是一个动态决策的过程,大概每个疗程需要有30-60个决策。
问题的关键在于,膝关节置换手术成本过高,而政府、医院和医生之间还存在复杂的博弈,因此整个流程存在很多可以优化的地方。
王梦迪所在团队提出的思路是,将膝关节置换疗程分解成大规模状态转移模型进行策略求解。基于诊断和医疗保险记录,总结归纳,策略模仿,并且强化优化策略,计算出最优治疗计划。根据预计,疗程费用平均下降6%,溢出费用下降33%。
“我一个朋友跟我说,‘这个手术之后,我又可以去滑雪了’!”在结尾处,她这样说到,团队希望通过强化学习将疗程费用平均降低1100美元,降低长尾风险33%。“我们希望帮助医生和医院,更好优化医疗流程,更好优化效率;帮助患者更好地康复。”
题图来源:pangpang
原标题:人工智能瓶颈?现实中的惊喜与祛魅