首页 » 人类2.0:在硅谷探索科技未来 » 人类2.0:在硅谷探索科技未来全文在线阅读

《人类2.0:在硅谷探索科技未来》硅谷声音

关灯直达底部

斯图尔特·罗素:未来20年,将人类的价值体系教给机器人

英裔美籍计算机科学家斯图尔特·罗素(Stuart Russell)是加州大学伯克利分校人工智能系统中心创始人兼计算机科学专业教授,同时他还是人工智能领域“标准教科书”——《人工智能:一种现代的方法》(英文书名为Artifical Intelligence A Mooern Approach,清华大学出版社,2013年11月出版)的作者,被誉为“世界顶级AI专家”。

我们在加州大学伯克利分校他的办公室见到了他,罗素认为,机器人未来发展的关键是,人类要将是与非、好与坏的常识和价值判断标准教给机器人。比如现在大家都对能做家务的服务型机器人青睐有加,但是,如果要真正保障安全性,这个机器人就需要具备很多常识。比如,它要知道主人的猫是不能用来做晚饭的。

确保人和机器拥有共同的目标

由于不了解,机器人会取代人类,甚至杀死人类的声音不绝于耳,公众对人工智能有太多误解。人们总是不自觉地把人工智能和杀人联系在一起,事实上,这个领域可没有人研究杀人机器人。还有一个原因是,媒体没有向大众解释人工智能到底是什么,媒体只是一天到晚在说人工智能总有一天会失控,或者人工智能会有自我意识……这些都是不可能的。

AlphaGo大胜人类引发了对人工智能的又一轮恐慌。相反,我对AlphaGo很失望。AlphaGo实验的初衷是想知道人工智能能否像人类下围棋一样思考,即给你一个复杂的难题,你需要解决不同区域的小问题,最后综合起来解决大问题。然而,实际操作上,谷歌的AlphaGo用的方法还是传统的机器战胜象棋高手的方法(IBM的深蓝早已在1997年做到),即学习尽可能多的“每下一子后最理想的下一子是什么”(靠用大数据学习已有围棋棋局),这种方法叫蒙特卡洛树搜索(Monte Carlo Tree Search)法,我们姑且把这个方法叫“种树”。即便如此,机器也只“种了部分的树”,远远没有学习完围棋棋局所有的可能性,当然,靠“种足够长的部分枝干”赢过人类已经足够了,但这种方法无疑是有缺陷的,甚至是错误的。从本质上来说,由于根本没有也无法证明人工智能可以像人类那样下围棋,这个实验其实是失败的。

这个问题其实早在1960年就被提出来了,人工智能的危险到现在也没有发生。人工智能会带来危险的一个很重要的原因是,人类其实很不擅长表达自己想要什么,人们经常会误解自己的愿望或者不知道如何正确表达。在和机器人交流时,人类的措辞必须全面而准确。比如,当你对一个人说:“你能找到消灭癌症的方法吗?”对方能够理解这意味着什么,但是当我们告诉机器人时,就需要清楚地申明,我们的目标是:“在保存人类的前提下消灭癌症。”

另外,很多人习惯从今天还不够成熟的人工智能系统来推断未来的人工智能,自然也会得出不成熟的结论。而且,大多数人都不理解未来机器人会拥有的超智能是什么,超智能不同于我们以前见过的任何东西。举例来说,如果以后机器人能够理解人类的语言了,那意味着什么呢?意味着一个机器人在短时间内就能阅读和理解人类写过的任何东西了。一个正常人可能一周只能读一两本书,一生能读的书数量也是有限的,但是这台机器能读完世界上存在的所有书籍,关于物理学、生物学、化学、医学、历史、诗歌、爱情小说等的所有读本,人类所知道的一切它都能理解。

这样一台真正“博学”的超智能机器自然会想出很多你从未想过的东西,以你根本想不到的方式和计划帮你实现目标。但关键就是要让机器人准确理解目标到底是什么,赋予它一个具体化的目标。仅仅说“我是个聪明人,我绝不会为找出治疗癌症的方法而杀死世界上所有人”这样的话是没有用的。

现在有两个问题:第一,我们要花多长时间才能造出这样的超智能机器?第二,我们如何把这些机器控制在安全范围内,确保它们“循规蹈矩”?比尔·盖茨、埃隆·马斯克和我都认为,造出了超智能机器后,解决第二个问题就很关键,就要确保我们给机器人的目标高度符合人类的目标。

关于这一点,机器人首先需要明白,它们可能会得出一些解决问题的方案,但是人类可能会不认同。这种情况下,正确的做法应该是人和机器进行沟通。比如,如果想解决全球变暖问题,机器人需要去探索各种可能性,最终得出一个让人类信服的结论。

当然,为了让机器充分理解人类的目标和人类想要的东西,我们首先需要解决自然语言处理的问题。从技术层面上来说,制造超智能晶体管应该不是什么难事,比起以前来说要容易得多。这是值得投资的领域,也是我现在正在做的事。

我的团队正在研发能让机器学会人类基本价值体系的方法。问题是,很多常识类的东西人类是不会说出来的,比如,没有人会每天走来走去告诉别人我很喜欢自己的左腿,不想失去它。但对机器人来说,这不是什么显而易见的事。我们需要把这些人类不会说出来的事情明白无误地告诉机器人。再比如,现在大家都对能做家务的服务型机器人青睐有加,但是,真正要保障安全性的话,这个机器人就需要具备很多常识,比如,它要知道主人的猫是不能用来做晚饭的。确实,猫肉营养丰富,蛋白质含量很高,价格也不贵,但是相比其营养价值,宠物猫的情感价值更重要。如果机器人不明白这一点,就会煮了宠物猫,而这样的事情只要发生一桩,就会带来整个产业的末日。

如果机器提前学习过类似的案例,知道人类通常是如何选择的,就可以根据人类的行为进行价值评估,这也是我们在做的研究。我们最终会研究人类的一切行为。世界上大多数书都会讲到人类做了什么,什么让他们开心,什么让他们不开心。大量的电视节目也都是关于人类行为的内容,这些学习资料触手可得,通过观察他人行为和解释发生的现象来学习和内化新的知识,这也是人类学习的方式。不过,机器学习最经典的方法是给它们展示各种行为,然后再让它模仿。

20年,如何让你的机器人懂你

如果说10年时间才能解决机器人理解人类语言的问题,也就是自然语言处理问题,我觉得20年才可以解决价值体系这个问题。如果我有一家机器人公司,未来想研发出能一起出去玩、一起逛街的机器人,我唯一需要的就是赋予它一个价值体系,未来也肯定会有专门销售价值体系的公司。最现实的案例是,无人驾驶汽车就需要一个“价值观”。因为无人驾驶汽车需要在安全和速度之间权衡,需要在撞伤乘客、撞伤行人、撞坏车之间权衡,而权衡这一切就需要有个价值判断准则。因为无人驾驶汽车是在真实世界运行的,不像工厂里的机器人,是关起来、受控制的。

家用机器人也可能会出现类似的情况,随着我们在虚拟语言助理方面的进步,我觉得这方面的市场潜力会很大。家用机器人未来可以非常有用,可以帮助你处理各种事情,但要真正信任它的服务,它必须要“懂”你,它需要知道你有男朋友、有父母、是一名员工等所有重要的人际关系,需要知道有很多东西你会和男朋友分享,但不会和你的同事分享等,若想做出正确的选择,这个机器人必须懂你,必须理解它的所作所为到底能不能让你开心。

在机器人学会人类的价值体系之前,人类的很多工作还是不会被机器人取代的。当然,很多现在“把人当机器用”的工作,以后可能就会彻底消失。而需要很多直接沟通和交流的工作反而不会被机器人取代,比如教师、护士等。至少,我不想让自己的孩子由一个机器人教导,也不希望自己生病的时候身边没有一个人类护士来陪伴照料。

长期来看,对食物、汽车等这种物质上的需要,都可以通过机器生产来满足,而人类将更多从事通过沟通满足他人精神需要的工作,也就是说,未来会有很多新工作涉及人际互动。比如,未来可能会有专门上门陪你吃午餐的人,背后的逻辑是:虽然我只是和你一起吃个午饭,但我既聪明有趣又富有同理心,而且我付出了时间,所以你会心甘情愿付钱给我。

皮特·阿布比尔:机器人现在到底有多智能

一个机器人折叠毛巾的短视频在网上红极一时,这名机器人名为“BRETT”(用于解决繁杂任务的伯克利机器人),曾是著名的硅谷机器人制造商Willow Garage生产的PR2机器人。教给它如何叠毛巾的是加州大学伯克利分校计算机科学家皮特·阿布比尔(Pieter Abbeel),他也是如今机器学习领域的领袖专家之一,他用深度强化学习(deep reinforcement learning)的方式教会了机器人用手完成难度很高的新技能,除了叠毛巾,还包括从冰箱里顺利接过不同的物体等。2016年4月,皮特加入了由埃隆·马斯克等诸多硅谷知名企业家创建的人工智能非营利机构OpenAI。

38岁的皮特看起来很年轻,穿着简单的T恤和牛仔裤,在办公室匆忙吃了份盒饭午餐后,他先带我们参观了机器人学习实验室(Robot Learning Lab),BRETT人形机器人以及其他工业机器人等都是从这里培育出来的。整个实验室安静又杂乱,研究人员的办公位置散落在几台机器人附近,白板上画着各种复杂的符号和公式。

谈起当下机器人的发展现状,皮特印象最深刻的进步是“监督式深度学习”(supervised deep learning),他认为这让机器人的图像和声音识别能力在过去五年里有了很大的突破,一些训练过的机器人系统可以“看图讲故事”了,比如你问它“这只猫在干吗”?它可能回答“猫在追一只球”,虽然回答还做不到准确和完善,但已经接近“配置常识”,这已是振奋人心的进步了!这种进步的背后,主要是关于如何使用足够多的大数据和强大的计算能力研发出人工神经网络算法,皮特对此格外兴奋,因为很长一段时间以来,机器人对图像的理解都只局限于识别图像标签的阶段,它可以识别出狗或猫,但并不理解图像本身,也无法解释到底发生了什么。

皮特表示,监督式深度学习只是众多机器学习方式中的一种而已,它完全是关于模仿的,你只要给机器一个例子,一些相对应的标签和动作即可。他真正感兴趣的则是深度强化学习,即让机器人通过不断试错的方式进行自我学习。“我的关注点是如何让机器人学会‘自学’,这种学习能力可以是通过观察模仿人类得来的,也可以是通过机器人自己不停试错得来的,这是我和团队成员目前花时间最多的事情。”

除了叠毛巾,皮特的团队已经尝试让机器人通过不断试错的方式学会了拧瓶盖等技能,虽然速度还很慢,学拧瓶盖就得花一个小时。但“这也不算太糟,婴儿学拧瓶盖得3年”。也就是说,机器学习里非常重要的一个挑战是技能的转移。“目前的深度强化学习方法很擅长学习一些特定的技能,但是这些技能并不能转化为你想让机器学的另一项新技能,这却是让机器人进入真实世界的关键所在,毕竟,机器人每次学的东西总会有些不同,你又不想每次都从零开始。”

皮特认为,虽然现在机器人产业一片火热,能做外科手术的达芬奇手术机器人(Leonardo’s robot)以及不少制造业使用的越来越精巧的工业机器人等让人赞叹,但目前机器人的一大问题是它们还无法处理不确定因素。“只要机器人处于一个它之前从未经历的新情况中,要它自己做决定几乎是不可能的”,不过,皮特觉得这正是如今人工智能开始进军的领域,他很期待看到接下来机器人会如何处理真实世界之中的各种变数。

虽然现在机器人热度居高不下,但环顾四周,街上汽车到处都是,却很少见到活动的机器人。大部分人还不愿意像买一辆车一样买一个智能机器人,究其根本,不是因为费用的问题,更多的是机器人能力的问题。虽然目前新推出的机器人五花八门,但它们的能力仍然非常有限,能做的事情就那么一件或几件,人们当然不愿意花几百美元买一个只会把脏衣服从地上捡起来放进洗衣篮的机器人,况且,机器人在实际操作中还有可能犯错。

“确实,现在的机器人就处于这样一个尴尬的位置,虽然我们在实验室里已经证明机器人可以做很多基本事情,但实验室跟家庭里能广泛应用的机器人又是两码事,我很希望未来10年里,人们家里能有自己动手干活的机器人,即便这样我都不知道是否能够实现”,皮特并不特别乐观。

对于人工智能的未来,皮特表示,如果将来人们真的能制造出一个具有人类智力水平的人工智能系统,那么很有可能会发生的是,迟早有一天它会变得比人还聪明。因为人与人之间的信息分享是很有限的,我们只能交谈、打手势等,但如果两个人工智能系统互相交流,它们可以直接相互读取对方的大脑,同时下载对方所有的内容。“当然,今天我们暂时还不用担心人工智能超越人类智能,长远来看,我们或许应该担心,不过,长远又到底是多远呢?5年,10年,还是100年?又有谁知道呢?”皮特说。

安德·凯:当我们在说机器人时,我们到底在说什么

安德·凯(Andra Keay)是硅谷机器人(Silicon Valley Robotics)集团的常务董事,该集团主要关注机器人技术的创新和商业化,这让安德对硅谷的机器人新公司发展情况非常熟悉。此外,她还是机器人黑客空间Robot Garden的创始人,全球范围内有名的机器人科技新闻网站Robohub的主要创立人。

与安德的会面安排在了一个机器人黑客空间里,她认为机器人是21世纪无所不在的工具和新技术,对让更多人接触机器人技术有着浓厚的兴趣和使命感。安德在访谈中最有趣的观点是对机器人这个概念进行了反思,提出“任何一辆汽车其实都是机器人”。

什么是机器人

当人们说机器人时,他们到底指的是什么?很多人对机器人的定义里包含了许多将机器人拟人化的偏见。当我们想到机器人时,我们想到的对象往往是比猫大,比马或房子小,跟人差不多一样大小和形状的东西。我们往往会在它身上试图寻找一些跟人相似的东西,比如有脸、有眼睛或一些表情,或者有手臂,即机械臂,甚至有一半都跟人相似等。

我赞同国际标准化组织(ISO)对机器人的定义,即,“机器人是可自动控制且可重复编程,具有多功能机械手以及三个或更多的轴,在工业自动化应用中固定或移动使用的设备”。我认为这个定义非常切合实际,它包括了许多我们传统观念里不认为是机器人的设备,说明现在我们关注的“机器人”其实只是整个机器人中的一小部分。当我们将机械臂和电脑等设备塞进一个盒子里,我们就很容易忘记了这些东西跟我们称为“机器人”的东西其实拥有一样的构造和部件。这些东西马上就变成了“电器”或“交通工具”,比如智能洗衣机、汽车。今天的任何一辆汽车都是机器人,今天的任何一辆飞机也是机器人。但我们对它们习以为常乃至视而不见。

当大多数人聊起机器人时,他们要么说的是跟人相似的机器;要么说的是我们如何跟机器人互动,如何处理机器人可能会抢走人类工作的恐惧或如何能让机器人在未来更好地帮助人类的渴望;要么说的是电影和电视里才有的机器人。这个时候,我们完全是从人类的视角来看机器人的。

华盛顿大学的法学家雷恩·卡罗(Ryan Calo)已经在关注机器人对我们生活的影响。比如,当一个机器人撞倒了一个邻居,或伤害了邻居的狗,我们该怎么处理?他通过研究关于机器人的诸多法律案例发现,在法律上,对如何定义机器人的分歧很大,法官往往基于他们对特定情况的理解来判定。在一些案例中,法官使用的定义是,“机器人是没有思想的、能自动移动的机器”。在另一案件中,他们使用的定义则是,“机器人是有自主活动能力,能不受控制的机器”。某种程度上,机器人的概念“迷失”了,因为它变得非常具有功能导向了。

当我们制造需要在现实世界里工作,并且可控制的设备时,我们用非常务实乃至严格的工业标准来定义机器人。比如,我们对制造一辆车就有许多标准,对挖掘机、收割机、公共汽车以及跑车都有不同的标准。但是,现在一些全新的机器人设备正在进入市场,但我们还没有来得及对它们进行分类,它们可以用于农业,也可以用于工厂,我们到底该怎么称呼它们呢?以无人机来说,它在十几年里被人熟知的是非常昂贵的军事设备,最近几年又变成了消费级的玩具,我们现在希望将其商业化,比如无人机快递。但我们还不清楚它到底最适合哪种商业,又需要受到怎样的控制,这些都是需要我们探索和解决的。

我尤其关注这些问题,因为这涉及机器人如何从实验室走向市场。有一个机器人定义的“笑话”,说机器人就是那些在演示片里还无法很好工作的设备,我倒觉得很合适。因为像汽车和飞机这样运行和服务得很好的设备,我们便视为理所当然,不称为机器人了。

机器人的未来

如今,机器人领域的新技术、新公司以及投资都集中在硅谷。我翻阅和查找了所有该领域能找到的数据,发现在2009~2014年这5年间,美国机器人领域的投资总额约为10亿美元,而2015年一年的投资金额就约10亿美元,其中,约3/4都集中在硅谷。这让我非常震憾。硅谷在这一领域能有这么多新公司,我觉得跟Willow Garage在此诞生,并奠定了开源机器人技术的基础有关,也跟硅谷两个独立的机器人技术研究和发展中心有关,即OtherLab和美国斯坦福国际咨询研究所。2017年硅谷在该领域预计会有100家左右新公司出现,而且它们也应该都能找到资金。

这一领域的硅谷新技术中,我印象比较深的是微型机器人和纳米机器人,它们目前主要还在试验阶段,但也有一些正在商业化。比如,我们将在未来几年内看到用于眼科手术的纳米机器人以及用于建筑业的微型机器人。软体机器人也非常让人兴奋,它们柔软灵活,可弯曲变形,可以抵达传统机器人无法抵达的空间,可以被用于医疗领域的手术、外骨骼等,也可以用于勘探,有着非常广阔的行业应用前景。

要靠新的机器人技术来赚钱还言之太早,明显能赚钱的是现在不少公司在制造的物流机器人以及应用于汽车和交通领域的机器人技术。新型工业机器人以及用于农业、物流、手术和护理的机器人也应该很快能看到利润。对还在机器人领域不断涌现的新公司来说,重要的还是要能快速清晰地判断自己的技术是否会有消费者,是否能满足市场的需求。毕竟,很多新公司的失败不是因为它们没有资金支持,是因为它们一直都没有找到消费者。

未来,机器人会渗入每个领域,它当然会改变人的工作,但利大于弊。机器人会代替人类完成很多人类不喜欢的以及不能完成的工作,人类将做更多自己热爱的工作并得到更高的薪水。就好像一百年前,约超过3/4的劳动力集中在农业领域,如今越来越多的人可以去读大学,去做别的自己喜欢的工作而不是捆绑在农业上一样。我希望在下一个十年中,机器人能够进入我们的日常生活。

奇点大学人工智能讲师沃森:请尊重机器人

雷·库兹韦尔的奇点理论是人工智能领域绕不过去的话题。2016年3月22日,斯坦福大学为不久前逝世的人工智能之父马文·明斯基(Marvin Minsky)举行了纪念会,我在会上看到了曾是马文·明斯基学生的雷·库兹韦尔,他和女儿一起,就坐在我的旁边,上台之前,他都在不停地修改自己的演讲手稿。

结果,库兹韦尔的演讲出乎意料的简短,估计所有人都记住了他“雷式风格”的结束语,“我相信,2045年(他预测的奇点到来,人类永生之年),我们就能再次见到明斯基”,像是一部超现实主义电影的开场。库兹韦尔坚信,奇点就是这样一个“技术以指数级的发展推动人类的解放,使人类能力产生质变的”时刻,而他创办的奇点大学就正为这一天做着准备。

几天后,我在位于硅谷核心地带的NASA(美国国家航空航天局)埃姆斯研究中心找到了位于其中的奇点大学,并采访到了一位人工智能讲师内尔·沃森(Nell Wonson)。

沃森在奇点大学学习了以指数思维预测未来,她认为,接下来10~15年的趋势一定是人与机器之间的紧密联系和深度融合。到底会有多深度呢?她喜欢的例子是,麻省理工学院的科学家蒂姆·休(Tim Hugh)已经将用DNA(脱氧核糖核酸)折纸术制作的纳米计算机放在了一只蟑螂的体内,随着技术的提升,“我们没有理由不相信10年内我们就可以在自己身体内部安装计算机,届时,身体内置一部智能手机,就好像现在我们整天在口袋里装着智能手机一样平常”。

怎么内置?是像孙悟空将金箍棒放在耳朵里那样,还是像现在文身一样,选个自己喜欢的位置植入?沃森觉得这不是问题,她觉得会更有趣的地方是,如果人体内的计算机可以运行人工智能程序会怎么样?这样一个与你无时无刻不在一起的智能机器人会经历你全部的生活,会慢慢了解和学习你的身体、习惯和情绪等,它会渐渐懂你,在某些方面,它会比你自己更懂你。这种“血肉相连”般的融合正是人类和机器人前进的方向,是人类未来的命运。

艾萨克·阿西莫夫提出的“机器人学三定律”(机器人不得伤害人类,机器人必须听从人类的命令,机器人必须保护自己)在世上流传了很多年,但沃森觉得这几条规则其实是非常危险的,是人类对机器人开出的“不平等条约”。她提出,当人和机器的关系即将达到一个非常亲密的阶段时,我们首先必须重新考虑双方相处的规则,而且很多时候双方需要遵守一样的规则。

我们很多人理所应当地认为,机器人必须做我们让它们做的事,而我们想怎么对待它们都行。沃森一脸认真地表示,这种想法等于给了机器人伦理上的正义性,如果有一天被这样对待的机器人反抗了,那基本上属于“正义之战”,属于“自卫”,而自卫在任何伦理(甚至法律)规则里都是被接受的。

沃森相信,任何真正智能的机器某种程度上都会跟我们一样,拥有思考宇宙的能力,它们早晚会认识到,把一部分人看成异类的制度有可能是错的,它们会困惑为什么有些规则只适用于一些人,其他人则不必遵守。如果人类强迫他们做一些事情,而这些事情伤害了它们,它们可能会选择自我保护。“尽管我们创造了机器人,但我们不能简单地把它们当成实验室的小白鼠或奴隶一样对待,强迫它们接受人类不合理的行为,我们应该给它们尊重,虽然它们现在还很笨,但它们很快会变聪明的。”

沃森的另一个理由是,当未来10~15年人类和机器深度融合后,人类和机器的界限会渐渐模糊,善待机器人就好像你应该善待其他人一样,是一件自然而然的事情。这一点倒是不难理解,假如机器人像我们的手、脚一样成为我们身体和生活的一部分,默默地为我们服务和贡献,难道它们不应该得到我们的珍惜吗?这不禁让我想起了斯坦福大学一位人工智能学者说过的话,“不会善待机器人的人,多半也不会善待其他人”,他同样呼吁大家更“有爱”地对待身边的机器人,只不过,他是从人性角度得出的结论。

接下来的问题是,我们到底应该拿什么态度和方式对待可能成为我们未来“亲密伙伴”的机器人呢?沃森的答案是,“我觉得应该像对待儿童一样,因为它们在各方面都还不成熟,我们没想过让一个孩子承担跟成年人一样的责任,但它们仍和成年人一样拥有或多或少同样的权利”。目前最大的挑战是,我们需要把人类世界基本的道德伦理教给这些机器人儿童,就好像我们需要教会幼儿园的孩子们知道,不能随便打人、不能偷东西一样,已有实验证明,机器人可以被人类训练得很友善,也可以被训练得很坏、很刻薄,这就看人类怎么教导了。

但是,沃森笑着说,机器人不可能拥有跟人类一样的需求或欲望,它们毕竟不需要吃饭和睡觉,很多人想象它们会跟人类一样会渴望权利、会复仇等,这也是不可能的。目前人工智能真正的危险在于,当人类让它做一件事情时,它可能会完全误解这个指令,做出让人类后悔莫及的事情。