录:【 图片来源:WIRED 所有者:WIRED 】(公众号:)按:人工智能对人类不会产生什么影响,仍然是有一点辩论的话题,它不会更佳地协助人类,还是反击人类?本周,由斯坦福伦理与社会中心、斯坦福以人为中心的人工智能研究所和斯坦福人文中心举行了一场关于“人工智能”人工智能的活动,人工智能领域的先驱之一——李飞飞参予其中,以下是活动辩论内容,全文编译器如下:“用一种以人为中心的方式,新的建构人工智能和技术的教育、研究和对话”主持人:谢谢斯坦福大学邀我们回到这里。我期望这次谈话分成三个部分:首先,解释我们现在所处的方位;然后谈谈我们现在必需作出的一些自由选择;最后,给大厅里所有的人托一些建议。
飞飞,你有博士学位和计算机科学学位,还是斯坦福大学的教授,你指出生物科学知识除以计算能力,除以数据相等侵略人类的能力吗?李飞飞:作为一名工程师和科学家,我实在我们现在有一场危机必需解决问题。当提及人工智能危机的时候,我躺在那里思维,这是一个我热衷的领域,我对这个领域充满热情,并且研究了20年,这是一个年长的科学家沦为人工智能博士的科学好奇心。但20年后再次发生了什么,人工智能变为了一场危机?事实上,它谈的是人工智能的演进,这让我和斯坦福大学的同事们有了今天以人为中心的人工智能的方位,这是一项革命性的技术。这是一项新兴技术。
与物理、化学、生物学比起,人工智能仍是一门新兴科学,但凭借数据、计算出来的能力,以及人工智能正在产生的各种影响,正如你所说,人工智能于是以以普遍而深刻印象的方式影响着人类生活和商业。针对人类面对的这些问题和危机,我指出斯坦福大学正在希望明确提出的解决方案之一,是我们能否用一种以人为中心的方式,新的建构人工智能和技术的教育、研究和对话?我们今天不一定要寻找一个解决方案,但我们能让人道主义者、哲学家、历史学家、政治学家、经济学家、伦理学家、法律学者、神经学家、心理学家以及更好的其他学科的在下个阶段转入研究和发展人工智能。
主持人:别那么认同我们今天会获得答案。还有72分钟,让我们试一试。
人们说道人工智能有很多危机,对吧?他们说道人工智能于是以显得有意识,这意味著什么?他们谈论着工作更换,谈论着种族主义。但这是思维人工智能的人应当注目的明确问题吗?李飞飞:当然。人类从火开始建构的任何技术都是一把双刃剑。人工智能可以改善生活、工作和社会,但它也不会带给风险。
你告诉,我每天醒来时都会担忧人工智能的多样性和包容性问题。我们担忧公平或者缺少公平,隐私,劳动力市场。因此,我们意味著必须注目,也于是以因为如此,我们必须不断扩大研究,发展政策以及人工智能的对话,转入人类的房间,转入社会问题,而某种程度是代码和产品。
所以我完全同意你的观点,现在是打开对话的时刻,打开对这些问题的研究。人工智能的问世是人工智能科学家与生物学家,特别是在是神经科学家的对话。人工智能的问世相当大程度上受到大脑活动的灵感。
快进到60年后的今天,今天的人工智能正在医疗保健领域获得巨大进步。我们从生理和病理中搜集了很多数据,并利用机器学习来协助我们。“AI能让我爱上观众中的某个人吗?”主持人:让我们来注目一下反击大脑是什么意思。
现在,或许上我的大脑被白了,对吧?这个设备有一个更有人的地方,它想要让我大大地检查它,就像我的大脑被黑客侵略了一样。你的没,因为你每天冥想两个小时,但我的有,有可能大多数人都有。但是未来的大脑黑客究竟不会是什么样子?飞飞,在鼓吹乌托邦A,自由民主的反乌托邦,否不存在人类特有的无法被侵略的东西?李飞飞:当你在两分钟前回答我这个问题时,我首先想起的是爱人。
爱人可以被侵略吗?但这两个反乌托邦,我没答案。但我想要之后说道的是,这正是为什么现在是我们必须谋求解决方案的时刻。于是以因为如此,我们现在指出,人工智能的新篇章必须由人文主义者、社会科学家、商界领袖、公民社会、政府等各方的共同努力来书写,才能坐下同一张桌子上,进行多边合作对话。我指出,你们显然突显了这场潜在危机的紧迫性、重要性和规模。
但我指出,面临这种情况,我们必须采取行动。主持人:你指出这个装置在未来的某一天不会比现在强劲得多,它能让我爱上观众中的某个人吗?李飞飞:这就是我的研究领域,我想要说道两点意见,就个人而言,我们在谈话的这一部分做到了两个十分最重要的假设。其一,人工智能是如此的无所不能,它早已超过了一种状态,打破了对任何物理现象的预测,它超过了意识层面,甚至超过了爱的无限大。
我十分确认我们认识到我们离那个十分、十分、十分近。这项技术还正处于兴起阶段。我对今天的人工智能的部分忧虑是对其能力的过度抹黑。所以我并不是说道这不是一个有效地的问题。
但我指出这部分对话是创建在这项技术早已显得十分强劲的假设之上的,而我甚至不告诉我们离那个时代还有多少年。第二个涉及的假设是,我实在我们的谈话是基于这样的假设,即我们谈论的世界或世界的状态是只有强劲的人工智能不存在,或者只有一小群生产了强劲的人工智能并想反击人类的人的不存在。但事实上,我们人类社会是如此简单,我们有很多人,对吧?我的意思是,人类在其历史上亲眼过很多项技术,如果我们把它分开地放到一个差劲的玩家手中,没任何管理,跨国合作,规则,法律,道德准则,技术或许不是反击人类,而是以极大的方式毁坏人类或损害人类。
这早已再次发生了,但是从历史的观点来看,我们的社会大体上正在南北更为文明和可控。因此,我指出最重要的是要看见更大的社会,并把其他参与者和人们带回这个对话中来。所以我们会说道只有全能的人工智能要求把一切都毁坏到最后。这让我想起了你的话题,除了在你谈论的那个层次上反击人类,还有一些十分严峻的问题:多样性、隐私、劳工、法律变化,国际地缘政治。
我指出现在解决问题这些问题十分关键。以人为本的人工智能主持人:我讨厌和人工智能研究人员聊天,因为在五年前,所有的人工智能研究人员都说道它比你想象的要强劲得多。
现在他们说道,它没你想象的那么强劲。好的,我来回答一下——李飞飞:这是因为五年前,你不告诉人工智能是什么,现在你推算过于多了。
主持人:我并不是说道那是错误的。我只是说道事情就是这样。
让我们谈谈我们今天能做到些什么,当我们思维人工智能的风险和人工智能的益处时,告诉他我们,你指出我们应当用人工智能思维的最重要的事情是什么。李飞飞:我们今天可以做到很多事情。
我想要再行谈谈在斯坦福所做到的希望,因为我指出这是一个我们坚信我们可以做到很多希望的较好代表。在以人为本的人工智能中,这是一个整体的主题,我们指出人工智能的下一章应当以人为本,我们坚信三大原则。
其中一个原则是投资于下一代人工智能技术,这种技术更好地体现了我们想的那种人类智能。我刚才在想要您关于数据倚赖的评论,以及数据的政策和管理应当如何经常出现以规范和管理人工智能的影响。我们应当研发需要说明人工智能的技术,我们称作可说明的人工智能,或者人工智能可解释性研究;我们应当把重点放到对人类智能有更加错综复杂的解读的技术上。我们应当投资研发不那么倚赖数据的人工智能技术,这将考虑到直觉、科学知识、创造力和其他形式的人类智能。
所以人类智能唤起的人工智能是我们的原则之一。第二个原则是,再度青睐人工智能的多学科研究。与经济学、伦理学、法学、哲学、历史学、认知科学等学科交叉。因为在社会、人类、人类学和伦理影响方面,我们必须理解的还有很多。
作为技术人员,我们不有可能分开做这一点。我们中的一些人甚至不应当这样做到。
伦理学家和哲学家应当参予到这些问题中来,并与我们合作。这是第二个原则。在这方面,我们与政策制定者合作,开会多边利益相关者的对话。
然后是第三点,也是最后一点但并非最不最重要的一点,尼克,你在对话一开始就说道过,我们必须增进这项技术的人性化、合作性和辩论性方面。你说道得有道理。
即使在那里,它也有可能显得具备操控性。但我们必须从这种机警感觉、解读开始,但依然要增进这项技术的愿意的应用于和设计。
最少,这是斯坦福大学以人为本的人工智能研究所所基于的三条原则。我深感十分自豪,在这个研究所正式成立的短短几个月里,这个校园里有200多名教师参予了这种研究、对话、自学和教育,而且这个数字还在快速增长。主持人:在这三个原则中,让我们开始深入探讨。
我们来看第一个,可解释性,这是人工智能中一个十分有意思的辩论。有些实践者说道你应当有算法来说明他们做到了什么和他们做到了什么自由选择。
听得一起十分合理。但你是怎么做的呢?我做到各种各样的要求,但我无法几乎说明确切。比如,我为什么要雇用这个人,而不是那个人?我可以谈一个我为什么这么做到的故事。但我不确认。
如果我们对自己过于理解,无法总是真实情况、全面地说明我们所做到的事情,我们怎么能确信一台用于人工智能的电脑做这一点呢?如果我们在西方拒绝这样做到,那么世界上其他地方就会拒绝谁需要更慢地采取行动。所以第一部分是,如果我们自己都很难说明,我们能获得可解释性吗?李飞飞:嗯,我很难把两个数字相加,但是,你告诉,计算机可以做这一点。
所以对人类来说有些事情很难并不意味著我们不应当让机器来做到。特别是在是,你告诉,却是所有这些算法都是基于非常简单的数学逻辑。
当然,我们现在处置的神经网络有数百万个节点和数十亿个相连。所以可解释性实质上很难。
这是正在展开的研究。但我指出这是一片贫瘠的土地。当牵涉到到医疗要求、财务要求、法律要求时,这是十分关键的。有很多情况下,这项技术有可能是十分简单的。
有了这种可说明的能力,我们必需尝试,我很有信心,有很多聪慧的头脑,这是一件更容易密码的事情。最重要的是,我指出你有一个观点,如果我们有技术可以说明算法的决策过程,它不会使它更加无以操控和愚弄。
对吧?这是一个技术解决方案,而不是整个解决方案,这将有助回应这项技术正在做到什么。如果人工智能用概率得出了2000个潜在特征的维度,这是不能解读的,但人类文明史上的整个科学史就是需要以更加好的方式表达科学的结果。对吧?就像我刚刚做到了年度身体检查,一大堆电话号码碰到了我的手机上。首先,我的医生,专家,可以协助我说明这些数字。
现在,就算是维基百科也能协助我说明其中的一些数字,并且说明这些数字的技术改良将不会改良。如果我们只是把200或2000个维度的概率数字扔给你,这就是我们作为技术专家的告终。AI算法种族主义主持人:在我们完结这个话题之前,我想要移往到一个十分涉及的问题上,我指出这是最有意思的问题之一,那就是算法中的种族主义问题,这是你早已说道得很确切的。
让我们从金融体系开始想起。你可以想象一个算法被银行用来要求否应当贷款给某些人。你还可以想象用种族主义的历史数据训练它。
我们想这样。所以,让我们来想到如何保证这些数据不是种族主义的,让它向人们获取不分种族的贷款。我们都说的每一个人都指出这是一个很好的结果。
我们假设,分析历史数据指出,女性比男性更加有可能偿还债务贷款。我们要把它去除吗?还是我们容许它之后不存在?如果你容许它之后不存在,你不会获得一个略为更加有效率的金融体系?如果你把它去除,你不会找到以前男女之间的公平程度更高。
你如何要求哪些种族主义是你想避免的,哪些是可以保有的?李飞飞:是的,这是一个十分好的问题,尼克。我的意思是,我个人会得出答案,但我指出你看清了一个确实最重要的问题,那就是,首先,机器学习系统种族主义是现实不存在的。
就像你说道的,它从数据开始,有可能从我们搜集数据的那一刻开始,从我们搜集数据的类型开始,到整个管道,然后仍然到应用程序。但是种族主义以非常复杂的方式经常出现。在斯坦福,我们有机器学习科学家研究种族主义的技术解决方案,比如,去偏置数据或使某些决策正常化。
但是我们也有人文主义者争辩什么是种族主义,什么是公平,什么时候种族主义是好的,什么时候种族主义是怕的?所以我指出你刚为这个话题的研究,辩论和对话打开了一个极致的话题。我还想要认为的是,你们早已用了一个十分涉及的例子,一个机器学习算法有可能曝露种族主义。对吧?你告诉,我最喜欢的研究之一是几年前的一篇论文,分析了好莱坞电影,并用于机器学习人脸识别算法,这在当今是一项十分有争议的技术,来系统地辨识好莱坞给男演员比女演员更好的屏幕时间。
没有人可以躺在那里数所有的脸的帧数否不存在性别种族主义,这是一个用于机器学习来揭发的极致例子。因此,总的来说,我们应当研究一系列非常丰富的问题,再行一次敦促,把人文主义者,伦理学家,法律学者,性别研究专家带入到研究中。
主持人:表示同意。不过,在那篇文章公开发表之前,我就告诉好莱坞是性别歧视的。李飞飞:你是个聪明人。
主持人:让我来回答你,因为有三四人回答这个问题,那就是,或许人工智能的集中力让数据和最差的电脑更加强劲,然后,无论是在国内还是在世界范围内,都会激化收益不公平,对吧?正如你所提及的国家那样,首先中美两国忽得头筹,而欧洲各国紧随其后,而加拿大更加逊色一筹,但它们都要遥遥领先于中美洲。这一现象不会激化全球收益不公平。
A,你实在有可能吗?B,你有多担忧?李飞飞:我们一遍又一遍注意到的一件事,即使是在创建以人为本的人工智能社区以及内部和外部人员聊天的过程中,世界各地的企业和世界各国政府是有机会考虑到他们的数据和人工智能策略的。对公司和国家而言,依然有很多机会让他们确实认识到,这是他们的国家,他们的地区,他们的企业转入数字时代的最重要时刻。我指出,当你谈及这些潜在的危险性和世界上那些还没确实跟上数字变革的地方缺少数据的时候,现在是时候了,我们期望提升这种意识并希望这种变革。
“这是一个在共享和传播科学知识和技术方面十分对外开放的全球社区”主持人:下一个问题是:这里有斯坦福大学的人员,他们将协助创建一些公司,将更进一步推展数据殖民化进程,或反败为胜或将创建,最少由斯坦福大学资助的,希望创立一个虚拟世界墙和基于人工智能的世界正在很快兴起。对都说的所有学生,你期望他们如何看来人工智能?你想要让他们教给什么?让我们用最后10分钟的时间来讨论一下都说各位应当做到些什么。
李飞飞:如果你是计算机科学或工程学的学生,那就中选Rob的课程。如果你是人文主义者,就上我的课。我教教的是深度自学。但说真的,我想要说道的是斯坦福的学生,你们有很好的机会。
我们有一段把这项技术带回生活的自豪的历史。斯坦福正处于人工智能问世的最前沿。
事实上,我们的教授John McCarthy建构了人工智能这个词,他于1963年回到斯坦福大学,创建了这个国家最古老的人工智能实验室之一。从那时起,斯坦福大学的人工智能研究仍然正处于每一波人工智能变革的最前沿。2019年,我们也车站在了以人为中心的人工智能革命的最前沿,或者说,我们正在书写新的人工智能篇章。在过去的60年里,我们为你们做到了这一切,为那些走出来的人,为那些将要毕业沦为实践者、领导者和公民社会的一部分的人,这就是我们的底线所在。
以人为中心的人工智能必须由下一代的技术人员来撰写,这些技术人员读过像Rob这样的课程,去思维伦理含义,人类的福祉。它也将由那些来自斯坦福大学人文学科和商学院的潜在未来决策者来编写,他们通晓技术的细节,他们解读这项技术的含义,他们有能力与技术专家交流。也就是说,无论我们如何表示同意或不表示同意,最重要的是,我们必须这种多语言的领导人、思想家和实践者。
这就是斯坦福大学以人为中心的人工智能研究所的宗旨。主持人:好的,飞飞,让我们较慢地看几个问题。我们常常谈论来自大公司的自上而下的人工智能,我们应当如何设计个人的人工智能来协助加快我们的生活和事业?我对这个问题的说明是,很多人工智能都是在大公司里工作的。如果你想要在小公司或个人享有人工智能,能做吗?李飞飞:首先,显然有很多投资、希望和资源投放到大公司的人工智能研究和研发中,但并不是所有的人工智能都再次发生在那里。
我想要说道的是学术界之后在人工智能的研究和发展中充分发挥着极大的起到,特别是在是在人工智能的长年探寻中。什么是学术界?学术界是一个由学生和教授构成的世界范围的网络,他们对有所不同的观点展开十分独立国家和创造性的思维。
所以从这个角度来看,这是人工智能研究中的一种十分基层的希望,这种希望还在之后。小企业和独立国家研究机构也可以发挥作用。有很多公开发表能用的数据集。这是一个在共享和传播科学知识和技术方面十分对外开放的全球社区。
所以,是的,无论如何我们都期望全球参予进去。主持人:好吧,这是我最喜欢的问题。意外的是,这是匿名者发去的。
如果我在八年级,我还必须自学吗?李飞飞:作为一个妈妈,我会告诉他你是的。回来写出作业吧。主持人:飞飞,75分钟前,你说道我们会得出结论任何结论你实在我们有什么进展吗?李飞飞:嗯,我们打开了人文主义者和技术专家之间的对话,我想要看见更加多这样的对话。
主持人:太好了。非常感谢。谢谢你,飞飞。
录:本文编译器自WIRED版权文章,予以许可禁令刊登。下文闻刊登须知。
本文来源:必赢|bwin-www.xxafx.com