主题:Kate Crawford:论人工智能与法西斯主义 -- 万年看客
https://www.youtube.com/watch?v=Dlr4O1aEJvI&list=FL3RezzS-A7eu0NV9aDxzpdA&index=9&t=2277s
大家好,感谢大家看到这么吓人的演讲标题之后还来听我发言。我感谢大会组织者邀请我前来。大家可能注意到了会场里有一套全新的自动系统名叫Slido,在我谈话的时候大家可以向这个系统提出问题,系统后台会对这些问题进行排序,方便我们在演讲结束后进行讨论。有趣的是,对于我今天的演讲主题来说,这个系统是个很好的引子。因为如今我们已经走到了紧要关头,自动系统与人工智能正在越发深入地走进日常生活,与此同时我们的政治风气也在朝着权威主义的方向急转弯。我名叫Kate Crawford,是一名研究员与教授,研究方向是机器学习与大规模数据库技术对于社会的影响。
我的工作的好处之一在于我有机会走访世界各地的人工智能实验室。去年我应邀前往了巴塞罗那超算中心,真是个美轮美奂的地方。这里的超算运行速度在欧洲位居前列,目前正在从事人类染色体研究、天体物理学模拟以及蛋白质建模。大家从照片上可以看到,这台超算建造在了一座天主教教堂内部。在这座存世时间远比超算更加久远的古代建筑内部,神性、求知与信仰不分彼此地纠结在了一起。我不得不说这一幕在我看来有点亵渎,在原本用于崇拜的场合如今却布满了加减数字的中央处理器。但是换个层次来看这一幕又非常合宜,因为这片空间如今与另一种权力联系在了一起,体现了另一种支配我们生活的这个世界的神性,这种神力甚至正在试图支配我们体内的细胞。
这台超算名叫Mare Nostrum,意为“我们的海洋”。这个名字的含义很好理解,因为这台计算机确实正在处理一片浩瀚的数据之海,我们每天都要在这片海里畅游。但是直到后来我才意识到这个名字还有另一层含义:出于巧合,这个名字在先进计算技术与正在返回公共讨论的那个F单词之间搭上了关系——这个词就是法西斯主义。事实上,Mare Nostrum正是当年法西斯领袖贝尼托.墨索里尼的一项国家战略的名称。墨索里尼痴迷于要让意大利控制整个地中海,他兴建了当时全世界最强大的海军,旨在让地中海回到罗马统治的辉煌时代——当年地中海一度被称作罗马帝国的内湖。他的计划是逐步征服地中海周边的各个国家,从埃及到肯尼亚全都不放过。画面上的截图来自当年墨索里尼的电视讲话转播,我毫不开玩笑地告诉大家,他当年当真说过:“我们必须控制海洋,唯此才能让意大利再次伟大。”(笑声)但是墨索里尼很快就发现控制海洋要比他想象的更加困难。
今天当我面对这座承载着超级计算机的教堂,计算机的名字还在无意之间涉及了数据、人工智能与法西斯主义之间的关系。Mare Nostrum超算对于我们来说就像一条小小的视觉模因,集中体现了我们今天将要讨论的话题。目前这些问题与以往相比相互纠缠得更加紧密了。两天之后,美国科技行业从业者们将会发起一场大规模罢工,抗议当前美国政府的政策。我想给大家讲稿故事,讲清这其中的利害关系,为什么我认为这些问题迫在眉睫,以及我们或许可以做些什么。
机器学习与人工智能正在飞速进步,这一点对于在座各位来说想必不是什么秘密。仅仅在去年我们似乎就在白血病监测、数据中心节能、面部识别与音频处理等方面取得了非凡的成就。人工智能决策辅助系统正在迅速成为各项社会体制的固有部分,涉及了刑事司法、公共医疗与教育等各个领域。人工智能如今决定了哪些犯人有资格出狱,塑造了我们眼前新闻的撰写方式。有趣的是,尽管这一切都看似基于人工智能的超级未来主义景象,但实际上这一切体系早就存在了,只不过看似平庸,但是对于我们的生活的影响却同样无孔不入,只是我们看不到而已。
正当人工智能以阶跃函数的形式不断扩散到我们的生活当中时,另一个异乎寻常的现象也正在发生,我们在另一个方向也走到了十字路口:极端民族主义、右翼威权主义与法西斯主义正在崛起,不仅在美国,而且在西班牙、德国、法国以及我从小成长起来的国家,眼下显然已经被美国宣战的澳大利亚。上述各个国家转向威权主义的方式各不相同,但是正如政治科学家们指出的那样,其中确有共通之处。我今天着重讨论三个方面:权力集中化的欲望,追踪本国人口以及妖魔化外来人口,以及主张权威中立而不受问责。这就是我今天想要分析的三点:权力集中化、人口分类以及不受问责,可以将它们称作权力战术手册的一部分。人工智能可以在这三方面有效地克制此类政权,但是也很擅长助纣为虐。自从人工智能这一领域在四十年前形成以来,尤其是在过去五年间,我们逐渐意识到人工智能非常擅长集中权力,主张科学中立,同时又毫不透明无法问责。这一点非常重要,因为我认为我们正在目睹一场历史性的反民主政治逻辑崛起。
我想与大家分享一下我对于目前人智能研究的某些方面的关切。画面上的照片来自十二月发表的一篇论文,文中主张人工智能可以通过分析证件照来确定某人是不是罪犯。研究人员利用1850张中国政府提供的身份证照片来训练他们的系统,其中有700张是罪犯的照片。他们利用监督学习系统来分析罪犯组与非罪犯组的照片有什么共通特性,结果发现罪犯组面容的差异性要比非罪犯组更强。他们主张,现在发给系统一张新照片,系统就能以90%的准确性判定此人将来是否会成为罪犯。90%这个数字确实非常了不起。在论文结尾他们声称,“我们开发了有史以来第一个犯罪侦测系统,完全没有歧视,完全不受人类主观判断的影响。”
我心想:从哪里能找到反映他们的算法的图片?结果还真找到了一张:将一堆不可信的数据输入深层神经网络的黑箱,然后就得出了正确无误的结论?当然我这张图并不是论文里实际使用的示意图,但是我的主张与他们的主张并没有多大区别。每当机器学习体系声称自己不含偏见时,我们都应当格外警惕,因为一切机器系统都是由人类提供的数据训练出来的,而这些训练数据又是对于人类过往的记录,包含了我们所有的偏见与刻板印象。显然这篇论文并没有考虑另一种可能:面容差异性比较强或者说长相比较奇怪的人更容易被警方与法官视作不可信任。这可不是免于偏见,而是代码化的偏见。假如某个专制政权采用了这套体系,那就太可怕了。假设我现在拍摄了在座所有人的面容,然后声称:“这半边的都是罪犯,那半边的都是良民,但是不用担心,我们这个系统绝对科学,完全不含偏见。”就算我这么说了也永远不会有人追究我的责任,我的行为也不会受到正当程序的约束。
这种事在历史上也发生过。大家或许听说过颅相学与面相学。这些早已被揭穿的所谓科学主张能够通过你的面容与头型来探测你的性格与未来。这两门学问都曾被人用来为无法辩护的恶行进行辩护。面相学在十九世纪的美国曾经是奴隶制合理主张的一部分,当时我们认为非裔人种长着一张智力偏低的脸,因此不配掌握自己的人生。纳粹的种族科学家们则主张犹太人的鼻子形状表明他们都是心怀鬼胎的罪犯。如果你觉得这都是遥远过去的事情,那么要知道今天依然有创业公司本着面相学原则开发新产品。画面上的宣传材料来自一家Faception公司,他们声称自己正在开发面部识析技术,只要看一眼某张照片就能确定你是不是潜在的恐怖分子。有趣的是,在这张宣传单上,留着齐耳短发的白人女性是品牌推广人员,而略微有点阿拉伯裔特征留着络腮胡子的男性则是恐怖分子的代表。
我们如今正在目睹法西斯政权的伎俩从过去返回到当下的人工智能领域,人工智能的崛起恰恰应和了权威主义的再度崛起。就算优秀的工具也依然可以遭到滥用并且得出错误的结论。如果这样的工具落到了一心只想集中权力并且逃避问责的政权手里,结果将会是灾难性的。如今许多人都将数据当成了全新的宗教,而许多数据教的大祭司们正在发问,假如传统的权力分离体系崩溃了究竟会怎样,假如数据教会完全被国家武器化,假如所有的计算循环、所有用来分类与预测的凶猛力量不仅局限于技术部门的教堂里,而是落到了掌握实权并且敌人众多的政府部门,情况又会如何。
我很担心我们前方将会迎来黑暗的日子,但是我们并非在一夜之间就陷入了当前的境地。现在我们很有必要回顾一下历史能教给我们什么。历史学家Tony Jaa说过,忽视历史就好比在老房子里抹黑前进,走几步就会撞上家具。我想带领大家参观一下老房子里的某几个房间,回顾一下登记行为的历史以及这种无法追责的权力究竟是如何发动起来的,针对这种权力的抵抗力量是什么样的,以及我们如何可以群策群力地保证情报为我们造福而不是与我们作对。
首先我们来谈谈登记。登记的历史与书写记录的历史一样久远,最早的登记记录可以追溯到公元前3800年的巴比伦,但是直到古希腊才达到了一个小高点。古希腊人认为,保留人口记录就像记录公共道德一样重要。西塞罗写道:“要利用普查来揭示人民的年龄、子女、家人与财产,将不同的人分成部落,按照财产、年龄与阶层进行分配。”到了十七十八世纪,随着统计学与概率论的问世,这种部落划分方式愈演愈烈,我们眼中的人口也变得越发抽象起来。此外这时他们还掌握了一项用来逮捕罪犯的新技术,也就是指纹采集。当然,指纹是我们身体的物理特质,种族、宗教信仰与性别则要流动得多。登记则具体化了这些类别——所谓具体化也就是将人们塞进形状预先设定好的盒子里,即便这样的盒子并不完全合身。而且想要维持这些分类其实很困难,即便在它们对人们造成伤害的时候也一样。
到了1880年,登记的发展开始加速了。一位在美国人口普查局工作的年轻人坐火车上班,看见车长在车票上打孔。他觉得用这种方式追踪人类的特质十分有效。这就是霍勒内斯穿孔卡片制表系统的由来。不幸的是,根据高德温定律,现在我必须谈谈纳粹。因为纳粹当年大批量采购了霍勒内斯制表系统,创造了全世界规模最大的种族登记系统,用来追踪犹太人、吉普赛人以及其他少数族裔。画面上这副令人毛骨悚然的宣传画就是纳粹当年用来宣传霍勒内斯制表系统的材料。对我来说这幅画充分体现了James C.Scott所谓的“像国家一样查看”:画面上方是一只巨大的眼睛,向着下方的打孔卡投下雪亮的光束,实在非常吓人。另一方面,通过德国分公司制造了霍勒内斯制表系统的IBM公司也为美国政府提供了同样的数据库支持,从而使得同一时期的美国得以兴建日裔美国人集中营。
这种事情并非仅仅发生在二战期间。在座各位有谁听说过《生命书》?这是南非种族隔离最猖獗的时期推出的登记系统。这套系统将全体南非人口分成四类:白人、黑人、有色人种与印度裔。但是针对这四个分类的监督方式却很不寻常,你的朋友、婚姻伴侣与邻居都会影响到你本人的分类,因此有些人的分类一生当中要转变三四次,每一次转变都会改变警察对待他们的方式,改变他们有资格申请的工作范围,改变他们可以获准进入的餐厅。久而久之,这种分类本身就会强化专制主义思考方式。
我们花了几百年时间不断完善了创建登记体系的能力,但是在过去十年发生了特别戏剧性的事件:对于人类特质的处理不再像美国人口普查那样每十年进行一次,而是每小时都会进行上千次,发生在你的手机里,发生在你的浏览记录里,发生在你的亚马逊购物清单里。由国家发起的官方数据采集只能获取一点点关于你的信息,而且与信息量相比采集过程也相当安静。此外官方数据采集往往担负着重要功能,例如筹划选民重新分区。最后,人口普查数据享有远远更加周全的法律保护,你的信息不至于流落到随便哪个政府部门。但是私人收集的数据则又另当别论。
现在我们有了基于廉价存贮技术、强大计算硬件以及机器学习系统的庞大档案库。各种私人机构正在一刻不停地分析你的政治、宗教与文化偏好。如今我将这一现象视为自主化的登记。而且这些数据完全可以连接到其他系统,例如汽车保险商想要看看某人的脸书发帖,帖子里的感叹号数量越多,向此人收取的保费也就越高,因为感叹号是性情急躁的体现。在更加极端的情况下,可以参照中国的社会信用分:你在网上留下的一切言论——尤其是涉政言论——都有可能影响你申请车贷房贷的资格。
回到美国,我们的总统刚刚主张不妨建立一个全国穆斯林数据库。可是在某种程度上这个数据库早就存在了:脸书就是全球默认的穆斯林登记体系。但是要记得,登记只有在与威权主义结合起来之后才会成为妖魔化、追踪与遣送特定群体的路线图。有人发起了#注册为穆斯林#运动以示团结,尽管精神可嘉,但是大概没什么用,因为机器学习极其擅长根据你的过往表现来判断你目前的宗教偏好。2013年剑桥大学发表的一项重要研究表明,仅仅依靠分析我们的脸书点赞内容就能推测某人是不是穆斯林,准确性达到了83%——这已经是好几年前的事了。我们如今创造了无比强大的全新体系,足以彰显一切人类差异。
接下来我们谈一谈权力如何掩饰自己的行迹。许多人工智能领域的早期先驱都很担心自己的系统在政治黑暗时期会遭到怎样的滥用。画面上这位是约瑟夫.魏泽堡,他发明了全世界最早的聊天机器人之一“伊莱莎”。他非常担心人工智能会遭到滥用,担心人们只能看到这一系统的表面价值。他认为我们抱有某种对于人工智能的顽固错觉,认为人工智能远比实际上更加智能。此外他还担心人工智能会加大我们与自己的决策之间的距离。比方说战争参谋看着成千上万潜在伤亡的统计数据,仅仅会将其当成一系列概率。魏泽堡成长在二战期间的德国,因此人工智能与法西斯之间的联系在他看来非常明显。他想要人们理解,人工智能系统并不透明,还会让人们产生虚假与中立的错觉。
直到今天他的论断依然成立。我刚刚与Mike Ananny合著了一篇论文,分析了人工智能透明度的局限性。有趣的是,就算你是构建深度神经网络的工程师——我相信在座很多人对此都深有感触——有时你也依然不明白这些系统为什么会生效或者失灵。2015年的另一篇论文体现了愚弄深度神经网络多么容易:它们会将两头绿色的红圆圈辨识为草莓,黄色圆盘中间点个黑点就是面包圈。最可乐的是,喂给系统一张伊丽莎白二世女王的照片,系统认为她有99.7%的可能是一顶浴帽。
另一项我本人非常喜欢的研究采用了莫奈的名画《奥林匹亚》。围绕这张画或许已经发表了几百份历史论文,深入分析了这幅画与种族、奴隶制以及性观念之间的关系。但是假如将这幅画喂给视觉识别算法又会如何?艺术家Trevor Paglen与Adam Harvey联手Instagram创始人Mike Krieger就尝试了这一做法,得出了许多出人意料的反应。例如有一套算法试图分析画面上的裸女奥林匹亚究竟是什么东西:0.05的可能性是一件睡衣,0.04的可能性是晚礼服,另外还有0.03的可能性是墨西哥卷饼。墨西哥卷饼很能说明问题,因为训练人工智能的软件工程师们绝对是全美国最喜欢吃墨西哥卷饼的群体,他们都对自己最爱的卷饼店如数家珍,想必平时也没少用卷饼照片训练系统。这个案例向我们揭示了我们的文化偏好如何混入了用来理解世界的编码。
如果只是把裸女错认成卷饼,那还挺好玩的。但是这一类错误一旦被纳入司法系统,就会导致远远更加严重的结果。如今预测性警察执法已经成为了大多数美国城市的常规。这一类系统当然还够不上人工智能,但是的确是人工智能的前驱,因为它们采用的数据正是我们用来训练人工智能的数据。这一类系统吸纳了大量历史犯罪数据,以此为依据来预测未来的犯罪可能发生在哪里。但是这一类系统有个非常不幸的副作用:越是贫困、黑人居民比例越高的社区往往在过去越是得不到有效的治安执法,因此也越容易被标记成为未来的犯罪热点。这样一来就陷入了恶性循环:越是在过去被警方重点监控的地区就越容易在未来继续遭到警方重点监控。有趣的是,这一类系统的运行几乎无法追责。兰德公司最近进行了关于芝加哥警力分配的第一次深入研究。发现当地的预测执法系统完全无法预测实际犯罪的发生,但是却非常擅长加剧犯罪热点地区周边的骚扰式执法烈度。
上述系统都是在无意间产生了偏见或者歧视性结果。那么进一步说,假如你从一开始就存心想要以这样那样的方式操纵人们的既有偏见与政治立场或者蒙骗政府官员,那又会怎么样?人工智能同样能给你帮大忙。在座各位有谁听说过剑桥分析这家公司?看来绝大多数人都听说过。这家公司在过去几个月非常出名,从促成英国脱欧到将唐纳德.特朗普送进白宫都被人们当成了他们的功劳。我其实还挺怀疑他们究竟有没有这么大的本事。但是根据他们的营销材料,他们掌握了2亿2000万美国的五千个数据点,这意味着他们基于大量数据来源创建了针对性极高的个人情况概要。有些来源看似奇怪,例如报刊订阅与地产注册情况,也有些来源无非是巨量的脸书点赞记录。另外有没有人填写过网上个性测试?例如“你是哪个迪士尼角色”之类的东西?这些都是用来理解某人思考方式的强大工具。他们主张自己利用此类工具创建了详尽的人口心理分析,从而可以操纵人们的思想与行为——当然也包括投票。他们可以针对每一位个人的具体心理状态设定特定的针对性信息。
我很怀疑他们究竟有没有这样的能耐,但是他们的宣传的确说明了一个重要问题,这就是他们正在销售的幻想。只需再过几年时间我们的技术就将会非常擅长这种事,我们正在隐约窥见未来将要发生的状况。这种无法问责的权力正是法西斯主义的梦想。但是我们甚至不必非得接受剑桥分析这样的数据坏蛋们主张的理论,只要看看脸书自己的广告就行。脸书赫然夸口自己改变了选民倾向,将一位Patrick Toomey送进了参议院。于是我们就这样走到了关键的拐点。无论剑桥分析公司与脸书现阶段售卖的技术是否真的有效,他们现在正在做的事情几乎同样糟糕:他们向社会公众灌输了对于民主制度的绝望情绪。如果人们认为权力得不到制约,政治活动与选举完全由幕后操纵决定,那么费心费力地投票与参加政治抗议又有什么意义?这一前景令我忧心忡忡。
我们究竟应该在哪里画下界线?上周就有个好例子。大家应该都看过了《纽约时报》针对优步出租车的“灰球”程序的揭露文章。灰球是优步程序的虚假版本,里面的出租车全都是不存在的鬼车,从而在禁止运营优步的地区逃避钓鱼执法的监管人员。在我看来这种做法显然伴随着严重的伦理与法律问题。更重要的是,这件事提醒了我们此类系统完全可以隐形地运作,我们根本看不见。在座许多人的手机上应该都装着优步应用,但是此前你们根本不知道灰球程序也是优步系统的一部分,而且还在做出各种接谁不接谁的决策。
像这样的黑箱系统正在逐步打入政府日常运行当中,如今的大规模遣返正是借助了这样的系统。最近有人向The Intercept网站爆料说,大数据公司Palantir在过去几年一直在为美国移民与海关执法局打造一套情报系统。现在他们推出了新版系统,吸纳了一整套数据生态圈,从人们的生物特征到工作与居住地点。此外根据他们的设计,任何时候都有不少于一万名用户可以登入系统并且搜索上千万条记录。这可谓是美国出现过的最强大的大规模遣返驱动引擎。那么这套系统要如何接受问责?如果你是个务工人员并且遭到遣返,你可以求助于怎样的申诉程序?你要怎样才能主张系统选错了人?我们生活在一个动荡不安的时代。如今我们掌握着极其详尽的巨大数据库,连接着强大的人工智能,这样的系统往往不透明且无法问责。二十世纪的法西斯主义者们要是掌握了这样的力量,想必能干出远远更加骇人的恶行。
专门研究法西斯主义的二十世纪哲学家汉娜.阿伦特说过,遏制二十世纪极权主义者的最主要因素就是技术跟不上,他们的工具非常不趁手。他们的测谎仪操作起来耗时漫长,一半时间都不好使,一名测谎员一次只能检测一个人。然后她阴恻恻地预言道——当时还是1968年——日后将会出现类似Palantir这样的系统:“警察梦想着办公室墙上挂着一张大地图,在任何时候都能标明某人有哪些关系人,以及他与这些关系人的亲密程度。这样的梦想并非无法实现,尽管技术执行的难度颇大。如果这样的地图确实存在,那么就算记忆也无法阻挡极权主义的统治。这张地图或许能不留痕迹地抹杀某些人,就好像他们从未存在过那样。”我想不出更加振聋发聩的主张来形容技术驱动的“遣返与消失”系统。
那么我们应该怎么办?新时代的抵抗组织是什么样子?我们要如何辨识来袭的权威主义?先说清楚,我并不认为我们眼下已经走到了最糟糕的地步。但是历史教育我们,权威主义的崛起往往会采取微妙且无法预测的方式,我们并不清楚我们距离倾覆点有多远。哲学家安伯托.艾柯出生在法西斯治下的意大利。他写了一篇非常精彩的论文名叫《永恒的法西斯主义》,描述了在他眼中不断卷土重来的法西斯主义不变特质:“法西斯依然在我们身边逡巡,有时身着便衣。如果有人在国际舞台上公然声称‘我们要重新启用奥斯维辛集中营,我们要让黑衫军再次在意大利的广场上阅兵’,那么这些人很容易就能得到辨识。但是生活并没有这么简单,法西斯下次重新露头时肯定会披着最无辜的伪装。”
我认为这正是理解权威主义的正确方式。权威主义无处不在,此时此刻就如同细菌一般跟随着我们乘坐火车到处传播。只要我们自身免疫能力不够强大,就难免遭到感染。就像任何有生命且会进化的复杂系统一样,民主制度也要不断对抗各种病症与失调。所以在思考抵抗力量的时候,或许我们应当思考如何构建免疫系统,合力打造足够强大的防御从而打退各种针对健康政治的袭击。那么这样一套系统应当如何构建?我认为过去几个月出现了不少积极征兆。为了反对穆斯林遣返政策,千百万人采取了行动,有人向议员写信呼吁,甚至还有人集体前往机场示威——他们原本并不必这样做。这就是我今天打算传达给各位的积极信息:黑暗的日子也可以成为激活免疫系统的刺激源,可以挑战我们做好准备。历史告诉我们,抵抗运动的效力往往会超出我们的想象。
我不知道有多少人认识画面上这个人。在二十世纪四十年代,正当二战战局看似最无望的时候,这位René Carmille设法在纳粹占领下的法国暗中破坏了当地的霍勒内斯系统。具体来说他破坏了机器里用来辨识犹太人身份的第十一栏,由此拯救了上千条生命。但是如果我们根本不知道第十一栏的存在,破坏第十一栏就无从谈起。所以我才认为我们很有必要更加深入地理解人工智能的运行方式。我们的数据之海广袤无边深不见底。我们的科技行业正在不断建造Mare Nostrum,建造机器学习与人工智能的圣殿,而我们很有必要测绘出它们的潜藏效果——往往还是意料之外的效果。我今天举的所有例子都来自花费很大气力揭示真相的记者、研究人员、律师与工程师。我想要感谢他们。我想感谢ProPublica的Julia Angwin关于机器偏见的非凡报道,我想感谢Mike Issac为《纽约时报》提供了优步灰球的新闻报道,我想感谢测试机器系统并且冒险公布测试结果的科学家与工程师们。是你们让我们的免疫系统更加强大。
那么我能干什么?我也想为这项事业尽一份力。我正在与几位同事一起筹建一个专门研究人工智能的社会影响的研究中心,名叫AI Now。这将是一个独立研究团体,旨在追踪各个核心社会机构应用人工智能的情况以及如何做得更好。与我的共同发起人Meredith Whitaker一道,我们将会研究机器学习与偏见,劳动自动化,人工智能如何通过关键基础设施来影响我们的基本权利与自由。我们的关注点在于近未来,也就是下一个十年到十五年的情况。我们不关心所谓的超级智能或者技术奇点,而是注重于当下的人们如何受到技术的影响。如果你也对这方面感兴趣,请在会后联系我们。我们想要集体构建一套人工智能解剖学,因为只有理解了人工智能如何运作——以及更重要的是,人工智能如何失灵——才能进一步讨论正当程序与问责机制的问题,不仅是法律问责,还有公共问责。公众应当理解怎样的系统参与了决策,决定了我们能否申请廉租房,能否进大学读书,何时能够出狱,是否会遭到遣返。我们希望确保这些系统尽可能地公平且符合伦理,在我们的能力范围内尽量摆脱隐形的偏见。我很高兴地宣布,美国公民自由联盟决定与我们合作,成为AI Now的共同发起人之一。他们的见解有助于理清技术冲击与公民自由之间的联系,因为只要应用正确,人工智能将会成为扼制特定权力结构的强大工具,但是如果落在错误的人手里,结果难免令人忧心忡忡……
归根结底,黑暗的日子可以促使我们更加强大地团结在一起,但是假如我们无所作为,只是单纯希望一切都会变好,这一点就不会发生。我认为,面对权威主义的兴起,最好的应对就是增强我们自身的免疫力以及相互扶持,因为人工智能必定将会成为未来的核心组成部分,而我们希望未来是一个我们乐意置身其中的地方。谢谢大家。