糖心vlog官方网站

人工智能只为一部分人工作,这才是当前最紧迫的危机

18-06-06

    随着人工智能和机器人的快速发展,开始有更多人对它们流露出担忧的情绪,甚至史蒂芬·霍金也表示,未来有一天,人工智能机器人将取代人类成为地球上的主导生命形式。本文作者 Simon Chandler 认为其实人工智能和机器人目前而言对我们社会最大的威胁不在于此。我们所恐惧的不应该是这些机器人,而是机器人背后的创造者们。

 

    史蒂芬·霍金表示,未来有一天,人工智能机器人将取代人类成为地球上的主导生命形式,埃隆·马斯克也说过类似的话。但是,近年来随着人工智能和机器人取得的令人瞩目的进步,他们对这个社会构成的最紧迫、最真切的威胁其实不在于此。具体来说,这种威胁并不是由人工智能和机器人会超越他们现在的特定服务目的(例如管理对冲基金或招募新员工)以及反抗其所有人的可能性而带来的。更确切地说,情况恰恰相反,正是由于这些人工智能设备和机器人能够非常高效的代表他们的主人来服务,因此才对这个社会产生了威胁性。事实上,由于机器人和人工智能设备到现在为止还没有展现出一点点的自主或独立性,因此很显然它们并不是像霍金所说的那样一种“新的生命形式”。它们更像是对那些创建和使用它们的人群的一种延伸,它们是精心制作的工具,用来增强这些人执行某项工作或者任务的能力。

 

    正是由于它们是操作者的一种延伸,所以它们对这个社会也构成了潜在的威胁。因为机器人是由具有特定价值观和利益的特定人群来设计和使用的,这就意味着它们的行动必然会反映并推广这些人的价值观和利益,而这些人的价值观和利益并不一定为所有群体和个人所认同。机器人所具有的卓越的效率和生产力,能够为那些拥有足够资源利用到它们的人提供明显的优势,这些人可能会以牺牲那些没有同等资源的其他人的利益为代价来重塑这个世界。你只要看看最近人工智能和机器学习算法导致偏见的事例就能想象,人工智能未来将如何加剧社会、经济和政治领域的不平等现象。例如,网络非盈利媒体 ProPublica 在 2016 年 5 月发表了一项研究成果,其中显示,美国多个州使用的再犯罪评估算法对非裔美国人有所偏见,将其错误标记为“高风险”再犯罪人员的几率为 44.9%,而白人的这一数据则为 23.5%。除此之外,2017 年 4 月发表于《科学》杂志的一篇研究论文发现,当机器学习工具从互联网上学习到大量的词汇联想法之后,会对女性和非裔美国人获得一种“类人语义偏见”(即刻板的印象)。



     这种情况下偏见的产生是由于人工智能设备和机器人只能从它们接收到的数据和参数中去学习。通常情况下,这些数据和参数是由那些设计和使用它们的人群来提供,例如白人以及那些站在社会金字塔顶尖、享有特权的男性。也正是因为如此,人工智能面部识别软件在识别有色人种的面孔方面表现一直不理想。并且,这也能说明为什么人工智能和机器人会以服务和推动它们制造者和所有者利益的方式来运作。除此之外,人工智能和机器人由于其所呈现出的卓越的效率,到 2017 年将渗透到 2470 万个工作岗位,这就意味着它们将会把制造者的标志烙印到生活和工作的大部分领域。它们会让数百万工人阶层失去工作,它们会打乱现在家庭生活的节奏,它们会让那些有能力大规模应用它们的发达国家获得相较于发展中国家更大的商业优势。最终,那些制造和拥有它们的民族和阶层将会聚集更高的全球影响力。也正是因为如此,那些日益增多的有关赋予机器人权利(甚至是公民权)的相关论调会让人感觉如此不安。因为,机器人和人工智能已经获得了其所有者的财产权保护,不能被随意破坏。这样一来,显而易见,赋予它们“权利”就不仅仅意味着赋予他们保护自己不备破坏的消极权利(因为他们已经拥有这些权利),而是意味着要赋予它们可以追求自己的目标,而不受一些人干扰的积极权利,例如,那些备受机器人想法折磨的人的干扰。换句话说,赋予机器人这种权利实际上就等同于赋予其所有者为达到自己的目的、实现自己的价值和利益所需的特殊的、受保护的地位。然后,这些所有人利用 AI 和机器人为自己的目标服务的能力就可以更进一步。

 

    最后,在有关人工智能相关讨论中经常会出现的一个话题也值得一提。无论是欧洲议会,还是研究机构,经常会说我们需要确保人工智能机器人能够学习并且维护人类的价值观。然而,问题在于:机器人究竟学习并且维护的是哪些人的价值观呢?而这个全人类又是由谁来代表的呢?无论真正普世的价值观是否能够灌输到智能机器人之中,这种说法只能表明机器人的所作所为只能在某个方向上产生道德、社会和经济方面的成果,因此它们也只能是作为某些价值观的代理人。而令人担忧的一个事实是,这些机器人很大程度上是由一些特定的公司和工业家阶层来制造和掌握,因此它们的能力也很有可能会为这样一个阶层的价值观和利益带来明显的好处。

返回顶部 ↑
糖心vlog官方网站