CIFCOM跨境电商 CIFCOM跨境电商

当前位置: 首页 » 出海百科 »

怎么理解呢

2024 年人工智能伦理的 9 大困境及应对方法

尽管人工智能正在改变企业的运作方式,但人们仍然担心它会如何影响我们的生活。这不仅是一个学术或社会问题,而且是公司的声誉风险,没有公司希望受到影响亚马逊等公司的数据或人工智能道德丑闻的损害。例如,由于将 Rekognition 出售给执法部门而引起了强烈反对。随后,亚马逊决定停止向执法部门提供这项技术一年,因为他们预计届时将建立适当的法律框架。

本文提供了有关人工智能使用中出现的道德问题的见解、滥用人工智能的示例以及构建负责任的人工智能的最佳实践。

人工智能的伦理困境是什么?

自动决策/人工智能偏见

人工智能算法和训练数据可能像人类一样包含偏差,因为它们也是由人类生成的。这些偏见阻碍人工智能系统做出公平的决策。由于两个原因,我们在人工智能系统中遇到了偏见

开发人员可能会在没有注意到的情况下对有偏见的人工智能系统进行编程

用于训练人工智能算法的历史数据可能不足以公平地代表整个人口。

有偏见的人工智能算法可能会导致对少数群体的歧视。例如, 亚马逊 在使用人工智能招聘工具一年后关闭了该工具。1转到脚注亚马逊的开发人员表示,该工具正在惩罚女性。人工智能工具选择的候选人中约有 60% 是男性,这是由于亚马逊历史招聘数据的模式所致。

为了建立一个有道德和负责任的人工智能,消除人工智能系统中的偏见是必要的。然而,只有 47% 的组织测试了数据、模型和人类使用算法的偏差。2转到脚注

尽管由于现有的大量人类偏见和不断发现的新偏见,消除人工智能系统中的所有偏见几乎是不可能的,但最大限度地减少它们可能是企业的目标。

如果您想了解更多信息,请随时查看我们关于人工智能偏见以及如何使用最佳实践和工具将其最小化的综合指南。此外,以数据为中心的人工智能开发方法可以帮助解决人工智能系统中的偏见。

自主事物

自主事物 (AuT) 是指无需人工干预即可自主执行特定任务的设备和机器。这些机器包括自动驾驶汽车、无人机和机器人。由于机器人道德是一个广泛的话题,我们重点关注因使用自动驾驶车辆和无人机而出现的不道德问题。

自动驾驶汽车

2024 年自动驾驶汽车市场价值 540 亿美元,预计到 2026 年将达到 5570 亿美元。3转到脚注然而,自动驾驶汽车给人工智能道德准则带来了各种风险。人们和政府仍然质疑自动驾驶汽车的责任和问责制。

例如,2018年,一辆Uber自动驾驶汽车撞上了一名行人,该行人后来在医院死亡。4转到脚注这起事故被记录为首例涉及自动驾驶汽车的死亡事故。经亚利桑那州警察局和美国国家运输安全委员会(NTSB)调查后,检察官裁定该公司不对行人的死亡承担刑事责任。这是因为安全驾驶员用手机分散了注意力,警方报告称事故完全可以避免”。

致命自主武器 (LAW)

LAW是人工智能军备竞赛中的武器之一。 LAW 根据编程的约束和描述独立识别和攻击目标。关于在军队中使用武器化人工智能的道德问题一直存在争议。例如,2018年,联合国聚集在一起讨论这个问题。具体来说,支持法律的国家一直在这个问题上直言不讳。 (包括韩国、俄罗斯和美国。)

非政府团体广泛反对使用法律。例如,一个名为阻止杀手机器人运动”的社区写了一封信,警告人工智能军备竞赛的威胁。斯蒂芬·霍金、埃隆·马斯克、史蒂夫·沃兹尼亚克、诺姆·乔姆斯基、贾恩·塔林和杰米斯·哈萨比斯等一些知名人士也在这封信上签名。

自动化导致的失业和收入不平等

这是目前对人工智能最大的恐惧。据 CNBC 调查, 27% 的美国公民认为人工智能将在五年内消除他们的工作。5转到脚注对于年龄在 18 岁至 24 岁之间的公民,这一比例增至 37%。

尽管这些数字对于最大的人工智能恐惧”来说可能看起来并不大,但不要忘记这只是对未来五年的预测。

据 麦肯锡 估计,到 2030 年,智能代理和机器人可能会取代全球目前 30% 的人类劳动力。根据不同的采用场景,自动化将取代 400 至 8 亿个工作岗位,需要多达 3.75 亿人完全取代切换工作类别。

比较社会的5年预期和麦肯锡的10年预测表明,人们对失业的预期比行业专家的估计更加明显。然而,两者都表明,由于人工智能的进步,很大一部分人口失业。

对人工智能驱动的自动化影响的另一个担忧是收入不平等加剧。一项研究发现,自 1980 年以来,自动化已使美国专门从事日常工作的工人的工资减少或降低了 50% 至 70%。

人工智能的滥用

限制隐私的监控做法

大哥正望着你。”这是乔治·奥威尔的反乌托邦社会科幻小说《1984》中的一句话。虽然它是作为科幻小说写的,但随着政府部署人工智能进行大规模监控,它可能已经成为现实。将 面部识别 技术应用于监控系统涉及隐私权。

根据人工智能全球监控(AIGS)指数,176个国家正在使用人工智能监控系统,自由民主国家是人工智能监控的主要用户。6转到脚注同一项研究表明,51% 的先进民主国家部署了人工智能监控系统,而封闭专制国家的这一比例为 37%。然而,这可能是由于这两组国家之间的贫富差距造成的。

从道德角度来看,重要的问题是政府是否滥用该技术或合法使用该技术。 奥威尔式”监视方法违反人权。

一些科技巨头还表达了对人工智能监控的道德担忧。例如,微软总裁布拉德史密斯发表了一篇博文,呼吁政府监管面部识别。7转到脚注此外,IBM 停止提供用于大规模监控的技术,因为该技术可能会被滥用,例如侵犯基本人权的种族定性。8转到脚注

操纵人类判断

人工智能驱动的分析 可以提供对人类行为的可行见解,但是,滥用分析来操纵人类决策在道德上是错误的。滥用分析最著名的例子是 Facebook 和 Cambridge Analytica 的数据丑闻。9转到脚注

Cambridge Analytica 将 Facebook 上抓取的美国选民数据出售给政治竞选活动,并为特德·克鲁兹 (Ted Cruz) 和唐纳德·特朗普 (Donald Trump) 2016 年的总统竞选提供帮助和分析。有关数据泄露的信息于 2018 年被披露,联邦贸易委员会因 Facebook 侵犯隐私而对其处以 50 亿美元的罚款。10转到脚注

深度造假的扩散

Deepfakes 是合成生成的图像或视频,其中媒体中的人物被替换为其他人的肖像。

尽管大约 96% 的 Deepfake 是色情视频,在四大 Deepfake 色情网站上的观看次数超过 1.34 亿次,但社会对 Deepfake 的真正危险和道德担忧是它们如何被用来歪曲政治领导人的演讲。11转到脚注

使用深度造假创造虚假叙述可能会损害人们对媒体的信任(已经处于历史最低水平)。12转到脚注这种不信任对于社会来说是危险的,因为大众媒体仍然是政府向人们通报紧急事件(例如大流行)的首要选择。

通用人工智能(AGI)/奇点

具有人类理解能力的机器可能会对人类构成威胁,此类研究可能需要受到监管。尽管 大多数人工智能专家并不期望很快(2060 年之前)出现奇点(AGI),但随着人工智能能力的增强,从伦理角度来看,这是一个重要的话题。

当人们谈论人工智能时,他们主要指的是狭义的人工智能系统,也称为弱人工智能,它被指定用于处理单一或有限的任务。另一方面,AGI 是我们在科幻小说和电影中看到的人工智能形式。 AGI 意味着机器可以理解或学习人类可以理解或学习的任何智力任务。

机器人伦理

机器人伦理,也称为机器人伦理,包括人类如何设计、建造、使用和对待机器人。自 20 世纪 40 年代初以来,关于机器人伦理学的争论一直存在。争论主要源于机器人是否拥有像人类和动物一样的权利的问题。随着人工智能能力的增强,这些问题变得越来越重要,现在像AI Now这样的机构专注于以学术严谨的方式探索这些问题。

作家艾萨克·阿西莫夫(Isaac Asimov)是第一个在他的短篇小说《Runaround》中谈论机器人法则的人。他介绍了机器人三定律13转到脚注:

机器人不得伤害人类,或因不作为而允许人类受到伤害。

机器人必须服从人类发出的命令,除非这些命令与第一定律相冲突。

机器人必须保护自己的存在,只要这种保护不违反第一或第二定律。

生成人工智能特定的道德问题

生成式人工智能的伦理道德相对较新,并且随着各种生成模型的发布而受到关注,特别是 OpenAI 的ChatGPT 。 ChatGPT 因其能够在广泛的主题上创建真实的内容而迅速流行起来。与此同时,它也带来了一些真正的道德问题。

真实性和准确性

生成式人工智能采用机器学习技术来生成新信息,这可能会导致不准确(见图 1)。此外,像 ChatGPT 这样的预训练语言模型无法更新和适应新信息。

最近,语言模型的说服力和雄辩能力变得更加熟练。然而,这种先进的熟练程度也带来了传播虚假信息甚至制造虚假陈述的可能性。

图 1. 根据 TruthfulQA 基准测试,平均而言,大多数生成模型只有 25% 的时间是真实的。

来源14转到脚注:斯坦福大学人工智能指数报告2024

版权歧义

生成式人工智能的另一个道德考虑是人工智能创建的内容的作者和版权的不确定性。这就引发了关于谁拥有这些作品的权利以及如何使用它们的问题。版权问题围绕三个主要问题:

人工智能创作的作品是否应该受到版权保护?

谁拥有所创建内容的所有权?

受版权保护的生成数据可以用于培训目的吗?

有关此问题的详细讨论,您可以查看我们关于生成人工智能的版权问题的文章。

滥用生成式人工智能

教育:生成式人工智能有可能因创建看似真实的虚假或不准确信息而被滥用。这可能会导致学生收到不正确的信息或被误导。此外,学生还可以使用 ChatGPT 等生成式人工智能工具来准备各种科目的作业。

如何解决这些困境?

这些都是难题,可能需要像全民基本收入这样创新且有争议的解决方案来解决它们。有许多倡议和组织旨在最大限度地减少人工智能的潜在负面影响。例如,慕尼黑工业大学人工智能伦理研究所 (IEAI) 在移动、就业、医疗保健和可持续发展等各个领域开展人工智能研究。

解决这些道德困境的一些最佳实践是:

透明度

人工智能开发人员有道德义务以结构化、可访问的方式保持透明,因为人工智能技术有可能违反法律并对人类体验产生负面影响。为了使人工智能易于访问且透明,知识共享可以提供帮助。一些举措是:

人工智能研究即使是在私营营利性公司中进行,也往往会公开分享

OpenAI 是一家非盈利性人工智能研究公司,由埃隆·马斯克、山姆·奥尔特曼等人创建,旨在开发造福人类的开源人工智能。然而,通过将其独家模型之一出售
给微软而不是发布源代码,OpenAI 降低了其透明度。

谷歌开发了 TensorFlow,一个广泛使用的开源机器学习库,以促进人工智能的采用。

AI 研究人员 Ben Goertzel 和 David Hart 创建了 OpenCog 作为 AI 开发的开源框架

谷歌(和其他科技巨头)有一个专门针对人工智能的 博客 ,使他们能够向世界传播其人工智能知识。

可解释性

人工智能开发人员和企业需要解释他们的算法如何得出预测,以克服因预测不准确而出现的道德问题。各种技术方法可以解释这些算法如何得出这些结论以及哪些因素影响决策。我们之前介绍过可解释的人工智能, 请随意查看。

包容性

人工智能研究往往由富裕国家的男性研究人员完成。这导致了人工智能模型的偏差。人工智能社区日益多样化是提高模型质量和减少偏差的关键。哈佛大学支持了许多类似的举措来增加社区内的多样性,但迄今为止它们的影响有限。

这可以帮助解决自动化决策系统可能引起的失业和歧视等问题。

结盟

许多国家、公司和大学都在建设人工智能系统,但在大多数领域,还没有适应人工智能最新发展的法律框架。国家和更高级别(例如联合国)法律框架的现代化将明确人工智能发展的道德道路。先锋公司应该带头努力,为他们的行业创造清晰度。

人工智能伦理框架

学术界也在研究框架,以在企业中实现道德人工智能。下面介绍的沙漏模型就是一个例子,它概述了组织、人工智能系统和环境如何交互。15转到脚注它还为那些寻求人工智能道德的结构化方法的人提供了广泛的任务列表。16转到脚注

图:人工智能伦理框架

参考资料:

Amazon scrapped ‘sexist AI’ tool.” BBC, 10 October 2018. Accessed 2 January 2024.

Responsible AI Toolkit.” PwC. Accessed 2 January 2024.

Autonomous Vehicle Market Size Worth $448.6 Billion by 2035.” Allied Market Research. Accessed 2 January 2024.

Uber’s self-driving operator charged over fatal crash.” BBC, 16 September 2024. Accessed 2 January 2024.

This is the industry that has some of the happiest workers in America.” CNBC, 4 November 2024. Accessed 2 January 2024.

The Global Expansion of AI Surveillance.” Carnegie Endowment for International Peace, 17 September 2024. Accessed 2 January 2024.

Facial recognition technology: The need for public regulation and corporate responsibility – Microsoft On the Issues.” Microsoft Blog, 13 July 2018. Accessed 2 January 2024.

IBM will no longer offer, develop, or research facial recognition technology.” The Verge, 8 June 2024. Accessed 2 January 2024.

Facebook–Cambridge Analytica data scandal.” Wikipedia. Accessed 2 January 2024.

FTC Imposes $5 Billion Penalty and Sweeping New Privacy Restrictions on Facebook.” Federal Trade Commission, 24 July 2024. Accessed 2 January 2024.

Debating the ethics of deepfakes.” ORF, 27 August 2024. Accessed 2 January 2024.

News Media Credibility Rating Falls to a New Low.” Morning Consult Pro, 22 April 2024. Accessed 2 January 2024.

Three Laws of Robotics.” Wikipedia. Accessed 2 January 2024.

Artificial Intelligence Index Report 2024.” AI Index. Accessed 22 February 2024.

The hourglass model. Accessed June 24, 2024

List of AI Governance Tasks. Accessed June 24, 2024

人工智能的道德困境:伦理问题与未来展望

前言

在这个由算法和机器学习编织的世界里,人工智能(AI)不再是科幻小说中的概念,而是我们日常生活中不可或缺的一部分。从智能助手到自动驾驶汽车,AI正以前所未有的速度重塑着我们的社会结构。

然而,随着AI技术的飞速发展,一系列道德困境和伦理问题也浮出水面,迫切需要我们深入探讨和审慎对待。正如艾伦·图灵所预见:机器能够思考吗?”这个问题开启了对AI伦理的无限思考。

一、人工智能的快速发展

人工智能的发展历程犹如一场精彩绝伦的科技马拉松。从最初的逻辑推理机到今天的深度学习网络,AI的每一次飞跃都是人类智慧的体现。如今,AI已经广泛应用于医疗、金融、教育等多个行业,成为推动社会发展的重要力量。据估计,到2030年,AI将为全球经济增加约15.7万亿美元的价值。

二、隐私权的挑战

在AI的世界里,数据是新的石油。智能设备和算法每天都在收集海量的个人数据,为我们提供便捷的服务。然而,这也带来了隐私泄露的风险。如何平衡数据利用与个人隐私保护,成为AI发展中的一大难题。例如,2018年,剑桥分析公司不当使用Facebook用户数据的丑闻,凸显了数据隐私保护的重要性。

三、自动化带来的就业问题

AI自动化的浪潮正席卷全球,它改变了传统的工作方式,提高了生产效率。但同时,自动化也可能导致某些职业的消失,引发就业问题。如何在这一变革中保障劳动者的权益,是我们必须面对的挑战。麦肯锡全球研究院预测,到2030年,自动化可能使全球8亿人口的工作受到影响。

四、决策的透明度和可解释性

AI的决策过程常常像一个黑箱”,我们很难理解其背后的逻辑。这种不透明性可能导致信任危机。例如,谷歌的DeepMind Health项目在处理医疗数据时,其算法的透明度受到了质疑。因此,提高AI决策的透明度和可解释性,对于赢得公众信任至关重要。

五、算法偏见与歧视

算法偏见是AI领域一个不容忽视的问题。由于训练数据的不均衡或算法设计的问题,AI可能会在决策中表现出不公平。识别和减少算法偏见,是确保AI公正性的关键。例如,2016年,美国的一项研究发现,某些司法AI系统在评估犯罪风险时对黑人被告存在偏见。

六、AI的自主性和责任归属

随着AI技术的不断进步,AI系统的自主性也在不断增强。这引发了关于AI责任归属的讨论。当AI做出错误决策时,谁应该为此负责?这是一个复杂而微妙的问题。正如埃隆·马斯克所警告:如果AI的一个决定导致某人受伤,那么我们应该怪谁?”

七、AI与人类身份的界限

AI的发展也引发了关于人类身份的思考。随着AI在情感、创造力和道德判断方面的能力越来越强,我们如何界定人与机器的界限?这不仅是一个技术问题,更是一个哲学问题。

八、国际合作与AI伦理标准

在全球化的今天,AI伦理问题需要国际社会的共同努力。不同国家和地区在AI伦理上存在差异,但通过国际合作,我们可以制定全球性的AI伦理原则,引导AI技术的健康发展。例如,欧盟在2024年发布了《可信赖AI伦理指南》,旨在引导AI技术的健康发展。

九、展望未来

人工智能的发展带来了前所未有的机遇,也带来了一系列道德困境。正如艾萨克·阿西莫夫在其著名的机器人三大法则中所体现的,我们需要在技术创新与伦理考量之间寻求平衡。展望未来,我们需要不断探索AI伦理的发展方向,以确保AI技术能够造福人类,而不是成为新的挑战。

结语

本文以生动自然的语言,详细叙述了人工智能在快速发展中所面临的伦理问题,并对未来的发展方向进行了展望。希望通过本文的探讨,能够引发公众对AI伦理重要性的思考,并促进对这一领域深入讨论的开展。

刷脸泛滥,人工智能需要处理伦理道德问题的能力吗?

正如波特兰州立大学计算机科学教授梅拉妮·米歇尔在《AI 3.0:思考人类的指南》一书中所说的那样,当下的人工智能技术对你可能一直在使用的许多服务都起到了核心作用,有些甚至你都没有意识到,如语音转录、GPS导航和出行规划、垃圾邮件过滤、语言翻译、信用卡欺诈警报、书籍和音乐推荐、计算机病毒防护以及建筑物能源利用优化等。

但在人工智能为我们的生活带来各种便利之余,人们也难免产生担忧和质疑:让人工智能来接管那些枯燥无聊、令人疲倦、有辱人格或者极其危险又工资低廉的工作真的能够造福社会吗?人工智能的研究与开发应在多大程度上受到监管?又应该由谁来监管?人们倾向于应该针对人工智能领域制定监管和道德规范,但尚未达成普遍共识的地方在于:是应该立即将重点放在能够解释人工智能系统推理过程的算法方面,还是关于数据的隐私方面,或是人工智能系统对恶意攻击的鲁棒性(指在异常和危险情况下系统生存的能力)方面,又或是关于人工智能系统的偏见以及关于超级智能潜在的风险方面?

电影《机器人与弗兰克》(2012)剧照。

对于即将到来的人工智能时代,人们的态度截然不同:有人认为人工智能实际上能够消除全球贫困,大规模减少疾病,并为地球上绝大多数人提供更好的教育。有人则对未来有一种相当悲观的预测:大批的工作被自动化技术接管导致的人类失业;由于人工智能监视而造成的对公民的隐私和权利的侵犯;不道德的自动化武器;由不透明和不可信的计算机程序做出的未经审查的决策;种族和性别偏见被放大;大众媒体被操纵;网络犯罪增多等。

那么,我们到底如何才能创造出一个真正能靠自己进行学习的人工智能系统——一个更值得信赖的系统,一个和人类一样,可以对其所面临的情况进行推理并对未来进行规划的系统呢?

以下内容经出版社授权节选自《AI 3.0:思考人类的指南》,标题为摘编者所取。

原文作者丨[美]梅拉妮·米歇尔

摘编丨安也

《AI 3.0:思考人类的指南》,[美]梅拉妮·米歇尔著,王飞跃、李玉珂、王晓、张慧译,湛庐文化丨四川科学技术出版社,2024年2月。

在考虑人工智能在我们社会中的作用时,我们很容易把注意力集中在不利的一面,但是,要知道,人工智能系统已经为社会带来了巨大好处,并且它们有潜力发挥更大的作用。当下的人工智能技术对你可能一直在使用的许多服务都起到了核心作用,有些甚至你都没有意识到,如语音转录、GPS导航和出行规划、垃圾邮件过滤、语言翻译、信用卡欺诈警报、书籍和音乐推荐、计算机病毒防护以及建筑物能源利用优化等。

如果你是摄影师、电影制作人、艺术家或音乐家,你可能正在使用人工智能系统来协助开展创作,例如用以帮助摄影师照片、协助作曲家编曲的计算机程序。如果你是学生,你可能会从适合你自己学习风格的智能教学系统”中受益。如果你是科学家,你很有可能已经使用了许多可用的人工智能工具中的一种来帮助你分析数据。

如果你是视力存在障碍的人,你可能会使用智能手机的计算机视觉应用程序来阅读手写的或印刷的文字,例如标牌、餐馆菜单或钞票上的文字。如果你是听力受损人士,如今你可以在YouTube上看到非常精准的字幕,在某些情况下,你甚至可以在一次演讲中获得实时的语音转录。这些只是当前人工智能工具正在改善人们生活的几个例子,许多其他的人工智能技术仍处于研究阶段,但也正渐渐成为主流。

在不久的将来,人工智能相关应用可能会在医疗保健领域得到广泛普及。我们将看到人工智能系统帮助医生诊断疾病并提出治疗建议、研发新的药物、监控家中老年人的健康和安全。科学建模和数据分析也将越来越依赖人工智能工具,例如,改善气候变化、人口增长和人口结构、生态和食品科学以及在22世纪我们的社会即将面临的其他重大问题的模型。对于DeepMind的联合创始人戴米斯·哈萨比斯来说,人工智能最重要的潜在好处是:

我们可能不得不清醒地认识到,由于这些问题可能太过复杂,即便由地球上最聪明的人来努力解决这些问题,单独的人类个体和科学家在有生之年都很难有足够的时间来取得足够的创新和进步……我的信念是,我们需要一些帮助,而我认为人工智能就是这一问题的解决方案。

我们都曾听说过,人工智能将会接手那些人类所讨厌的工作,如那些枯燥无聊、令人疲倦、有辱人格或者极其危险又工资低廉的工作。如果这种情况真的发生了,那将会真正有利于增加人类社会福祉。随后我将讨论这个问题的另一面:人工智能夺走了太多人类的工作。尽管还有许多工作超出了机器人目前的能力,但机器人已经被广泛地用于琐碎和重复的工厂任务了,随着人工智能的发展,越来越多的这类工作可能会被自动化的机器人取代。未来人工智能应用的具体实例包括:自动驾驶卡车和出租车,用于收割水果、扑灭大火、扫除地雷和清理环境等。除此之外,机器人可能会在太空探索中发挥出比目前更大的作用。

让人工智能来接管这些工作真的能够造福社会吗?我们可以回顾一下科技的发展历史,来从中得到一些启发。以下是人类曾经从事过但在很久以前就已经实现自动化了的一些工作的示例:洗衣工、人力车夫、电梯操作员和计算员。大多数人会认同:在以上这些例子中,使用机器代替人类做这些工作,确实让生活变得更美好了。有人可能会争辩说,如今的人工智能只是简单地延续了人类的进步路线,将那些必要的但却没人想做的工作逐渐实现自动化,从而改善人类的生活。

01

人工智能大权衡:

我们是该拥抱,还是谨慎?

吴恩达曾乐观地宣称:人工智能是新‘电能’。”他进一步解释道:正如100年前电能几乎改变了所有行业一样,今天我真的很难想到有哪个行业在未来几年内是不会被人工智能改变的。”有一个很有吸引力的类比:很快人工智能就会如电能一样,尽管看不到,但对电子设备来说却非常必要。电能与人工智能的一个主要的区别在于,电能在被广泛商业化之前就已经被充分认识,我们非常了解电能的功用,而对于如今许多人工智能系统的情况,我们却没有足够的认识。

电影《机器人与弗兰克》(2012)剧照。

这将带来所谓的人工智能大权衡(great AI trade-off)。我们是应该拥抱人工智能系统,利用其能力来改善我们的生活,甚至帮助拯救生命,并且允许这些系统被更加广泛地使用呢,还是考虑当下人工智能存在难以预见的错误、易受偏见影响、易被黑客攻击以及缺少透明度等特点,应该更谨慎地使用人工智能来制定决策?对不同的人工智能应用,人类需要在多大程度上参与其中?为充分信任人工智能并使其自主工作,我们应该对人工智能系统提出哪些要求?尽管人工智能应用的部署越来越多,并且以之为基础的未来应用(如自动驾驶汽车)刚诞生就得到了吹捧,但这些问题仍在激烈讨论中。

皮尤研究中心(Pew Research Center)的一项研究表明:人们在这些问题上普遍缺乏共识 。2018年,皮尤的分析师征集了近千名相关人士的意见,其中包括技术先驱、创新者、研发人员、商业和政策领袖及活动家等,并要求他们回答如下问题:

你是否会认为,到2030年,先进的人工智能和相关技术系统很有可能会增强人类能力并为人类赋能?也就是说,那时,大多数人在大多数时候会比今天生活得更好?还是说,先进的人工智能和相关技术系统很有可能会削减人类的自治权和代理权,使得那时大多数人的状况并不会比当前更好呢?

受访者分为了两派:63%的人认为2030年人工智能的进步将使人类的状况变得更好,而 37%的人则不这么认为。有人认为人工智能实际上能够消除全球贫困,大规模减少疾病,并为地球上绝大多数人提供更好的教育。有人则对未来有一种相当悲观的预测:大批的工作被自动化技术接管导致的人类失业;由于人工智能监视而造成的对公民的隐私和权利的侵犯;不道德的自动化武器;由不透明和不可信的计算机程序做出的未经审查的决策;种族和性别偏见被放大;大众媒体被操纵;网络犯罪增多等。一位受访者将未来的世界描述为:真实,但与人类无关。”

机器智能引发了一系列棘手的伦理道德问题,与人工智能和大数据伦理相关的讨论已经可以写满好几本书了。为了说明这些问题的复杂性,我将对一个在当前已经引起人们大量关注的案例展开深入探讨:人脸识别。

02

谁来监管?人脸识别的伦理困境

电影《我,机器人》(2004)剧照。

人脸识别是使用文字来标注图像或视频中的人脸的任务。例如,Facebook将人脸识别算法应用到上传至其网站的每张照片上,尝试检测照片中的人脸并将其与已知的用户(至少是那些未禁用此项功能的用户)进行匹配。如果你在Facebook的平台上,并且某人发布了一张包含你的脸的照片,系统可能会询问你,是否要在照片中标记自己。Facebook人脸识别算法的准确性令人惊叹,但同时也令人害怕。不出所料,这种准确性源自对深度卷积神经网络的使用。该软件不仅可以对图像中位于中心位置的正脸进行人脸识别,而且可以对人群中的某一个人的脸进行识别。

人脸识别技术有许多潜在的好处,比如,帮助人们从照片集中检索图像;使视力受损的用户能够识别他们所遇到的人;通过扫描照片和视频中的人脸定位失踪儿童或逃犯,以及检测身份盗用等。我们也很容易想得到会有许多人认为这种应用程序具有侵犯性或威胁性。例如,亚马逊向警方推销了它的人脸识别系统(使用了一个奇怪的听起来像是反乌托邦式的名称Rekognition”),该系统可以将安保相机拍摄的视频与一个已知罪犯或嫌疑人的数据库进行比对,但许多人为该系统可能造成的隐私侵犯问题感到担忧。

隐私问题是人脸识别技术应用中一个显而易见的问题。即便我不使用Facebook或任何其他具有人脸识别功能的社交媒体平台,我的照片也可能会在未经我允许的情况下被标记并随后在网上被自动识别,想一想提供收费人脸识别服务的FaceFirst公司。据《新科学家》(New Scientist)杂志报道:Face First正在面向零售商推出一套系统,据称这套系统可以通过识别每次购物的高价值客户来进行促销,而当多次被投诉的顾客进入任何一家门店时,该系统就会发出警报。”还有许多其他公司提供类似的服务。

失去隐私并不是唯一的风险,人们对于人脸识别还有一个更大的担忧,那就是可靠性:人脸识别系统会犯错。如果你的脸被错误匹配,你可能会被禁止进入一家商店、 搭乘一架航班, 或被错误地指控为一名罪犯。

更重要的是,目前的人脸识别系统已经被证明对有色人种进行识别时明显比对白人的识别错误率更高。强烈反对使用人脸识别技术来对公民权利进行执法的美国公民自由联盟,用 535名国会议员的照片对亚马逊人脸识别产品Rekognition系统进行了测试(使用其默认设置),将这些议员的照片与因刑事指控而被捕的人员数据库进行了比较,他们发现,该系统错误地将535名国会议员中的28人与犯罪数据库中的人员匹配上了。在非洲裔美国人议员中,照片的识别错误率更是高达21%(非洲裔美国人只占美国国会议员的9%)。

美国公民自由联盟的测试和其他研究结果显示出了人脸识别系统的不可靠性和偏见的附加后果,因此,许多高科技公司宣布他们反对将人脸识别用于执法和监管。举例来说,人脸识别公司Kairos的首席执行官布莱恩·布拉肯(Brian Brackeen)就在一篇广为流传的文章中写道:

用于对嫌疑人身份进行识别的人脸识别技术,对有色人种造成了负面的影响。这是一个不容否认的事实……我和我的公司已经开始相信,将商业人脸识别系统应用在任何形式的执法或政府监管中都是错误的,它为道德败坏者的明知故犯打开了大门……我们应该追求一个未授权政府对公民进行分类、跟踪和控制的世界。

在微软公司网站上的一篇博客文章中,其总裁兼首席法律顾问布拉德·史密斯(Brad Smith)呼吁国会规范人脸识别系统的使用:

人脸识别技术引发了一些与保障隐私和言论自由等基本人权有关的核心问题,这些问题增加了制造这些产品的科技公司的责任。我们认为,更加周密的政府监管,以及围绕其可接受的用途制定规范是必需的,而这将需要公共部门和私人机构共同采取行动。

谷歌紧随其后,宣布其不会通过人工智能云平台提供通用的人脸识别服务,直到他们能够确保这一技术的使用符合谷歌的原则和价值观,并能够避免滥用和有害的后果。这些公司的反应令人欣慰,但这又带来了另一个令人困扰的问题:人工智能的研究与开发应在多大程度上受到监管?又应该由谁来监管?

03

人工智能可以自我监管吗?

考虑到人工智能技术的风险,包括我在内的许多人工智能从业者,都赞成人工智能技术应该受到某种监管,但是监管不应该仅仅掌握在人工智能研究人员和相关公司的手里。围绕人工智能的问题,比如可信度、可解释性、偏见、易受攻击性和使用过程中出现的道德问题,与技术问题一样,都是牵涉社会和政治方面的问题。于是,围绕这些问题的讨论有必要接纳持有不同观点和具有不同背景的人们。简单地将监管的职责交给人工智能从业者,就像将其完全交给政府机构一样,都是不明智的。

有一个案例可以体现制定此类法规所面临的复杂性,欧盟议会在2018年颁布了一项关于人工智能的法规,有些人称之为解释权”。这项法规要求,在自动决策制定”的情况下,任何一个影响欧盟公民的决策都需要提供其中所涉及的与逻辑有关的有意义信息,并且这些信息需要使用清晰明了的语言,以简洁、透明、易懂和易于访问的形式来沟通和传达,这打开了有关解释问题的闸门。什么叫有意义”或与逻辑有关”的信息?这一法规是否禁止在制定对公民有所影响的决策时使用难以解释的深度学习方法?例如在贷款和人脸识别等方面。这种不确定性无疑将确保政策制定者和律师在很长一段时间内仍有取酬就业的机会。

表现主义科幻默片电影《大都会》(1927)》剧照。

我认为对人工智能的监管应该参照其他领域的技术监管,尤其是那些在生物和医学领域的技术,例如基因工程。在这些领域,像质量保证、技术的风险和收益分析这样的监管是通过政府机构、公司、非营利性组织和大学之间的合作而产生的。此外,现在已经建立了生物伦理学和医学伦理学领域,这些领域对技术的研发和应用方面的决策具有相当大的影响。人工智能领域的研究及其应用非常需要深思熟虑的考量和一定的道德基础。

这个基础已经开始形成。在美国,各州政府正在研究制定相关法规,例如用于人脸识别或自动驾驶汽车的法规。更重要的是,创建人工智能系统的大学和公司也需要进行自我监管。

许多非营利性的智库已经出现,并填补了这一空缺,这些智库通常由担忧人工智能的富有的科技公司企业家资助。这些组织,如人类未来研究所”(Future of Humanity Institute)、未来生命研究所”(Future of Life Institute)和存在风险研究中心”(Centre for the Study of Existential Risk)经常举办研讨会、赞助研究,以及就人工智能的安全与道德问题这一主题编著教育材料,并给出一些政策建议。一个名为人工智能合作伙伴关系”(Partnership on AI)的伞状组织一直在努力将这类团体聚集在一起,打造一个讨论人工智能及其对人类和社会的影响的开放平台。

电影《她》(2013)剧照。

目前存在的一个障碍是:该领域在制定监管和道德规范的优先事项方面,尚未达成普遍共识。是应该立即将重点放在能够解释人工智能系统推理过程的算法方面,还是关于数据的隐私方面,或是人工智能系统对恶意攻击的鲁棒性方面,又或是关于人工智能系统的偏见以及关于超级智能潜在的风险方面?我个人的观点是,人们对超级智能可能带来的风险给予了太多关注,而对于深度学习缺乏可靠性和透明性,及其易受攻击性的关注则远远不够。

04

需要把处理伦理道德问题的能力,

赋予机器吗?

到目前为止,我的讨论集中于人类如何使用人工智能的道德问题,但是还有一个重要的问题:机器本身是否能够拥有自己的道德意识,并且足够完备以使它们能够独立做出道德决策而无须人类监管?如果我们要给予人脸识别系统、无人驾驶汽车、老年护理机器人甚至机器人士兵决策自主权,难道我们不需要把人类所拥有的处理伦理道德问题的能力赋予这些机器吗?

自从人们开始思考人工智能,就开始了关于机器道德”问题的思考。也许,关于机器道德的最著名的讨论来自艾萨克·阿西莫夫(Isaac Asimov)的科幻小说,他在小说中提出了著名的机器人三定律”:

第一定律:机器人不得伤害人类个体,或者对人类个体将遭受的危 险袖手旁观;

第二定律:机器人必须服从人类给予它的命令,当该命令与第一定 律冲突时例外;

第三定律:机器人在不违反第一、第二定律的情况下,要尽可能地 保护自己。

这些定律已非常知名,但实际上,阿西莫夫提出机器人三定律的目的是证明这套 定律会不可避免地失败。阿西莫夫在 1942 年首次提出这些定律时讲述了一个名为 逃跑”的故事:如果一个机器人遵循第二定律向危险物质移动,这时第三定律将会生效,机器人随即远离该物质;此时第二定律又重新开始生效。于是,机器人将被困 在一个无尽的循环中,最终对机器人的人类主人造成了灾难性的后果。阿西莫夫的故 事通常集中讨论把伦理规则编程置入机器人后可能引发的意外后果。阿西莫夫是有先 见之明的:正如我们所看到的,不完整的规则和意外所引发的问题已经妨碍了所有基 于规则的人工智能方法,道德推理也不例外。

科幻小说家亚瑟·克拉克(Arthur C. Clarke)在其 1968 年出版的《2001:太空漫游》中描写了一个类似的情节。人工智能计算机 HAL 被编程为始终对人类保持诚实,但同时又要对人类宇航员隐瞒他们的太空任务的真实目的。与阿西莫夫的笨拙的机器人不同,HAL饱受这种认知失调的心理痛苦的折磨:他意识到隐瞒真相与保持忠诚之间的这种冲突正在慢慢地破坏他的心智。”结果是,这种计算机神经症”使 HAL变成了一名杀手。

电影《2001:太空漫游》(1968)剧照。

影射到现实生活中的机器道德,数学家诺伯特·维纳早在1960年就指出:我们最好非常确信,给机器置入的目标正是我们真正想要的目标。”维纳的评论捕捉到了人工智能中所谓的价值一致性问题:人工智能程序员面临的挑战是,如何确保人工智能系统的价值观与人类保持一致。可是,人类的价值观又是什么?假设存在社会共享的普世价值有任何意义吗?

欢迎来到道德哲学的101课 ,我们将从每个道德哲学系学生最喜欢的思想实验——电车难题开始。假设你正在沿着一组轨道驾驶一辆加速行驶的有轨电车,就在正前方,你看到有5名工人站在轨道中间,你踩刹车却发现它们不起作用。幸运的是,有一条通向右边的轨道支线,你可以把电车开到支线上,以免撞到那5名工人,但不幸的是,在支线轨道中间也站着1名工人。这时候,你面临一个两难的选择:如果你什么都不做,电车就会直接撞到5名工人身上;如果你把电车开向右边,电车就会撞死1名工人。从道德上讲,你应该怎么做?

电车难题一直是20世纪大学道德课的一节主要内容。多数人认为,从道德上来说更可取的做法是:司机把电车开到支线上,杀死1名工人,救下另外5名工人。

后来,哲学家们发现:对本质上相同的困境选取一个不同的框架,就会导致人们给出相反的答案。事实证明,人类在关于道德困境的推理中,对困境的呈现方式是非常敏感的。最近,电车难题又作为媒体对自动驾驶汽车的报道的一部分而出现了。如何对一辆自动驾驶汽车进行编程使其能够处理这些问题,已经成为人工智能伦理讨论的一个中心议题。许多人工智能伦理思想家指出:电车问题本身,即驾驶员只有两个可怕的选择,是一个高度人为设计的场景,而在现实世界中,驾驶员永远不会遇到这样的场景;但是,电车问题已经成为我们应该如何为自动驾驶汽车编程,以让它们自己做出符合道德的决策这一问题的象征。

电影《巨人:福宾计划》(1976)剧照。

2016年,3位研究人员在数百人中进行了调研,给定类似电车问题的自动驾驶汽车可能面临的场景,并询问他们对不同行为的道德观念。最终,76%的参与者回答,自动驾驶汽车牺牲1名乘客比杀死10名行人,从道德上来说更可取。可是,当被问及是否会购买这样一辆被编程为会为了救下更多行人而选择牺牲其乘客的汽车时,绝大多数参与调查者的回答是否定的。

研究人员称:我们发现在6项亚马逊土耳其机器人参与的研究中,参与者认同这种效益主义的自动驾驶汽车,即牺牲乘客以获取更大利益的自动驾驶汽车,并希望其他人会购买它们,但他们自己更愿意乘坐那些不惜一切代价保护乘客的自动驾驶汽车。”心理学家乔书亚·格林(Joshua Greene)在他对这项研究的评论中指出:在将我们的价值观置入机器之前,我们必须弄清楚如何让我们的价值观清晰且一致。”这似乎比我们想象的要更难。

一些人工智能伦理研究人员建议我们放弃直接对机器的道德规则进行编程的尝试,让机器通过观察人类的行为自行学习符合道德的价值观;然而,这种自学方法也存在我在上一章中所介绍的机器学习会面临的所有问题。

在我看来,在赋予计算机道德智能”方面的进展不能与其他类型智能的进展分开,真正的挑战是创造出能够真正理解它们所面临的场景的机器。正如阿西莫夫的故事所阐明的:除非机器人能够理解不同场景下伤害的内涵,否则它无法可靠地执行避免伤害人类的命令。对道德进行推理要求人们认识到原因和结果的关系,想象可能的不同未来,了解其他人的信念和目标,并预测一个人处在各种情况下会采取的各种行动的可能结果。换句话说,可信任的道德理性的一个先决条件是通用的常识,而这,正如我们所见,即使在当今最好的人工智能系统中也是缺失的。

到目前为止,我们已经看到,在庞大的数据集上训练的DNN如何在特定任务上与人类的视觉能力相媲美;我们也看到了这些网络的一些弱点,包括它们对大量人类标记数据的依赖,以及它们以非人类的方式失败的倾向。我们如何才能创造出一个真正能靠自己进行学习的人工智能系统——一个更值得信赖的系统,一个和人类一样,可以对其所面临的情况进行推理并对未来进行规划的系统?

本文经授权摘编自《AI 3.0:思考人类的指南》。

作者|[美]梅拉妮·米歇尔

摘编|安也

|西西

导语部分校对|刘军

来源:新京报

未经允许不得转载: CIFCOM跨境电商 » 怎么理解呢

相关文章

themebetter

contact