人工智能与社会公平正义——以及对教会的挑战

2021-04-12 16:30   公教文明  阅读量:5448

  • 经由 习安东(ANTONIO SPADARO S.I.) - 保罗·沃米(PAUL TWOMEY) 
  • 2021年4月12日

被’大数据’支配的世界下的穷人

在人工智能时代,人类正在经历的深刻变化远远超出了世界上绝大多数人的视觉和理解范围。人工智能大爆发对我们当今的权利和未来的机遇均产生着巨大影响,并同时在处于现代社会中每个人的决策过程中起着决定性作用。这是一场蕴含着巨大福利和隐患的技术大变革。风险和收益的比例将取决于新技术的开拓者和创造者,尤其是他们对共同利益愿景认识的清晰度,及其对人类经验本质理解的正确性 1

我们必须理解,对教会来说,人工智能既是挑战,也是机遇:这是一个牵涉到社会公平正义的问题。事实上,对大数据进行迫切、贪婪和不透明的挖掘是为自动分析引擎提供数据所必需2,并将导致对穷人的操纵和剥削:’21世纪的穷人,在这个基于数据和信息的世界里,不仅是那些在金钱上贫困的人,同时也是缺乏知识者、思想简单者和被剥削者3。此外,对人工智能系统进行操控,其目的本身固有的不可预测性可能导致它们之间进行不同形式的互动,并因此无可避免地造成对穷人的监控和操纵。

如今,人工智能系统的创造者越来越成为消费者名副其实的仲裁。与此同时,随着人工智能向着人类认知极限发展并显示超越它的可能性,对真理、知识和伦理的理解也越来越成为重要的哲学挑战以及当下的热门话题4。在21世纪的发展环境中,教会应将自己的经验和培养做为礼物奉献给各国人民,帮助他们制定控制人工智能的标准,避免被人工智能控制。

对此,教会有责任进行反思并做出担当。在促进人工智能的政治和经济领域内,同时需要发现进行精神和伦理思考的空间。最重要的是,21世纪的人工智能即是一门学科,又是一个渴求福传的团体。对成千上万参与创造和开发人工智能系统的人士,教会必须致力于向他们的心灵传送信息和启示。归根结底,不管是对于人工智能系统将面临的问题,还是应该如何编程、怎样为机器的自动计算而收集数据,伦理抉择都起着主导和决定性作用。在未来的很多年中,今天编写的代码将仍是人工智能系统的基础。

我们将这种挑战称之为’人工智能的福音化’,也可以理解为一种结合,也就是教宗方济各从边缘看世界的倡议和16世纪耶稣会士的经验——当初,他们积极劝化有影响力的人士;今天,这种务实方法可以演变为与数据科学家共同进行分辨。

什么是人工智能?

近六十余年来,人工智能的定义和梦想一直陪伴着我们。人工智能是指计算机或计算机控制的机器人所具有的能力:它们能够进行通常与智能生物相关的活动,如思考、发现意义、概括或从已有经验中学习。

人工智能漫长的发展过程是一个人类对机器学习的思考进程,同时伴随着近代计算能力的彻底提升。人工智能是原创想法,其次是机器学习,然后是最近的神经网络和深度学习。

人工智能的第一阶段是基础机器学习,它以传统形式将手写数据与一套为执行特定任务而制定的特定指令输入到软件中。换句话说,它使用算法对大量数据进行分类,从中建立一个数学模型,然后在没有具体指令的情况下对某些任务进行判断或预测。它的目标仍然是解决特定终极问题–所以叫狭义人工智能–但其运作效果大多高于人类所及。狭义人工智能的例子包括图像分类或人脸识别等活动。

神经网络是一系列算法,实质上是以人脑为例,利用各种不同的层级和连接来处理数据、识别模式并提供预测分析。深度学习是指当许多神经网络相互连接,通过海量数据进行训练,并能够在无人为因素干扰的条件下自动完成学习和表征的机器学习。

效益

人工智能正在潜移默化地,但同时又是迅速而全方位地,重塑当代经济和社会:我们的投票方式和治理方式,预测性警务,法官的判决方式,我们获得金融服务的方式和我们的信用度,我们购买的产品和服务,我们的家居和使用的媒体,我们阅读的新闻,以及语音和文本的自动翻译等等。人工智能设计我们的汽车,帮助我们驾驶,为我们导航,确定如何贷款购买汽车,决定哪些道路需要维修,裁定我们是否违反了交通法规,并通知我们是否会因打破法律界限而入狱服刑5。以上仅是如今众多人工智能实际应用的某些例子。

与人类相比,人工智能可以对更多的数据和因素进行收集和评估,从而降低我们在采取决策的依据中所存在的局部性或不明确性。在这方面,最明显的例子是人工智能可以避免一些医疗事故,从而提高工作效率,并降低工作岗位的风险。机器学习可以改善对工作任务的描述,为我们提供更佳的选择过程。如果编程得当,算法其实不仅可以比人类更加公正,还可以获取人类无法捕捉的评估模式。

学者马克·普尔蒂(Mark Purdy)和保罗·多尔蒂(Paul Daugherty)这样写道:’根据我们的预测,人工智能技术对企业的影响将使劳动生产率提高40%,使人们能够更有效地利用时间’6。世界银行正在探索人工智能给发展带来的好处。其他观察者认为,农业、资源供应和保健,是发展中经济体将从人工智能的应用中取得巨大收益的领域。另外,人工智能还将对减少污染和资源浪费作出极大贡献。

促进社会公平正义的人工智能

当然,人工智能在有益于社会的同时,在另一方面提出了重要的社会公平正义问题。在此领域,教会应珍视这个履行义务的新机遇,将教会的训导、她的声音和权威带入那些对未来至关重要的问题上。技术变革将在未来几十年内带来巨大的社会影响是不可低估的,将对数十亿人的就业问题造成新的冲突,使最贫穷和最脆弱的人进一步被边缘化。

对就业的影响。在评估人工智能和机器人技术对就业的影响方面,人们已经做了大量工作,尤其是在2013年奥斯本(Osborne)和弗雷(Frey)发表了一篇重要文章之后。他们在文中公布的估算结果是,美国47%的工作岗位可能将在未来20年内实现自动化7。另外,许多科学研究和辩论对这一现象的性质和轮廓也作出了更清晰的解释:某些现有工作将被全部或部分替代,并使所有部门以及各发达、新兴和发展中经济体受到冲击。

对此,尽管做出准确预测仍然相当困难,但据麦肯锡全球研究院最近的一份中期分析报告显示,60%的职业中至少有30%的工作可以实现自动化。同时,与新技术在以往时代中的影响相似,自动化也将同样为今天尚不存在的新职业打开大门。预测显示,在2030年之前,将有7,500万至3.75亿工人(约占全球劳动力的3%至14%)被迫改变自己的职业类别。此外,各行业随着机器技术的不断提高而发展8,相应工作岗位的就职者将必须不断适应新的需求。问题是,我们目前采用新技术的速度超过了以往预测,如果这样继续下去,社会失调程度日益严重将成为显而易见的风险9

代码和偏见。鉴于编程代码的编写是人工完成的,其复杂性会凸显所有人类活动中不可避免的缺陷。在编写算法的过程中,一些先入为主的想法和偏差在所难免,并且会对个人权利、选择、就业分配和消费者保护等方面产生非常负面的影响。

事实上,在大学招生、人力资源、信用评级、银行、抚养儿童救助系统、社会保障体系等所采用的软件中,研究人员发现了各种不同类型的算法偏见。算法并不是中立的:它们纳入了一些价值观念并遵守一定的操作方式,完全可能在无意中导致取消行使权、歧视或经济损失的情况出现10

由于社会经济对人工智能的依赖性越来越强,人工智能的算法编程人员可谓大权在握。尽管无论是对这种权力,还是对用不正确代码编写算法可能造成的潜在危害,他们中的许多人似乎并不在意!至今,如果说现存的算法还称得上无伤大雅,但随着复杂的交互式人工智能市场不断发展,它们有可能在日后带来不可低估的后果。

某些因素可能导致人工智能误入歧途,比如影响问题框架的商业和政治特殊利益、数据收集中的先入为主性选择偏差以及其他偏差和误差、数据准备中的属性选择偏差、编码中的偏见等等。由此可见,尽管数据往往被标签为自动’独立’决策过程的一部分,但实际上它们很可能是显著的条件化产物。

弱势群体进一步被边缘化的危险。对大数据和人工智能社会影响的分析结果表明,一种在剖析和反馈不足的基础上做决策的倾向,使人工智能导致穷人、赤贫者和弱势群体的进一步边缘化11

互联系统助长歧视,并向边缘化群体提供更少的机遇,对此,政治家VirginEubanks做出了进一步解释:’数字贫困是一种以穷人和工人阶级为猎物的新型管理工具,对他们的生存造成极大威胁。通常,自动化资格认证制度成为他们申请生存所需公共资源和社会福利的鸿沟;复杂的集成数据库在几乎不考虑隐私和数据安全的条件下挖掘他们的各种个人信息,很少提供任何回报;预测模型和算法将他们标注为高风险投资和问题重重的家长;复杂的社会福利、执法和邻里守望系统肆意观察他们的一举一动,他们的行为同时受政府、商业和公众的共同监督’12

为真理而斗争

人工智能无论是在当今的表现形式里,还是在未来几十年和几百年中的可能形式中,都是一个哲学范畴的挑战。人工智能的广泛应用与数字化在人类日常活动中的日益普及并驾齐驱,这意味着人工智能引擎的目的会越来越转向决定社会需求的趋势。

人工智能可以改变我们的思维方式和对世界的基本判断。通过选项回答,并严格控制对参考信息实际内涵的理解,人工智能的拥有者同时也是’消费者’的真实裁判。

算法以实用性和利润为主要宗旨。它向人们提供的建议如此便捷(或者如此不便于筛选和拒绝),以至于这些算法总能成为自我实现的预言,而用户则如同僵尸一具,仅会消费那些被算法摆在自己面前的’选择’。

人工智能引擎受知识产权法保护,编码和参考数据均不透明,它们提供的推论和预测不可验证,是名副其实的黑箱。’人工智能有能力在个体不知情的情况下塑造他们的决定,并同时让那些控制算法的人享有滥用权力的特权’13

鉴于这种复杂而不透明的决策过程,有些人倾向于一种观点,认为人工智能是独立于人类干预的架构、编码、数据输入和解释。这是一个严重的错误,因为它误解了人在算法中的真正作用:人对算法决策过程的输出结果负有不可推卸的责任14。与此同时,一些深度学习的工具软件却已开始对人类责任的界限设置陷阱15

这些理性既非人类又非生物,它们的各种表现对形而上学、认识论、伦理学和政治理论提出了根本性质疑。教会应以自己在上述领域的经验和能力协助社会,使它适应人工智能,或使人工智能适应社会需求。

如果不能正确把握与人工智能相关的哲学和人类学挑战,我们可能会面临仆人变主人的风险。在这方面,物理学家霍金的警告引人深思:’除非我们学会如何做好准备并避开潜在风险,否则人工智能可能是我们文明史上最糟糕的事件。它带来的危险好比强大的自动化武器或少数人压迫多数人的新方法……或者它可能会脱离人的制约,以越来越快的速度重新设计自己。人类自身受制于缓慢的生物进化速度,会因无法与之竞争而被超越’16

社会和政府的参与

在过去几年中,权威技术人员和科学家、工会17、民间团体和科技公司本身18纷纷要求政府介入,以确保对人工智能发展以及其中的人类价值观进行监控。2019年5月,经济合作与发展组织的35个成员国就包含《OECD人工智能原则》的文件达成了一致,在这方面取得了一项重大进展19。此项协议对欧盟委员会成立的人工智能专家组于2019年4月通过的《可信赖人工智能的伦理准则》作出了进一步补充20

经合组织文件的目的是促进一种创新、可靠并尊重人权和民主价值的人工智能。为此,它确定了与国家政策和国际合作有关的五项补充原则和五项建议。这些原则是:促进包容性增长、可持续发展和民生福祉;尊重人权、法治和民主原则;确保人工智能系统的透明度和可解释性;确保安全、保护以及对风险的评估;申明开发、部署或运营人工智能系统的人所应承担的责任。这些建议是:促进对人工智能研发的投资力度;促进人工智能生态系统;为人工智能创建一个有利的政策环境;向人们提供劳动力市场转型中所需的适当技能;发展国际合作,打造负责任和可信赖的人工智能管理。

2019年6月,继《经合组织原则》之后,G20二十国集团通过了一项不具法律约束力的《G20人工智能原则》21。在未来一些年中,我们将面临两个方面的挑战:在整个国际社会进一步传播上述或与其类似的原则;积极采取具体措施,借助经合组织最近成立的’人工智能政策观察站’,在20国集团内将这些原则付诸实践。

面对这样一个新时机,教会应通过对上述政治目标的反思,在地方、国家和国际范围内积极参与,努力传播与教会社会训导相符的观点。

‘向人工智能传福音’?

尽管上述建议在公共政策和社会承诺方面均具有重要意义,但从根本上来说,人工智能实际上由独立的设计、编程、数据收集和处理系统组成,所有这些过程都在极大程度上受到个体的影响。今后,人工智能采用的道德标准能够在多大程度上适应于以人为本的准则,将决定于这些人的个人思想方式和抉择。目前,他们构成了一个由程序员和数据专家组成的技术精英,其数目很可能接近几十万,而不是几百万人。

现在,基督徒和教会可以拥抱这个推广相遇文化的新机遇,面向这个特殊的群体,与他们分享有助于实现真正自我价值的生活方式。如果能将福音的价值观和教会在伦理和社会公平正义方面的可贵经验带给数据专家和软件工程师22,将是所有人的真福,也是对完善人工智能文化及实践最可行的方式。

人工智能的发展将对21世纪的塑造产生巨大影响。针对这个问题,教会有聆听和反思的义务,积极向国际人工智能界提供伦理和精神框架,并以这种方式服务于全球社会。这是传承《新事》通谕的传统,堪称对社会公平正义的呼吁。我们必须进行分辨。当前正在进行中的政治辩论将确定并执行人工智能伦理原则,因此,教会发出自己的声音已刻不容缓。

参考文献

  1. 参阅:G. Cucci, 《迈向数字人文主义》,载于《公教文明》2020年I ,第27-40页。
  2. 大数据,或意大利语中的”megadati”,表示收集的数据如此广泛,必须通过特定的技术和分析方法才能提取价值或认识、发现不同现象之间的联系,并对未来现象进行预测。
  3. M.Kelly – P.Twomey, 《”大数据”与伦理问题》,载于《公教文明》 2018年II,第446页。
  4. 参阅:习安东(Antonio Spadaro SJ) / Thomas Banchoff,《人工智能与人类——来自中西方的观点》,载于《公教文明》2019年II,第432-443页。
  5. 见J.Angwin-J.Larson-S.Mattu-L.Kirchner,”机器的偏见”,载于ProPublica,2016年5月23日(www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing)。
  6. M.Purdy – P. Daugherty, 《人工智能:未来经济发展新动力》(www.accenture.com/us-en/insight-artificial-intelligence-future-growth).
  7. 参阅:C.B.Frey – M.A.Osborne,”就业的未来:哪些工作最容易被机器人化”,载于TechnologicalForecasting and Social Change114(2017)第254-280页。
  8. 参阅:麦肯锡全球研究院, “失业与就业:自动化时代的劳动力转型”(见www.mckinsey.com)。
  9. 参阅: S. Lohr的有关论据, 见《人工智能促进经济转型的深度与进度》(”A.I. Will Transform the Economy.But How Much, and How Soon?”),载于纽约时报, 2017年11月30日。
  10. 例如,媒体强调,许多美国法院使用的量刑算法中存在着明显的种族偏见。参阅R.Wexler,”计算机程序将你投入监牢”,同上,2017年6月13日。
  11. 参阅:J. Obar – B. McPhail, “应对加拿大的大数据歧视:解决设计、同意和主权挑战”,惠灵顿,国际治理创新中心,2018年(www.cigionline.org/articles/preventing-big-data-discrimination-canada-addressing-design-consent-and-sovereignty)。
  12. V. Eubanks, 《不公正的自动化进程:高科技工具与轮廓勾画,警察以及对穷人的惩罚》, New York, St Martin’s Press, 2018年,11。
  13. 同上。
  14. 参阅:L. Jaume-Palasí – M. Spielkamp, 《伦理和算法流程与决策和决策支持》,载于AlgorithmWatch Working Paper,第2期, 6-7 (algorithmwatch.org/en/publication/ethics-and-algorithmic-processes-for-decision-making-and-decision-support).
  15. 参阅:M.Tegmark《生活3.0:人工智能时代的人类》,米兰,Raffaello Cortina,2017年。
  16. R.Cellan-Jones,《霍金警告:人工智能可能导给人工智能传福音致人类灭亡》,见BBC News (www.bbc.com/news/technology-30290540), 2014年12月2日。
  17. 参阅:工人数据隐私和保护十大原则,UNI全球联盟,瑞士尼翁,2018年。
  18. 参阅:Microsoft,未来计算,Redmond,2017(news.microsoft.com/cloudforgood/_media/downloads/the-future-computed-english.pdf)。
  19. 经合组织关于人工智能的原则(www.oecd.org/going-digital/ai/principles),2019年6月。
  20. 参阅:欧盟委员会,可信赖人工智能的伦理准则(ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai),2019年4月8日。
  21. 见G20二十国集团贸易和数字经济部长声明(www.mofa.go.jp/files/000486596.pdf),2019年6月。
  22. 据皮尤慈善信托基金的一项研究表明,人工智能算法的编制主要是为了提升效率和盈利,仅将人类作为输入过程中的一个简单信息来处理,而不是将其视为真实存在、有知觉、有感情、可变化的存在。结果是社会因受制于算法的逻辑而产生变质。研究结果显示,为了对抗这种观念以及由此导致的人工智能的偏差风险,关键在于如何对收集和使用数据的应用目标进行定义。正如伦理学专家ThiloHagendorff所言:”需要勾选的复选框不应该是人工智能伦理学的唯一’工具'”。有必要过渡到[…]一个伦理标准,基于对个人美德和意志、知识的扩展、负责任的自主性和行动自由的追求”(T.Hagendorff,”人工智能伦理学–对准则的评价”[arxiv.org/abs/1903.03425],2019年2月28日)。

 

原文链接

已有0人赞赏