数字时代的伦理:为我们的益处而界定和追求美善
2020-12-03
| Jason Thacker

最近,一位朋友在推特上说,她认为伦理学成了一个不可能实现的学科。当她解读她的意思时,我意识到这种对伦理的态度是许多人所共有的,尤其是在我们的数字时代。随着复杂的现代技术——如人工智能(AI)、面部识别、生物工程和社交媒体——兴起,我们的社会将越来越多地质疑什么是道德、什么是不道德,以及我们如何追求有道德的生活。然而这些定义往往是基于当下看似正确的东西而不是基于一个伦理框架。

从谷歌的人工智能原则美国国防部最近通过的有关军事技术使用的指导方针,以及欧盟提出的技术道德框架来看,我们的世界正在渴望以一种良好、公平、适用和合乎伦理的方式来解决技术所带来的复杂性和给生活方向带来改变。

“时尚道德”

伦理原则往往把公平(fairness)作为一个主要目标。然而,“公平”是一个模糊的概念,它可能被误用和滥用,使一个群体优先于另一个群体,甚至压制我们社会主流之外的立场。 

在我们的数字时代,社会在用我所说的“时尚道德”替换了信念和基本道德立场,“时尚道德”就是由流行的东西或可能打动他人的东西来定义道德。我们采取什么样的道德立场往往是基于什么会让我们“和别人一样”,这让我们宣称某一种形式的不公正是错误的,但又宣称另一种形式的不公正是可以的,因为“他们”是错误类型的人。我们宣称我们的敌人站在“历史错误的一方”,因为我们争先恐后地想要讨好某个投票集团。这种道德形态的特点是对名声和影响力的渴望,而不是区分对与错。

哲学家斯拉沃伊·齐泽克(Slavoj Zizek)在谈到“绿色资本主义”和企业为了被看为“有道德”而做出的“绿色”选择时,就是在暗指时尚道德。他认为,我们常常通过购买这些绿色产品来减轻对环境问题的愧疚感,因为我们希望被视为具有环保意识。企业知道这一点,并改变他们的模式来吸引我们去那里购物。

这与世界各地的企业在具有里程碑意义的奥贝格费尔诉霍奇斯案(Obergefell v. Hodges案判决后的反应类似,该判例将同性婚姻合法化。许多企业知道,如果他们被视为支持同性婚姻,这将有助于他们的品牌,因此将他们的社交头像改为彩虹。这种“时尚道德”与其说是基于信念或超然的真理,不如说是基于当时的流行情绪。

因为我们已经放弃了从上面而来的道德标准,我们的社会就会根据别人对我们的看法来定义“善”。不过,这不仅仅是我们的消费主义习惯。科技也是如此,它驱动着我们的每日生活,并且很快就会驱动我们更大的生活范围。

科技伦理

受后现代主义兴起的影响,我们的社会在伦理特别是宗教问题上变得相对主义。我们对人们在伦理道德方面有自己的看法持开放态度。什么是你认为好的,什么就是我们最终想要的生活。如果感觉良好,它一定是真实的。如果我们认为它是真的,它一定是好的。

当我们考虑到现代实证研究和科学时,这种相对主义有一种微妙的讽刺。在技术和科学方面,我们的社会并不是后现代的。我们用科学方法追求扎实、客观的事实。我们相信关于世界如何运作的不变真理。但这种客观性并没有侵入我们对世界的伦理和道德理解领域里。

关于技术和伦理,我们正处于一个有趣的转折点,因为我们的技术发展是基于现代框架,而我们的伦理是基于后现代框架。我相信这就是为什么在我们的数字时代有这么多关于伦理的困惑。我们已经变得如此迷恋别人的想法,迷恋个人主义版本的真理,以至于我们难以解决技术发展的问题(以免我们以一种安定的、客观真理的空气得罪人)。

随着技术继续影响我们生活的每一部分,我们不能依靠模糊的一般性概念来做出我们的道德决定。我们的尊严,还有我们邻舍的尊严,都变得岌岌可危。

以谷歌最近提出的人工智能原则为例,里面提到技术要“有益于社会”("Be socially beneficial")。这听起来是个值得称道的目标,但如果你仔细看看,它是相当模糊的。什么叫有益?如果我对有益的定义与你的不同呢?谁会受益——多数人还是少数人?谁来决定?谁来决定由谁决定?

当你阅读文档中的解释时,很明显,谷歌在使用一种功利主义的形式构筑他们的伦理学(黑体是我加的):

当我们考虑人工智能技术的潜在发展和使用时,我们会考虑到广泛的社会和经济因素,我们会在我们认为总体上可能的利益大大超过可预见的风险和缺点的情况下进行。

很明显,谷歌是基于某一部分人或公司本身的价值取向,寻求给社会带来最大“益处”的东西。但是,我们都知道,由于罪恶感和自尊心,每个人都会在某些方面表现出偏见或歧视。虽然谷歌在开发这项强大的人工智能技术时,完全有权利采取这种行动,但公众也有权利反驳模糊的功利主义伦理观。

这些人工智能原则是在臭名昭著的“马文项目”(Project Maven)事件后发布的,在该事件中,谷歌正在进行一个军事人工智能项目,帮助梳理无数小时的无人机视频数据。该人工智能系统正在接受数据训练,以识别目标并自动标记对象。在员工的一片哗然声中,谷歌退出了这个项目,员工们认为谷歌不应该参与战争,这些人工智能工具应该以一种公平和有益于社会的方式来使用。

具有讽刺意味的是,科技公司和军方之间的这种合作关系让他们有权利抗议,因为我们生活在一个民主自由的社会,军方的技术(讽刺性地)正在保护着我们。但他们的抗议引发了更多问题。例如,在这种情况下,什么是好的、正确的,和道德的?在这种情况下,我们所追求的公平如何与我们的兄弟姐妹在战场上的安全相一致?如果让恐怖分子和流氓国家在战场上占有技术优势,公平和社会益处又体现在哪里呢? 

如果不明确细节伦理原则,我们的社会将越来越难以明智地思考技术的作用和力量。随着科技几乎渗入到生活的方方面面,我们几乎不可能避免这些“真理”和我们想要的“真理”之间的冲突。

如果基督教会有一条更好的前进道路,一条能让黑暗中充满光亮,让道德决定中的阴暗变得清晰的道路,那会怎样?

更好的方法

作为基督徒,我们的道德决策不能与某些精英、人群的主流态度或所谓“历史上正确的一方”挂钩。“时尚道德”的思路不仅让我们对上帝的信仰变得毫无意义,也揭示了我们真正关心的东西:我们自己。躲藏在呼吁公平的外衣下,是自私和骄傲。我们是更在乎今生别人对我们的评价,还是更在乎永恒中上帝对我们的评价?神呼召我们去做比自己更伟大的事:爱祂和邻舍。不管别人对我们的看法或我们的信仰如何,基督教的真理和道德培育都可以通过帮助我们尊重这两个最伟大的命令的方式来发展和得着成就(马太福音22:37-39)。

在这个科技时代,上帝提醒我们,我们对社会的价值不仅仅是功利性的。从子宫里的婴儿到临终的女人,人的尊严属于每一个人——即使是那些想以“时尚道德”的名义将我们的信仰边缘化的人。

因此,当我们争论新兴技术的优点和危险时,比如面部识别监控的成本、算法偏见如何贬低少数族裔,以及基于人工智能的武器系统如何被部署在战场上,我们必须记住,我们必须将人类尊严的框架应用到我们决策的每一个领域。

基督教的道德传统就建立在这种人类特殊主义的概念之上,它与科技领域盛行的物质主义背道而驰。这就是为什么我们必须把人的尊严放在我们道德框架的核心位置。

我们有什么资格说上帝——在我们母亲的子宫里把我们编织起来的那位宇宙创造者——不明白什么是对我们有益的,什么将最终导致祂的荣耀?我们蒙召去爱我们的邻舍,因为我们要在这个不断变化和复杂的世界中站出来维护他们的权利。随着科技的影响越来越大,变得无处不在,我们的指导伦理不能是流行或时尚的东西,而是正确的、充满敬畏神的生命。


译:DeepL;校:JFX。原文刊载于福音联盟英文网站:Ethics for the Digital Age: Defining and Pursuing the Good for Our Good

Jason Thacker(杰森.萨克尔)是美南浸信会伦理与宗教自由委员会(The Ethics and Religious Liberty Commission)的创意总监,毕业于田纳西大学和浸信会南方神学院。他正在写作一本关于人工智能和人的尊严的书,将在Zondervan出版。
标签
伦理
科技
现代
人类