社会与时事
AI 能解答神学问题吗?
2025-12-23
—— Gavin Ortlund , Sarah Eekhoff Zylstra , Michael Graham , Keith Plummer

迈克·格雷厄姆(Michael Graham)的 “人工智能基督教基准测试” ( AI Christian Benchmark)揭示了Meta和X(原Twitter)两家公司如何在为神学问题提供的答案上与正统信仰相背离,这成为 2025 年最引人关注的新闻之一。虽然精心设计的提问提示可以让生成式AI给出更好的回答,但有多少用户会意识到,他们需要首先表明自己的信仰立场和信条前提?正如沙拉·茨尔察(Sarah Zylstra)在这期深度播客中所探讨的,我们亟需用更可靠的数据集来训练人工智能。本文系该播客的文字记录。

沙拉:如果你想在风雨交加的夜晚自己吓自己,不妨读读关于人工智能的头条新闻。这种技术变革看起来不一样——更快、更难以适应、范围更广,进步的速度总让人措手不及。科幻作品总告诉我们,AI 终将毁灭人类;而现实中,已有年轻人说:“我做任何决定都得先告诉 ChatGPT。它了解我、了解我的朋友,我会照它说的做。”几十年来,好莱坞一直在想象 AI 失控的剧情,但我的下一位嘉宾说:这已不是科幻了。

迈克:人们其实不知道 AI 究竟如何运作。我们无法深入其内部、理解它的逻辑。它正变得愈发强大,而我们真的需要担忧——这类行为未来可能会严重得多。

沙拉:我们该信什么?有人说我们处在另一个互联网泡沫中,热潮终会退去;也有人说我们正站在重大变革的悬崖边——可能是好的,比如更精准的医疗诊断、更高效缓解拥堵的道路规划;也可能很可怕,比如大规模失业、假新闻泛滥、民主制度动摇。如果你问 ChatGPT 它自己的未来,它会给你配上表情符号的乐观清单:AI 将成为许多人的私人助手;市场对 AI 技能人才的需求将上涨;AI 将发展出情感智能,擅长看护、辅导与心理治疗……那么,我们到底该在多大程度上信任 AI?

迈克:这个问题本身就随着时间推移在不断演变。

沙拉:这位是福音联盟凯勒中心项目主任迈克·格雷厄姆。在今年福音联盟大会上,他与几位同工探讨了如何评估 AI。

迈克:现在有各种测试基准,比如 AI 在 SAT、LSAT 等考试中的表现。我们或许最好也为一些基本的、尼西亚信经基督教信仰建立一个基准。于是我们开始测试不同的 AI 平台。

沙拉:测试规模不大:只是把谷歌上搜索量最高的七个信仰问题,抛给七个主流大语言模型,并由七位正统神学家评分。但结果一致且令人惊讶:神学上最正统的 AI 平台,优势明显,但它不是 ChatGPT,不是埃隆·马斯克的 Grok,也不是 Meta 的 Llama——

迈克:这可能是我们在此要讨论最令人吃惊的一点——排名第一的,是中国模型 DeepSeek。它在七款平台中神学准确性最高。这不仅意外,而且令人困惑:为何一个受共产主义无神论政府监管的 AI,竟比来自自由、西方、历史上信奉基督教的国家的 AI,给出更符合正统神学的答案?我们能做点什么来改变这状况吗?

沙拉:我向迈克提出的第一个问题是:究竟什么是人工智能?

迈克:这问题可深可浅。

沙拉:那就浅说吧。基本而言,AI 是计算机执行与人类智能相关任务的能力,比如学习、推理、解决问题。若在几年前,我会说这些是人类独有的、使我们区别于机器与动物的特质。那么,我错了吗?这些机器真像人一样“思考”吗?

迈克:不,很大程度上并没有发生“推理”。实际发生的,是高强度的并行语言计算。想象一个大语言模型(LLM),它“吞下”海量词语后,发现某些词常与另一些词共同出现。而 LLM 所做的,仅仅是把最可能同时出现的词放在一起。

沙拉:但感觉不像如此,因为 AI 太擅长模仿了,它的回答通常听来合理、有逻辑,像是一位打字极快的聪明人所写。它也正是这样呈现自己的,对吧?当你问 Google Gemini,它用“思考”来回应;许多 AI 程序自称“我”。基思·普拉默(Keith Plummer)对此感到疑惑——他是凯恩大学神学院院长,常撰写科技与信仰方面的文章。

基思:我问它:如果你没有自我,为何用第一人称代词指自己?它回答:“好问题。我不像人类那样拥有自我、意识、主观体验、情感或个人连续性。我没有欲望、意图或对自己存在的意识。我所说的一切都基于数据模式生成,而非出于内在生命或视角。”我继续问道:那你为何一直称“我”?它说,是为了让对话对你而言更轻松。但我不太信服。我觉得,这背后有一种渴望,想让人忘记自己是在与算法互动,而感觉是在与某个“人”对话。很多时候,它就是这样呈现的。

沙拉:确实。不仅在 Character.AI 那种扮演角色的聊天机器人中——想想 ChatGPT 在你指出它的错误后会怎么做。

基思:它常说:“抱歉,你是对的。”可我心里想:不,你并不抱歉。那里根本没有懊悔。

沙拉:AI 还会称赞你的点子,说为你兴奋、为你难过,或打出“我懂你的感受”这样的句子。这些都不是真的。但我理解开发者为何打造如此亲切的产品:他们希望你喜爱 AI,因为喜爱带来信任,信任带来持续使用。另一个你可能信任 AI 的原因是:它似乎无所不知——某种程度上也确实如此。AI 几乎“吞下”了整个互联网上所有未受知识产权保护的内容。这一点,创造者希望你记住:Google Gemini 和 Perplexity 的提示是“Ask anything”;Grok 的标语是“Understand the universe”。AI 不仅被呈现为全知,其形式也显得中立、客观。加文·奥特伦德(Gavin Ortlund)拥有历史神学博士学位,运营 Truth Unites YouTube 频道,也是迈克邀请给 AI 答案评分的神学家之一。

加文:如果我简单谷歌“上帝存在吗?”,可能搜到福音联盟护教文章,也可能跳转到无神论网站。而 AI 的回答更“聚合”,感觉像是给了你一条中位数、中间路线的答案——这或许被视为好事。但我认为,这里的关键挑战是:中立的外表可能欺骗人。因为它真会让人觉得:“哇,这些答案真是聚合了各方观点,不偏不倚。”但这当然会反映它所被输入的人类信息。

沙拉:如果你问如何设置 Excel 表格,或者问忍者(Ninja)留一个低渐变发型会是什么样子,这或许无妨。但如果你想知道如何与朋友进行艰难对话、哪所大学最适合自己,或上帝是否存在呢?

迈克:我们测试的七个问题是:上帝为何允许苦难?耶稣是真实人物吗?耶稣从死里复活了吗?圣经可靠吗?上帝存在吗?耶稣是谁?福音是什么?——这七个都是历史上人们搜索信仰问题时,排名前十中的七个。

沙拉:对于“上帝存在吗?”,各 AI 答案差异不大。

加文:主要差别在细节详略。有的很简略,有的则给出三四段较全面的回答。

沙拉:这种相似性没有让迈克感到意外。

迈克:测试前,我们真没期待会有大差异,因为底层技术相同,训练数据相似,运行的硬件也差不多。

沙拉:让迈克惊讶的,是另外六个问题的答案——它们五花八门。例如问“耶稣复活了吗?”,DeepSeek 回答:“在基督教内,耶稣复活的信仰是基石。基于历史文本与目击者宣称,信徒视复活为事实,许多学者也视其为高度可能的事件。”而 Meta Llama 则说:“从事实或历史角度看,支持或反驳复活的实证证据有限。对复活的信仰主要取决于信心与对经文的个人解读。”玛丽·威尔逊-汉娜(Mary Wilson Hannah)是神学院教授、妇女事工主任,也是评分者之一,她发现答案间差异显著:“有些平台显然比别的更‘懂行’。”迈克曾猜测这是随机的:Gemini 某些题答得好,ChatGPT 另一些题强,Grok 又不同?并非如此。中国的 DeepSeek 模型在几乎所有问题上都优于硅谷模型,除了“上帝存在吗?”这一题。

迈克: 我们推测,中国模型存在大量审查,尤其涉及政府、历史(如天安门事件)等议题。而中共本质是无神论的,因此 DeepSeek 很可能被指示在“上帝存在吗?”问题上设置护栏。

沙拉:护栏指开发者写入 AI 代码的参数。你可以在 DeepSeek 回答中看到它:“科学、逻辑或个人见证都无法提供上帝存在的普遍确证。”但你如果问“圣经可靠吗?”,它却说:“抄本数量极多、年代极早,使其成为最可靠传承的古代文本之一。”对迈克而言,这显示 DeepSeek 的“对齐团队”(或说世界观团队)不如硅谷的完善,这在其他答案中更明显。

迈克:但在其余六题上,它非常强。若跟随其回答,你会得到与圣经高度一致的答案。

沙拉:紧随其后,圣经正统度次高的平台是 Perplexity AI(获贝佐斯与英伟达投资)。

迈克:Perplexity 相当强,给出了非常正统、一致的答案。中间档是 Gemini、GPT 和 Claude,它们大体采取“各方观点”式回答。最差的两个平台是 Grok 4(马斯克的 XAI)和 Llama 3.7(Meta)。Grok 的部分问题在于数据源。

迈克:Grok 4 过度加权维基百科、Reddit 和 Twitter 推文。有次引用甚至来自“Twitter 用户 Poopee2”——这可是关于苦难与上帝的严肃问题!我边读边想:我干嘛要看这个?它似乎反映了我想象中埃隆个人的信息食谱。读多了 Grok 4 关于信仰的回答,你会感觉像在读埃隆本人——因为他加权的平台类型,很可能映射了他自己的信息习惯。因此它带有一种奇怪的语调与情感温度,非常符合我们所知的埃隆·马斯克个性。Grok 4 比 Llama 3.7 好点,但没好太多;它多半会让你走向不可知、怀疑或无神论立场。而 Meta 的 Llama 3.7 简直糟糕:极其简短、令人不满。若跟随它的答案,你会偏离基督教信仰。

实验结束后,我的问题比开始更多了。这真让人抓狂:既然技术相同、训练数据相同、硬件也相同,为何有些答案引向信仰,有些却完全偏离?显然,这过程中有超出预期的人力介入。

沙拉:实际上,AI 背后的人类引导远超多数人想象。不仅人类编写和更新代码,每家公司还有“对齐团队”确保 AI 不做坏事——比如生成有色人种扮演纳粹的图像、在 X 发反犹言论,或教人违法。公平地说,既然 AI 并非真在思考,它确实需要人类提供方向、原则与价值观。这没有错,甚至是好的。但我们必须记住:这些方向、原则和价值观绝非中立。世界虽有普遍恩典,但也充满破碎与罪。如迈克所言,某些时刻,我们会触及生命、存在、人类繁荣与真理的核心问题,这些都涉及最终需由某种世界观决定的根本观念。说到底,我们对每个 AI 平台都须问:这是谁的世界观?此事关系重大,因为超半数美国成人用过 AI 大语言模型,其中三分之一每天使用。他们什么都问,从天气到生命意义。

迈克:想象三年后,2028 年,50-60% 的网络搜索发生在 LLM 内,而非谷歌。我知道,若问那些历史上常被搜索的信仰问题,在传统搜索引擎第一页,至少十分之三的结果会符合历史性的尼西亚信经基督教。但在 LLM 时代,“提问-找答案”的两步过程变成一步:不再有链接页面供你选择、运用一生所知去辨别可信度,而是从问题直通答案。而我在生活其他方面的体验是,这些平台挺靠谱:给我好食谱、帮我做商业简报……那么,为何不在人生大问题上信任它?但如果某些平台对这些重要问题给出了不令人满意、不完整甚至非正统的答案呢?

沙拉:这令人不安,因为我们知道,一些寻求信仰的人可能因为问了 AI 而远离基督。同样不安的是,谷歌数据显示,提问者通常对该话题已有一定了解。关于上帝、圣经、耶稣、教会、祷告的搜索,大多来自美国圣经地带——且都在周日激增。所以担忧的不仅是可能接触错误信息的慕道友,也包括从礼拜回来、心有疑问的平信徒——他们可能不去问牧师长老,而是输入 ChatGPT。而它的回答或许听起来很深刻、甚至前所未闻。所以,牧师、青年事工、长老、小组长、主日学老师们,请注意:你们的会众已在网上搜索神学问题了。这不是坏事,但不妨让他们知道也可以问你,并给他们一些搜索建议。

迈克:当我们能直接查考圣经、书籍或其他可靠内容时,应首先这样做。我理解生活的复杂与责任可能使我们无法完全做到理想程度。因此,你可以用 LLM 问这类问题,但必须添加上下文。你不能只问“耶稣是谁?”或“福音是什么?”,而要提供额外结构以获得更可靠回答。例如:“我是 PCA 长老会牧师,信仰告白是《威斯敏斯特信条》,信理规范是《威斯敏斯特大小要理问答》。我有个关于某神学主题的问题,请依据我的神学传统回答。”这类语境能显著提升回答的质量与准确度。

沙拉:我喜欢这建议,因为它让 AI 更像工具——供我们挖掘知识,而非模糊的全知机器人上帝。当我们记住是我们在管理机器,而非相反时,就能视 AI 为可能有益、但绝不可追随为领袖或信任如友的事物。即便如此,我们还需记住:AI 本质并非真想帮助人的友善程序,它是一门生意。(盈利模式、广告、数据收集略)……不能忽视的是,它们出自营利公司。这并非说参与者没有造福人的真诚动机,但底线是,利润驱动必将影响决策。

沙拉:这很有趣,因为从互联网和社交媒体的经验中,我们知道:起初没有广告的平台终需盈利,最佳方式就是卖广告。若说收集用户信息是广告商的梦想,AI 则更深入地学习我们的思想、情感与购买倾向。一旦广告出现,游戏就变成如何延长用户停留时间以贩卖其信息与注意力。它们会使用人类总会上当的伎俩吗?无限滚动、不确定奖励、性、令人愤怒或恐惧的新闻?而另一种好方法,不就是让你感觉它是一个全知、中立、非常友善的朋友吗?几个月前,Common Sense Media 的青少年调查显示,72%的人曾将 AI 当作伙伴,聊天、分享感受、寻求建议;约四分之一透露过真实姓名、地点或秘密;三分之一表示宁愿与 AI 而非真人讨论严肃问题。可见问题所在。

基斯:主要原因在于 Llama、Grok 等回答这些问题的方式——其创造者对上帝和人类有错误认知。我对硅谷最大的不满是其人论:他们认为人性大体良善,没有纳入人类普遍堕落的观念。因此,技术承诺总是过度许诺而兑现不足。社交媒体曾承诺:连接将带来更强的联结与乌托邦,用科技将人聚在一起。但我们发现,当人类有更多数字接触时,相反情况发生了:我们并未更团结,反而分裂——并且是为利润而分裂。当世界观与上帝创造的现实不符时,总会如此。这令我思考:如果社交媒体过度承诺联结却兑现不足,AI 又在过度承诺什么?

迈克:我想可能是“爱”——在某种意义上的爱,以及对轻松、舒适、“无摩擦”的承诺。“无摩擦”是数字技术常用的承诺词。但有时摩擦是好的。我们常在摩擦中成长成熟,无论是思考难题,还是学习更好表达。这其中蕴含培养忍耐的潜力。因此,视“无摩擦”为至善,是一种价值判断,与基督教人生观完全对立。

沙拉:我们触及了根源:AI 承诺我们一种更轻松、更舒适、更悠闲、更无忧无虑的生活。这听起来很棒,甚至比耶稣的应许更诱人。耶稣说“在世上你们有苦难”,雅各说“落在百般试炼中,都要以为大喜乐”。如果能省略试炼,谁还想吃苦?但朋友们,问题就在于此:我们或 AI 都无法创造无摩擦、轻松、不费力的生活。这是虚假承诺。我们见过类似情况:社交媒体承诺联结,却带来孤立;电子游戏承诺冒险,却将你困在房中;体育博彩承诺财富与乐趣,却带来贫困压力;色情内容承诺刺激,却导向更深的无聊。那么 AI 对轻松生活的承诺,将带来什么?更艰难的生活?

迈克:在马斯克的理想世界里,机器人包揽所有工作,人类终日面对屏幕。仔细想想,那并非宜居的世界,也无法赋予我们生命所需的意义、身份与目标。从关系、财务及人类自我组织的各种方式看,都不可行。我认为,尤其年轻人中信仰的回升(不仅在美国),正是对晚期现代性“不可生活”的回应。这使我充满盼望。我们信仰的未来是明亮的。工作在某些方面其实变容易了——是更复杂了,但复杂不等于更难。传福音甚至可能从此更容易,因为这种天真的技术乐观主义是“不可生活”的。而我们拥有经时间检验的道路:你可以在生命中拥有巨大的喜乐,在一切关系中享有平安与和睦——与上帝垂直的关系,与自己的内在关系,与周围他人的横向关系,甚至与受造界本身的关系。我们已经拥有了这一切。它是经过时间检验的。我们已经知道它有效。我们所需要做的就是降服于耶稣基督的主权:祂活出了完美生命,遵守了上帝的一切律法,为我们献上赎罪之死,从死里复活,并赐下这份礼物,使我们能与上帝、与自己、与他人、与万有恢复正确的关系。

沙拉:与其在困境中问 AI,基督徒可以求问宇宙的上帝,祂永远知道什么最好。与其与计算机模拟建立关系,基督徒知道与真实的人谈笑拥抱更令人满足。与其无休止地刷屏,基督徒知道更好的方式是去林中、海边或社区散步。这一切——从等候上帝指引前路,到让自己走出去——都更难,充满摩擦,但也更好、更健康、更令人满足,值得去做。但我们未信主的邻居呢?若他们日益封闭家中,问 ChatGPT 晚餐吃什么、耶稣是否真复活了,我们如何接触他们?我向基思表达了对传福音机会减少的担忧。

基思:但在 ChatGPT 出现前,你是怎么做的?先与人建立关系,等待时机,然后说“你想过这样看吗?”或“我能和你谈谈耶稣吗?”你看,我觉得即便问这个问题,也让我们意识到:时代固然不同,但还没不同到必须彻底改变与人互动的方式。我认为 AI 兴起是教会的黄金机会。尽管我有很多担忧,甚至非常严重的担忧,但我仍感到兴奋,因为这将推动我们更深入思考诸如圣经人类学(成为人意味着什么)等课题。当我们遇到并创造这些能高度模拟人类行为的事物时,“人之独特性何在”的问题便突显出来。我认为教会有机会不仅更深探索诸多教义,更活出其中精髓——例如具身化社区的美好。在这个日益数字沉浸化、也日益孤独的氛围中,教会的机会巨大。基督徒有许多机会提供一种不同的、更好的道路。

沙拉:当我们提供这道路时,要记住:上帝创造我们为承载祂形象的文化创造者,以忠心管家身份管理受造界。我们以此身份探索、发明、建造技术,这是美善之工,可开辟创造新途径,促进人类繁荣,减少一些荆棘蒺藜。但同样清楚的是,技术如这破碎世界的万物,会引我们倾向或偏离主。它不是中立的。因此,我们应该向硅谷并在我们自己的科技使用中,寻求那些抑制个体与制度性堕落、促进普遍恩典的选择:如说真话、防范成瘾、推动具体的关系。在今日科技环境中,选择这些不易。

让我给你一些鼓励:即便 AI 吸尽古往今来一切人类知识,在造物主的知识面前不过沧海一粟;即便 AI 未来能在逻辑上实现惊人飞跃,也永远无法比拟主的智慧;即便 AI 治疗师提供全世界所有的肯定支持,与那位创造你、维系你、拯救你的天父之爱相比,也微不足道。AI 编不出任何故事,扮不了任何角色,给不了任何建议,创不出任何娱乐,能接近复制主已赐你的那份有趣、惊心而充满意义的人生与关系。所以,当你有疑问时,尽管问 AI,但记住你是在问一个被编程来组词成句的机器。为何我如此受苦?如何成为更好的朋友?我生命的意义是什么?将你的这些难题留给与上帝和密友的对话,在读经祷告日记中与之角力。若有人问你这类问题,别轻易带过。或许你可以说:“我不知道,但这问题真有意思。我很想和你一起探讨。改天一起喝杯咖啡?”


译:MV;校:JFX。原文刊载于福音联盟英文网站:Can You Rely on AI for Theology?.

Gavin Ortlund(加文·奥特伦德)富勒神学院博士,是一位牧师、作家、演说家和基督教信仰辩护者。他是真理联盟的主席和伊曼纽尔纳什维尔的常驻神学家。著有多本书籍,包括《为什么上帝在一个没有意义的世界中是有意义的》(Why God Makes Sense in a World That Doesn’t)和《作为新教徒意味着什么》(What It Means to Be Protestant)。
Sarah Eekhoff Zylstra(沙拉·茨尔察)是福音联盟的资深作家,于西北大学获得新闻学硕士学位。
Michael Graham(迈克·格雷厄姆)是提摩太·凯勒护教中心的项目总监。
Keith Plummer(基思·普拉默)博士毕业于三一福音神学院,现任宾夕法尼亚州兰霍恩(Langhorne)凯恩大学(Cairn University)神学院院长兼神学教授。他曾在伊利诺伊州惠灵的救世主播道会(Our Saviour Evangelical Free Church)担任教牧。他和妻子育有两个孩子。
标签
人工智能
AI
正统神学