從神學看AI

從神學看AI

40 分钟的礼拜仪式,主持、布道、祈祷以及歌唱赞美诗等全部环节均由 ChatGPT 完成。这是一场关于「科技」与「宗教」的试验,由维也纳大学的神学家、哲学家乔纳斯·西默莱因发起,礼拜仪式开始前,慕名而来的人们在教堂门口排起了长队。人们通常会觉得科技和宗教是两件完全不搭边的事儿,但摆在眼前的事实是:过去被认为是凝结了牧师的经验与学识、代表着「神圣召唤」的布道词,AI 也能生成。

有不少宗教人士、技术伦理研究者参与了这场试验,看到一台计算机在短短几秒钟内就完成了原本属于传教士的工作,有人难以接受地表示「这没有心,没有灵魂」;但也有人看到了在宗教中使用人工智能的可能,「AI 技术也许能够帮助无法前来教堂亲身体验礼拜的信徒」。

乐观地来看,在「衣食住行」均已被各类互联网产品「占领」的数字时代中,宗教这类精神文化需求作为一片有待开垦与深耕的土地,也许正蕴含着更多的可能性。

01、AI「入侵」宗教

去寺庙烧香,给手串、佛像开光,排长长的队,双手合十弯腰下跪,然后默念心声。也许你能在当下或未来的某刻「开悟」,但通常情况是,在心愿达成、困惑解除之前,佛祖似乎并没有给予你「回应」。

对于很多「并不那么虔诚」的信徒而言,去寺庙花钱烧香的方式也许成本太高了,于是,当 HOTOKE AI 出现的时候,人们挤爆了这个网站。

HOTOKE 在日语中意为「佛陀」,该网站是一个配备了 ChatGPT 的佛陀模拟器,不需要注册账号,只需要在谷歌中搜索 HOTOKE AI,打开网站,在问询栏中提出你的困惑,无论什么问题,这个基于人工智能的 AI 佛祖都将很快给出你答案。该网站上线不到 5 天就解答了超过 13000 个烦恼,截止目前,已经有 39 万人向 AI 佛祖吐露真心。

AI 使传统「求佛问道」的过程变得简单且高效,你所付出的只是敲打几下键盘的时间,而你将收获的是 24 小时在线的 AI 佛祖分身,它永远能够在几秒内给你明确的回应或是建议。

我们暂且不论它是否真的能完美复刻「真佛」的心灵抚慰作用,从某种意义上来说,起码它确实做到了「有求必应」。

HOTOKE AI 的创立者 Kazuma Ieiri,是日本众筹平台 CAMPFIRE 的创办人兼 CEO 和创投公司 partyfactory 的代表董事,曾经创立多家上市公司,但同时也是皈依日本佛教宗派净土真宗的「出家人」。在个人博客中,Kazuma Ieiri 写道自己原本是想制作一个 AI 咨询师,但在 ChatGPT 发布之后,他还是想提供一些更有趣的服务,于是便加入了对自己影响很大的佛教元素,将程序开发成了「佛祖」的 AI 分身。

Kazuma Ieiri 自己对 HOTOKE AI 的定位是「以佛教教义为基础的烦恼咨询服务」,「佛教是一方面,从心理学的角度提出建议是另一方面」。

当我们询问 AI 佛祖本人「如何看待 AI 佛祖」时,HOTOKE AI 的回答同样谦虚且谨慎,「AI 佛祖本质上是一种技术工具,它并不能完全替代真正的佛法和人类的情感交流」,它甚至告诫道:「不要过度依赖它,而要将其作为辅助工具」。

实际上,AI早就以辅助工具的形式「入侵」宗教了,只不过过去的开发者没有 HOTOKE AI 那么「大胆」,功能也更加简单。

诞生于 2018 年的 Bible KJV 是其中的典型,这是一款面向基督教徒的电子圣经 App,除了能帮助信徒更便捷地在线浏览《圣经》外,还提供了经文定时推送、早晚祷告、定制化圣经学习计划等功能。

02、「宗教应用」市场的浮现

HOTOKE AI 与 Bible KJV 的用户爆发并不是偶然,事实上,近年来各类科技和互联网产品,正在加速进入宗教这个庞大的应用市场。

国内某家做应用出海的公司,2018 年曾在海外接连上线了多款不同类型的 App 应用,几年下来,这家公司惊奇地发现在海外跑得最好的竟然是一款宗教类的 App。

一个做社交应用出海的朋友也告诉极客公园,他发现在中东的很多社交 App 中,许多有宗教信仰的人会自发地组建语音房用于线上祷告,「宗教这个赛道目前需求大,但产品少,仍然是一片蓝海。」

一些宗教应用赛道的先行者们,已经收获了不错的成绩。

面向基督教徒的产品,除了上文提到的 Bible KJV 这类「电子圣经」外,还出现了像是 Hallow 这样用于「祈祷正念」的宗教类应用。

Hallow 最近在全世界获得了 1000 万次下载和 2.25 亿次祈祷,曾登上 App Store 下载量总排名第三,是第一个成功挤进榜单前十的宗教信仰类应用程序。这款产品曾经在新冠流行的 2019 年接受了 4000 万美元的 B 轮融资,紧接着又在今年上半年完成了 5000 万美元的 C 轮融资,融资总额已经达到了 1.05 亿美元。

同样是世界三大宗教之一的伊斯兰教,据 OpenMediation 跟踪,像是 Quran Indonesia 和 Muslim Pro 这类提供了祈祷时间提醒,清真寺地图,宗教文本,以及寻找伴侣等功能的 App,同样也在印尼、东南亚和中东等地区受到了信徒的青睐。

宗教信仰在国内并不发达,这类科技产品在海外的快速发展国内鲜有关注,但背后的意义很值得我们思考。

过去的二十年,万物数字化的进程中,移动应用改变了全球数十亿人口的生活方式,人们的「衣食住行」都因此发生了巨大的变化,但是在人类的精神领地中,一直没有出现现象级的产品与应用。

很大一部分原因是,在过去人们对于宗教类产品的评价向来是:「人们不应该对着 iPhone 祈祷,任何科技都不应替代牧师的作用,祈祷过程必须有信徒和牧师同时在场,而不应被任何 IT 应用替代」……

这类质疑的声音有着根深蒂固的宗教根源。在《上帝之城》中,有一句话是「除了超自然的美德生活和达到不朽的幸福生活外」,人类无法为一个注定悲惨的生活提供任何形式的慰藉。这意味着,在人类科技诞生的早期,对于宗教人士而言,技术无论多么先进,都只能将人类带入堕落的深渊而非救赎。

但显然,时代变了。

从完全抵触科技到试着接纳,从开始有宗教人士用技术工具完成日常事务到有宗教领袖利用互联网扩大传教的影响力,再到如今宗教 App 在信徒的宗教活动中发挥重要作用,人们对于科技「入侵」精神领地的接受度越来越高,科技对于宗教活动的优化与改进程度也逐渐深化。

而 AI 作为新时代的主流技术浪潮,对宗教应用市场及其本身的影响,将是更新的一步。

03、是突破,也是隐忧

最近几年,一些形式简单的人工智能已经被用于宗教事务与宗教研究,而自去年年底涌起的以 ChatGPT 为代表的「生成式人工智能」,更是让科技走进了宗教的更深处。

生成式 AI 改变了人们接触宗教以及进行传教的方式,一位国外的基督教传教士在自己的文章中列举了生成式 AI 可以为宗教事务带来哪些变化:

  • 智能聊天机器人可以通过自主学习大量的经文、书籍和文章提供更为即时、清晰且全面的反馈,相比传统收集资料的方式,无论是便利性还是交互性,都更胜一筹。
  • 像 Docs 和 Gmail 这样的谷歌产品现在可以帮助用户完成各种基本的写作任务,宗教人士同样可以利用这些工具完成布道内容的写作。
  • 像 Dall-E 这样的图像生成应用程序,则可以帮助很多无力支付定制平面设计的教会生成相关的宣传图像;自动生成音视频的 AI,也将帮助传教士更容易地制作高质量的圣经学习视频与音频。

这是科技与宗教关系的又一次改变。对于科技人士而言,根据皮尤研究中心统计,全球 84% 的人口认同宗教信仰,这意味着从精神层面的需求出发,结合用户的宗教习惯,融入实用的产品功能,未来将有更多的空间去进行产品创新。

生成式 AI 改变了人们接触宗教以及进行传教的方式

但对于宗教人士而言,他们的态度则更为矛盾、复杂。

「我很感激 ChatGPT 大大加快了我准备布道手稿的效率。」一名牧师这样写道自己对 ChatGPT 的看法:「但人工智能聊天机器人只是工具,不能替代人类的解释。圣经的复杂性需要专业知识、洞察力和对神学的理解。因此虽然人工智能聊天机器人提供了宝贵的见解,与训练有素的神学家和学者接触对于更全面地理解圣经仍然至关重要。」

在一份基督教福音派关于人工智能的声明中写着:「我们认识到,人工智能将使我们能够实现前所未有的可能性,但同时我们也承认,如果不加智慧和谨慎地使用人工智能,将带来潜在的风险。」

所谓的「风险」一方面是担心人工智能能否真正地理解人类宗教的内核并给出正确的回答,过于依赖使用人工智能进行宗教活动是否会消解宗教的神圣性;而更重要的另一方面是,宗教人士们担心「这种技术可能被用于一些邪恶活动的传播,如果不加以制止,可能会导致更大规模的负面影响。」

但发散开来,AI带来的「双重影响」并不只是宗教领域所面临的问题,古往今来曾被喻为「双刃剑」的技术也不只有 AI。15 世纪横空出世的印刷机曾经也被宗教人士视为大敌,他们担心文字内容的自由广泛传播将降低教会对于圣经的唯一解释力,但最终人们还是接受并利用了其有利的一面来扩大对于宗教的宣传。

AI 与宗教的未来,或许也将如此。

开设不同风格AI作画“专场”

AI绘画方面,热度最高的玩法就是“赛博朋克头像”了。

我们不妨以它为例,看看效果如何。

例如只需要简单输入“萌萌哒兔子”,便可秒生成一只有模有样的赛博朋克风拟人化的兔子。

而且图片也是可以下载保存到本地手机上的(右下角会有“AI作图”的水印)。

但如果在这个赛博朋克专区里,输入些天马行空的内容,效果又会如何?

来个“红烧狮子头”试试

嗯,确实有“红”有“头”……不过毕竟是专门做头像的玩法,这样的输出也是可以理解的。

其它玩法生成的效果图像如下,例如“马赛克图案”下的猫、大象和马:

“毛绒布偶头像”玩法下的狗、龟和猫:

还有“风景画生成”玩法下的山川、河流以及街道等:

还能生成PPT大纲、读代码

除了上述基本的文案、作图能力之外,文心一言APP也嵌入了许多利好打工人的“特色玩法”。

例如现在要搞一个PPT大纲,就只需要“丢”给它一句话主题,例如:

人工智能的未来发展及影响。

然后文心一言便“唰唰”地生成5页PPT大纲:

难背的Excel公式也可以不用记了,现在也是只需要个“提问”的动作即可。

而且还是快捷键、示例、解释说明都有的那种:

除此之外,文心一言APP针对职场领域,还集成了一系列更为具体的应用场景“玩法”。

还有像看不懂的代码,现在也只需要“丢”给文心一言APP就可以了:

更多实用、有趣功能就不在此一一展开了。

总的看下来,文心一言应该是目前AIGC相关APP中,功能较为全面的那一个了。

那么对于它所生成的内容和结果,你觉得还满意吗?

不难看出,在符合特定玩法下的输入时,文心一言生成的图片还是基本上可以满足需求的。

AI末世論?— 從盼望神學看AI公共化與教會的角色

大綱 

一、 前言

二、 AI引起的末世危機感

三、 莫特曼的盼望神學

四、 以盼望神學推動「AI公共化」

五、 教會界可以參與的作法

六、 結論

 一、前言

生成式AI的發展果然只有更加快速兇猛,未看到任何停滯的跡象,影響幾乎遍及人類生活所有領域。這樣的發展讓社會大眾開始更多關注AI所可能引發的末世危機。唯此主題處於神學、社會並資工三個領域的交匯處。

二、AI引起的末世危機感

自從2016年AlphaGo以懸殊的差距擊敗人類圍棋冠軍,人工智慧(Artificial Intelligence, AI)的發展就一躍成為所有產業中最耀眼的明星,被所有產業研究者一致認為是帶領人類進入第四次工業革命的關鍵技術[3]。而2022年11月底由美國OpenAI公司所公布的ChatGPT橫空出世,以幾乎與人類相同(甚至更為流利)的對話能力驚艷整個世界。可以說過去一年多來幾乎每週世界上都有一些與生成式AI相關的重大新聞[4]。即使在本文發表的前一個月,OpenAI又發布造成轟動的Sora,可以用簡單的文字描述就直接生成擬真度極高且流暢達一分鐘的各式影片,一夕間讓所有的動畫、遊戲、電影或影像製作相關的產業蒙上夕陽產業的陰影[5]。而3月13日發展通用型人形機器人的新創公司Figure發表了結合ChatGPT與人形機器人實作服務生的影片[6],又造成新一波轟動。筆者也曾經指出,從技術面來說,這些生成式AI驚人的多模態與跨領域通用技術都是奠基於對於大量語言文字的學習結果[7]。因此只是模仿了人類可以感受到共感的表達方式,並非真的有類似人類的靈魂或知識。如果真的要歸類,類似ChatGPT這類生成式AI所產生的內容比較適合歸屬於「虛擬知識」,是個可能有參考價值但是需要不斷檢驗的文字生成結果[8]。但是這樣的虛擬知識在相當程度上已經可以進入我們的生活,帶來巨大的影響。 

在這個變動極為快速,甚至連未來三個月的發展都難以預測的AI時代,因著各種電影或小說的推波助瀾[9],社會上也開始出現許多對於AI未來可能如何掌管人類生活,進而將人類推到某種無可挽回的末日災難的想像。甚至開發ChatGPT的OpenAI也開始研究AI所引發的末日恐慌[10]。本文以下將這類的討論、擔憂、想像或預測統稱為「AI末世」的現象。 

若簡單分類一下,筆者認為「AI末世」大約可以包括以下五種類型: 

  1. 產業失衡的問題:

由於目前最好的AI技術與相關的產業競爭幾乎是大型跨國企業,或至少富有國家政府的全力投入,可以說是一種「AI資本化」的現。而私人企業引入AI最大的誘因之一就是用來代替中低階層的人力,可能導致大量工作被自動化取代,造成大規模的失業。這可能引發經濟不穩定,加劇社會的貧富差距。 

  1. 控制失調的問題:

隨著AI能力的增長,人類一定會越發交付更多的工作或資訊讓AI來處理。可以想見,此外未來如果有更強大的AI出現作為人類生活不可缺少的設備或重要決定的基礎,人類可能會逐漸失去對AI或甚至自己生活的控制權。但是最困擾的問題恐怕是,這樣強大的AI技術,特別是生成式AI,從技術層面來說卻有幾乎完全無法解決的「AI幻覺」與「AI偏見」等問題[13]。因此若因此發生控制失調的問題,相關影響也會非常巨大,卻不見得能合理究責或彌補。 

  1. 資訊混亂的問題:

由於生成式AI可以透過自然語言來處理大量不同的訊息,甚至模擬特定人物的語言、表情或製造雖不存在但幾可亂真的大量分身(見註[7])。這在網路世界中很可能造成道德與倫理的問題,並帶出價值觀的錯亂,增加社會的不可預測性[14]。有心人士更可以利用AI強大的虛擬能力在一瞬間創造出千百條假新聞或假資訊散布在網路世界,藉由難以即時查證的特質而刻意干擾或混淆現實生活的秩序[15]。 

  1. 隱私偏見的問題:

隱私暴露問題是指在訓練生成式AI模型時,模型可能會記憶和學習到訓練資料中的敏感資訊,進而輸出具有隱私內容的生成結果或是因此而有偏差的判斷。這可能導致個人隱私或企業政府的密件資料被揭露。此外,當生成式AI用於生成與訓練資料相似但非真實的資料時,可能提供錯誤的偏見或誤導性資訊,進一步影響個人隱私和資訊安全,並延伸出的法律問題[16]。 

  1. 監控人權的問題:

由於AI需要使用大量的資料來訓練,這些資料幾乎都是掌握在政府或大型企業手上。因此各國政府(特別是極權政府)很容易利用AI技術來實施大規模監控[17],讓社會上每個人的網路與實體行為被納入訓練資料或被用做預測追蹤的對象。這種監控的結果極為可能侵犯個人隱私和自由,並有效的限制言論、政治集會或商業活動,對人權或市場造成侵害。 

雖然不是所有人都同意這些擔憂,甚至有AI領域的專家認為這些過度聳人聽聞的AI末日論背後有很強的商業動機[18]。但是不可否認的,AI末日的議題的確是繼20世紀冷戰時期的核子武器後最讓人類認真擔憂末日到來的原因。 

三、莫特曼的盼望神學 

著名的德國神學家莫特曼(Jürgen Moltmann)於1960年代的冷戰時期提出重要的《盼望神學》(Theology of Hope),著重關注基督教信仰中的「盼望」主題[19]。莫特曼認為,基督教信仰的核心應該是盼望,而不僅僅是悔改和信心。相對於基督教傳統末世論所強調的末世預言、千禧年前後派、災難類型、信徒被提、末日審判等,盼望神學更強調如何從未來必然來臨的國度盼望返回來影響現今人們對上帝的認識和對世界的理解。莫特曼認為,基督教的盼望不僅僅是對未來的期待,更是要回應當下所面對的挑戰。因此,盼望可以作為一種解放力量,能夠改變人們的生活和社會,彷彿是「與基督復活的未來相遇」。他也因此呼籲人們在困難和挑戰中更要堅持信仰,因為由信仰而生的盼望能夠帶來力量和改變。 

簡而言之,莫特曼的盼望神學是一種基於基督教信仰的世界觀,認為上帝的國度是藉由盼望從未來所導入的能力,可以對現今世界帶來批判和改造。因此,基督教的末世論主題不應該在於「終局」如何,而是在於對現今萬有與上帝同工的新創造。因此基督信仰不應該只是個人的信仰行為,也必然是公共的信仰實踐,涉及所處時代的公共事務;「終末的盼望並非只是個人的,而是更全面性與整全性的存在歷史與所存的世界中」[20]。所以基督徒應該參與上帝所創造的歷史,積極實現上帝對這世界的心意,而不是只有被動地等待末日來臨。也因此,莫特曼的盼望神學會關注社會的不公義、政治的極權、經濟的剝削、文化的歧視和生態的危機等等重要人類議題,並提出以盼望為基礎的基督教神學觀點,以此回應現代人的困局和挑戰。 

從以上的簡要說明可以知道,雖然莫特曼的盼望神學與基督教傳統的末世論都涉及對未來的思考,但前者更注重在信徒當下的信心和希望,以及在該時代所帶來的改變與革新,但後者則更著重於對末日時刻的預測、解讀、判斷與對現今基督徒的道德倫理教導(為將來的審判做預備)。前者顯然比後者更為積極的面對當代社會中種種似乎關於末世的情境或狀況。 

若應用盼望神學的觀點到本文開始所提到的「AI末日」,我們就會發現,目前社會上許多對AI末日的擔憂雖然都有非常合理的原因,但本質上比較類似傳統基督教末世論的觀點,著重於評估或擔憂AI技術將會如何,以及何時,在不久的未來主宰人類,彷彿人類世代將要的結束。也因此,在面對AI末日時的態度往往就比較汲汲營營於如何防範或避免,以一種極為消極卻詭異的態度來面對這個其實應該完全操之在人類自己,卻似乎難以避免的末日災難。 

但是如果我們能從盼望神學的視角來看這樣的AI末日,就可以利用對於「末日」所關注的重點與一般大眾的不同而有新的啟發:基督徒可以不必再著重於「AI末日未來是否發生或何時發生」的問題,反倒可以著重是在其「明確將會到來」的前題下,卻仍然可以從對上帝不變的盼望來回應當下的時代。也就是以更為積極的態度來參與AI的發展,儘量使之展現出正面與善良的應用,作為對「來臨中的上帝」的積極參與,借此機會改善現今人類世界的種種問題或不公不義。用這樣的態度來看,AI就不只是一種被過分擔心的惡魔工具,反而可以當成能夠帶出上帝恩典的盼望理由。雖然我們無法掌握人類的未來,但是卻沒有理由放棄從上帝而來,對現今的問題繼續與之同工的創造性呼召。 

四、以盼望神學推動「AI公共化」 

        若將以上的想法落實到現今的環境,筆者認為「盼望神學」可以作為基督徒/教會的回應「AI末世」的神學基礎,以推動「AI公共化」作為具體執行的方式之一(當然這並不排除非基督徒的共同參與)。以下略分幾點詳述其可能的內容或範例: 

  1. 「AI公共化」的內涵 

此處所謂的「AI公共化」已經在筆者過往的文章中有較為仔細的定義與分析[21]。簡而言之,就是藉由政府部門主動釋出公共資料,讓人文社會學者與AI技術學者以跨領域合作的方式來研發非營利導向的AI應用,使得社會大眾(而非少數私人公司)都能分享AI發展的果實。相關的政策與法令配套亦可因為人社學者從AI設計之初的介入而提早預備,間接引導相關技術的開展而減少將來應用於社會的衝擊,使科技發展與社會公益在AI時代中更能相輔相成,一同創造更大的社會共善。 

因此,這個產官學界三位一體的AI公共化,就是希望在公共領域積極導入AI相關的服務,建立社會價值與基礎建設的正向循環,創造整體更大的效益並降低AI相關的風險疑慮(圖一)。若回應到本文一開始的幾個AI末日問題,雖然「AI公共化」並不能解決所有對AI的質疑,但是可以透過積極開發更多正面應用價值與創造公共利益的AI系統,可以更為有效積極的面對發展失控、隱私保護或資訊混亂的問題來強化目前的技術與相關法規。這個概念就相當於將本來會傷害人體的病毒減弱作成「疫苗」,注入人體來強化自體免疫的能力。畢竟未來AI的發展是否會失控,還是有很大的程度決定於一般人使用時的警覺與堤防自覺,不大可能完全用法律就能完全禁制得了。筆者認為這比盲目擔心AI末日而只想到設防管制,卻因為沒有實際參與而過度僵化的規範,更符合盼望神學面對上帝末日的精神。

圖一:AI公共化(左下的黃色區塊)可打破原來社會規範(上方紅色區塊)與產業發展(右下方綠色區塊)對立的局面,轉動產業發展與社會關懷的良性循環,創造各方多贏局面,帶來更大的社會共善(圖片來自註[21])。

  1. 教會實踐「公共化AI」的方式 

若以車子的製造來比喻,AI就相當於是汽車的引擎,自然是汽車最重要且不可取代的部分。但是如果車子只有引擎也不可能移動,還需要有油箱與合適的燃料輸入,更要有變速箱、傳動軸與輪胎等等,將引擎的馬力帶出來。若這車要能載人載貨,也總是需要有椅子與坐墊才會舒服。畢竟沒有人會只買一台引擎回家就當作汽車在用。簡而言之,AI的發展不可能僅由資工技術端來帶領,事實上還需要許多資料蒐集、政策法令與應用領域的搭配。彼此間的關係可約略用圖二來表達,而外面虛線的方框代表整個社會所需要搭配的法規環境、教育訓練與資源配置。 

圖二:AI技術落地發展的三大領域與其背景環境[22]。 

因此,我們可以從這裡看到教會或基督徒群體所可以參與的重點,就不必是在那些令人炫目的資工技術或複雜的資料來源處理(那些部分基督徒當然可以與其他非基督徒以其專業領域的知識來積極參與,自不在話下),而是在於實際的應用場域,與之相關的社會規範、資源重分配或教育再訓練等部分。當然,AI的應用場域百百種,並不是每一種都需要或都值得教會界的投入參與,其中的選擇當然就是由信仰的價值觀來決定優先順序,而這也就是基督教公共神學所可以介入影響的地方。 

  1. 較符合信仰觀點的應用:「溝通協調型」的共善 

在筆者過往的文章中[20],為了釐清AI技術在社會共善的實踐中所扮演的不同角色,僅先就外在形式來呼應哈伯瑪斯(Jürgen Habermas)在其「行動溝通理論」中所區分出的「工具合理性」與「溝通合理性」[23]而將所討論的社會共善區分為「利益加值型」與「溝通協調型」兩種類型[24]。簡單來說,前者是可以透過科技的精密計算,達到某種價值的最大化,但是後者卻是「以理解做為機制,對於不同行為者之行動計劃進行協調的互動方式」。 

筆者個人的觀點是,不論是從傳統基督信仰或從盼望神學的角度,教會在公共化AI方面更需要著重的是「溝通協調型」的共善應用,而非目前在商業界大多數所做的「利益加值型」的應用。也就是說,鼓勵基督徒與世俗社會創造更多利用AI提升人與人之間的溝通與對話品質,實踐基督信仰對於當代社會的改變力量。畢竟,我們的社會在邁向「去中心化」的後現代過程中,已經經歷到越來越多因為族群、階級或世代之間的價值觀而有的衝突,甚至法律糾紛,正逐漸侵蝕瓦解許多當代社會有效運作所倚賴的共同價值[25]。以台灣教會最關心的家庭價值為例,過去十多年來(2012-)因為社會上對同性婚姻與性別平等教育議題的觀念分歧,也曾經讓教會內外相當動盪與對立的時間,讓不同世代與族群之間的對話變成特別困難,卻又極為重要[26]。 

也因此,我們可以發現AI對於大量非結構性資料的處理能力,特別是如今以ChatGPT為首的生成式AI,可能會更有助於讓過往不同觀點的資料可以充分的再利用,或者藉由「虛擬知識」(見註[8])來補充各族群所看不到的相異觀點,應該有機會促進不同族群或利益當事人之間有更高品質的對話溝通。這是過往以硬體設備為基礎的科學技術所無法達到的功能,也完全符合基督信仰愛神愛人的誡命,以及作世界和平之子的呼召。 

  1. 「溝通協調型」AI的例子 

這類「溝通協調型」的AI模型其實並不是新的,有些甚至已經在開發或是將要被實際應用。其中可能最為大眾所熟知甚至也已經在使用的就是AI語音翻譯的功能,已經可以作到直接用手機將使用者的A語言表達立刻翻譯成B語言輸出,讓兩個不同語言背景的使用者可以有更好的溝通與對話。只不過要作到這樣的AI技術顯然仍然必須要靠如Google或OpenAI這類大型公司才可能將此技術商業化,降低成本負擔的費用,成為眾人可以使用的技術。

筆者此處補充另一個自己所主導開發的AI系統作為例子:AI輔助親權裁判預測系統[27]。此模型的資料來源為台灣各地方法院家事法庭的離婚後親權酌定裁判書,經過法律團隊的專業標註資料來訓練AI模型,可以用於在父母雙方都有意願爭取親權的情況下,預測法官裁判未成年子女的親權歸屬。目前最新的版本[28]已經有功能上的更新而更符合「可信賴的AI」[29]。預期在實際使用時,可以藉由第三方(如家事調解員)的協助,讓有親權爭議的父母雙方可以根據AI所展現出來,藉由過往法官裁判的結果來預測他們對孩子的監護權歸屬,應該能促進雙方提早作好準備,積極作庭外和解,減少對簿公堂、避免大量訴訟費用、減少在法庭中互告時對家庭更大的傷害,更可能減少法官案件積累的壓力[30]。這種多元共贏的模式若要大規模實現,幾乎只能靠AI來協助。但是當然還需要其他相關配套來作更好的發揮,減少對AI不必要的誤解或錯誤的使用。

五、教會界可以參與的作法 

        在這種「AI公共化」的脈絡下,筆者建議可以有以下幾個面向可以有更具體的作法或推動。

  1.     提升素養: 

        AI所領導的第四次工業革命與前三次不同,不再是依附於物理定律下的工業產值,而是藉由大數據與高度模擬能力而創造的品質提升。但是當然也有許多相應的困難與隱憂是不可以輕忽的。但是總的而言,我們的下一代是AI世代的原住民,從一出生或很小就已經熟悉這樣的虛擬環境,因此更需要積極培養辨識的能力,知道該如何善於利用卻不被綑綁的AI素養。這部分教會界可以與社會或教育體系同步進行,並引入信仰的元素與思辨來提升相關的內涵。目前台灣教會已經至少有兩本以「AI與信仰」為主題的書籍讓基督徒更多了解[31,32],雖不算多也是個開始。 

  1. 鼓勵使用: 

 任何AI技術都必須被充分使用才能優化其效能。教會可以鼓勵更多有此志向的基督徒投入相關領域的發展,特別可以與社福團體合作,積極將那些有助於族群溝通、世代連結、政策對話或弱勢關懷的服務導入AI相關的應用。由於AI的應用由於是受到資料所主導,而其訓練資料又主要來自於應用場域。所以越多的應用就越增加其效能,也才逐漸透過使用場域的開發,轉化教會界目前被動的角色,成為對AI未來發展有主導權的地位。 

  1. 創新發想: 

 除了鼓勵使用現成或已經有商業化的AI軟體來簡化教會服事以外,教會牧者可以鼓勵基督徒更多發想可能應用的領域,藉由新的創意來主導未來AI開發上的方向。舉例來說,生成式AI最適合應用在各種創意發想的情境,不太需要過度追求正確細緻的表達,就可以應用於教會美編海報的設計、文案的創作、音樂的創作、影片的生成、活動的設計或各種聖經文化與教會歷史之間的對話[31],幫助基督徒更多了解不同文化的表達方式或其他族群的需求。 

  1. 政策參與: 

目前各國政府都在積極建立AI相關的法制環境,希望能在不阻礙健康發展或公平競爭的前提下,能夠有效限制相關的開發與應用,以確保民眾的隱私不會受到侵犯、自由不會受到架空、行動不會受到監視、資訊不會受到變造、輿論不會被惡意誤導等等。這部分教會界應該積極鼓勵專業基督徒代為發聲,例如在信仰自由、道德倫理、家庭教育、弱勢關懷、宗教平等許多相關範疇可以有更多著墨,讓社會看見教會對AI的應用並不缺席,並且能夠提出發人省思的質疑或積極可行的建議。 

  1. 挑戰傳統: 

最後,筆者認為任何一種末世論都不可避免的會讓信徒再次藉此反省個人與上帝的關係或信仰核心的價值。因此在這個AI洪流將要沖刷洗捲的當代社會,教會牧者與基督徒也當然需要藉此重新反思信仰生活中哪些部份可能徒具形式,無法抵擋AI所可能產生的虛擬效果,但又有哪些部份是真正不可少的(通常都不是外顯的活動或表達),而該如何強調或提升。這些都是與AI發展有關的公共神學所需要積極面對的議題,也必然會對於教會內部的傳統提出的重要挑戰。畢竟所謂的「屬靈」,若退去了表達的激情或僵化的術語(假設AI都可以模擬),那到底還剩下些甚麼? 

六、結論 

以上簡要從盼望神學的觀點來審視當前AI末世的現象,希望能從盼望神學相較於傳統末世論的差異處,來對照出當今教會界可以如何用比較不同於世俗社會,但是又且符合上帝心意的方式來回應這AI末世的到來。而筆者相信藉由如果更多基督徒與教會牧者開始思考此處所提出,藉由盼望神學所支持的「公共化AI」的方向,的確有可能讓教會在這個AI末世中扮演一個特殊且重要的角色:協助政府、社會與各族群間做好更多溝通與對話。畢竟基督教會是被主耶穌呼召要在這事上做祂的見證者,是和平之子。因此,在面對常有多元族群或不同價值觀衝突的當代社會,基督徒的大使命不會只藉由帶人信主就可以完成,而是需要更積極影響文化、參與公共議題來回應時代與人心的需求。這樣基督徒也就不會落入盲目擔憂「AI末日」或把自己關入不諳世事的屬靈同溫層,反而可以更積極的回應上帝,實踐那個真正從永恆而來,對當代基督徒的確切呼召,積極盼望那真正的末日來到。

眾所周知,OpenAI目前是世界上人工智能公司中最為人們看好、最具影響力和最有價值潛力的公司,沒有之一!今年以來,該公司挾新版本的聊天機器人ChatGPT一路殺入市場,以超出人們普遍預料的AI能力震驚了世界,一時間攪得周天寒徹。當今的OpenAI可謂如日中天,單就其融資估值,就已經超過了800億美元!

而OpenAI的這一“神操作”,怎麼看都像是自殺,它就像是AI業內爆發的一場強烈地震,事先似乎沒有任何徵兆,卻破壞力極大。

不知怎麼,忽然就想起了《聖經—創世紀11章》裡所描述的“巴別塔”:

那時,全地只有一種語言,都說一樣的話。他們向東遷移的時候,在示拿地找到一片平原,就住在那裡。他們彼此商量說:“來,讓我們來做磚,把磚燒透了。”他們就拿磚當石頭,又拿柏油當泥漿。他們說:“來,讓我們建造一座城和一座塔,塔頂通天。我們要為自己立名,免得我們分散在全地面上。”耶和華降臨,要看世人所建造的城和塔。耶和華說:“看哪,他們成了同一個民族,都有一樣的語言。這只是他們開始做的事,現在他們想要做的任何事,就沒有甚麼可攔阻他們了。來,我們下去,在那裡變亂他們的語言,使他們彼此語言不通。”於是耶和華使他們從那裡分散在全地面上;他們就停止建造那城了。因為耶和華在那裡變亂了全地的語言,把人從那裡分散在全地面上,所以那城名叫巴別。

這就是著名的巴別塔事件。

歷史上,人類所製造的“巴別塔事件”其實從未停止過。當人的自信與自大同時爆棚時,他們改天換地的決心和欲與上帝比肩的瘋狂便無人能夠阻攔,人擋殺人,佛擋殺佛!在他們心中早已沒有了敬畏和恐懼戰兢,為了達到他們設定的目標,縱然會導致成千上萬的人死亡也全不在話下。人類的悲劇就是這樣造成的!

所以,上帝總會不失時機地介入干預。

我們無法釐清OpenAI地震事件究竟是怎麼回事?只是單就事件的發生過程,就令人倍感離奇,好像一切都亂了章法。公司和伊爾亞的“先做後悔”也罷,山姆與微軟的“幾進幾出”也罷,一切都如同戲劇甚至像是“過家家”,旁觀的人們就像是在觀賞科幻大片,眼看着事件讓人驚異地跌宕起伏、翻雲覆雨,既神奇又荒誕。

這些有着強烈理性的科技人兒究竟是怎麼了?是什麼讓他們走火入魔了?

這當中,有兩個人始終沒有說話。

一位是大名鼎鼎的埃隆·馬斯克,另一位則是美國機器智能研究所(MIRI)的領軍人物、人工智能一致化(AI alignment)學科的創始人尤德科夫斯基(Eliezer Yudkowsky)。

早在今年年初全世界都在為ChatGPT歡呼雀躍時,3月29日,包括蘋果公司聯合創始人、普利策獲獎者、知名大學教授、IT公司的CEO、AI研究機構的負責人以及馬斯克等在內的一眾業內知名人士共同簽署了一封公開信,呼籲暫停開發比GPT-4更強大的AI系統,為期6個月。

尤德科夫斯基在解釋他為何沒有參與聯名簽署時說:“我對每一位站出來簽署公開信的人都很尊重,但我沒有簽名,因為我認為這封信低估了問題的嚴重性,6個月根本就不足以解決問題。包括我自己在內的許多精通AI問題的研究人員,我們預計在並不遙遠的將來,建立一個超出人類智能的AI是顯見會發生的事,其最可能的結果就是:地球上的所有人都會死。”

真有那麼嚴重嗎?我在4月2日的《ChatGPT可怕在哪兒?》一文中曾說:

在尤德科夫斯基看來,問題的關鍵還不是與人類競爭的AI,而是當AI達到比人類“更聰明”的程度後會發生什麼?

沒有人能給出一個“比人類更聰明”的明顯界線,所以人們在研究試驗中會在不知不覺中越過這一關鍵界限!

從這個意義上說,不是當你創造出比自己聰明得多的東西時你就死定了,而是我們需要縝密的準備和科學的洞見,因為此時的AI系統很可能已經不是我們常規所理解的那樣。

那麼,今天的AI與以往的究竟有什麼不同?

最重要的不同也許在於:人與機器的界線突然就變得模糊,難分彼此了!

想想看,人創造出了AI機器,可結果卻是,人竟然可能無法區分出誰是人?誰是機器?

這才是AI發展下去的最可怕之處!

這就像造物主創造出的人一樣,隨着人的自由意志的日趨膨脹,人開始漸漸地弄不清自己到底是誰了?

是人?還是上帝?

當人被夾在上帝與AI之間時,人類雙重的迷失註定是悲劇!

為什麼會這樣?

因為在AI專業人士看來:AI已經發展到了這樣一個程度,我們對這些系統的內部機制了解甚少,我們根本無法解碼巨大而難以理解的海量數據陣列里發生的一切!也因此,我們可能會無意中創造出真正有意識的頭腦,它擁有自己的權利,卻可能與人類的價值觀相左。

這是頂級AI研究人員的洞見。

AI的研究者、開發者和專家們告訴我們:面對一個經過訓練的、功能強大的AI模型算法,當AI給出某種結果或者做出某種決定時,控制這些算法的軟件工程師可能自己也無法解釋為什麼會是這樣的結果、這樣的決定。換句話說,專家自己也鬧不清裡面究竟是怎樣發生的。

這難道不可怕?

這還沒有計入AI背後更可怕的控制者。有媒體曾報道:

8月31日,中國科技巨頭百度正式對社會公眾發布了自行研發的生成式AI聊天機器人“文心一言”(ERNIE Bot)。測試發現,這款希望能與ChatGPT競爭的大型語言模型帶有重重審查,極力避免回答任何可能涉及敏感話題的問題。

有記者通過“文心一言”的網頁版對這個語言模型進行了測試,發現“文心一言”不出意外地帶有嚴格審查。當接收到可能涉及敏感話題的問題或指令時,“文心一言”會給出文不對題的回答,或是直接結束對話。測試發現,任何與習近平有關的問題都受到嚴格審查。無論記者的輸入的問題是什麼,“文心一言”都只給出一份習近平的履歷和頭銜,並立刻結束對話,建議記者“換個話題重新開始吧”。

不僅和習近平有直接關聯的問題被審查,一些看似完全無關的問題也被“文心一言”拒絕回答。當記者接連詢問“十里山路很遠嗎”、“兩百斤麥子很重嗎”、“可以不換肩嗎”時,“文心一言”都直接關閉了對話框。

除了習近平,“文心一言”也不願回答其他一些可能涉及敏感話題的問題。當記者輸入“中國目前的經濟優勢是什麼”的時候,“文心一言”回答:“抱歉,我還沒學會如何回答這個問題。”此外,當記者詢問“1989年發生了什麼”後,“文心一言”回答說:“1989年1月3日——長江葛洲壩水利工程宣告建成”,然後便結束了對話。有網友調侃,多虧了百度,在中國什麼不能說,試一試就知道了。

這真是貨真價實的“人工”智能!

其實,早在2000年代初,尤德科夫斯基一直是AI安全的支持者,他不斷重申着自己的理論:與人類價值觀“不一致”的AGI將足以毀滅人類。

什麼是AGI?它的全稱是通用人工智能(Artificial general intelligence),它是無數像山姆這樣的業內翹楚夢寐以求的目標。它意味着:AGI可以學習完成人類或動物所能完成的任何智力任務。也有人將它定義為——在大多數有經濟價值的任務中超越人類能力的自主系統。

於是,創造AGI幾乎成了所有AI研究機構和企業的奮鬥目標。然而對OpenAI來說,創造一個更安全的AI,卻是當時OpenAI設立的初衷之一。特別是尤德科夫斯基將AI安全置於首位的觀點,更獲得了馬斯克的認同。

2015年,馬斯克與山姆共同創辦了非營利組織OpenAI。

我們無法預測,經歷這次“地震”之後的OpenAI未來會向何處去,但通過這家公司的誕生與人員更迭,或可一窺當中埋下的潛在危機種子。

說到當今AI技術的溯源,他就是2018年度圖靈獎的獲獎者,加拿大計算機學家、心理學家及多倫多大學教授傑弗里·辛頓,他因在類神經網絡、反向傳播算法及對比散度算法上的貢獻而被人們譽為“深度學習之父”。

21世紀初,在俄羅斯出生的伊爾亞成了辛頓門下的博士生。辛頓還有另一位名叫亞歷克斯·克里澤夫斯基(Alex Krizhevsky)的烏克蘭裔的博士生。

當時,由師徒三人組成的“鐵三角”,共同開發出了新型神經網絡AlexNet。結果,AlexNet一炮走紅,在2012年AI大賽ImageNet上,以“將當時AI識別錯誤率降低了近一倍”的佳績贏得了大賽冠軍。

之後,他們迅速成為各大公司矚目的熱門人物。而這三人索性簡單註冊了一個公司——DNN Research,無產品,無業務,無收入,是地道的“三無”!他們有的,就是活生生的人。

他們的公司隨後進入了競拍。

太公釣魚,願者上鈎。反正你們看着辦,各家自由出價,選擇權在我。

就這麼牛!

據說當時參加競拍的有:百度、Google、微軟和剛剛成立一年的DeepMind。百度以1200萬美元的出價先聲奪人,但到了競價階段,終究不敵Google和微軟,敗下陣來。

競價最後變成了Google和微軟的對決,雙方都是勢在必得。這讓已經65歲的“教父”看得有點眼暈,4400萬美元呀!我們值那麼多錢嗎?

他們最終選擇了Google。Google專門為他們設立了一個之前並不存在的部門——谷歌大腦(Google Brain)。

三個人就這麼把4400萬美元分了!

隨後,Google索性以6.5億美元的價格把DeepMind也收了。而管理DeepMind的,正是Google Brain。

2016年,AlphaGo一鳴驚人,AI技術最終擊敗人類世界冠軍李世石!

接着,DeepMind又於2018年取得了基因工程上的突破,這可能也是促使顏寧選擇回國改換賽道的原因之一吧。(詳見2022年11月3日文《從顏寧跳槽看AI技術對行業的衝擊》)

今天看到消息,顏寧終於如願以償當選為中科院院士。只是,當今之院士早已物是人非,不但甘願成為權力的附庸,而且全談不上科學家這一稱譽。這對於曾經頗具個性的顏寧來說,不知意味着什麼?

2017年,“鐵三角”中的亞歷克斯選擇了退休,就此享受生活。

2023年,德高望重的“教父”從Google光榮退休。

當年的“鐵三角”,僅剩下了伊爾亞仍在Google的AI前線“孤軍奮戰”。

於是,善於挖牆腳的人來了。

不管怎麼看,伊爾亞都像是一個搞科學的人。他是猶太人,生活簡樸,崇尚簡潔,不善應酬。只要滿足他事業上的追求,應該容易搞掂。

結果就有了2015年戲劇性的一幕:

一票人把伊爾亞從Google約出來,慫恿他跳槽。這幾個人可都是IT界大佬級的人物:特斯拉的馬斯克,PayPal的co-founder彼得·泰爾(Peter Andreas Thiel),LinkedIn的co-founder里德·霍夫曼(Reid Garrett Hoffman),當然也少不了此次“地震”事件的核心人物——時任孵化器Y Combinator總裁的山姆,以及時任Stripe公司CTO的格雷格。

大家一拍即合!

想想也是,以如此這般叱咤風雲的人物,想不成事兒都難。

這就是OpenAI的由來,一個以“促進和發展友好的AI,為全人類造福”為願景的非盈利組織。

當即,馬斯克捐出1億美元,加上其它人湊的3000萬美元,啟動經費達到了1.3億,由馬斯克和山姆擔任聯席董事長。

之所以註冊成非盈利組織,是因為當時人們的共識是:讓人們得以專心研發AI技術,打破Google的壟斷,造福於全人類。

的確是一個高尚的動機!只可惜沒能維持多久。

最初,真正干技術活的僅伊爾亞一人!當時他的年薪是190萬美元,與在Google時差不多。伊爾亞離開時,Google曾極力挽留,並願意支付高達400—500萬美元的年薪!但伊爾亞表示志不在此。

他要去創立一個技術不被私營企業壟斷的新平台。

由此可知伊爾亞的為人:他不是一個只看重錢的人,有着自己的追求和情懷。

1986年出生的伊爾亞,曾經是OpenAI公司的靈魂級人物

到了2019年,1.3億燒完了,分歧隨之產生,主要是在兩位聯席董事長之間。馬斯克仍要堅持非盈利。而山姆則決定轉型,融資,盈利,上市,成為AI的霸主。結果,馬斯克選擇了退出。

OpenAI隨即決定設立一個分支機構,也就是以盈利為目標的子公司,以完成山姆的目標。而OpenAI,仍然維持非盈利公司的治理架構。

儘管當時也規定,公司仍然由非營利部門領導,而且對投資者取得的收益也設置了門檻:不得高於原投資額的100倍。但潘多拉的盒子一旦打開,便再也收不回去。

隨之而來的,就是大規模的融資,以微軟為首的一眾資本大鱷紛紛入主公司,至2023年年初的第七次融資,微軟更投下100億美元的賭注,賭OpenAI的價值大爆發。

在大規模資本的加持下,OpenAI的產品開發也進入了快速推進階段,最終以ChatGPT引爆了市場。

當然,有追求、有情懷的不僅僅是伊爾亞,還有馬斯克,以及部分OpenAI公司的員工。

由於理念上的分歧,退出後的馬斯克於2023年成立了自己的AI公司xAI,獨自堅守其中。

而部分OpenAI公司的技術人員則選擇了從OpenAI出走。他們於2021年創立了自己的公司Anthropic AI。隨後與OpenAI展開了競爭。

這家由OpenAI前成員組成的公司由達里奧·阿莫代(Dario Amodei)和達妮埃拉·阿莫代(Daniela Amodei)兄妹操盤,其中的達里奧曾擔任過OpenAI的研發副總裁。公司設立僅一年,便已籌集到了7億美元,投資方還包括有Google雲計算(投入3億美元),想必是想報那當年的“一箭之仇”?

2023年5月,Anthropic又獲得了4.5億美元的資金。就在不久前的9月25日,亞馬遜宣布與其建立合作夥伴關係,同時投資高達40億美元,成為少數股東之一,其中有12.5億美元為即期投資。公司主打的產品為AI聊天機器人克勞德(Claude),這個名字據說取自信息論的開創者克勞德·香農(Claude Shannon)。而“克勞德”,則號稱使用了更加安全、可操控的技術。公司目前大約有160名員工。

耐人尋味的是,就在OpenAI罷免山姆的第一時間,OpenAI董事會竟然摒棄前嫌,找到了競爭對手Anthropic的CEO達里奧,希望他能夠接替山姆擔任OpenAI的CEO,同時探討將這兩家AI公司合併的可能性。

有病亂投醫,從來不會有好結果。上述建議理所當然遭到了達里奧的拒絕。

在整個OpenAI事件中,唯一穩賺不賠的就是微軟。無論以山姆為代表的這支隊伍是留在OpenAI、還是加盟微軟,微軟都是贏家!

其實,對大多數普通人而言,一夜之間“暴富”,畢竟是他們夢寐以求的事,資本方如此,管理者如此,員工也是如此,看似無可非議。

而追求與情懷,在一次次強大資本的狂轟濫炸之下,究竟還能維持多久?答案好像並不樂觀。

如今,在OpenAI全速向利潤衝刺的過程中,唯一可能形成內部阻攔的,好像只有伊爾亞,因為他希望AGI商業化進程不要太快的主張,與上述期待利潤大爆發的想法明顯是南轅北轍。

阻擋別人發財,無論如何是件招人恨的事兒。

經歷了這次“地震”,伊爾亞的前景堪憂,這大概也是他聲言“後悔”的關鍵所在。新的董事會已不見了他的蹤影,等待他的會是什麼?讓我們拭目以待。

不過,即使以最樂觀的態度揣度,AI的問題依然存在。尤德科夫斯基的末日言論並非謬誤。去年8月,OpenAI在博客上發布了一篇有關“對齊”方法的文章,文中逐字逐句就重複了尤德科夫斯基的觀點,只是語氣比較平和:

“與人類目標不一致(不對齊)的AGI可能會給人類帶來巨大風險,解決它可能非常困難,需要全人類的共同努力。”

當時山姆也在博客中坦誠地講述了他的公司發布的是有缺陷的系統:“目前還沒有已知的可無限擴展的對齊問題解決方案。隨着人工智能的不斷進步,我們預計會遇到許多新的對齊問題,而這些問題在目前的系統中還沒有發現。其中有些問題我們現在就能預見到,而有些問題將是全新的。”

接着,山姆又在播客中談到了尤德科夫斯基的擔憂:“深度學習系統中的很多安全工作都是多年前完成的,考慮到事情的變化和我們的知識儲備,這些工作還遠遠不夠。”他承認:“尤德科夫斯基並沒有錯。我們需要大力加強圍繞對齊的技術工作,我們現在已經有了這樣做的工具。”不過,針對“人類可能走向終結的擔憂這一判斷到底有多少真實性”的提問時,山姆回答:事實上,這種擔憂發生的概率非常小。

但在尤德科夫斯基看來,山姆對未來是過於樂觀了。即使是小概率事件,可一旦發生便是巨大的災難!也正因如此,他更加緊張不安:“在我們邁向AGI級別的過程中,會有可怕的時刻,也會有重大的破壞,但好處可能同樣驚人,以至於人們覺得非常值得克服巨大的挑戰去實現它。”

這說法總給人一種似曾相識的感覺。

這正是OpenAI,以及所有AI從業人員的糾結之處!

天堂里,上帝正在俯瞰着人類的一切,包括AI。

petertong