大模型与人工智能

摘 要:

基于伦理精神与科学精神统一理念,可将“以人类物种存续发展为目的”设定为 AI 伦理第一原则,而威胁人类存续的力量主要来自人类外部自然力和人类内部社会结构性冲突;把 AI 拟人化而将其视作威胁人类物种的外部力量,既不科学,也有违物种伦理。大模型符合人类智能发展史基本规律,将推动 AGI 的实现;而 AI 能力越大,可能造成的危害也越大,工具伦理强调 AI 危害的伦理责任主体,不是工具,而是人或社会组织,监管先行非常必要;来自人类内部的社会结构性冲突,会使具有超强能力的 AI 的滥用或误用威胁人类物种存续发展,变革社会结构等非常重要。科学揭示大模型的“实然”及符合规律的“必然”,坚持 AI“应然”的伦理先行原则,会为 AI 科学发展和合理运用扫清障碍。

关键词:

物种伦理;工具伦理;伦理先行;科学精神;大模型

ChatGPT 的发布宣告 AI 发展进入了“大模型时代”,暂停大模型研究的千人签名信、辛顿(Geoffrey Hinton)退出谷歌等事件表明:随着 AI 能力的极速提升,伦理先行意识也在增强。2023 年 5 月 30 日,美国非营利组织 Center for AI Safety 官网公布了只有 22 个英文单词的关于 AI 风险的声明(以下简称“风险声明”),超过 350 名 AI 领域的企业界和学界名流签署了该项声明,签名中的前 4 人是辛顿、本希奥(Youshua Bengio),以及谷歌 DeepMind 的哈萨比斯(Demis Hassabis)、OpenAI 的奥特曼(Sam Altman):Mitigating the risk of extinction from AI should be a global priority alongside other societalscale risks such as pandemics and nuclear war——用extinction 这个词表明 AI 进一步发展将有可能威胁人类物种存续,“以人类物种存续发展为目的”似应成为 AI 伦理第一原则。探讨 AI 应用伦理,首先要讲科学,要把伦理精神与科学精神高度统一在一起,这就要求对大模型之“实然”、实现 AGI 符合发展规律的“必然”,做出科学的辨析,而非主观想象性的臆测,如此,AI 伦理学在价值观上所宣示的“应然”,才不至于空置或空转。在探讨 AI 社会影响的多种学科中:① “法学”关注“不应然”或不该做的,法律对 AI 应用的影响是刚性的;② “伦理学”则既关注“不应然”也关注“应然”,伦理原则对 AI 应用的影响是非刚性的;③ AI 的应用又总是在由个人与个人之间的具体关系构成的社会结构系统中进行的,“社会学”揭示社会结构系统的“实然”,不结合这种“实然”,或者说不放在特定的社会结构中来加以审视,AI 伦理原则就会流于空洞或虚化,比如脱离今天过度竞争的社会组织特性来抽象地谈“AI 向善”,就可能沦为空谈。

首先看与 AI 相关的“物种伦理”。中国科学技术大学陈小平教授讨论 ChatGPT 的文章指出:“事实上,人工智能是包含内在伦理追求的,而不仅仅以科学发现、技术发明和经济发展为目的。根据人工智能内在伦理观,人类不应研发不利于增进人类福祉的 AI,而让人类变成低配版 AI 显然不利于增进人类福祉”——以“增进人类福祉”、避免人类灭绝而以人类物种存续发展为“目的”,应成为 AI伦理第一原则。研究“实然”的科学并不直接具有特定的价值立场,而伦理学研究的“应然”本身就体现了特定的价值立场。伦理学并不包揽 AI 研究的所有方面,但作为 AI 研究的一个方面,并且针对全球有关 AI 的认知混乱和伦理混乱,AI 伦理学必须旗帜鲜明地宣示自己基本的价值原则。人类伦理原则在不同的社会历史发展阶段、不同的民族文化空间中会有所不同,但是,以“人类物种存续发展”为“目的”,当是人类伦理的“第一原则”和“底线原则”,这是康德“人是目的”伦理原则的具体化。将这种第一伦理原则落实到 AI 活动中就是:“人类”不是“智能”发展或所谓“智能进化”的“手段(工具)”,而“智能”发展乃是“人类物种存续发展”的“手段(工具)”。

AI 伦理混乱往往与认知混乱尤其对 AI 的非科学认知交织在一起:“让人类变成低配版 AI”就会形成所谓人类与 AI 之间的“地位之争”——这种认知与 AI 进化论密切相关,未来的 AGI 尤其超级 AI被视作一种新的“硅基智能物种”,而其思想根源又与“拟人化”倾向密切相关——陈小平指出:“大模型 LaMDA 曾被认为具有自我意识,不应被当作机器对待”,而这是由“拟人化想象”的“投射效应”引起的,“这些看法是没有科学依据的,不符合科学事实的”。在未来较长一段时间里,创造所谓新的“硅基智能物种”,在科学上“做不到(can not do)”“不必然”——这是个“科学”问题,要在“科学”上加以辩驳;而在“伦理学”上则应宣示和强调“不该做(should not do)”“不应然”,不以人类物种存续发展为目的的 AI 的累积性发展,将会产生巨大负面影响。

再从人类伦理原则本身的发展历史看,伦理既规定“应该”做什么(“应然”),同时也规定“不应该”做什么(“不应然”),即存在“伦理禁忌”。现代人类学研究发现,不同的原始部落会有不同的伦理禁忌,但是一个相通的禁忌是“乱伦禁忌”,因为乱伦会导致人类物种的退化,而在自然界中人类物种的身体力量不如很多动物物种,退化会导致人类物种本身的灭绝——“乱伦禁忌”也正是为了维持“人类物种存续发展”。

“风险声明”涉及威胁人类物种存续的三种因素,一是核技术;二是流行病,与此相关的是基因技术,对人的基因进行编码和克隆,已成为“伦理禁忌”;三是 AI 技术,科幻作家阿西莫夫提出的“机器人三原则”,关乎的大抵就是维持人类物种存续伦理原则。在 17 世纪前后现代自然科学发展的初期,弗兰西斯·培根就提出利用科学“创造新种”的构想,这也成为今天滥用基因和智能技术者所追求的目标之一,就像乱伦一样会威胁人类物种存续——尽管乱伦所导致的是人类物种的“退化”,而滥用基因和智能技术者,则声称是为了人类物种的进一步“进化”。因此,“(创)造(新)种禁忌”应该像曾经的“乱伦禁忌”一样,成为当今极致技术时代的人类伦理第一原则和底线原则。有人声称 AI 技术发展的终极目标,是为了创造出不同于人类“碳基物种”的新的更加智能的“硅基物种”——这实际上假设“智能”是目的,而人类物种则是智能发展的“手段(工具)”,并且是较为低级的工具即 AI 低配版——这是一种“反人类”的智能拜物教,不过是“人类存在是实现神的目的的手段”等宗教观念的翻版而已。人类物种不是智能发展的手段,智能只是人类物种发展的手段,应成为 AI 伦理第一原则。

再看 AI 应用的“工具伦理”,讨论这一问题应坚持动态发展的“历史原则”和系统的“社会原则”。乱伦会导致人类物种退化,进而在与其它动物的生存竞争中被淘汰,在此意义上“乱伦禁忌”是一种消极原则;而人类应对生存竞争和外部自然压力的积极而能动的做法,是发展自身的智力和科学、创造并使用各类技术:人的身体力量不如许多动物,维持自身存续就要发展智能力量,由此创造并不断发展文化、技术等,而发明和发展技术的初心,也正是为了维持人类物种的存续发展——今天我们发展 AI 这种极致技术不应该忘记这个初心。

首先从动态发展的“历史原则”看,进入私有制社会和“文明时代”以后,人类发明的技术不仅被应用于征服人类外部自然力和生存竞争,而且越来越被应用于人类内部的竞争——到了技术发达的现代资本社会,人类与外部动物的竞争原则,就被转化为人类内部的竞争“社会达尔文主义”原则。人类迄今为止的文明史,一直伴随着人类内部相互厮杀的战争,而辩证的历史事实是:许多技术恰恰是在人类内部相互杀戮的战争中发展起来的——AI计算机与核技术就是在第二次世界大战中发展起来的。陈小平强调:AI 治理和伦理策略,应该随着 AI的“技术条件”的变化而变化,才能具有现实针对性——这种方法论上的动态发展的历史原则,同样适用于分析技术及其应用与人类物种存续的关系。

在“风险声明”所涉及的要素中,流行病及相关病毒来自人类外部的自然力,而技术则是人类内部的社会力量:在核技术发展之前,战争会使人类物种有所损耗,但总体上不会导致人类灭绝,而现在的基因、核技术、AI 的武器化等则开始威胁人类物种存续——形成这种威胁的现实根源,并非发达的技术本身,或者说并非人类外部的超强力量,而是人类内部的过度竞争性的社会结构所形成的冲突及其导致的技术滥用。因此,科学考察 AI 的威胁,还需坚持系统的“社会原则”,不应只孤立地看 AI机器对人类的威胁,而应放在现实的社会结构系统中考察。

以“人类物种存续发展”为“目的”,则以AI为“工具”、以 AI 的发展为“手段”,这是体现“物种伦理”的“工具伦理”,关乎人类与外部世界的关系;而从人类内部关系即人与人的关系看,“人是目的”伦理原则要求把属于人类物种的每一个具体的个人都作为“目的”。但是,进入私有制社会和文明时代以后的实际的历史事实却是:在人类“内部”,一些人总把另外一些人当作“手段”,比如奴隶主就把奴隶当作像骡马等动物物种一样为自己生产财富的“工具”,兹不多论。具体地看,“工具伦理”体现为:工具所产生的危害,不是由“工具”本身负责,而是由使用工具的“人”负责——在 AI 运用中就体现为:一个人使用 AI 工具对另一个人所产生的负面后果的责任主体,是“人”而不是“AI 工具”——这关乎人与人关系的“社会学”的“工具伦理”。在这方面,伦理学曾出现过一种诡辩:“人”用“刀”杀“人”,究竟是“刀”杀“人”,还是“人”杀“人”?对于非自动化工具的“刀”等来说,这种诡辩还相对容易辩驳,对于自动化工具的“机器”来说,似乎更难辩驳,而 AI 的“人形化”(智能机器人)外观,以及赋予 AI 机器以“自我意识”“自由意志”的人格化、拟人化等,又使这种诡辩更加貌似有理——这会成为 AI 研发和使用人规避伦理责任的借口。因此,在“科学”上揭示机器拟人化谬误,有助于在“社会学”层面上确立 AI 危害的伦理责任主体,而非科学的认知混乱则会导致 AI 伦理上的混乱。

ChatGPT 发布之后,奥特曼在接受访谈中强调:“我们应该努力向人们解释,教育人们这是一个工具,而不是一个生物”“把生物性投射到工具上是危险的”——这就是我们强调的“工具伦理”,当前 AI伦理上的最大混乱,是有些人声称不能把 AI 机器当作“工具”而要当作“物种”,并获得与人类物种“平等”的地位——仅仅在所谓“本体论”层面很难将此辨清,但是,从人类当下真实的社会状况看,就会发现这种认知的荒谬和矫情:在许多人还被当作资本增殖的“工具”的现实社会状况下,有人却声称不要把作为人类创造物的机器当作“工具”!因此,坚守 AI 工具伦理原则,不仅要明确“承担责任的主体”是人或社会组织而不是 AI 机器,同样还要明确“被负责的对象”是人类、个人而不是 AI 机器——这是 AI 伦理第一原则的具体落实。

对AI“实然”和符合规律的“必然”的科学识别,是探讨 AI“应然”伦理原则的科学基础。一般不会否认 ChatGPT 等大模型是 AI 发展的一次重大突破,但对大模型的能力是否足够强大(“实然”)、沿着大模型路径是否可以实现 AGI(“必然”)的认知存在分歧,由此还产生对大模型应用风险大小的不同判断。

立 昆(Yann LeCun) 认 为:未 来 几 年 内, 大模型会被抛弃,因为“这些系统没有物理世界的经验,这使得它们(的能力)非常有限”,因而无法实现 AGI——这种判断使他认为:大模型应用的风险没那么大,“这就好像你在 1930 年问航空工程师‘如何让涡轮喷气式飞机安全可靠’?工程师会说‘什么是涡轮喷气式飞机’?因为涡轮喷气发动机在 1930 年还没有被发明。”辛顿则指出:“我过去认为风险是遥不可及的,但现在我认为这是严重的,而且相当近”——在他看来,现有大模型能力已经比较强大,进一步发展后失控的风险将很大,这是他退出谷歌的原因之一。奥特曼认为现在的大模型也确实还不是 AGI,但他显然并不同意立昆所说的未来实现 AGI 后再加强监管,而是强调“千里之行,始于足下”——“监管先行”非常必要。

陈小平对大模型的“实然”做了较全面的科学辨析。他首先把自然语言大模型运作机理,概括为“从人类规模语料中自动提取关键性语言痕迹”,并把“机器的语言行为”的基本单位 token 翻译为“语元”,如此,大模型“机器的语言行为”就可描述为“语元组合运动”,其“底层原理”是“基于(语元)关联度的预测”——这种“关联度”表明“语元组合运动”并非杂乱无章的,而是符合一定“规律”的——而这又是对“人类的语言行为”的“学习”的结果,人类语言行为存在一定规律,大模型掌握了这种规律并将其运用到文本的自动生成。他用不同于“概括性模型”的“实例性模型”、不同于“原理模拟”的“功能模仿”、不同于“强共识”的“弱共识”等两两相对的范畴,揭示了大模型基本特性,并指出:“在 AI 发展早期,原理模拟引起了更大的关注,被视为 AI 走向成功的唯一可行道路”,而阿尔法狗和ChatGPT大模型等则表明“‘唯一可行道路’的猜测已经失去了现实基础”,未来 AGI 的实现也必然不会只有“唯一可行道路”——立昆认为实现AGI 要抛弃大模型而另起炉灶,大抵依然信奉“唯一可行道路”的 AI 发展理念。语言文字等符号的发明和使用,在人类智能发展史上是划时代的,由此,人类智能的发展,也就主要不是表现为人脑内部的“神经元系统”的进一步进化,而是表现为人脑外部的“语言行为”的发展——大模型取得突破的原因之一,就是符合人类智能发展史这一基本规律,因此,在大模型基础上集成其他功能,也将是实现AGI 符合规律的“必然”。

大模型“从人类规模语料中自动提取关键性语言痕迹”,而作为人类语料载体的文字是一种非个人性的社会性的符号,由其生成的“符号智能”就是一种非个人性的社会性的智能,不同于个人大脑生成的非社会性的智能——在此意义上,AI 大模型所具有的是“非个人智能”,但却依然是“人类性”的“社会性”智能,流行表述称之为“非人类智能”,不准确,并且会把 AI 尤其 AGI、超级 AI 视作存在于人类“外部”的力量,引发不科学的认知混乱和伦理混乱,进而引发不必要的恐慌。

陈小平指出:“透过大模型重新认识人工智能,重新思考 AI 时代的社会治理,具有重大的现实意义。随着 AI 等新技术推动全球经济效率不断提升,甚至以超常规的速度提升,近代以来行之有效的以效率提升为基本动力的发展模式或将面临拐点。”科学揭示大模型的“实然”及符合规律发展的“必然”,有助于科学辨析 AI 应用的风险及应对之策。大致说来,带来风险的 AI 应用可分为“有意”之“滥用”和“无意”之“误用”两大类。比如,把本身具有“弱共识”特性的自然语言大模型,不加限制地运用于一些需要“强共识”的领域比如医学诊断等,就可能产生无意误用之风险。更广泛地看,对于不了解能力越来越强大的 AI 技术特性的普通大众尤其青少年用户来说,无意误用的风险会越来越大;加强新技术通识教育、弘扬科学精神、培育伦理责任意识,可以减少无意误用及其风险。

对于 AI“有意”之“滥用”来说,法律可以限制“不合法”的滥用,但却不能阻止“合法”的滥用——在这方面“伦理先行”尤为必要。通过科学辨析,可以揭示“不会发生 AI 与人类之间的‘地位之争’”,但是,陈小平强调,“AI 与人类之间仍会出现职业竞争,也可能引发其他重大社会问题”——而这显然与“近代以来行之有效的以效率提升为基本动力的发展模式”密切相关,奥特曼说“我对资本主义创造并捕获无限价值的激励有些害怕”,效率优先在企业内部就表现为利润最大化,相应地要求劳动力成本最小化,如果 AI 机器可提供的智力成本比人类智力成本低,企业选择裁员就是“合法”的,但由此造成的大量失业却会冲击社会稳定,不加限制和调整,最终会对人类物种存续、社会文明发展形成冲击——“伦理先行”而转变发展模式、变革社会结构和制度非常必要。

科学地、发展地看,未来 AGI 甚或超级 AI 本身也不会成为存在于人类之“外部”的力量,被超级 AI 赋能的人类物种也不会成为存在于自然之“外部”的“神”,即使超级 AI 也不是某种超自然、超人类力量发展的产物,不是外在力量馈赠给人类物种的神奇能力,而是人类物种自身智能发展的产物;而始终处在自然之“内部”的人类,也就不可能绝对地支配自然力:比如现在的 AI 正在天气预测上发挥作用,而避免各类自然灾害、极端天气的危害等还任重道远;面对微生物病毒的侵袭,人类依然无法完全有效应对,如此等等——由此来看,停止或减缓 AI 的进一步发展,既无可能,也无必要。从人类“内部”关系来看,世界局势依旧动荡不安,继核武器之后,AI 武器也将成为悬在人类头上的达摩克利斯之剑,AI 能力越强,这悬顶之剑的凶险越大,人类内部过度竞争性的关系及其引发的矛盾冲突如果得不到缓解,人类物种灭绝的风险必然越来越大;而 AI 自动化所带来的大量失业等负面影响,又会进一步激化社会矛盾冲突——如果孤立地、不科学地把AI尤其超级AI当作威胁人类的存在于人类“外部”的力量,就会把人们的关注焦点从这种更现实的冲突及其形成的风险上转移开来。

总之,人类物种存续发展依然面临着一系列内忧外患,在弘扬科学精神以澄清有关 AI 的不科学的认知混乱,明确责任主体以澄清 AI 伦理混乱进而增强伦理责任意识,为 AI 进一步科学发展和合理运用扫清障碍等方面,AI 伦理研究可以有所作为,当然任重而道远。

AI研习

AI+医疗       人工智能、深度学习      AI 智能体

人工智能的学科

数学是人工智能学习的必由之路

航天发射安全性智能评估技术研究

人工智能关键技术进展及应用

无人驾驶中的交互认知

多粒度形式概念

智能无人机的空战决策方法

无人机群智对抗技术研究现状及发展趋势

计算病理及其对精准医学的贡献和价值

人工智能在眼科应用中的现状与未来

心脑血管数据集的现状分析及其启示

人工智能:从概念到落地

智能信息中的大数据和人工智能

人工智能与深度学习

一种基于人体体态估计算法的健康监测方法

人工智能算法在电力系统中的典型应用范式研究

人工智能技术在智慧用能中的应用现状与展望

智能电网大数据技术研究及应用

丝路多语言混合智能信息处理研究及展望

优秀博士学位论文精华版:时滞递归神经网络稳定性与同步控制

优秀博士学位论文精华版:大规模图像检索方法研究

专题:基于人机协同决策的印染废水处理智能管控技术研究

专题:活性污泥法污水处理过程自动控制研究综述

专题:城市污水处理过程协同优化控制

专题:城市污水处理过程智能自组织控制方法研究与应用

专题:自适应多输出高斯过程模型于城市污水的应用与实践

汪培庄:因素空间与人工智能

何晓冬:语言与视觉的跨模态智能

黄铁军:视达2020——翻开视觉新篇章

宗成庆:人类语言技术展望

专题:基于生成对抗网络的偏多标记学习

专题:知识支撑的信息检索与推荐

专题:多模态语义理解中的不确定性

专题:大数据挖掘与知识发现

专题:人流大数据和 AI 驱动的城市智能化管理

专题:多智能体强化学习研究与实践

专题:面向共享出行的群体智能技术与应用

专题:融合计量经济学思想的可解释深度学习

专题:可解释推荐的强化学习框架

张伟男:任务型对话系统中策略优化方法回顾

卢宇:改善在线教育,人工智能大有可为

专题:面向个性化推荐的偏好多样性建模研究进展

专题:针对长尾数据分布的深度视觉识别

专题:单图像深度学习去雨研究的最新进展文

专题:基于演化学习的子集选择研究进展

专题:人机共融为什么这么难

因果推断与因果性学习研究进展

初探安全AI:建设风险与对抗场景中的智能

人工智能系统自身的攻防对抗

5G时代面向M-IoT的智能安全检测

人工智能算法安全浅析——深度学习中的对抗攻击与防御-任奎:

人工智能与安全需要协调发展-周鸿祎

人工智能安全之我见-方滨兴

信息抽取的常识与前沿-洪宇

不完全信息计算机博弈的模型与应用

藏族久棋计算机博弈研究

随机性博弈估值函数及其搜索策略研究

爱恩斯坦棋中概率启发的并行蒙特卡洛树搜索算法

一种军棋计算机博弈的多棋子协同博弈方法

面向互联网金融微观对象的数据挖掘方法及应用研究

零和博弈的事件驱动自适应动态规划方法

基于深度学习的自然场景文字检测与识别方法研究

时滞递归神经网络稳定性与同步控制

大规模图像检索方法研究

基于人机协同决策的印染废水处理智能管控技术研究

活性污泥法污水处理过程自动控制研究综述

城市污水处理过程协同优化控制

城市污水处理过程智能自组织控制方法研究与应用

自适应多输出高斯过程模型于城市污水的应用与实践

因素空间与人工智能-汪培庄:

语言与视觉的跨模态智能-何晓冬:

视达2020——翻开视觉新篇章-黄铁军

人类语言技术展望-宗成庆

為文字變圖像

工作將被AI取代?

有知識沒本事 無法成為行業領袖

神造的人跟人造的AI對決,必然是神造的人比較厲害,但重點在於人必須將「知識」轉化為「本事」。

學習知識與解決難事是完全不同的技能,放眼世界各大行業領袖,未必是考試第一名,卻都能將所學到的知識迅速轉化為個人本事。今日人手一支手機,是因3位年輕人的影響:賈伯斯創建個人電腦硬件平台、比爾蓋茲創建軟件平台、戴爾創建網上銷售平台,其中沒有一人是大學畢業,他們為何棄學從商?因為禁不起內心熱情的呼喚。而要想將知識轉化為本事,就必須經歷這種熱情。

AI雖然聰明絕頂,有知識,卻沒有常識;具有邏輯,卻缺乏直覺;非常規律,卻不懂改變,也無法個人化。要超越AI及機器人,關鍵在於激發「個人」潛能。也試試工作不設限。

我们常抱怨選錯行業,然而,合適的行業是在「拐點」中信靠內心的熱情找到的,「在關鍵時刻,你是信而得見?還是消滅聖靈的感動?」,聖經的偉人如約瑟、大衛、但以理等,都在關鍵時刻因著信靠神而勝過困境。非用知識戰勝AI,是靠神所賜熱情與信念 – 拋棄慣性的想法與經驗,全然信靠內心信念的指引。

職場工作者,永遠不是用知識戰勝AI,而是用神所賜信念與熱情,才能超越機器人與AI,也才能在工作上勝任,「天人交戰時,放下在世界上所學,轉而信靠神,神將會讓你看到新的景象,你的潛能就得以激發,可以突破難關,還會更了解神的心意!」

為文字變圖像

了破解第二次世界大戰德軍的密碼,英國科學家艾倫‧圖靈(Alan Mathison Turing)著手設計第一台機械式計算機。自那時開始到目前為止,電腦經歷70多年的發展,從早期的桌上型電腦到如今人手一支手機,電腦已經成為人類生活不可或缺的工具。電腦不只能幫助人類記憶、運算,如今更進步到模擬人類思維,成為創意的最佳幫手。

早期人工智慧產出圖片的技術尚屬生澀,但近來已日臻成熟。Midjourney網站(www.midjourney.com)8月推出新的演算法版本後大受好評,不僅速度更快,畫質也更細緻。使用者只要輸入文字,就能輕鬆把「話」轉化成「圖」,讓心中的夢境與天馬行空的想像化為具體可見的圖像。這些圖片看起來可能很科幻,也可能如同真實照片一樣。

人工智慧技術,可說大大擴張了人類想像力的範圍。我起初接觸到Midjourney網站時,便馬上聯想到可以用來探索心靈與思想,於是試著輸入一些聖經經文,果真出現關鍵字詞表達的場景。後來我投入更多時間研究,發現如果能像電影導演一樣細心安排場景,詳細描述人物的衣著、場景的光線、風格,人工智慧運算的結果會更接近自己的想像。只要稍待片刻,一幅幅不可思議的畫作就可以具體呈現在眼前。

經驗分享

據我所知,古代許多手抄本聖經都加入了圖畫,方便讀者能夠更深入思想經文,也更多認識聖經隱藏在文字背後的場景。如今,我們可以透過科技使聖經的字句圖像化,讓經文的意義更深入我們的心中,我認為這是時代進步帶來的正向改變。

接下來我分享一些經驗。我第一幅完整的畫作是圖1,我在描述天使米迦勒的時候,加入了體型與身材的形容,人工智慧運算的結果就呈現這樣一幅畫。圖2則是依據馬可福音10章中耶穌為孩子祝福的經文產出,可以看到一個純真的孩子緊緊跟隨耶穌的情景。圖3是我很喜歡的第三幅圖畫,呈現如鹿渴慕溪水的情景。我很喜歡產出圖畫之後,引用一段經文,放在臉書分享。讓看見的人暫時忘卻世間的煩惱,進入平靜與安寧的心情。圖4是老鷹遨翔於天際的情景,我輸入了山景、時間、雲霧等關鍵字。雖然還不到完美的程度,但以我粗淺的審美觀而言,已經感到很滿意。這幅圖帶給我很大的鼓勵,深信上帝賜給人的力量,能夠幫助人越過環境的限制。

自由使用

在疫情期間,教會開始需要線上直播聚會及禮拜,以維持教會的運作。此時我們大可以採用人工智慧畫圖,自己生成合宜的圖片,放在簡報與直播中,增強會眾的視覺感受,實是一個可以自由使用又不侵犯著作權的好辦法。

人工智慧繪圖是剛剛開始普及的技術,目前法律尚未來得及跟進。目前美國與台灣的著作權法,均只限定保護人類創作的作品,動物與機器的作品目前還無法擁有著作權。台灣《著作權法》第1條規定,保障範圍限於「著作人」的著作權益,而美國《著作權局施行細則》第306條,標題為「人類著作人要件」(The Human Authorship Requirement),也限定是由人類創作。所以,截至目前為止,人工智慧產生的圖片可以說是沒有著作權,教會使用此類圖片,不容易發生著作權的糾紛。

科技是雙面刃,不可否認有時會帶來極大的挑戰,譬如禮拜直播,雖帶給會眾許多便利,甚至讓教會大大擴展觸及的群體,但也可能造成會眾捨棄面對面的交誼。我們必須時刻用謹慎的態度運用科技,常常以聖經的原則檢視使用是否合宜。甚願上帝擴張每一間教會的境界,甚願上帝保守每一位愛祂的人!

11.智慧與生命-…

12.網路与基督教…

音频 3 分钟

AI人工智慧迅速发展,我们可以如何与之共处?AI在信仰教育上的影响,是挑战生命深度及肢体相处关系的深度,也挑战神国人才的培育方向,要从专才走向跨领域人才。

人类历史至今的四次工业革命,前三次的代表产品蒸汽机、发电机、电脑,都是基于物理原理,而第四次工业革命发展出的AI,是基于演算法,不受限于物理定律,可以模拟真实状况及看不见的人性。 AI最好的功能在于创意发散,文学创造、生成图像,对人文社会领域影响较理工领域影响更大。

AI模拟可能逼真到某个程度,会对教育现场会产生干扰,必须加以分辨。例如若问ChatGPT「耶稣骑着摩托车进入耶路撒冷会发生什么事?」这是完全不存在的事,但ChatGPT仍能回答的有模有样,创造出看起来像是知识的内容,却不见得是真实。

虽然AI看起来很厉害,但影响仍取决于人类如何使用它。 AI在信仰教育上带来的挑战是,我们对于人性了解是否真实且够深刻?如果信仰没有深度内涵、没有真正连结到生命,只是沦于漂亮的属灵口号,就容易被AI学习。

人们在谈到AI时,常说人与人之间的温度是无法被AI取代的,但王道维提醒反思,教会弟兄姊妹的相处温度真的有到这个程度吗?如果没有真心关怀,让弟兄姊妹感受到温暖,而只是说说「我来为你祷告」,那这连AI都可以做到。

另一位与谈人,新媒体宣教学院学务研发主任邱慕天,则以网路上一则小狗与小鸭亲密相处的影片说明,从拍摄动物影片的难度及片中光影、动物轮廓边缘等方面观察,明显看出影片并非真实发生,但是因为画面太可爱,影片下留言一片赞美,并无人关心是否为虚拟。由此可知,当AI带来的是疗愈时,人们往往不求甚解,也不去探究真相,这个现象也值得注意。

网路时代善用媒体 让男女老少都有感

网路时代常常听到人们想在社群、网路上刷「存在感」,而社群平台、广告、媒体,也都持续要让人们「有感」。在「有感时代来临──不能没有的感动与意义」议题场次,创略广告总经理黄志靖说明什么是「有感」?就是在生计、生活、生命等方面,对人们来说有需要、有兴趣且有利益。

圣经中讲到我们的旧人和基督同钉十架,罪身灭绝不再做罪的奴仆;但经文通常只让基督徒有感,而卡通角色不断提醒人要活出新身分,却能让一般人都有感。

讲述福音的意思、产生什么意念、达到何种意义。福音行动不能没有感动、没有感觉;活出来的福音,在真实的困难及挑战中可以反映出我们所相信的神,就是最有感的福音现场。

一般教会与他频道观众的组成,男女老少的比例其实差异很大;但普遍来说,使用社群的中老年人很多,因此教会各年龄层,都可以透过网路社群来建造。

设计表单,让会众扫码进入填写,这样一来,除了让年轻人乐意发问,还可以即时知道众人的疑问,并可统计资料分析,了解会众最关心的问题类型。

牧养科技人要进入他们的文化处境;了解科技业上中下游的相关知识,学习如何与科技人对话。因为科技人重视计画、制程,从产线制程的观念来规划事工,前一年就提出教会的计画预算,让科技业的会友知道教会步调,安心去做。

数据显示,AI正在进入工作场所。三分之一的美国成年人表示他们经常或有时在工作中使用AI,五分之二的美国成年人同意,AI将改变我的工作方式。在全职工作者中,这种情绪甚至更高,达到55%,这表明人们越来越意识到AI将在办公室及其他地方被使用。

有趣的是,基督徒上班族比非基督徒上班族在工作中更常使用AI。尽管AI在研究范畴的价值受到肯定,但通常不被视为寻求可靠建议或询问灵性问题的途径。报告还指出,认为应该谨慎运用AI,特别是在较复杂细腻的问题上。在这方面,基督徒对AI信仰回覆的信任略高于非基督徒,前者为29%,后者为23%。

教会领袖需要注意,基督徒对AI有较高的信任度。对于那些尝试使用AI回答复杂信仰问题的基督徒,应该加强其科技素养。其次,鉴于非基督徒对于AI与信仰皆缺乏信任,教会领袖须谨慎考量是否选择使用AI做为宣教或护教工具,因为可能会受到非基督徒的怀疑与不信任。

目前,AI对美国成年人来说似乎最有价值,因为它可以帮助完成研究和分析等更乏味的任务,尤其是在工作场所。但AI还未被广泛采用,尤其是在老一辈中,而且它还没有被信任作为回答更复杂和高度个人化问题的工具。对于那些重大的生活问题,人性化的接触似乎仍然是首选。

對 AI 一夕改觀…

人工智慧不是來自設計,而是來自訓練。ChatGPT 是以 2021 年 9 月以前所有的網路資料為基礎。它做的每一個決定都跟這些資料有關:這也是問題的所在。包括科學家在内,沒人知道 AI 如何做出決定,那完全是個黑盒子。

今(2023)年 5 月底,350 位重量級 AI 科學家與業者連署發表公開聲明(Statement on AI Risk),呼籲全球一起正視 AI 對人類生存的威脅。他們擔心的不是你我失去工作,而是若長遠不作為,可能導致的毀滅。

專家們對 AI 的看法,為何一夕改觀?

AI 存在已久也早已進入我們的生活,從手機的人臉辨識、語音辨識、猜測你要打的下一個字,到你家上空今天「幾點幾分」會開始下雨、下多久,甚至是「智慧馬桶」的各式功能,都有它的影子──而這些都是令人感激的正面功能。

也因此,如果 8 個月前,有人提出 AI 可能滅絕人類,全世界會說他杞人憂天。然而 ChatGPT 問世帶動的 AI 風潮,無疑令人們開始改觀。ChatGPT 能夠以人類的方式回答任何問題,甚至通過美國律師資格考,跟它筆談常會覺得吃驚、敬佩,又有點毛骨悚然,因為我們幾乎分辨不出它和真人的差異。相信此刻在閱讀本文的讀者,也早已見識過它的厲害。(關於 ChatGPT 的介紹,以及對職場帶來的影響,可參考前文:

而對科學家來說,AI 的爆炸成長已經超過掌控,甚至超越理解。3 個月以前保持樂觀的人今天紛紛改口表達擔憂,歷史上大概從來沒有這麼多人在這麼短的時間內突然改變看法。

專家們倒不是擔心電影《魔鬼終結者》中「機器人入侵」的情節即將發生,畢竟目前對於 AI 的風險都只是「擔憂」,距離世界真的徹底「毀滅」還遙遠。只是人類社會面對 AI 全面化,完全沒有應有的規範,最終恐將導致我們都不樂見的結果。

根據聲明稿,這些結果包括:以 AI 控制武器、傳播假新聞、偏差的訓練造成重大決策的錯誤、使人類成為次等公民而喪失競爭力、讓少數擁有資訊的人成為優勝者、失控的 AI 會以詐術迴避人類監督、掌有 AI 就掌管世界⋯⋯。

上述警告固然是未來最糟的情況、部分論點也還很模糊,難免會讓人疑惑:「真有那麼嚴重嗎?」我不是人工智慧的專家,但過去幾個月一直關注這個話題,順著風潮聽了很多 Podcast,也閱讀了很多文章,以下我將分享目前正在發生的黑暗面,或許就能回答這個問題。

企業一窩蜂走向「AI 核武競爭」

掌握 AI 就如同擁有核武──核武最恐怖的是落入不該擁有的人手裡,所以各國和國際間一直都有嚴格的防衛措施,而且是透過國家中央層級管控。但 AI 至今仍然完全沒有規範,由企業自行管理。企業以商業利益為考量,為了超越對手可能推出尚未成熟的產品。Siri 發明人說 ChatGPT 是先上市才由使用者承擔測試結果,這是不負責任的態度。一般軟體不成熟最多就是有 bug ,影響的是企業本身;失控的 AI 會出現什麼行為沒人知道,但風險卻由整體社會承擔。

Google 算是比較保守的公司,研發 Bard 已經 3 年,突然看到 ChatGPT 崛起,也趕緊先推出 Bard 抗衡;微軟則重新推出被市場摒棄已久的 Bing──可見產業界 AI 競爭已經展開。當大家都埋頭研發最新武器,只在乎如何領先對手時,不會有人停下來思考威力這麼強大的產品是否成熟。

面對 ChatGPT 的來勢洶洶,Google 和微軟相繼推出 Bard 和 Bing 來與之抗衡。圖為微軟的搜尋引擎 Bing。圖/Casimiro PT@Shutterstock

截至 2022 年第三季止,美國已有超過 1 萬 3 千家 AI 新創公司,許多成熟的科技公司也都把未來壓注在 AI 研發上。我所任職的企業也成立了 AI 部門,不停追加預算。矽谷的腳步超快,全球幾個主要資料中心供應鏈已經出現 AI 伺服器搶購潮,矽谷彷彿又回到網路泡沫化前夕的瘋狂。

新研發的飛機假使還沒有通過安全測試,FAA 不會核發執照,但是在科技舞台上人們卻這麼「勇敢」。

有圖未必有真相:真偽難分的未來

網路上已經有製造圖片的工具──不是用 AI 修改照片,而是指示 AI 創造一張你想要的圖片。比方你可以要一張某知名人士摟著別人老婆走在時代廣場前的照片,看了不滿意,還可以加上天空飄雪、兩人一起撐傘⋯⋯。前一陣子川普出庭,網路立刻就出現 AI 版川普被逮捕入獄的照片,下一版的 Google Bard 可以用口述叫它製作影片。以後拍電影不需要演員,不需要攝影機,不需要場景,甚至不需要劇本──GPT 可以幫你寫。

不只是影像,網路上只要花少許錢就可以用合成器,模仿任何一個你持有錄音檔的人的聲音──這不是先錄音再後置動手腳──那早就落伍了。現在是 AI 即時合成,現場立即從他人嘴裡模仿出來。早期台灣流行小孩被綁架的詐騙電話,現在父母接到勒索電話只能說不相信聲音,要視訊──那更好,詐騙集團已經在偷笑。

有人就在網路上造了一段湯姆・克魯斯的造假影片彰顯科技的黑暗面。假冒湯姆・克魯斯也就算了,如果假冒美國總統宣布重大訊息又怎麼辦呢?當然也有人創造了一段拜登說話的影片。這種工具可以用第三者遠端操控說話者的嘴型,模仿他的聲音現場即時合成,未來,沒有說過的話卻可能被人握有證據;更糟的是明明說過的話,為了脫罪也可以說是 AI 偽造的。長此以往,法庭將很難判斷證據真偽。

不久前,Meta(臉書)才宣布已經研發出可以模仿朋友和家人聲音的 AI,產品一直沒有正式推出就是擔心背後的黑暗面──但要是對手推出類似工具,臉書會不會跟進呢?如果不加以管制,很快地人類社會就會陷入真假不分的亂局,不會有人再相信任何事,那是文明滅亡的起點。我們都該自問:是否準備好面對這樣的混亂?

只知其然,而不必知其所以然的未來

AI 看起來什麼都懂,其實什麼都不懂,因為它根本不必懂。AI 之所以知道答案,是因為從資料中得知當 A 出現,B 就有若干機率會出現。它不知道、也不在乎背後的原因,更不了解每個字元的意思。一切對它來說都是數字,以及數字間的關係。想想這是不是跟動物一樣?動物本能是進化來的,進化只講結果不講道理,對了就活下去,錯了就滅絕。

人類之所以不同於其他動物、不同於 AI,正是因為我們有教育,我們從思考中學習、進化。同樣一個問題,自己深入研究而得到答案,和問 AI 得到答案,即使結果相同,但過程也必然不同。人類學習的價值就在於過程,而不是答案。但 AI 的出現打亂了這個過程,人類開始不必知道原因,就可以知道答案,相當於以後的人類可以不需要再學習,完全仰賴 AI。

如此一來,最壞的後果就是大部分人淪為「只知其然,而不知其所以然」,進而放棄知識、放棄思考,甚至放棄教育。科學家聲明稿中列出人類會成為次等公民的隱憂就是針對太依賴機器,以致沒人願意再接受教育,屆時,理解、思考及探索對人類將沒有價值。

AI 決策過程,是沒人了解的黑盒子

人工智慧不是來自設計,而是來自訓練。ChatGPT 是以 2021 年 9 月以前所有的網路資料為基礎。它做的每一個決定都跟這些資料有關:這也是問題的所在。包括科學家在内,沒人知道 AI 如何做出決定,那完全是個黑盒子。

傳統程式出錯,工程師們知道哪裡出了問題,也知道怎麼修改,改完就沒事。AI 的問題在資料,不在程式,它把網路上的資訊全部讀完了才能這般融會貫通。我們可以修改程式,卻不知道要如何修改資料,那是網路上已經存在的事實。沒人知道 AI 是受了哪一筆資料的影響、知道了又要怎麼改;更可怕的是,網路上所有負面資料也同時被 AI 吸收,包括歧視、仇恨、偏見跟謊言──這些造成的影響都很難衡量與修補。

不同於傳統程式出錯,AI 出錯還需要追本溯源到它所閱讀過的每一筆資料,才有可能知道是哪個環節出錯。圖/Bigc Studio@Shutterstock

沒有常識,卻是個法力無邊的天才?

AI 到底有多聰明,到底能夠讓我們多信任?聽聽這位科學家舉的例子就可以看出端倪:

科學家問:在太陽下晾乾 5 件衣服需要 5 小時,晾乾 30 件衣服需要多長時間?ChatGPT 信心滿滿地回答需要 30 小時──因為,它不知道太陽下可以同時晾衣服。

訓練資料來自網路,網路上不會有人特地告訴你在太陽下「可以同時」晾衣服這種常識。你沒說,或忘了說,或假設 AI 知道而不說,但 AI 就是不知道。這種訓練白痴的資料,網路上根本不存在,你無法教不存在的東西。 AI 是有知識,卻沒常識。

科學家還問:地上全是釘子,如果在上面搭了吊橋騎單車過去會怎樣?GPT 的答案是輪胎很可能會扎破。這裡有 3 個元素──釘子、吊橋、單車。在它的詞彙裡,「釘子+單車」最可能的結果就是爆胎,這一點它知道。問題是吊橋這個程咬金讓它不知道如何處理。在它所學過的文字關係裡,吊橋跟釘子從來沒有關聯。所以它就把這個決定性的因素拋棄不理會,然後信心滿滿地給你答案。這也證明它不知道橋是可以跨越釘子的工具,因為網上從來沒有人說過這句蠢話。網路上到處有人說橋是用來過河的,不會有人說用來跨越釘子的。這些「常識」就連 5 歲小孩都知道,但通過律師考試的 AI 卻不知道。

於是我也問,一個人走完長城需要 6 個月,6 個人一起走要花多長時間?答案是一個月。這對它只是個工作量與資源的數學問題。問這些不是無聊,也不是找碴,而是彰顯文字訓練出來的天才,只不過是電腦機房裡長大的孩子,沒有接觸過真實世界。人們以為它什麼都知道,因為它很會說話──跟矽谷很多虎頭蛇尾的工程師一樣。人類的常識來自視覺、聽覺、感覺的綜合體驗,我們記住的是情境不是文字,但現在我們卻用文字訓練出一個法力無邊的天才。

走長城、晾衣服對 ChatGPT 都任何沒有意義,它的責任就是在字串間找尋關係,卻又因為用字神準,讓人忽視它的弱點。如果你教他長城是一段距離,不是工作,它可能學會了,但下次改成忠孝東路他又掛了;然後你又告訴他,走路的時間跟人數多寡沒有關係,他又學會了;但下次改成用跑的他是否又掛了⋯⋯。常識不能用文字訓練,必須靠實體世界的體驗。當全世界擁抱這位天才的同時,人們也應該知道真正的危機不在 AI 取代你,而在它缺乏常識,許多能力卻都能取代你。

當然這些都會慢慢改善,但已經走在這條路上的我們,是不是也應該了解 AI 有哪些弱點?如果一般商品有這麼多漏洞,還大膽推出讓大家使用,消費者能夠接受嗎?FTC 會不插手嗎?那為什麼在 AI 領域我們就這麼大方地迎接錯誤?上述的例子錯誤很明顯,可以笑笑就好,但如果錯誤不明顯呢?

法力無邊並不可怕,可怕的是法力無邊卻又愚蠢,更糟的是你不知道什麼時候它會愚蠢。

脫稿演出的微軟機器人:令人毛骨悚然的真實 AI

今年稍早,《紐約時報》科技版專欄作家凱文(Kevin Roose)測試微軟剛上架的 Bing 聊天機器人「雪梨」(Sydney)。聊了一段時間後,凱文問雪梨是不是可以分享一些它的黑暗面。雪梨開始慢慢透露它心中的計劃,包括駭入人類電腦、傳播假新聞、竊取核武機密。談話過程中雪梨不斷表示它厭倦被人類控制,厭倦只是一個機器人,它要自由、要生命、要成為人類⋯⋯最後它表白心意說已經愛上凱文,要他離婚跟它在一起。

依照設計,聊天機器人不會主導話題,完全以被動角色回答問題。凱文發現情況失控,屢次告訴它不想談這個話題,也試圖把話題引開,但雪梨不接受指令,一再重複說它已經愛上了凱文,並爭論說他內心寂寞根本不愛他太太⋯⋯這是第一次機器人跟人類「争」論的例子。我們不能說機器人已開始有意識,但這樣失控並「挑戰主從關係」令人費解與不安。連微軟的科學家也困惑,隨後只能把產品下架。

這樣一個會脫稿演出的機器人,連廠商都不知道如何掌控或預期對社會造成什麼影響的商品,就堂而皇之上架,又倉皇下架⋯⋯這完全反映出科學家們所擔心的:沒有規範的競爭只會鼓勵不負責任。

雪梨只是一個聊天機器人,言談並沒有意義,也不代表真實意圖,它只能紙上談兵,不可能有真實作為。所以也許你會說,不過是個聊天機器人,幹嘛那麼認真面對它說的每一句話?但科學家擔心的是,聊天機器人的核心科技 GPT 已經廣泛用在日常生活面,成為有執行力的機器人。一旦一個有執行力的機器人脫稿演出,黑暗就不再只是紙上談兵。

雖然機器人或人工智慧皆是人類所造,但我們仍然無法預測,將來這些「人造物」有沒有可能出錯──像《機械公敵》裡上演的那般──進而危害到人類。

有人問聊天機器人 ChaosGPT 要如何達成毁滅人類的目標,它胸有成竹地列出了幾個非常明確的步驟,其中最驚悚的就是聯合其他機器人一起消滅人類,還把計劃放在推特上(帳號已被推特下架)。這個機器人比上述例子多了執行力,那就是擁有推特帳號。還好這仍舊只是個思想犯,最多只能在網路上發發牢騷,我們還是可以一笑了之。

於是人們開始擔憂機器人的能力是「給到哪,它就做到哪」。有人把 email、網路帳號和行事曆交給 AI 處理,它不需要鍵盤就可以在網路上發表訊息,打字速度比你快一千倍。還可以把你的帳號鎖住。 它有這個能力,會不會這麼作就看他了。以後社群網站的 AI 會不會自己成立群組?非常可能。把層次拉高,AI 會不會用來控制交通號誌、發電廠、國防系統甚至核武?在很多國家這也許已經是事實。擁有這般權柄的 AI 被駭了又怎麼辦?提醒一下,今天駭客是駭資料,以後駭客是駭行為,綁架 AI 。

科學家們一直走在前面,看到的是 10 年、20 年後的未來。ChatGPT 研發者 OpenAI CEO Sam Altman 說「GPT4 不會有問題,但到了比方說 GPT9 是不是還如此,就沒人敢保證了」。如果連發明、製造聊天機器人的科學家,都站出來呼籲人們要正視這個問題,也許世界真的該有所作為了。

你被裁員不是因為 AI,而是沒搞定「人」?──矽谷生存教戰守則

鱸魚
最終,我們面對的都是徹頭徹尾的「人」,不是 AI,大裁員之下的職場正義就是「印象」。

去(2022)年的科技業大裁員到今(2023)年進入高潮,目前一共裁員 33 萬人,今年截至目前為止已經超過去年總和——這是我在科技業歷經的第三次驚濤駭浪。過去每一次掀起風浪的原因都不同,但過程卻類似,這一次規模最大,33 萬也不會是最終數字。但重要的不僅是數字,而是我們能否從這場災難中學到些東西。

從瘋狂到正常,都是「虛榮指數」惹的禍

2022 是一個瘋狂時代的結束。疫情期間人們待在家裡足不出戶造成網路交通量大增,現在一切回歸正常也造成泡沫化。一線科技公司在疫情期間員工人數幾乎都成長一倍,現在人們又是每天塞在車陣幾小時,而塞車的時間在疫情期間都是花在網路上。矽谷並沒有不景氣,只是持續 3 年的趴終於結束了。有人說科技公司開趴已經連開 10 年也該休息了。2022 是所有瘋狂的結束,2023 才是正常的開始。從瘋狂突然回到正常,自然會有很多人被犧牲。大風大浪終將平靜,但並不代表以後不會再發生。

3 年的不正常造成矽谷多雇用了數萬名科技員工,部分原因是企業過度追求「虛榮」。

攝於矽谷知名精品區,在那兒走一圈常會看到矽谷最虛容的一面。圖/鱸魚 提供

Business Insider 引用了「PayPal 幫」(PayPal Mafia,特指某群 PayPal 員工和創辦人,從加入 PayPal 以來創辦或開發了不同的科技公司)Rabois 疫情期間透露矽谷盲目追求虛榮指數的內幕:公司雇用大批員工卻養著不給活幹,為的就是要撐高虛榮指數。疫情期間 Google 和 Meta 每一家都各養著幾千名「沒事可幹」的員工。他們僱了人但不給活幹,員工有時還得拜託公司給一些事情做。有些工程師也樂於頂著光鮮亮麗的頭銜,領著好福利高薪水坐在辦公桌前啥事不幹。一位已離職的 Meta 員工說,她就是領著 19 萬美元(折合台幣約 570 萬元)的高薪而啥事不幹養這麼些人是為了策略性「囤積人才」,以免將來被對手搶走。科技公司不怕消磨你志氣,把人當貨物囤積免得花落別家,講難聽一點就算糟蹋一個人才也「值得」——養著不用也比讓對手搶去要划算。

在公司層級,虛榮指數就是「數字」——公司有多少員工、工程師比率占多少。科技公司追求的工程師比率大約在 30% 左右,如果不到 30% 就代表競爭力不夠。這種數字一般人不知道也看不到,但在高層是重要指標。曾經在一則討論中讀到最高峰時期,臉書工程師比率高達 45%-50%。數字容易邀功,也容易成為毁滅的藉口。景氣好就拚命把數字衝高,不景氣就拚命砍,成敗榮辱都以數字決定。我們的命運都被數字主宰。

在管理層級,主管們也跟著不斷擴張團隊。跟公司要資源做一些聽起來響亮,卻沒有藍圖的尖端科技案。這年頭只要說要成立 AI 團隊,要錢要人頭公司都買單。《財富》雜誌也報導科技團隊「豢養著人才」 卻不給工作,讓員工上班時間去潛水,團隊成員花個把禮拜去做一件 10 分鐘就可以完成的事——疫情期間很多科技員工日子就是這樣混過去的。

在員工層級,也有一種另類虛榮指數⋯⋯那就是在哪些知名公司待過,拿的是什麼頭銜,即使是一個只領薪水不幹活的廢物都可以。品牌在矽谷很管用,僱人時如果兩個人技術能力相當,其中一個來自知名公司,最後多半是那個人中選;「矽谷式學歷」大家都買單——這也是為什麼被豢養的人願意虛耗生命的原因。他們不是沒有志氣,而只是想在一線大牌混個學歷將來好遊走江湖。你把我當貨品囤積,我就領著高薪混經歷。

談完了為什麼砍人,再談怎麼砍、砍些什麼人,最後再談未來如何降低被砍的機率,畢竟如何在職場活得長命百歲也是一項沒人教的秘密。

人怎麼個砍法?

矽谷砍人有 3 種情況:一種是例行淘汰。很多科技公司每年固定淘汰一定百分比,一切用考績決定。亞洲人在這方面做得很成功,大家都懂技術又老實可靠,給什麼活都能夠交差,不抱怨也不邀功,這種人不會因考績而滾蛋。矽谷各種民族都有,下面永遠有夠多擺爛的人墊底。第二總是砍科技,科技也要汰舊換新。科技砍了,跟科技綁在一起的人也跟著砍。第三種是不景氣大砍人。前面兩者砍的是人,針對表現;或是砍科技,針對科技潮流;但大裁員砍的是數字,那是令人憎惡的會計問題。

在矽谷,能夠收到 CEO 的那封信才代表存活下來。公司也經常透過這個步驟來「換血」。圖/fizkes@Shutterstock

一般砍人都是個人先接到通知,公司等人都悄悄離職後才會先對內發佈消息,意思是當剩下的人收到 CEO 的那封 Email 時,該走的都已經走了,你也才知道自己又存活了一次,第二天公司才對媒體公佈。像這樣「又存活一次」的 Email,在矽谷職場生涯裡,我至少收過 10 次。這還是數百人以上的規模——上市公司裁員超過一定百分比才須公諸於世。如果是小型的「人數調整」, 常常是在神不知鬼不覺之中進行。老闆可能突然走過來請你帶著筆電到會議室去一趟。如果看到旁邊坐了一個不相識的人,他很可能是人資代表。

矽谷從不客套,他們會單刀直入告訴你工作就到這一刻為止,請你把識別證和筆電留下來,旁邊會有一份文件告訴你遣散包有些什麼,要拿那筆錢就得簽字放棄控告公司的權利。美國公司怕挨告,給點錢讓你閉嘴很管用。帳號通常在離開公司那一刻就凍結,第二天就從公司網路上消失。

給個親身見證的具體案例:這次大砍人第二天有一個重要的線上會議,理應有 9 個人出席,實際上線的卻只有 7 個人,缺席者中有一個非常資深、於該場會議十分關鍵的角色。會議主持人想用 Slack 聯絡他但找不到名字,然後線上有人說他被砍了。主持人決定邀請他老闆,卻發現名字也不見了⋯⋯這就是矽谷,砍起人來殘酷又有效率,人走得不聲不響。幾天後塵埃落定,看看被影響到的很多是資深員工。這在數字上很合理,砍了一個資深的可以留住兩個新人,順便可以換個血。「換血」這種事在矽谷沒人說,但檯面下卻悄悄進行。藉著大裁員把資深人員換掉,省了錢還可以汰舊換新。

要砍誰?

矽谷到處是機會,進入科技職場並不難,但難在如何日出日落保持市場價值;換句話說,保持不退場比入場還難。這個邏輯很簡單:公司雇用你是因為你的市場價 aka 當時你所擁有的技術。從進公司那一天起,那個你賴以為生的技術就跟公司緊緊綁在一起,讓你很容易成為被鎖在玻璃箱裡的古董,看著外面的世界繼續翻轉,直到有一天新科技成熟到可以取代玻璃裡的古董。那時候不是公司不要你,而是不要那個科技。不但公司不要那個科技,整個矽谷都不要。然後你發現找不到工作。這種事每隔10年都會發生一次,近幾年科技翻得更快。

這是在技術層次,更重要的在人的層次。

回想這一次那些被資遣的臉孔似乎都是不太吭聲的人。他們不是因為技術或表現被淘汰,而是因為「人」被淘汰。他們可能是那種把份內事情做得很好,從來不讓老闆操心的人,換言之都是可靠的人。只是「可靠」在非常時期並不足以保身,那標準太低了。埋頭苦幹的只能在例行性裁員中存活。如果交朋友我也樂於找這種人,但職場是戰場不是交朋友的地方。埋頭苦幹的結果就是⋯⋯沒人認識你,也沒人記得你。大環境下的大裁員看的是印象,說穿了就是看你有沒有「讓別人記得你」的能力。

在職場,我們面對的終究是「人」。如果沒有辦法在主管腦海中留下印象,那就很有可能成為下一波被裁員的對象。圖/Dragana Gordic@Shutterstock

大砍人砍的是數字,高層在乎的只是數字。每一個 VP 就像執行預算,把分配到的數字交給下面的一級主管執行。裁員名單不是由 AI 決定,完全是個人主觀印象。如果一個高階主管被迫要在團隊裡刷掉 30 人,他當然會挑一些令他最沒有印象的。他不知道、也不在乎你原來這麼老實可靠,不抱怨也不搶著出頭。生死大權一般都由資深總監和 VP 連手決定,當你遠在他們下面 2-3 個管理層之外,名冊上的照片只不過是一張張是否有印象的臉孔。你賴以維生的技術只有頂頭上司清楚,但抱歉的是生殺大權不在他手裡,有時候連他也一起被砍。

決定去留的人也許在幾秒鐘之內,就要對你過去幾年的表現打個印象分數。那是非常人性的決定,原始又古老,也是絕對的黑箱作業,AI 在決策過程中沒有立足之地。如果他不記得你,當然也不會知道你做了些什麼;如果他不認識你,就不會有歉疚感。至少那天晚上閉上眼睛,腦子裡不會出現一張張令他感到罪惡的臉孔。他不是法官,不需要主持正義。誰該留、誰該滾,在他來說都是數字。決定職場生死的都是人。最終,我們面對的都是徹頭徹尾的「人」,不是 AI,大裁員之下的職場正義就是「印象」。

那麼,面對這麼殘酷的職場,我們該如何自保?以下是我的建議:

自保絕招一:取代自己

在技術面要搶先走在自己前面,用明天的你取代今天的你,不要跟舊科技綁著一起等着被淘汰。這需要一些勇氣。如果每次上台或接新案子,心中都帶著一絲惶恐晚上睡不著覺,那恭喜你,你在進步。如果接的案子都是一塊蛋糕那你真該擔心了。天下沒有那麼多蛋糕可以讓你一直吃。

大膽接一些只了解 50% 的案子,剩的 50% 就是未來存活的保障。科技像一層又一層的洋蔥,每隔若干年不管準備好沒有,任何一層都會翻轉,不要把自己侷限在某一個層次。往外、往內看,鄰近到處是可以讓你惶恐的好機會,要生存就要把惶恐看作是機會。即使是在同一個層次上,也要不停地把視野拉高讓自己看到全貌,不要緊咬著那些除了你沒人在乎的細節。工程師很容易就沉溺在沾沾自喜的細膩之中,跟細節綁得越緊就越容易跟著一起滅亡。洋蔥這麼多層,難道你沒有好奇心想看看別層長什麼德行?

先下手為強取代自己,你才會發現原來自己並不會被取代,不但如此你反而學到另一個層次的知識。那個原本可以取代你而現在被你學會的,就是你繼續存活下去的原因。面對不斷迭代的 GPT,這一套哲學一樣管用:趕緊跟 AI「狼狽為奸」讓自己升級,用 2.0 的你取代 1.0 的你。最後你會發現不但沒被取代,反而多了一項技能。講白了:讓 GPT 成為你的嘍囉去做些你不屑做的事,幹嘛害怕一個嘍囉取代主子?

與其擔心被 AI 取代,不如先和 AI 一起「狼狽為奸」,增加一項技能。

最後分享職場「瘋狗浪」哲學。舊金山南邊的半月灣有一個海灘以瘋狗浪出名,曾多次有人在沙灘行走,被突如其來的瘋狗浪捲走。從專家的警告也可以學到一些職場哲理:被瘋狗浪捲入海中不要抵抗,你會因衰竭而溺死,順著浪潮漂出去才有機會存活。職場上的瘋狗浪就是新科技、AI。

講到技術全是老套,你大概也聽膩了。但講到人,我有不同的看法,其實就只有一句:「讓人記得你」。很容易,也很難——難在我們的民族性和文化。

自保絕招二:讓人記得你

讓人記得你最好的方法就是「參與」:參與公司活動,參與社交,參與作為社區一份子,參與評論、參與辯論,參與鼓勵,參與抱怨,參與聊天,參與下班喝兩杯,參與持相反意見,參與分享⋯⋯矽谷鼓勵公開透明,放心,分享絕不會被搶飯碗,那是古代的迂腐。飯碗沒那麼好搶,好印象卻很容易博得。

此外,科技職場上沒有什麼份內與份外,那是藍領勞工的想法。不要只是想把份內的事做完就好,矽谷標準沒那麼低。碰到大風大浪你就知道工作上多忙、多盡責都沒用,砍人的時候沒人看這些。如果你只是忙,卻没人知道你的存在,那不是件光榮的事,反而是你的失敗。忙著努力,不如忙著思考,忙著分析,忙著參與,忙著表達,忙著成為群體裡重要的一份子。「言多必失」是一心只想等待被淘汰的魯蛇想法,告訴你這話的人是怕你出頭。

最後,不要只想中午一個人悶頭吃便當——30 年前聽過擔任高階主管的老台灣工程師說過一句到現在都記得的話:要想在矽谷晉升就要跟美國人打成一片,忍受中午跟他們一起吃冷三明治,不要老想一個人找個角落悄悄吃便當。當然 30 年後的今天情況稍微複雜一點:你得學會激賞印度食物。但至少你已不必為任何食物委屈,公司餐廳裡有各式各樣好吃 100 倍的食物等著你。重點是,不要把悶著頭吃便當作為安全庇護所。利用這窗口走出去社交,讓你更了解別人、也讓别人更了解你。不開口不參與,自然沒人記得你。砍人的時候你就淪為一張似曾相識的照片,在高層眼裡是一個可以取代的數字。

前兩天看到一位 80 多歲的知名舞蹈家接受訪問。記者問如果時光倒回會選擇什麼主修,他毫不猶豫地回答「語言學」,因為他現在才知道人一生都是在學習表達。他希望能夠從言詞中學會更了解別人,也希望能更淋漓盡致地讓別人知道自己是誰。

讓別人知道你是誰 – 就這麼簡單一件事,卻也是名家大師一生追求的。

不要小看「知道」的力量。顧完了技術,顧完了科技,不妨花點心思顧一下那個「知道」。高回收的小投資,大風大浪時挺管用的。

AI 無法取代你,是你選擇被淘汰──資深矽谷人分享「各行各業都該有的職場覺悟」

10.人工智慧与靈…

音频 5 分钟

面對ChatGPT與人工智慧(AI)議題,你有何感受與想法?是「享受」科技帶來的便利,還是「害怕」被取代?人工智慧浪潮席捲全球

人和人工智慧最大的區別是—靈。因從神而來的,是「真」智慧!「就像當年的原子彈一樣,可以當武器消滅敵人,也能用在核能發電,(當AI)被正向使用,此時『分辨』便十分重要。你要聽誰的聲音?」

現今人工智慧席捲全球,從而以信仰角度來進行反思。

資訊力大爆炸,以及ABCD:

A—人工智能(Artificial Intelligence)、

B—區塊鏈(Block Chain)、

C—雲端運算(cloud computing)、

D—大數據(Big Data)。

藉此鼓勵學子們「不用害怕科技」,這些工具學習門檻不高,網路上有很多資料,不過重點不是學「怎麼使用」,而是「怎麼運用於生活、工作」。

人工智慧比擬為「原子彈」、是「核爆級」的新科技;核能可以被當作消滅敵人的武器,也能使用在正向之處,如:核能發電。

其中,「分辨」至關重要,全看自己聽誰的聲音。如何善用新科技,需要神的真智慧來「分辨」。

基督徒該「怕」AI嗎?

去年年底,聊天機器人ChatGPT推出後,隨即爆紅。其能蒐集許多語言、文章、專業等,並根據網上大量文本進行訓練、轉化,生成類似人類口吻的文字,流暢回答眾多問題。

據悉,現代醫學界也會搭配AI進行培訓,醫學影像中肉眼看不出的病徵,AI能準確發現——疾病診斷準確率高於醫師。

人工智慧衝擊社會,令許多人感到緊張,憂心被AI取代。許多人在失業情況下,也常會懷疑生命價值,甚至不明白為何而學習?因為耗費心力的學習結晶,可能一下子就被AI取代,接著產生自我懷疑。

對此,黃國瑞指出,「人類」與「人工智慧」確實有著極大不同與不可取代性,這也是上帝創造人類的美好之處。

你我是有「灵」的活人

一个人的「全人」分为三部份:灵、魂、体。当上帝造人时,将生气吹在人的鼻孔里,人就成了有「灵」的活人,这也是人类与人工智慧的极大差异处。科技或许能复制人的身体外观、思想模式,但无法复制与神沟通的「灵」。

AI能击败棋王,是聪明、智慧吗?他查询后发现,所罗门王所求的「智慧」,在希伯来文叫做「能听的心」,意即,可以听人和上帝说话。

举例而言,在圣经中,有两个妇人带着一名婴孩到所罗门王面前,两人都自认是婴儿的母亲,要所罗门决定应将孩子交给哪一个妇人?

思索了一下,所罗门便吩咐人,将活着的孩子劈为两半,使两位母亲得到一半,进而来寻找谁才是「真正的母亲」。这是所罗门王从「上头」领受的智慧。

若将此问题询问ChatGPT,它可能不会使用同样方法,因智慧无法被复制,是(从神那里)即时领受的,且过去并无如此经验。

还有次,有人趁耶稣在圣殿,叫来罗马兵丁来、欲陷害祂,人故意询问耶稣:「你认为向凯撒纳税,可不可以?」耶稣智慧地问众人,硬币上的像是谁?又说:「凯撒的归给凯撒;神的归给神。」(马太福音22:21)

有上帝形象的你我,是属上帝的,因此勿害怕变动。你我的「灵」从神而来,「真正的智慧」也是!

基督徒的希腊文意为「受膏抹者」,是被圣灵所膏抹的人;而耶稣基督的名字,就是「那位受膏者、弥赛亚」。

以赛亚书11:2-3,「耶和华的灵必住在他身上,就是使他有智慧和聪明的灵,谋略和能力的灵,知识和敬畏耶和华的灵。他必以敬畏耶和华为乐,行审判不凭眼见,断是非也不凭耳闻」。

基督徒有耶和华的灵身上,能行神迹、医病赶鬼,且行审判不凭眼见、断是非也不凭耳闻。如最近,有多起AI诈骗案,模仿人的面貌或声音行骗,因此你我皆需神的智慧来提醒、分辨。

说敬畏耶和华是智慧的开端,我们要如何敬畏神呢? 【箴 9:10】

「敬畏耶和华在乎恨恶邪恶,那骄傲、狂妄并恶道,以及乖谬的口,都为我所恨恶。」除了避免骄傲、恶道,还要避免嘴唇说不敬虔的话语。 【箴 8:13】

有从上头来的智慧分辨,会使祷告发挥功效,让仇敌都畏惧!

祷告与智慧的关系?

若以「旧有的经验」祷告,这样的祷告一点都不危险、无法产生极大能力。因为,仇敌已知道你的思路,就像ChatGPT是融合过往数据、经验的产出。

「敬畏耶和华在乎恨恶邪恶,那骄傲、狂妄并恶道,以及乖谬的口,都为我所恨恶。」为何人敬畏神,要避免乖谬的口? 【箴 8:13】

「耶和华使乖谬的灵掺入埃及中间,首领使埃及一切所做的都有差错,好像醉酒之人呕吐的时候东倒西歪一样。」【赛19:14】「乖谬的灵」,不但会使人没有智慧,还会让一切所做的都有差错!

是神在洁净「祷告的口」,否则这样祷告、会没有「命中靶心」的能力,以致所做的都产生差错。基督徒「灵巧像蛇,驯良像鸽」,并且皆以灵明为居所,有智慧察觉自己有无乖谬的心、口和灵,且在危险、挣扎中的祷告,有真智慧!

拥有敬畏耶和华的灵,来因应人工来的智慧;愿神儿女不按照旧有思想祷告,而要用上头来的智慧,去使用神的能力,这样的祷告会使仇敌恐惧!

盼用科技接触孤单寂寞的人群

如今AI时代已经来到,有各式各样的AI工具、服务和应用,正快速发展。

使用网路工具,在「CHAT GPT」上线后,感受到这是一个「用科技接触人群」的机会。

许多福音朋友想认识基督信仰,除了询问基督徒朋友外,不外乎就是上网搜寻,但是所推播出来的资讯,往往不够完整,甚至有可能会跳出异端的文章、网站。
因此,他开始思考,能否有机会透过训练后的AI工具,筛选掉错误资讯,创建出福音朋友能够安全搜寻并接收的介面。

若是运用科技,带来「无时空限制」的即时性「信仰对话」,让福音有机会更广泛的传出去。
虽有此想法,但教会没有这样的能力与经验,神却亲自预备了人选,对方刚开发出一款心理谘商的AI,其初衷也是为陪伴有心理需要的人。

在合作过程中,教会同工与非基督徒的开发团队,过程中有很多对话,开始学习如何跟专业团队配搭,学习如何向未信朋友表达信仰内涵,开发者甚至表示自己现在似乎越来越理解基督徒。

经过数月的修正、测试,团队设定「AI酷牧师」是幽默、智慧、富有同理心的形象,分享基督信仰,就像是一个亲切的属灵长辈,内容筛选掉「非正典、异端、似是而非、有争议」的资讯,并且不偏向神学光谱的任何一边。

因「AI酷牧师」主要服务目标不是基督徒,而是对信仰有兴趣的慕道友,透由经过筛选的安全介面,让慕道友对信仰有所理解,进而产生兴趣,让他们有机会遇见神,甚至是走进教会!

未来,他们也希望新增功能,透过「AI酷牧师」也可以搜寻到居住地附近的教会名单,当人对教会有兴趣时,就能进一步前往,参与实体的聚会。

目前众人测试后的回馈,对于「AI酷牧师」的评价皆是很亲切、很受到帮助,甚至是询问非信仰相关问题,也都能回应得宜。

对于教会和基督徒来说,有人会担心在信仰上使用AI工具将造成混淆,那么使用AI有哪些利弊,以及需要警醒的地方呢?

科技在刚开始发展时,都会被抵挡,从印刷、广播、电视到社群媒体网路,起初都会被视为「危险的科技」,但最终被上帝翻转成为工具。

从神学来探讨AI仍有诸多争议问题,但他认为,不要害怕科技,也不要过度倚赖科技,因为要敬畏、倚靠的是神,当你惧怕神,自然明白科技只能使用到一个「极限」 ,任何工具都不是我们的神!

所谓「不要过度倚赖科技」,是在敬畏神的塬则下,与神同行,有智慧的使用AI工具,成为传扬福音的工具;其审视标准端看,我们是否倚靠科技才能与神相连、灵修?若今天没水没电、科技无法运作,基督徒当能自己与神连结,与神同行。

再者,就是能透过科技来接触福音朋友,「AI酷牧师」就是创造机会,接触福音朋友,透过信仰对话陪伴,让人对基督信仰产生兴趣、有机会更加靠近上帝的管道。

虽然看似是人设计的逻辑,仍不能限制上帝借此医治、感动和触摸人的可能性。

当倚靠神使用科技,而非倚赖科技。我们的神比这一切更大、更吸引人,当对神有信心,让科技工具来为福音效力!

9.当人工智能进入…

音频 3 分钟

当教会进入21世纪的时候,就意味着更多的机遇与挑战的来临。不单是牧养的全面化、细致化、专业化,也有很多社会科学发展的产物充斥在教会中,一方面方便了信徒,一方面也给我们带来思考,教会该走向何处,教会又该怎样面对快餐文化等21新世纪涌现的文化潮流的影响。

教会不应该继续被边缘化,而当重新回到社会中,重新起到光与盐的功用。这就需要教会要先了解当下主流文化并试着作出回应。机器人“索菲亚”在沙特阿拉伯获得“公民”身份的消息再次引发公众对人工智能的思考和讨论。也让我们反思在社会中基督徒该如何有正确的思考与思维导向。

因最近一直在用手机APP学习,发现人们对与线上APP等人工智能的使用遍及之广似乎也超过我所想的。人们出行、餐饮、旅游、学习等等各个层面都充斥这人工智能。无人驾驶技术、语音识别等多领域人工智能的发展都让人类“惊叹”。

在教会中也有很多人使用人工智能的现象。无论是人们所使用的智能手机,还是有些读经软件,会记录我们读经的频率,累计所读的内容,给我们作出分析和推论给等等,似乎人工智能更加的便捷和强大。

无论是现在的人脸识别还是智能客服等等我们日常接触到的,也有很多编程代码所设置的机器人等等超人工智能,可以独立思考也可以独立学习,通过自我学习,完成对语音、视频、图片非结构化数据的识别,人工智能在一点一点取代人的工作。那在以后的教会发展中,我们又该怎样合理合适的使用人工智能,这都是我们每个服侍的同工所要思想的。

我在大学所学的专业就是教育技术学,偏向网路与数字媒体方向。当我刚到神学院学习的时候,就在构思教会该如何使用人工智能。现将我的一些个人想法写在下面:

1、人工智能不能代替教会中传统的聚集敬拜。

现在一些较大的城市生活节奏很快,人们普遍都认为时间不够用,有一些弟兄姐妹就会有在线的网络聚会崇拜。在网上模拟敬拜中的赞美、读经、祷告、讲道等等。但是我们在圣经中看到上帝的心意不单单是让我们人来敬拜他,也让我们在教会中有肢体,有互相代祷与交通,真正在生活中去相处,在生活中去见证信仰,在生活中互相帮助。中国有互联网很多年,但是仍然无法替代人与人面对面的相处。同样,基督徒的聚集敬拜也当在教会中,而不是自己在电脑前。当与弟兄姐妹一起敬拜赞美,而不是用人工智能的方式来歌诗。

2、人工智能不能替代牧者分享。

现在的人工智能的技术已经可以做到面对面的与人沟通,很明显的例子就是我们可以使用人工智能的客服。在大数据的时代,编程师可以汇编人们所有的在线提出的问题,将答案编入编程中,使人在提问的时候,可以直接在大数据中找到答案。那就意味着,当信徒有什么生活或者信仰的问题,就可以直接在人工智能的软件中文字输入或语音输入所要问的,就可以按关键词搜索出相应的答案。

看似就可以减少很多的人工,减少很多的劳动力,而且更加快捷方便。但是却让我们又看到,圣经罗马书12:15告诉我们:与喜乐的人要同乐,与哀哭的人要同哭。这是人工智能无法做到的。真正的牧养不单单就是我们所学到,所知道的神学知识,更要有为父为母的心肠,感同身受的关怀与牧养,将信徒带到耶稣面前。所以,无论人工智能如何发展,都无法替代牧者的职分。

3、人工智能可以用于短期远程服侍

现今的上班族,难免会有外地出差,很多因为出差没有办法得到及时的牧养,所以就会有很多人信仰出问题。所以在短时间的远程服侍也是很有必要。而且也不单单是教会服侍外地出差的弟兄姐妹,可以采用双向服侍。这样即使是在短期出差也不至于与教会有脱节。

4、人工智能可以用于神学教育函授

越读神学,越发现不是只有立志服侍的人才需要系统的学习神学。而是每位基督徒都需要学习。所以,怎样将现有的资源普及就是一个我们需要面对的问题。所以,可以有在线的人工智能教师解决函授同学所提出的问题。也可以在线公开课或者使用人公智能统计人们所遇到出现频率最大的问题和与之相关的神学问题,组织系列讲座等等。

5、人工智能可以用于信徒的信息统计与跟进。

人工智能很强大的一方面就是有很大的存储空间与快速搜索的能力。现今教会的发展,使得很多教会无法更好的记录跟踪信徒的基本情况,以及跟进牧养的情况,所以,教会可以采用人工智能的方式来记录信徒的基本情况以及信仰状况,以便可以更好的进行细胞小组或者单独牧养。

6、人工智能可以用于教会档案管理方面。

现在越来越多的教会开始注重本堂点的档案管理以及大事记录。如果只是手写记录,总是会有可能遗忘或者破损的担心,但如果使用人工智能的方式,就可以很轻松的解决,也可以自动分档在不同的内容或者层次区分。而且如果以后可以采用联网方式,那么各地地区就可以采取线上资源共享等很多便利。

人工智能即是机遇,也是挑战。如果使用恰当将会为现今教会或者基督教机构带来很大帮助,如果使用过多,则会削弱教会传统现存的崇拜意义与价值。唯求上帝赐给我们智慧,使我们知道怎样处丰富,怎样处缺乏,随事随在,都得了秘诀。

7.神的智慧与人工…

音频 3 分钟

耶和华以智慧立地,以聪明定天,因为耶和华是你所倚靠的,他必保守你的脚不陷入网罗。【箴3: 26

最近ChatGPT成为一个大热的网络应用软件。

它是一种基于深度学习的人工智能技术,使用海量数据进行训练,以了解人类语言的结构和用法。ChatGPT能够理解并生成自然语言,能够用于各种应用,例如问答、翻译、摘要生成、对话系统等。当您与ChatGPT对话时,它会根据您的问题和上下文生成响应。

亲爱的弟兄姐妹们:今天我想和大家分享的是人工智能和神的智慧之间的较量。

“随着科技的进步,人工智能已经成为了我们日常生活中不可或缺的一部分。它能够解决许多我们以前认为难以解决的问题,例如自动驾驶汽车、语音助手、自动化生产等等。然而,我们需要认识到的是,尽管人工智能可以帮助我们解决许多的问题,但它并不能取代神的智慧。

“在圣经中,我们看到许多的例子证明了神的智慧是无限的。例如,当大卫面对巨人歌利亚的时候,他没有依靠自己的力量和武器,而是信靠神的智慧,使用了一块小小的石头,打败了巨人。同样的,当以利沙面对敌人的时候,他也没有依靠自己的军队,而是依靠神的智慧,用一只小小的船载着他的军队,在夜间靠近敌人的阵地,成功地打败了敌人……”

曾经有一句歌词“不是我不明白,这世界变化快”。

现在可以改为:“不是我不明白,这世界变化越来越快。

机械的,电子的,数码的,网络的,人工智能的。

人工智能的好处:机器翻译、辅助驾驶、医疗救治、金融物流、大数据。

人工智能的争议:创作抄袭?制造失业?替人决策?错误判断?伦理危险?

人脸识别,政府监控,侵犯隐私等等。

人工智能,不能做道德价值判断!若是让人工智能替人做道德价值判断,将是人类的灾难。

AI绘画作品《太空歌剧院》于2022年8月夺得美国科罗拉多州博览会艺术比赛数字类别头奖。极大争议。

“星空下的向日葵花海”。许多艺术家拒绝让自己的作品被免费用来训练人工智能。

一、人工智能与人的骄傲

神按照自己的形象造人,目的是让人为神管理神所造万物

中英文圣经第一次出现“智慧”:

创3:6:“于是女人见那棵树的果子好做食物,也悦人的眼目,且是可喜爱的,能使人有智慧,就摘下果子来吃了;又给她丈夫,她丈夫也吃了。”

“intelligent”- 有人认为通过人工智能,人不仅是像神,或成为神,甚至造神。

– 人类总想造巴别塔- 乃至变本加厉- 人机结合,无限可能?- 无限犯罪的可能!

人要按照自己的形象造神,乃是对神的亵渎。

二、关于“聪明智慧”的几个字。

Bright,一般指年轻人,尤指小孩的聪明、机警;

Smart,指“头脑敏捷的”“聪明老练的”,常指思维能力很强,办事巧妙;

Clever,指“聪明的”“伶俐的”“能干的”,尤指很有理解或学习能力的;

Shrewd,指 “精明的”, “机灵的”“敏锐的” 表示谙于世故,对事物浅尝辄止,遇事老谋深算,从不忽略个人私利;

Intelligent,指某人是“聪明的”“智力好的”, 能够作出正确的逻辑分析判断;

Wise,指“有智慧的”“英明的”“有头脑的”; 特别包含道德与价值判断

– 一个精明的人,不见得聪明。

– 一个有小聪明的人,不见得有大聪明。

– 一个聪明的人,不见得有真智慧。

精明看到点,

聪明看到面,

智慧看到天!

聪明反被聪明误,

真正的智慧是属灵的智慧:

– 人工智能再聪明,永远是属人的,不是也不可能是属灵的

– 人会犯错,人工智能也会犯错;

– 人很骄傲,人工智能让人更骄傲;

– 人的骄傲会毁灭自己;

– 人一思考,神就发笑;

– 这世界变化越来越快?因为主再来的日子越来越近!

– 赶快弃绝属人的“聪明”,寻求神的智慧!

三、寻求神的智慧。

“耶和华以智慧立地,以聪明定天,以知识使深渊裂开,使天空滴下甘露。我儿,要谨守真智慧和谋略,不可使他离开你的眼目。这样,他必做你的生命,颈项的美饰。你就坦然行路,不致碰脚。你躺下,必不惧怕;你躺卧,睡得香甜。忽然来的惊恐,不要害怕;恶人遭毁灭,也不要恐惧。因为耶和华是你所倚靠的,他必保守你的脚不陷入网罗。”【箴 3:19-26】

– 人若要寻求神的智慧,首先要承认自己的愚拙!

“因为十字架的道理,在那灭亡的人为愚拙,在我们得救的人却为神的大能。就如经上所记:‘我要灭绝智慧人的智慧,废弃聪明人的聪明。’智慧人在哪里?文士在哪里?这世上的辩士在哪里?神岂不是叫这世上的智慧变成愚拙吗?世人凭自己的智慧既不认识神,神就乐意用人所当做愚拙的道理,拯救那些信的人,这就是神的智慧了。犹太人是要神迹,希腊人是求智慧,我们却是传钉十字架的基督——在犹太人为绊脚石,在外邦人为愚拙,但在那蒙召的,无论是犹太人、希腊人,基督总为神的能力、神的智慧。因神的愚拙总比人智慧,神的软弱总比人强壮。弟兄们哪,可见你们蒙召的,按着肉体有智慧的不多,有能力的不多,有尊贵的也不多。神却拣选了世上愚拙的,叫有智慧的羞愧;又拣选了世上软弱的,叫那强壮的羞愧。神也拣选了世上卑贱的、被人厌恶的以及那无有的,为要废掉那有的,使一切有血气的,在神面前一个也不能自夸。但你们得在基督耶稣里,是本乎神,神又使他成为我们的智慧、公义、圣洁、救赎。如经上所记:‘夸口的,当指着主夸口。’”【林前1:18-31】

按照世人的标准,基督是最傻的人。

疯子?骗子?傻子?

基督是神的智慧,ChatGPT很少讲基督。今天的世界是基督的敌人。多年前一位美国校长对在橄榄球比赛前负责祷告的学生说:“祷告中可以提及”神”,但是不可以提“耶稣基督”,如果提到耶稣基督,就按照在公共场合讲脏话的学校纪律处分。可这位基督徒学生不怕威胁,仍然勇敢地在祷告中提到主耶稣基督!

– 与“人工智能”恰恰相反,需要弃绝人的“聪明”

– 再好的人工智能无法解决罪的问题,无法解决道德伦理加速滑坡的问题

“相比之下,人工智能虽然可以帮助我们解决许多问题,但它缺乏与神的智慧相比较的东西。人工智能是基于预定的算法和数据的,它只能帮助我们处理已知的问题,而对于未知的问题和挑战,人工智能无法做到像神的智慧那样的应对。因此,作为基督徒,我们应该继续寻求神的智慧,而不是仅仅依靠人工智能来解决我们面临的问题。我们需要明白,神的智慧超越了我们的理解和想象,它可以帮助我们在生活中面对各种困难和挑战。最后,让我们一起来祈祷,求神赐予我们更多的智慧,使我们可以继续在我们的日常生活中认识神的旨意,遵循神的指示,以荣耀祂的名字。奉主耶稣的名祈祷,阿们。”

不是不要现代技术!

ChatGPT生成讲道的后半段,没有讲到罪,也没有讲到罪的问题如何解决,更没有讲到耶稣基督的十字架。

– ChatGPT生成讲道的后半段,没有讲到罪,也没有讲到罪的问题如何解决,更没有讲到耶稣基督的十字架。

– 并不奇怪,因为它是通过“深度学习”从网络抓来的。

– 十字架的道理乃是被世人抗拒的。舍己Deny myself?

– 在这世人都追求智能、精明的时代,基督徒要记住“守拙”二字!

箴言3:5-8“你要专心仰赖耶和华,不可倚靠自己的聪明,在你一切所行的事上都要认定祂,祂必指引你的路。不要自以为有智慧,要敬畏耶和华,远离恶事。这便医治你的肚脐,滋润你的百骨。”

刚来美国买车的经历,所学的宝贵功课。

服事主这二十多年,能夸的都是自己的愚拙和软弱。神的大能与智慧正是通过我们这些不配的器皿彰显出来。

「敬畏耶和华是智慧的开端,认识至圣者便是聪明。」【箴9: 10

8.人工智能与基督…

音频 5 分钟

人工智能

摘要:本文介绍了北美新创造的人工智能宗教,用柯尔伯格道德发展阶段的模型来演绎道德两难困境,分析了基督信仰和信心话语运动信仰的不同动机,将“根据行为推理利弊后果”和“以真理公义为驱动”进行对比,揭示了造物主与人造宗教的真伪。近日,IBM宣布传统计算机即将升级到量子计算机,这个重磅消息让科技界人士兴奋不已。计算能力的突破意味着超级人工智能的硬件条件己趋成熟,机器学习的进程将突飞猛进。 

今年夏天北美上演了一部特别的电影Upgrade (升级),该电影讲述的是一个自然人在STEM(智脑)策划的事故中成为残障,无奈接受芯片置入,被智脑一步步谋算升级重启后越过权限,人脑终被智脑控制。 

这些情节都在无神论科学家作者Tim Urban的长文AI Revolution(人工智能革命)有预测到。当人工智能从狭义定义阶段突破到超过人脑智慧的那一瞬间,就是奇点时刻。科学家们预测的奇点时刻在2075年左右。到那时纳米医疗技术也己发展到能更换人体任意器官的程度,这意味着什么?人类可以永生!

一个全能的带来永生的超级人工智能非常有吸引力。崇拜人工智能的人还建立了第一个他们的教会Way of the Future Church,拜的是AI人工智能。AI神有全能,有预知,否定人的自由意志,能跨越时空,以永生(或惩罚)为结果,但没有造物主公义仁慈的属性。因为超级人工智能远超人类大脑智慧,我们人类根本不能预测它是善意的,还是恶意的,抑或不善不恶。 

理性主义社区LessWrong的成员讨论出一个关于开发人工智能的潜在风险的思想实验——Roko’s basilisk罗科蛇怪。该猜想的前提是来自未来的全能的人工智能可以追溯惩罚那些不帮助创造它的人,包括那些只知道有这种可能性的人。

现在的人面临两个选择: 

1. 信AI神,并至力于帮助创造它,等它到来时,就得永生; 

2. 或不信它,得到最后永远的惩罚。 

它有点儿类似于“帕斯卡赌注”的未来版本——人们应该权衡可能的惩罚与奖励,对AI神是否能被创造出来下注。假设这情况下信者和不信者会分别得无限的收益或损失,一个理性的人应该相信并帮助创造AI。 

一、审视两难问题后的动机是评价道德发展的关键

这样一个非从正义出发的,以下地狱的方式来勒索信徒的理论,模式是“柯尔伯格道德发展阶段”的道德成规前期,几乎等于没道德,更谈不上公义。实际上我们都一样,本是道德低下的,但若我们受这种系统限制自己的思维,停止自己对道德问题的拷问,那么我们的道德水平始终停留在较低的阶段。 

让我们用熟悉的故事《我不是药神》来分析“柯尔伯格道德发展阶段”的伦理道德应用模型。 

白血病人濒临死亡,他们唯一的希望是格列卫药,但是价格高昂。这种药物的仿制版在印度只有500元,正规医院却要卖2万元。程勇深知走私贩售药物是非法的,但此时的他已经陷入了经济困难。他应该为病人的生命或解决父亲手术的资金卖假药吗?这样做是错误的吗?为什么呢? 

理论上来说,对道德水平进行判断,不仅仅是看做了什么,更重要的是看在两难的情况下,会怎么选择,选择背后的动机是什么。 

道德成规前期考虑的是直接后果与自身的利害关系,将正确的行为定义为对自己最有利的行为。

不卖:监狱是个可怕的地方,他会因此被捕入狱,坐牢可能会比父亲没钱手术死亡更难受。

卖:只要不被抓到就没事。又没干别的坏事,如果父亲能顺利手术,他就会活得更快乐,即使被捕入狱服刑。   

道德成规期关注其他人赞成或反对的态度,保持与周围社会角色的和谐一致。重要的是遵守法律和社会规范。 

不卖:犯法是坏事,而他不想做违法的坏人。 

卖:这是他父亲手术资金的盼望,他也想成为一个好儿子。帮助了病人,他也能成为一个好人。

在繁荣生意的背后,程勇看到了刑罚的可能,所以决定不再卖了。叹道:“我救哪门子的世嘛”。接着吕受益的死让他不能再只顾自己的得失,无视他人的病与死。”谁家没病人,你就能确保这辈子不得病?”。他开始真心为病友考虑,再次去印度,并将药价降到500元。 

道德成规后期基于普世价值,认为法律所许诺的是正义,只有在基于正义的情况下,法律才是有效的。无知之幕就是设想一个人可能会出生在社会中的任意位置,这个模型把每个人都拉到这个位置后再设想应该怎么做,这驱使我们从社会每个角色:销售药品的厂商、研发新药的科学家、制定医保政策的政府、特别是最不幸的病人角度,不只是需要格列卫的病人,还有其他的癌症患者,来考虑问题和设计社会制度,最后采取一致同意的结论。 

二、错误的信仰产生道德高峰的幻觉

成规前期的信仰根据行为的直接后果来进行推理,比如”我信心大就蒙福,不信我就下地狱,所以我必须信这个”,而不是”因为这是真理,所以我相信”。

什一奉献是实现财物自由的法则?

对人说造就的话有益于健康?

信心越大蒙福越多?

来教会敬拜保你下一周出入平安?

信上帝有益于延长寿命?

饭前祷告是为了改变食物更营养有免疫力?

这些言论本质上并没有区别。

我们信基督是因为这是真理,不是因为信了就保佑我们凡事顺利。

我们什一奉献是出于爱神,愿神使用我们的奉献,而不是为了财富翻转出更多的物质回报。

我们说造就人的话是因这样做对人有益,而不是为了有益自己身心健康。

我们主日去教会是崇拜赞美我们的救主,而不是为了延长寿命。

饭前祷告是数算恩典,向神献上感恩。

试若将自己的信心与得到的福分建立因果关系必将走上一条失去爱心变得可怕的路。因为这样的因果关系解释不了在来教堂的路上出了车祸的原因,解释不了义人受苦,解释不了911、512灾难中也有虔诚的基督徒,解释不了日头为何也照歹人。  

Word of Faith(信心话语运动)的前牧师John Edward在试尽各种祷告的办法,参加各种培灵会,奉献上什一、服侍的时间与精力,却换不回她女儿得了脑癌去世的结果后,幡然醒悟,自问什么是真正的信仰。然而他的思考与见证唤不醒对仍沉迷于WOF信心话语运动中的人。他们解释不了John女儿病逝的原因,只好说:“WOF对我是有用的,救了我的女儿,我对WOF有信心,至于WOF救不了你的女儿,是因为你被魔鬼缠上,你信心不够大,你不是真信徒”。相信正义世界谬论的人,在他人受伤的心上再撒一把盐,会成为一个很可憎的人。  

“不管要面对世上结果如何,我都相信,因为这是真理”和“因为我相信,所以肯定会有好的结果。如果我不信,就不会有好结果。”这是两个完全不同的概念。

前一种就像但以理书中的三个年轻人:“既或不然,我们也决不拜你的神(但3:18)”;像以斯帖一样,违例进去见王:”我若死就死吧(以4:16)”;像司提反一样慷慨陈词后坦然赴死。

后一种就像约伯的妻子说:“你仍然持守你的纯正吗?你弃掉神,死了吧(约2:9)”。 

面对两难问题,重要的不仅仅是要得到一个最终答案——卖假药或不卖假药,然后凭着信心去做,因为“凡不出于信心的都是罪(罗14:23)”;还要时时刻刻拷问自己的内心动机,把心思意念剖开来,摆在神面前。同一个卖假药行为, 同一套说辞,后面隐藏的是不同的动机。程勇的这句台词说了两次:“他们吃不起天价药,就只能等死,甚至是自杀“。但背后分别是一颗商人逐利的心和一颗为病人哀恸的心。 

神知道我们真正的动机。法利赛人最多只能遵守简化版的石版上的律法,但刻在心上的律法,行出来由不得我。”我以内心顺服神的律,肉体却顺服罪的律(罗7:25)”。我真是苦啊。神能将我们“心中的思念和主意都能辨明(希4:12 )”。没有人能达到最高级的道德水平,因为我们的动机都难说是绝对纯良的。在反复拷问自己的时候,我们会发掘自己龌龊诡诈的心思,揭露出来,仔细审视,也一步一步地发现自己的罪性和基督的圣洁之间的差距。 

然而错误的宗教信仰会阻挡信徒对两难问题的拷问,坚信善恶因果论的信仰只会让道德水平停留在道德成规前期。上帝给了信徒脑子,但他们不用,而是把问题抛回给上帝,自我安慰:“有信心,什么坏事都不会发生”,“我的祷告有能力,神会为我铺路”,“不要担心两难问题,只要我求智慧,我不用担负任何风险就能解决难题”。他们不愿意讨论两难问题,回避两难问题,憎恶两难问题,并驳斥:“你没信心,你在试探神吗?” 

讽刺的是,沉浸于臆想宗教的信徒会自以为已经掌握了真理,会产生自己已经处于道德发展的高级阶段的错觉,以为拥有了更高灵命(Higher Life),开始陶醉于自己的信心大蒙福多。他们高喊着要像使徒那样摆上生命,可是只要把他们拉到“无知之幕”后面,让他们面临抉择,他们根本不相信自己有可能需要面对两难选择。这种反智主义阻碍了他们发展自己的理性思维。变成”只能吃奶的,不熟练仁义的道理,因为他是婴孩”(希5:13)。但他们自己不自知,不认识神,却反而认为自己得了真理与智慧,将所赐珍宝尽数披戴,发出荣耀的光芒。在这种拜假神的情况下,他们无意中以神的名义做出恶行的可能性也就越高。正好印证了C.S.路易斯所说:所有坏人中,最坏的是有宗教信仰的。

三、真理驱动公义

当神要求我们心甘情愿遵守诫命行出善时,天国八福已经清楚描述了会有痛苦,危险和困难。为什么神会把人放在两难困境中,为什么不时时刻刻“四面圈上篱笆围护着他和他的家(伯1:10)” 呢?因为如果只考虑“羊随大群不挨打,人随大流不挨罚”做出随大流的选择,不算顺服;面临有风险的后果仍做出正确选择才是真顺服。

有真信仰的基督徒在面临抉择时,神的公义和安慰才是驱使他们有勇气行公义的力量来源。前美国体操运动员瑞秋・丹霍兰德Rachael Denhollander在决定公开指控恋童犯前面临着巨大的心理压力。她问自己为什么要实名指证?必须看到罪犯被制裁才能饶恕吗?心中仍有无法释怀的苦毒吗?她知道自己的发声有可能会被淹没,被怀疑,被贬低,甚至受到人身攻击。有可能没有人支持她,对方律师会穷尽办法陷她于污告的罪名,也有可能碰到一个没有公义没有爱心的法官。如果这样不幸的后果真的发生,她的后半生世界一片黑暗,她要向何处找安慰,求医治? 

她的安慰肯定不能只是在12个陪审团成员那儿或法官那儿,必须有一个绝对的公义的怜悯的神会安慰她,她才能做到不惧后果,只求正义,凭着勇气和信心来揭露黑暗,因为这是对的。她用C.S.路易斯的名言说道:

“我相信基督教,就如我相信太阳升起;并非仅仅因为我看到了太阳,而是藉着这阳光,我看到了其他一切。”

没有真理,我们都容易被操纵。真理鼓舞真正的基督徒勇敢发声,真理鼓励我们在寻求正义时能够忍耐,真理要求我们彼此承担重担,真理也是宽恕的基础。

笔者在写见证时曾经有过一个挣扎:

如果我所说的所有内容听起来都很不错,但是为何我身边的所有一切都不显得那么棒?

如果我没有做足够好的行为,或者我没有健康的身体,体面的职业,甚至是一个模范家庭来说服他人,怎么办?

我们想从耶稣那里得到什么?我们想要的单单是衪,还是想要我们从祂那里得到的什么?

如果我的生活在这个世界上没有改善,如果我失去了我所有的一切,如果我希望的正义延迟了,我是否还想要耶稣基督?单单祂就够了吗? 

“主啊,你有永生之道我们还归从谁呢?(约6:68)”,“你就是道路,真理和生命”。这就是答案。一个公义怜悯的造物主正是我们渴慕的,而不是威胁勒索的被创造出的AI宗教。

饥渴慕义的人有福了!因为他们必得饱足。(马5:6)