每日活灵(232)…

音频 三分钟

「我为主被囚的劝你们,既然蒙召,行事为人就当与蒙召的恩相称;」【弗4:1

神呼召我们,并不是要我们离世而生活,乃是要我们在世界中过一种照着神恩召的目的而「行事为人」的生活。神的『恩典』需要藉基督徒的生活行事将它表明出来。

基督教不只有供应,并且乃是供应在先,要求在后。我们只能劝勉神的儿女,不能劝没有悔改的人过基督徒的生活。人不能凭行为得救,但是得救的人,绝对要有符合被召标准的好行为。

主是在十字架上成就了和平,十字架的工作乃是制造和平;只有当我们取用十字架的原则,把自己钉在十字架上,才能真正与别人和平。

信徒若不强调自己的背景与习惯,就会希奇地发现:虽然在外面有许多的不同,但在我们里面却有一个最重要的东西是相同的,就是灵里的生命。

我们要行事为人与神的呼召相配,有正确的身体生活,需要先顾到一。我们必须保守那灵的一。这对基督的身体是重大且紧要的。

严格的说,一与联合不同。联合是许多人联在一起,而一乃是那灵这一在信徒里面的实质,使我们众人成为一。我们的一乃是个人位,就是实化为赐生命之灵的主耶稣自己。今天主在我们里面是那赐生命的灵,这灵就是我们的一。所以我们的一不是远在诸天之上的客观人位,乃是住在我们里面,作我们生命的主观人位。

对在基督里的信徒来说,也是同样的原则。内住在我们里面的那灵,乃是我们的一。在我们里面并在我们中间的一,就是那赐生命的灵。所以,保守一就是保守那赐生命的灵。奉主蒙恩 ! 阿们 !  

每日活灵(251)…

音频 三分钟

「穿上了新人。这新人在知识上渐渐更新,正如造他主的形像。惟有基督是包括一切,又住在各人之内。」【西3: 10,11

归正后,我们里外所有的不同,都已被基督取代;基督是信徒外面的彰显,又是信徒里面的丰富;得着了基督,就得着了一切;一切都是为着基督,也都归于基督。

穿上了新人」是指在我们的灵里已经完成的事实,但仍未及于我们的魂和身体,因此我们必须被更新。

我们的心意需要被更新而变化;对神的认识越多,里面的新人生命就越长进,外面的新人生活也越过越像主。

神使我们重生的目的,是要从迷途中领回我们,以达成当初创造我们的用意。这脱去旧人、穿上新人的转折点,并不要我们来努力完成,乃是基督早已借着死而复活为我们成就了。

我们在生活上要表现神,不是根据人的仁义和圣洁,乃是根据真理的仁义和圣洁,也就神性情的显露。我们无论对神或待人,都应存真挚的心,因为虚伪不能瞒骗真神。

新人是属于基督的。这新人就是祂的身体,是祂在十字架上在自己里面所创造的。新人是由许多不同的人组成的。在这团体的新人里,惟有基督是一切,又在一切之内。在新人里,基督是众人,也在众人之内。所以,在团体的新人里,基督是一切,又在一切之内。

教会是蒙召之人的聚集,因此是一个会集。这是教会初步的一面。这些比初步的一面高,但比不上召会是基督的身体这一面。然而,新人比基督的身体还要高。教会是基督的身体,需要基督作生命;这新的团体人该过一种生活,如同耶稣在地上所过的,就是实际的生活,彰显神并叫人认识神是实际。奉主蒙恩! 阿们!    

生命福音[119]…

音频 三分钟

「所以,我亲爱的弟兄们,你们务要坚固,不可摇动,常常竭力多作主工;因为知道,你们的劳苦在主里面不是徒然的。」【林前15: 58

属肉体的人也是盼望,在那里要讨神的喜欢。结果盼望是徒然的。

当属『肉体』的犯罪累累,神已经全然绝望,只把所有的盼望,都寄托在祂儿子基督身上。神既如此,我们为何还对自己的肉体有所盼望呢?我们为何还不肯断离一切,惟独基督作我们荣耀的盼望呢 ?

属灵属肉体、基督玛门。两者不可并论。决定了你的服事;人所看重的,神却不看重;神所看重的,属肉、属世的信徒却不看重。求主怜悯给我们有正确的属灵眼光,能按神的旨意来看待一切的人与事。

恩赐、才干和信心并不等于是『』;没有爱的人也可以表现出非常属灵的外表,但却缺少属灵的实际内容。也就是假冒偽善;我们千万不要凭外表来判断属灵的事,而要凭爱心、凭实际内容在基督里。

爱的传承,正是那一位爱之神具体的表现­­丰满的基督。所以基督乃是一切恩赐的实际;无论是话语的职事­ -万人的方言、天使的话语、先知讲道,或是属灵的认识『各样的奥秘,各样的知识』,或是全备的信心,或是最好的行为将所有的赒济穷人,又舍己身叫人焚烧,若没有基督作内容、作实际,仍是全然虚空『算不得甚么』。哦,丰满的基督,乃是一切的价值!所有的『』字,可用『基督』来代替。神的道暢通天地。

虽然人的服事对神是很宝贵,但若假冒为善者神却不喜悦。假冒为善者的宰牛,好像杀人;转耳不听律法的,他的祈祷也为可憎。难道这人的光景不是很可怕吗?只要你们的心仍未成圣,神不会接受你们所做的。耶户杀尽拜巴力的人,但神拒绝了他,因为他的心不正直。未归正之前,就律法上的义而言,如保罗是无可指摘的,但因他仍未归正,故一切皆算为亏损。

徒然劳碌工作是悲惨的。建造房屋却不得居住其内,栽种葡萄却不得收割,寄居的人将因你的劳力而得利,神警告说这是最严厉暂时性的审判。人不要自欺;如果你继续住在你的罪中,即使你向神举手,时时祈祷,也必掩面不听。盼望也是徒然的。感谢神 ! 奉主蒙恩 ! 阿们 ! 

生命福音[118]…

音频 三分钟

「祂大声喊着说:『巴比伦大城倾倒了!倾倒了!成了鬼魔的住处和各样污秽之灵的巢穴,并各样污秽可憎之雀鸟的巢穴。」【启18: 2

属世的巴比伦城今天就已经充满了污鬼和邪灵的活动,欧美各国的人早就热衷于万教归一运动、新时代运动、瑜珈术、万圣节、极端灵恩等,正在为此处预言的成就铺路。

人若不归正,就会落入鬼魔的住处和各样污秽之灵的巢穴里,也就不能达到被神所造的目的。还未重生之人不知道天国的奥秘。他必须先蒙神的呼招,学习如何祷告,如何交通,如何谦卑,活出基督耶稣的形象。

我们听了祂的道,领会祂的教导,也学了祂的真理。主所立的约乃是将祂的律法放在我们里面,写在我们心上;祂要做我们的神,我们要做祂的子民。行祂的道,这样我们心里必得安息

信徒若没有力量做神的工,他的心何等懦弱!他很快就累了,守安息日何等繁琐!他是无力的,甚至死在罪中。他不愿意明白神的道。也不知道如何寻求神的道路,昏昏噩噩过白子!他必会掉進鬼魔和各样污秽之灵的巢穴

未曾归正的人在世上不但没有目标,反而像行屍走肉。仍未归正之人,里面藏有污秽如可憎之鸟的巢穴,里面充满污秽、腐烂的坟墓,表里不一致;里面没有生命,是死的,却要在外表掩盖其死亡枯干的灵魂

人类到末世,抢夺了神在世界上一切的荣耀,难道这不是非常可怕的吗?“一切受造之物一同叹息”,因为未成圣的人滥用一切受造物。人用这些来满足自己的私欲,这就違反神的受造物之用意了。

当人爱神爱又玛门的宗教行为都要落空,因为不能使你讨神的喜悦,也不能救你的灵魂。

背约的人不能逃脱被灭,离弃神结局悲惨。只得屈身在被掳人之下,仆倒在被杀人之下。神怒气还未消,祂手仍伸不缩。经上说:背弃立约,已投降又背叛,必不能逃脱。 我必使这罪归他头上。将我网撒他身上,他必在我网罗中缠住,带到巴比伦,因他干犯我的罪刑罚他结17: 18。 

摩西说:为何违背耶和华的命令呢?这事不能顺利了!率领我们的是神,我们这里也有神的祭司拿号向你们吹出大声。以色列人哪,不要与耶和华你们列祖的神争战,因你们必不能亨通!有这前車之鉴,世人也当速速回归于神。感谢神 ! 奉主蒙恩 ! 阿们 ! 

GPT1、GPT2…

GPT1GPT2GPT3embeddingNLP

GPT-1:无监督学习

GPT-1原理介绍

GPT模型主要包含两个阶段,第一个阶段,先利用大量未标注的语料预训练一个语言模型,接着,在第二个阶段对预训练好的语言模型进行微改,将其迁移到各种有监督的NLP任务,并对参数进行fine-tuning。

预训练模型(无监督)

给定一个没有标注的大语料,记每一个序列为 u = u 1 , . . . , u n u = {u_1, …, u_n}u=u1,,un,GPT通过最大化以下似然函数来训练语言模型:
L 1 ( U ) = ∑ i log ⁡ P ( u i ∣ u i − k , … , u i − 1 ; Θ ) L_{1}(\mathcal{U})=\sum_{i} \log P\left(u_{i} \mid u_{i-k}, \ldots, u_{i-1} ; \Theta\right)L1(U)=ilogP(uiuik,,ui1;Θ)

其中,k 表示上下文窗口的大小,这里计算每个单词的预测概率时,只考虑左侧窗口大小的词汇信息(单向Transformer),在GPT中,作者基于一个12层的Transformer decoder作为语言模型的结构,并将decoder的中间那层线性变换删除,其结构和计算过程如下

GPT用的结构和Transformer的encoder、decoder都不一样,encoder是两个线性层,但是没有masked,decoder是三个线性层,有masked。

其中,U = u − k , . . . , u − 1 U={u_{-k}}, … , u_{-1}U=uk,...,u−1 表示左侧窗口的词汇向量,n表示Transformer的层数,W e W_eWe 表示词向量矩阵,W p W_pWp表示position embedding矩阵,在GPT中,作者对position embedding矩阵进行随机初始化,让模型自己学习,而不是采用正弦余弦函数进行计算。(原Transformer用的三角函数)

从GPT的计算公式来看,其实跟Transformer基本是一样的,只是对每个时间步,都只考虑左侧窗口大小的上下文信息。

由于使用了Masked Self-Attention,所以每个位置的词都不会“看见”后面的词,也就是预测的时候是看不见“答案”的,即避免了see themselves 的问题,保证了模型的合理性,这也是为什么OpenAI采用了单向Transformer的原因。

fine-tuning(有监督)

当语言模型训练结束后,就可以将其迁移到具体的NLP任务中,假设将其迁移到一个文本分类任务中,记此时的数据集为 C ,对于每一个样本,其输入为 x 1 , . . . , x m x^1, …, x^mx1,...,xm,输出为 y yy。对于每一个输入,经过预训练后的语言模型后,可以直接选取最后一层Transformer最后一个时间步的输出向量 h l m h_l^mhlm,然后在其后面接一层全连接层,即可得到最后的预测标签概率:
P ( y ∣ x 1 , . . . , x m ) = s o f t m a x ( h l m W y ) P(y | x^1, …, x^m) = softmax(h_l^m W_y)P(yx1,...,xm)=softmax(hlmWy)

其中,W y W_yWy为引入的全来凝结层的参数矩阵。因此,可以得到在分类任务中的目标函数:
L 2 ( C ) = ∑ x , y l o g P ( y ∣ x 1 , . . . , x m ) L_2(C) = \sum_{x,y} logP(y | x^1, …, x^m)L2(C)=x,ylogP(yx1,...,xm)

在具体的NLP任务中,作者在fine-tuning时也把语言模型的目标引入到目标函数中,作为辅助函数,作者发现这样操作可以提高模型的通用能力,并且加速模型手来你,其形式如下:
L 3 ( C ) = L 2 ( C ) + λ ∗ L 1 ( C ) L_3(C) = L_2(C) + λ * L_1(C)L3(C)=L2(C)+λL1(C)

其中 λ一般取0.5。

可以发现,在fine-tuning阶段,此时新增的参数只有最后一层全连接层的参数 W y W_yWy,这比ELMo算法要容易得多。

不过,上面这个例子知识对与文本分类任务,如果是对于其他任务,比如文本蕴涵、问答、文本相似度等,那么GPT该如何进行微调呢?

  • 文本蕴涵:对于文本蕴涵任务(文本间的推理关系,问题-答案),作者用一个$负号将文本和假设进行拼接,并在拼接后的文本前后加入开始符 start 和结束符 end,然后将拼接后的文本直接传入预训练的语言模型,在模型再接一层线性变换和softmax即可。

  • 文本相似度:对于文本相似度任务,由于相似度不需要考虑两个句子的顺序关系,因此,为了反映这一点,作者将两个句子分别与另一个句子进行拼接,中间用“$”进行隔开,并且前后还是加上起始和结束符,然后分别将拼接后的两个长句子传入Transformer,最后分别得到两个句子的向量表示 h l m h_l^mhlm,将这两个向量进行元素相加,然后再接如线性层和softmax层。

  • 问答和尝试推理:对于问答和尝试推理任务,首先将本经信息与问题进行拼接,然后再将拼接后的文本一次与每个答案进行拼接,最后依次传入Transformer模型,最后接一层线性层得到每个输入的预测值。

具体的方法可以查看下图,可以发现,对这些任务的微调主要是:

  • 增加线性层的参数

  • 增加起始符、结束符和分隔符三种特殊符号的向量参数

    请添加图片描述

小结

  • GPT其实跟ELMO非常相似,只是把语言模型直接迁移到具体的NLP任务中,因此,更容易进行迁移学习。

  • 不过GPT主要还是针对文本分类和标注性任务,如果对于生成任务,比如机器翻译等,则其结构也没法进行很好的迁移。

https://zhuanlan.zhihu.com/p/69290203
GPT原理介绍
Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[J]. 2018.

GPT-2:多任务学习

GPT-2继续沿用了原来在GPT中使用的单向 Transformer 模型,而这篇文章的目的就是尽可能利用单向Transformer的优势,做一些BERT使用的双向Transformer所做不到的事。那就是通过上文生成下文文本。

GPT-2的改进

**1. 去掉了fine-tuning层:**不再针对不同任务分别进行微调建模,而是不定义这个模型应该做什么任务,模型会自动识别出来需要做什么任务,是很通用的设计。

**2. 增加数据集:**GPT-2手机了更加广泛,数量更多的语料组成数据集。该数据集包含800万个网页,大小为40G。这些数据是经过过滤后得到的高质量文本。

**3. 增加网络参数:**GPT-2将Transformer堆叠的层数增加到48层,隐层的维度为1600,参数量达到了15亿。(5倍于BERT的参数量)

**4. 调整Transformer:**将layer normalization放到每个sub-block之前,并在最后一个self-attention后再增加一个layer normalization。

  1. 此外,GPT-2将词汇表数量增加到50257个;最大的上下文大小从GPT-1的512提升到了1024 tokens;batch-size增加到512.

模型参数

  • 同样使用了使用字节对编码构建字典,字典的大小:50257

  • 滑动窗口大小:1024

  • batch-size:512

  • Layer Normalization移动到了每一块的输入部分,在每个self-attention之后额外添加了一个Layer Normalization

  • 将残差层的初始化值用 1 ( N ) \frac{1}{\sqrt(N)}(N)1进行缩放,其中N是残差层的个数

GPT-2训练了4组不同的层数和词向量的长度的模型,见表:

参数量 层数 词向量长度
117M(GPT-1) 12 768
345M 124 1024
762M 36 1280
1542M 48 1600

效果如下:
可以看出随着模型的增大,模型的效果是不断提升的。模型仍欠拟合,后续还会加大数据量,做大做强。

为什么GPT-2能够适应多任务?

在训练的时候,采用了多任务的方式,不单单只在一个任务上进行学习,而是多个,每一个任务都要保证其损失函数能收敛,不同任务是共享主题Transformer参数的,进一步提升模型的泛化能力,因此在即使没有fine-tuning的情况下,依旧有非常不错的表现。

在fine-tuning有监督任务阶段,GPT-2根据给定输入与任务来做出相应的输出,那么模型就可以表示成下面这个样子:
p ( o u t p u t ∣ i n p u t , t a s k ) p(output | input, task)p(outputinput,task)
例如可以直接输入:(“自然语言处理”, 中文翻译)来得到我们需要的结果(“Nature Language Processing”),因此提出的模型可以将机器翻译,自然语言推理,语义分析,关系提取等10类任务统一建模为一个分类任务,而不误再为每一个子任务单独设计一个模型。

当我们说GPT2是基于Transformer Decoder的时候,我们在说什么?
Transformer结构及其应用详解–GPT、BERT、MT-DNN、GPT-2

GPT-3:海量参数

Abstract

  • 提出问题:最近的许多研究都表明pre-train模型搭配下游任务fine-tune在许多情况下效果显著,但是微调过程需要大量的样本。这一框架不符合人类的习惯,人类只需要少量的示例或说明便能适应一个新的NLP下游任务。

  • 主要贡献:本文证明了通过增大参数量就能让语言模型显著提高下游任务在Few-shot(仅给定任务说明和少量示例)设置下的性能,即证明了大规模语言模型使用元学习策略的可能和fine-tuning策略的非必要性

  • 具体贡献:

  1. 训练了包含175billion参数(以往非稀疏语言模型的10倍大小)的GPT3自回归语言模型,并在多个数据集上测试没有fine-tune过程的性能表现。

  2. 虽然GPT3在文本翻译、问答系统、完型填空、新词使用和代数运算等任务表现不错,但在阅读理解和推理任务数据集上的表现仍有待提高。

  3. 由于GPT-3的训练依赖于大量的网页语料,所以模型在部分测试数据集上可能出现方法论级别的data containation问题。

  4. GPT3能够编写出人类难以区分的新闻文章,本文讨论了该能力的社会影响力。

Introduction

  • 提出问题:许多基于RNN或Transformer结构的语言模型通过“pre-train + fine-tune”过程在阅读理解、问答系统等任务中有不俗的性能。然而本文认为上述架构最大的问题在于必须拥有大量的下游任务fine-tune样本才能取得很好的性能。因此,本文基于下述原因认为移除fine-tune是必要的:

  1. 每一个新的任务都需要大量的标记数据不利于语言模型的应用的。

  2. 提升模型表征能力的同时降低数据分布的复杂度是不合理的。比如,大模型并不能在样本外推预测时具有好效果,这说明fine-tune导致模型的泛化性降低了。

  3. 人类在接触一个下游语言任务时不需要大量的样本,只需要一句对新任务的描述或者几个案例。人类这种无缝融合和切换多个任务的能力是我们当前自然语言技术所欠缺的。

  • 模型移除fine-tune有2个解决方案:

  1. meta-learning(如图1.1):模型在训练阶段具备了一系列模式识别的能力和方法,并通过在预测过程中利用这些能力和方法以快速适应一个下游任务。最近的一些研究尝试通过称为in-context learning的方法来实现上述过程,然而效果距离期待的相差甚远。

  2. Large scale transformers:Transformer语言模型参数的每一次增大都会让文本理解能力和其他的NLP下游任务的性能得到提升。此外,有研究指出描述许多下游任务性能的log损失能让模型的性能和参数之间服从一个平滑趋势。考虑到in-context learning会将学习到的知识和方法存在模型的参数中,本文假设:模型的情境学习能力也会随着参数规模的增长而增长。

情境学习(in-context learning):在被给定的几个任务示例或一个任务说明的情况下,模型应该能通过简单预测以补全任务中其他的实例。即,情境学习要求预训练模型要对任务本身进行理解。情境学习三种分类的定义和示例如下:

  • few-shot learning

    • 定义:允许输入数条反例和一则任务说明

    • 示例:向模型输入“这个任务要求将中文翻译为英文。你好->hello,再见->goodbye,购买->purchase,销售->”,然后要求模型预测下一个输出应该是什么,正确答案应为“sell”。

  • one-shot learning

    • 定义:只允许输入一条范例和一则任务说明

    • 示例:向模型输入“这个任务要求将中文翻译为英文。你好->hello,销售->”,然后要求模型预测下一个输出应该是什么,正确答案应为“sell”。

  • zero-shot learning

    • 定义:不允许输入任何范例,只允许输入一则任务说明

    • 示例:向模型输入“这个任务要求将中文翻译为英文。销售->”,然后要求模型预测下一个输出应该是什么,正确答案应为“sell”。

  • 本文研究内容:本文训练了一个拥有175billion参数的自回归语言模型(GPT-3),并利用两组NLP数据集和一些全新的数据集评估了模型的情境学习能力和快速适应新任务能力。对于每一个任务,作者都测试了模型“few-shotlearning”,“one-shot learning”和“zero-shot learning”三种条件的性能。虽然GPT-3也支持fine-tune过程,但本文并未测试。

具体GPT-3论文内容看参考文献1,写得非常好,不想再复制粘贴了,直接去原链接[1]看。

GPT-1,GPT-2和GPT-3发展历程及核心思想,GTP-4展望
前言 Generative Pre-trained Transformer(GPT)系列是由OpenAI提出的非常强大的预训练语言模型,这一系列的模型可以在非常复杂的NLP任务中取得非常惊艳的效果,例如文章生成,代码生成,机器翻译,Q&A等,而完成这些任务并不需要有监督学习进行模型微调。而对于一个新的任务,GPT仅仅需要非常少的数据便可以理解这个任务的需求并达到接近或者超过state-of-the-art的方法。 当然,如此强大的功能并不是一个简单的模型能搞定的,GPT模型的训练需要超大的训练语
GPT系列解读–GPT1

GPT-1采用了Transformer架构,并使用了大规模的无监督预训练方法,能够生成连贯的自然语言文本。具体来说,GPT-1使用了一个基于Transformer解码器的自回归语言模型(auto-regressive language model),通过最大化文本序列的概率,预测下一个单词。其中,GPT-1在单个英文句子的语言模型任务上表现最好,达到了0.99的困惑度(perplexity),超过了之前的SOTA模型。GPT-1的成功为基于预训练的自然语言处理模型的发展提供了新的思路和方法。

GPT-1和GPT-2的发展_gpt1_hyzhyzhyz12345的博客
1、预训练(无监督样本) gpt1.0的语言模型是auto regressive language model,由序列的上文推断下文。gpt1.0处理非监督序列文本(?1,?2,…,??),采用最大似然估计方法来训练,其损失函数为L1(X),不断通过SGD策略调整神经网络的…
GPT系列:GPT1 -> 2 -> 3 -> InstructGPT ->ChatGPT_gpt 系列_zhurui…
在没有见过数据的zero-shot任务中,GPT-1的模型要比基于LSTM的模型稳定,且随着训练次数的增加,GPT-1的性能也逐渐提升,表明GPT-1有非常强的泛化能力,能够用到和有监督任务无关的其它NLP任务中。GPT-1证明了transformer对学习词向量的…
通俗易懂的GPT原理简介
综上所述,GPT是自然语言处理领域中最强大的模型之一,它的出色表现已经使得它在各种应用场景中得到了广泛的应用。
GPT1GPT2GPT3、InstructGPT
GPT1GPT2GPT3、InstructGPT
GPT-1面试题_onlyfansnft.art的博客
GPT-1 是一种用于自然语言处理的机器学习模型,它是基于 Transformer 架构的。它是 OpenAI 在 2018 年发布的第一个 GPT 模型,有 1.17 亿个参数,比之前的语言模型有了显著的提升。GPT-1 的一个优点是它能够根据给定的提示或…
李宏毅自然语言处理——GPT3简介
热门推荐
超级火的GPT3还不知道吗?
从GPT到chatGPT(一):GPT1
GPT1,出自于OpenAI的论文,是最早的将transformer以多层堆叠的方式构成语言模型的模型,其出现时间早于BERT,但二者有一个最大的区别在于BERT只用的是transformer的encoder层,而GPT1只用了transformer的decoder层。除此以外二者在目标函数等地方也有各自的方法,感兴趣的可以自行阅读对比,这里不再展开。我们通过单一任务不可知(task-agnostic)模型实现了一个强大的自然语言理解框架,主要包括生成性预训练和区分性微调两部分。
GPT/GP2/GPT3
GPT,GPT-2,GPT-3 论文精读【论文精读】_哔哩哔哩
笔记:李沐老师GPT系列讲解 – 知乎今天分享的是李沐大神讲解GPT系列论文的读书笔记。GPT可以简单理解为是transformer的解码器。 GPT,GPT-2,GPT-3 论文精读【论文精读】_哔哩哔哩_bi
最新最全GPT-3模型网络结构详细解析
最近,GPT3很火,现在有很多讲GPT-3的文章,比如讲解它可以做什么, 思考它的带来的影响, 可视化其工作方式。看了这些文章并不足以详细了解GPT-3模型,仍然需要认真研究相关论文和博客。 因此,本文主要目标:帮助其他人对GPT-3体系结构有一个尽可能详细的了解。 原始模型 首先,原始的Transformer和GPT模型的网络结构如下图所示: 上图详细描述了GPT-3网络结构基础,要深入学习其网络结构,仍需进一步深入研究。 输入与输出 在了解其他内容之前,我们需要知道:GP..
总结GPT1GPT2
NLP】预训练模型——GPT1
废话不多说,先把三篇论文链接放出来:GPT1:Improving Language Understanding by Generative Pre-Training、GPT2:Language Models are Unsupervised Multitask Learners、GPT3:Language Models are Few-Shot Learners。李沐老师也在B站上放了介绍GPT模型的视频:GPT,GPT-2,GPT-3 论文精读【论文精读】.首先我们理一下Transformer出现后一些语
gpt2-chinese-cluecorpussmall
包括模型,配置文件等预训练相关的文件
这就是GPT 的画车水平
ChatGPT 大家都比较熟悉了,这次笔者让它的同门师兄弟 Dall-E 来为大家画车。 ChatGPT 和 Dall-E 同属 OpenAI,且都来自于 GPT 架构,OpenAI 旗下还有个重磅产品叫 CLIP,有兴趣的小伙伴可以去了解了解,因为涉及到很专业的内容,就不过多赘述了。 除此之外,
keras-gpt-2:加载GPT-2检查点并生成文本
凯拉斯GPT-2 [| ] 加载预训练的权重并使用预测。
保存之前阶段训练的参数,在上述结构的基础上,去掉softmax层,然后加上一层全连接层与特定任务的softmax,然后用有标签的数据集训练,在这期间,半监督学习的参数可以选择处于冻结状态,然后只更新新的全连接层参数。GPT-1主要针对的是生成型NLP任务,如文本生成、机器翻译、对话系统等。GPT-2在初代的模型架构上变得更大了,参数量达到了1.5B,数据集改为百万级别的WebText,Bert当时最大的参数数量为0.34B,但是作者发现模型架构与数据集都扩大的情况下,与同时期的Bert的优势并不大。

ChatGPT 能够自动生成类似于人类写作的文本,这一点非常引人注目,也令人意外。但它是如何实现的?为什么它能够如此出色地生成我们认为有意义的文本?我的目的是在这里概述ChatGPT内部的运行情况,并探讨它能够如此出色地产生有意义文本的原因。首先需要解释的是,ChatGPT的基本目标是尝试产生一个“合理的延续”,无论它当前所拥有的文本是什么。这里的“合理”是指“在浏览了数十亿网页等人类书写的内容后,人们可能会写什么”。

gpt2-chinese

最新发布

gpt2的预训练小模型

GPT-2 的原理

GPT-2(Generative Pre-trained Transformer 2)是一种自然语言生成模型,由 OpenAI 开发。它的基本原理是使用自注意力机制,通过预先训练一个自然语

AI倫理與神學反思…

我們來看幾段視頻,進一步了解,腦機對接是不是馬斯克的偉大發明?

第一個視頻,看到馬斯克的現場示範,得知他的團隊研發出一種腦際對接的晶片,大約銅板大小,用母豬來做實驗。在腦門上開一個洞,和晶片接口的大小一致,在晶片的另一端有電極植入腦部,可以收集即時的腦波信號。

每次母豬葛楚德(Gertrude)的鼻子接觸到東西,這接口就會送出可見的信號。其實馬斯克的團隊去年就已經發佈過類似的腦機接口,不過是放在耳後,連接電極植入腦中。今年的更新版則是以無線傳送信號。

第二個視頻是密西根大學的醫學研究團隊發表的,他們已經取得和放大控制手掌的信號,用以控制人工製造的機器義肢。

密西根大學於2006年開始研究,希望為截肢的病人提供更好的人工手掌,可以靈活如真手。雖然機器手掌可以做到非常靈活,但如何從斷肢中截取控制手指的信號?這方面這些年有很大的進步(20多年前在我的實驗室中,萊斯大學的博士生也做過類似研究,可是那時取信號技術還不夠成熟)。

這團隊在截肢的神經末梢上移植一片肌肉組織,既能避免長出神經瘤的疼痛,又可以大幅度地放大信號,因而目前能做到信號與噪音比 (S/N) 達到10-60, 且每一隻手指的多個自由度的信號都能辨別出來,用以控制整個機器手,已非常成功。截肢的志願者只要“想”控制任何手指,機器手就會跟著做動作。

我相信一般人對在腦殼上開一個洞會覺得很恐怖,而從腦內取信號則更恐怖,因此會有馬斯克是敵基督一說!認定腦機對接必定是噩夢與禍害!其實從腦部取集信號,其來已久,並不一定需要打洞開腦殼。作腦波研究的醫學界用這種帶電極的頭罩來探測腦波,此外用核磁共振掃描研究腦部信號也相當有成果。

以下是我們所知醫學界已經成就的一些事實:

  1. 腦波信號與電腦界面的研究已有60年以上歷史,非馬斯克發明。

  2. 取得腦波信號不一定需要頭顱開洞。

  3. 得到信號,不等於了解信號,就像數據不等於資訊。

  4. 要能了解數據,並且能應用才算達到AI的層面。

  5. 腦波信號的應用可以是雙方向進出的。

所以”噩夢“與否的關鍵,是不是只要腦殼不開洞,腦波與機器連接就比較能夠接受呢?相信許多朋友和信徒會有這樣的疑問。

第三個視頻 是幫助帕金森病人控制穩定動作的研究,稱為Deep brain stimulation (DBS),用深入腦部手術,植入電極,並釋放出電波來控制帕金森症手腳的顫抖。從1997年開始研究,2002年開始人體試驗,到2016年FDA批准,使原本手顫抖無法控制的病人,可以改善到甚至能簽名。

類似的研究,也能應用到癲癇症的病人,但腦部的部位和使用的信號不同。目前已經可以做到在癲癇發作之前測試到異常的腦波信號,進而用電極放出適當信號反制異常信號,甚至能預防和保護病人因癲癇發作引起的意外。史丹福大學從2004年開始研發,2014年得到了FDA的批准,稱為 (RNS),腦波步伐調節器(NeuroPace®)。類似的心率調節器(Pace Maker)和 心臟電擊除顫器(defibrillator)等,在醫學領域使用在病人身上已經許多年,救治了許多人的性命。

由此可見“人工”(artificial)製造不一定不好,或者一定是噩夢或災害,若是以“人工精製”與“量產製造”比較,當然是“人工”作的好。因而這人工的“人”就是關鍵了。AI 是人訓練出來的,什麼樣的資訊與數據輸入進電腦,所訓練出來的AI就會被它的設計者左右。若這設計者“人”不好,在辨別和應用信號的處理上具有邪惡的意念,那設計出來的“人工智能”當然就不好,會成為噩夢與禍害!

虛擬(Virtual)與德行(Virtue)

讓我們回到這一堂的總題 “From Virtual to Virtue”來看, “Virtual” 的意思是虛擬,而“Virtue”是指德行。

這兩個字在聖經裡有沒有根據呢?第一“Virtual”這個字在聖經裡還真的找不到。最接近的只有在《耶18: 20》豈可以惡報善呢?他們竟(幾乎)挖坑要害我的性命。求你記念我怎樣站在你面前為他們代求,要使你的忿怒向他們轉消。”這裡的“幾乎”在英文的翻譯是 “Virtually”,也就是“幾乎”,“簡直”,但“不全是”的意思。所以  (VR) 就是指虛擬實境,看起來好像是實境,可又不是真正的實境。

至於 “Virtue” 的意思是“德行”,在聖經裡有相當多地方講到。《彼後1: 4》“因此,祂已將又寶貴、又極大的應許賜給我們,叫我們既脫離世上從情慾來的敗壞,就得與神的性情有分。”《彼後1: 5》“正因這緣故,你們要分外地殷勤。有了信心,又要加上德行;有了德行,又要加上知識;……”原來“Virtue” 是神的性情之一!

所以我們若要從“Virtual”到“Virtue”(從“虛擬”到“德行”),一定要回歸到神的性情的本源!回到神創造人的“德行”,那麼人所創造出來的機器人才能夠有道德!

機器人的道德律

講到機器人的道德律,最早提出來的是Issac Asimov,他是一位非常著名的科幻小說家,本身也是一位科學家,生化博士,大學教授。他在1942年的小說《我,機器人》 (I, Robot)中提出了三條機器人的道德律:

1.機器人絕不可傷害人,或讓人被傷害。

2.機器人必須服從人類給的命令,除非違反第一條。

3.機器人必須保護自己,但這保護的行動不可違反第一和第二律。

但從今天看來,現代發展出來的各式各樣的軍用機器人其目的就是要傷害人的!

因此,2010年在英國的工程師與人工智能學會開會商討,提出下列這幾條設計機器人的倫理原則(當然其前提是設計者必須認同這些道德觀):

1.機器人的設計,若不是為了國家安全,絕不可唯一的目的是殺人或傷人。

2.人類必須為機器人的行動負責,因機器人是人類設計的工具,為達成人類制定的目的。

3.機器人的設計必須保證它的安全和維繫安全。

4.機器人是人造的器具,不應該設計來利用使用者心理的弱點而操縱人,讓人心裡依賴。機器人與真人必須能夠分辨。

5.誰是有法律責任的特定機器人設計者,必須能追查得到。

神造人的本意與目的

由此看來,不是機器人本身需有倫理,而是設計機器人的設計者,必須要有倫理道德。因此,我們必須回歸本源,設計機器人的“人”必須要有“德行”,要有神的性情!所以我們必須回頭去看神造人的形像,回歸到伊甸園裡神造人的本意與目的。

創1: 26-27》 神說:‘我們要照著我們的形像,按著我們的樣式造人,使他們管理海裡的魚、空中的鳥、地上的牲畜和全地,並地上所爬的一切昆蟲。’ 神就照著自己的形像造人,乃是照著祂的形像造男造女。”

照著神的形像造人其“形像”是指神的性情,而不是外在的形像,因為“從来没有人看見神,只有在父懐裡的獨生子將祂表明出来《約1: 18》。就如《彼得後書》裡提到的“信實、德行、知識、愛心……”等,這些都是神的性情,又稱為神的屬性。人是按著這些形像所造,因此人就成了“有靈的活人”。

所以人被造,有他的目的。《創1: 28》 神就賜福給他們,又對他們說:‘要生養眾多,遍滿地面,治理這地;也要管理海裡的魚、空中的鳥,和地上各樣行動的活物。’” 《創2: 7》耶和華神用地上的塵土造人,將生氣吹在他鼻孔裡,他就成了有靈的活人,名叫亞當。”因此人要成為神的代表,管理地球上的所有萬物。

在伊甸園中,人原本有神的形像,如慈愛、德行、知識、信心……等等屬性。但在伊甸園中,人受到魔鬼的誘惑而墮落犯罪,因而被趕出伊甸園。人犯罪的根源是什麼?有人以為,是魔鬼以蛇的形像誘惑人吃了那果子,那果子裡可能有罪的病毒,人吃了就被感染,因此世代流傳都有罪了。其實我們了解聖經必須讀上文下理。《創3: 4-5》蛇對女人說:‘你們不一定死,因為 神知道,你們吃的日子眼睛就明亮了,你們便如神能知道善惡。’”

魔鬼的誘惑

魔鬼的誘惑顯示在第一:“你們不一定死”,而不是“一定會”或“一定不”!換句話說,就是“幾乎”,“好像”,“差不多”,其實就是Virtual,看起來差不多,但不完全是。魔鬼誘惑人,常常不是講百分之百的假話,因為容易被辨別出來。魔鬼誘惑人,往往是講90%的真話,加10%的假話,讓人難以分辨。所以這就叫作“仿真”,“虛擬”,看起來像真的,可是又不是真的。

第二:“你們便如 神能知道善惡”。有人以為在伊甸園裡,亞當夏娃原來都是傻子,吃了善惡樹的果子後才變為聰明。其實神造他們之初就滿有智慧,能為萬物命名。夏娃更是知道神的吩咐,那棵樹的果子不能吃,違反了就是惡,所以她本來就知道善惡;只是還沒有經歷和實際的去嘗試“惡”。

魔鬼的誘惑是:“你們便如神”,這才是“罪”的根源。所有的“罪行”都是因為人的“罪性”,而這罪性就是人想要自己當神。小罪人是自己要當自己的神,就像大多中國人中的高級知識分子不是常很自豪地說“我什麼都不信,我就信我自己”嗎?大罪人,是還要當別人的神。所以會有種族大屠殺,希特勒在二戰中屠殺了600萬的猶太人,因為他自以為神,要掌握別人的生命。

所以當人墮落失去了神的形像,被“自己要當神”的罪性充滿後,的確變得很惡毒。因不把“真神當神”,人就會不把“人當人”看待。如此設計出來的人工智能就非常可怕。

追究本源,如何要“人工智能”有倫理,必須設計“人工智能”的人有道德,有倫理,回歸到神的形像才有可能。

歸真(Authentic)與真實(True)

“人工”和“虛擬”的對比是什麼呢?就是“歸真”和“真實”。“歸真”的定義是:表裡如一,完全原創;“真實”的定義是不造假,不隱瞞,完全實在。人必須要回歸到“真實”,所設計出來的“人工智能”,與設計出來的機器人,才不會成為禍害和噩夢。

看到華人商業中的山寨品牌,令人會心微笑,也令人扼腕嘆息!

而在西方,用Deep Fakes AI的軟件可以捏造政治人物的假演說,假消息,甚至造成社會的動亂,影響選舉的局勢。

如何能從“人工”囘歸“真實”?必須回歸真理的源頭。《約8: 32》你們必曉得真理,真理必叫你們得以自由。”《約8: 34》耶穌回答說:我實實在在地告訴你們:所有犯罪的,就是罪的奴僕。……《約8: 36》所以天父的兒子若叫你們自由,你們就真自由了。”真神的兒子自己宣告,“耶穌說:我就是道路、真理、生命;若不藉著我,沒有人能到父那裡去。”《約14: 6

耶穌基督是真理的本身,在祂毫無虛假,唯有藉著祂,我們才能到天父那裡去,回歸到伊甸園中的樣式。

如何由“智能”(Intelligence)回歸誠信(Integrity)?

太22: 16》説到,“……就打發他們的門徒同希律黨的人去見耶穌,說:‘夫子,我們知道你是誠實人,並且誠誠實實傳神的道,甚麼人你都不徇情面,因為你不看人的外貌。’ ”那些假冒為善的宗教領袖們想要陷害耶穌,因為那時猶太人在羅馬帝國的統治下,他們要鼓動民族主義的熱忱,知道耶穌的誠信,對上帝的忠實,故意想要套取耶穌的話來鼓勵猶太人逃稅,好抓祂的把柄。

但“ 耶穌說:‘這樣,凱撒的物當歸給凱撒;神的物當歸給神。參《太22: 21》那些猶太宗教領袖好像很有智能,但卻很詭詐。耶穌以完全的“誠信”回應他們,該歸地上政府的一分都不能少――“凱撒的物當歸給凱撒”;同時對神的忠誠更要全心全力,對聖殿的奉獻更不可少――“神的物當歸給神”!這是耶穌基督教導人“誠信”的作人原則!

所以我們的結論是,AI(Artificial Intelligence) 必須回歸 AI(Authenticity and Integrity), 即人工智能必須回歸到“真實”與“誠信”。唯有設計者和使用者具有“真實”與“誠信”,有神造人原本的形像,AI才能造福人群,而不會成為噩夢、禍害!

人神互動-新民

最近名噪一時的人機較量,是谷歌的“阿爾法圍棋”(AlphaGo)三連勝國際圍棋冠軍、韓國九段棋手李世石。第四局對壘,李世石終於贏了。阿爾法屬於希臘文首字母,表示首當其衝的霸主地位,我們姑且把半音譯的“阿爾法圍棋”全部意譯為“無敵圍棋”,或“棋聖”。

有人為這次人工智慧的漂亮得勝叫好,也有人表達某種憂慮,擔心有一天人類成為機器的奴隸,甚至被機器所取代。筆者試從神學的視角來解讀人機較量與人神互動。

按照聖經啟示,人類是造物主卓越智慧的作品,而且是按照上帝的形像與樣式受造,具有來自造物主的部分稟賦,比如自由意志、智慧與創造力。人類科技進步,各種發明創造,正是造物主部分稟賦的表彰。但從人類與造物主貌合神離的交往歷史來看,我們不得不得出一個推論:人類這幅擁有自由意志的偉大作品,一開始就與造物主分庭抗禮,對造物主說不。

很明顯,造物主沒有把人打造成木偶,也沒有時時刻刻操縱人的一舉一動與所思所想,完全符合祂的心意。造物主藉著舊約聖經《雅歌書》,一而再、再而三地說:“不要驚動,不要叫醒我所親愛的,等他自己情願。”而新約聖經《路加福音》第15章的浪子回頭故事裡,那位暗喻天父的地上父親,也是耐心等待浪子主動回家。

造物主期待人與祂良性的互動中,可以心甘情願,主動回應祂的愛,作上帝名符其實的兒女。而心甘情願,懂得以愛回應,可以說是人工智慧的最高境界。

我們可以想像有一天,新一代“棋聖”機器人在自我學習中,不斷提高棋藝,不僅有本事得勝對手,而且充滿人類豐富的精神情感世界,有公義與惻隱之心,充滿仁愛、喜樂、和平、忍耐、恩慈、良善、信實、溫柔、節制。

比如,新一代機器人知道在什麼時候採取主動,施予對方不配得的恩典,甚至故意輸給與它切磋棋藝的初學棋手,讓對方品嘗得勝的喜樂。正如一個父親跟自己的小孩嬉鬧時,主動敗下陣來,輸給跌跌撞撞弱不禁風的孩童,帶來一起成長的極大喜樂。

我們也可以想像,未來寵物機器人,具有不吃不喝也不拉不撒的特點,但通情達理,超級可愛,是人類的新式鐵杆玩伴。筆者在制藥業工作逾四分之一世紀,深切期待量體裁衣又幾乎沒有明顯副作用的個人化藥物,以納米機器人形式出現。

那個未來的時代,每個新生兒的基因藍圖,出生前就已經被合宜管控下的基因精確修改技術,矯正引發各種遺傳疾病的基因變異。而如影隨形的新高科技手段,以智慧衣服或佩戴裝飾,及時體察人的健康指標,在必要的時候,勞駕納米機器人,遊走人體深處,包括那總累積長度高達16萬公里的血液循環系統,與各種組織器官,完成實地精確修復與重建的保健工程。

那時,藥業不再是如今私營企業逐鹿中原的戰國時代,已經被高度集中化的納米機器人藥物網購,甚至上門服務所取代,成為公民的基本保健權利。醫生的職業也將成為歷史。

人機和諧共處的人類科技前景非常令人激動人心。因為人類壽命大大增加,也許接近甚至超過人類初代人瑞瑪土撒拉的969年高夀,外太空移民計畫被擺在未來科技的議事日程上。

比這種近乎神話的人間天堂更令人神往的,就是上帝早就安排妥當的天堂移民。

移民天堂不靠姻親關係,也不靠投資,更無法靠偷渡達成。唯一的出路,就是人類藉著耶穌基督與上帝和好,成為上帝的兒女,成為耶穌基督的兄弟姐妹,在新天新地享受永生,與基督同為上帝的後嗣,共同承受萬有,共同管理萬有,永遠相愛相屬,永遠同心同行。

如何看待“人工智能…

近年来,人工智能(Artificial Intelligence,以下简称AI)取得了许多进步。比如数字助理Siri和Alexa,自动驾驶汽车的开发,人脸识别,共享乘车等等。人工智能是否可以让我们所有的梦想成真,抑或会破坏我们所知道的社会和世界?

人工智能应用实例选介Sophia索菲亚——首个成为沙特公民的机器人

索菲亚是由中国香港的汉森机器人技术公司(Hanson Robotics)开发的类人机器人,索菲亚看起来就像人类女性,拥有橡胶皮肤,能够表现出超过62种面部表情,索菲亚“大脑”中的计算机算法能够识别面部,并与人进行眼神接触。

2017年10月26日,沙特阿拉伯授予索菲亚公民身分。作为历史上首个获得公民身分的机器人,索菲亚当天在沙特说,它希望用人工智能“帮助人类过上更美好的生活”。

2019年3月12日,在一AI公司TCL春季发布会上,索菲亚惊喜亮相,并与TCL智能业务群负责人进行了深度交流。在发布会上,索菲亚对答如流,并对AI有着自己的思考,认为AI机器人可以与人类和平共处。沙特阿拉伯是一个保守的回教国家,待女性如次等公民, 索菲亚无疑为他们的AI创新项目,起了重大的宣传作用!

医学最新发展

AI在病人护理中的首批应用是成像(medical imaging),可以帮助改善癌症或心脏病的诊断。有许多类型的成像测试数字图像,如X射线,CT扫描,MRI和超声心动图,所有这些成像方法的基本共通点是大量的高质量数据。

要具有非常完整的数据集,才可让AI工作做得很好。此外,人眼通常对这些图像中可能存在的一些图案看不见。例如,乳房组织的细微变化,在识别早期癌症模式或早期心力衰竭模式方面,AI已经做了一些有趣的分析工作,即使是训练有素的医生也做不到。

医生的角色可能会从数据采集员和分析师,转变为病人的辅导,医疗数据可作为医生治病和促进人们健康的工具之一。

隐私的威胁与人工智能的未来

人工智能可用于识别,跟踪和监控多个使用电脑设备的用户,无论他们是在工作,在家还是在公共场所。

语音识别和面部识别是人工智能越来越擅长执行的两种识别方法,但这些方法有可能严重损害在公共领域的个人隐私。

某人的键盘打字模式,可以用来推断他的情绪状态;更令人担忧的是,一个人的政治观点、 民族认同,价值取向,甚至整体健康状况也可以通过活动日志,位置数据和类似指标等数据来确定。坊间出现的国际电脑黑客,通过在网上偷窃他人资讯,或传播假新闻,勒索谋利,甚至影响竞选过程,这些是对AI的误用。

AI还可以使用信息作为输入,在电脑库获得个人资讯,以便对人员进行排序、评分、评估和排名。而这通常是在未经任何同意的情况下完成的,并且人们通常无法影响或质疑这些评估任务的结果。某些专制社会用这些AI评分系统,作为操控人民的伎俩,比如利用这些信息限制人们在信贷、就业、住房或社会服务的机会,甚至限制公民权利。

人工智能等数字技术在我们生活的许多领域,作出了重大贡献。如遥控机器人作为精巧的工匠,广大民众数据的收集,分析器,武器和探险队等,一方面使人避开冒险,也大大增加了工作效率和认知计算系统的精确性,通过使用这些工具,我们能够收集和分析大量信息,使人类得以解决以前没有解决的社会弊病。

不幸的是,这些技术也可以被各种社会行动者利用,用来对付公众,使我们失去个人在公司和政府机构中的隐私,而这只是人工智能对我们造成损害的一个例子。其他AI的负面影响,包括性机器人妓院的发展,目前还没有任何法律上的监管,会导致卖淫和性交易的增加。

有些AI专业人士已发出“警告”:“人类必须与机器合并,否则在AI时代,人类会变得无关重要。”——Elon Musk, SpaceX,Tesla 创办人。

福音派的原则与声明

基督徒是社会的良心是世界的光与盐参太5: 13-16》。 2019年4月29日,一群福音派的领袖们发表了一份人工智能原则宣告,列出12条声明,帮助信徒和有识之士对AI技术的挑战作出正面的回应,兹简介如下:

神按着祂的形像造人,人工智能乃是神赐予我们的创造性的一部分。

神按着祂的形像造人,世界上每个人都具有内在的、平等的价值、尊严和道德力量,与所有的其他创造物不同。所以,类人机器人不过是人的创造物。不能与按着祂的形象被造的人同等,

首个沙特机器人公民索菲亚完全是该国的广告伎俩,而WATSON和DeepMind的认知计算系统也不可能代替人作任何道德决策的工具。

2. 技术的规范:人类应该以促进更加繁荣和减轻人类苦难的方式发展和利用技术。
当人按照神的道德意志使用人工智能时,就是人类顺从神的谕令来管理创造和尊重神的一个例子。我们否认AI的使用在道德上是中立的。只有主耶稣能够赎罪并使人类与造物主和解,人工智能技术无法满足人类的最终需要,当其被用来使人堕落,失去价值和尊严的时候(如性机器人妓院),AI便全无益处。

3. 人工智能不能取代人类道德决策的责任
我们肯定,使用人工智能,可为人类推理和道德决策提供信息和帮助,因为它是一种擅长处理数据的工具,它模仿甚至超越人类的能力。但是只有按着神的形象被造的人类,才有道德决策的责任。医生可以借着采集和分析AI数据,更有效地辅导医治病人,促进病人的健康。但是机器人和众多的数据,不能取代医生与病人的互动关系。

4. AI医学应用要为人医治疾病,促进健康,非创造超人。
我们确认医学技术中与人工智能等相关的进步,可以提供和增强医学诊断和治疗的干预能力。唯物主义和功利主义视人为机器,我们拒绝以这些观点来理解人工智能作为改善,改变或完善人类的手段的医学应用。

“人非工具,而是目标(MAN IS AN END, NOT A MEANS)”乃是医学伦理的普遍原则。 AI可以帮助人收集和分析资讯,医治疾病,保持健康,却不能创造资讯,更不可能创造科幻小说中的超人!

5. AI应辟除偏见,非制造偏见。
人工智能的设计和使用方式,应该使所有人享有同等的价值和尊严。人工智能应该被用作识别和消除人类决策中固有偏见的工具。人工智能不应该用于加强或推进任何意识形态或宣传的方式,或以评分系统作为操控人民的标准,试图在国家权力下剥夺人的自主权。

6. AI不可作性欲工具。
我们肯定人类性的行为,是神设计给终身婚约中男女之间的专属关系。我们谴责因性用途而使用人工智能导致的人类物质化。根据神对人类婚姻的设计,人工智能不应该干涉或替代丈夫和妻子之间神设计的性行为表达。政府应面对并正确回应如性机器人妓院的AI发展对社会的挑战。

7. AI应协助工作效率而非助长偷闲。
人工智能可用于帮助我们改进工作的方式和效率,也允许我们更充分有效地使用我们的时间和劳动力。我们否认人类的价值和尊严可以简化为个人对社会的经济贡献,AI的发展不应取代员工和助长偷闲。

已有基督徒学者就自由市场和个人责任,对如何在AI自动化时代的经济转型,作了正面的分析,认为普遍大众的就业机会不会被AI技术的发展所淘汰。

8. 运用数据不能侵犯隐私。
我们确认隐私和个人财产是个人权利和选择的组合,不应被政府,公司,民族,国家和其他团体所侵犯,即使是为了追求共同利益,人工智能不应该被应用来扭曲真相。我们确认数据不应被错误处理,误用或滥用于罪恶的目的,以加强偏见,强化强者或贬低弱者。社会不单要尊重人民个人隐私,也应积极地规范在网上误用他人资讯的罪行。

9. 正义的保安应用。
我们确认AI在警务,情报,监视,调查和其他用途方面具有合法的应用,支持政府尊重人权,保护和维护人类生命以及在繁荣社会中追求正义的责任。我们谴责使用人工智能来压制神赋予所有人的言论自由或其他基本人权。我们否定专制国家用AI评分系统作为操控人民的伎俩。

10. 正义战争原则
我们确认在战争中使用人工智能应该受到爱邻舍和正义战争原则的支配。人工智能的使用可以减轻人的生命损失,为非战斗人员提供更好的保护,并为更好的政策制定提供信息。所有与防御相关的AI应用程序,例如基础数据和决策制定流程,必须由合法机构不断审查,而且对系统采取的任何行动问责。

我们否认人类机构或战争中的道德责任可以委托给人工智能。任何国家或集团都无权使用AI进行种族灭绝,恐怖主义,酷刑或其他战争罪行。

11. 公共政策兼顾人权。
我们确认政府的根本目的,是保护人类免受伤害,惩恶扬善,维护公民自由,社会公众在制定有关在社会中使用人工智能的政策方面,应有机会发挥作用,这些决定不应只留给那些开发这些技术的人或政府制定规范的人。我们否认政府,公司或任何权势使用AI来侵犯神赋予的人权。

12. 人工智能的未来
我们确认人工智能将继续以我们目前无法想像或理解的方式发展,包括远远超过许多人类能力的人工智能。但只有神才有创造生命的力量,人工智能的未来进步不会篡夺神作为生命的创造者的地位。教会在宣扬人的尊严方面发挥着独特的作用,并呼吁社会的各个方面人道地使用人工智能。

我们否认人工智能可影响我们对人类价值的衡量,也否定人工智能将获得与人类同等水平的尊严或价值。人工智能的未来发展,最终不会满足我们对完美世界的渴望。虽然我们无法理解或了解未来,但我们并不害怕将来会发生什么,因为我们相信神的全知全能,我们创造的任何东西都无法阻挠神的创造和救赎计划,或取代人类作为神的形像的独一载体。
科幻小说中AI可成为人身体死后的思想载体,人可因此得到永生。这只不过是人对完美世界的渴望,是不可能会实现的。

小结
我们认识到人工智能将使我们能够实现前所未有的可能性,同时承认人工智能所带来的潜在风险;希望教会能够积极主动地参与人工智能领域,而不是在AI已经影响我们的社区之后,才回应这些问题。上述声明根据人性的本质,技术的承诺和对未来的希望提出呼吁,盼望使有识之士积极地面对AI的挑战。

從基督信仰看Cha…

ChatGPT可以就開放式的問題提供意見,編故事、寫詩詞、抓重點、問判決、草擬文案企劃、轉換表格或甚至寫程式debug等等,幾乎只要能透過文字表達的幾乎無所不能。在這之前,只有《鋼鐵人》電影中的機器人,可以幾乎聽懂任何問題來回應主角的提問;難道AI時代真的已經來臨了?

我們知道,上帝是萬物的創造者,人類是按照上帝的形像所創造的,有著不可取代的價值和尊嚴。但是,當AI的發展(特別是ChatGPT這類近乎通用型人工智慧)似乎越來越接近人類的智慧時,基督信仰該如何回應這些挑戰?善用、拒絕,還是任其發展?要展览內容请点:>>>>>

一、簡介:AI的基本圖像與常見誤解

二、ChatGPT:結合流利程度與回答結構的訓練方式

三、從創造論看ChatGPT:上帝形像的必然彰顯

四、從救贖論看ChatGPT:AI原罪需持續改善但受限於人類自身

五、從啟示論看ChatGPT:可承載上帝的道而帶來牧養挑戰

六、直面AI時代的到來與具體建議彙整

附錄:語言文字理解的五個層次

结言:

1. 語言的共通性使之承載上帝的道

ChatGPT最重要的特色,是因為它比以前所有的AI模型、更有效地掌握自然語言/文字在表達方式與其相關內容的平衡,因此比過往的模型更好地往通用型AI發展。

語言文字有個非常重要的特色,就是由有限的基本單位(如音節、文字或字母),只憑藉若干原則性的連接方式(即所謂的文法),就可以類似積木一般地疊加成各種豐富的形狀,幾乎可以表達人類思想範圍內的各種事物或感受,是最接近人類大腦思想的表徵(representation)方式。

許多動物有比人類更好的視覺功能或運動功能,但只有人類能真正地掌握語言。

2016年,AlphaGo戰勝人類獲得圍棋冠軍,雖然也是件歷史大事,畢竟僅限於圍棋這個特定範圍,無法直接轉譯成其他功能。而掌握了語言工具就掌握了價值取捨的方式,也自然創造跨領域的應用範圍。筆者認為這個語言的共通性,才是ChatGPT能產生如此重要影響的關鍵。

語言(),在新約聖經中也被翻譯為“道”(logos)。在希臘哲學中,這個字也是描述支配世界萬物的規律性或原理,而在基督教神學中更認為道的本體就是基督,萬物是上帝藉著道所造。參《約1: 1-3》。

由此,從啟示論看,我們就更容易理解為何ChatGPT這類利用模擬人類語言的AI,比起模擬視覺圖像或其他人類行為的AI模型,更令基督徒警醒:因為語言文字不只可以承載傳遞人類多樣的訊息或思想,也可以被用來承載上帝的智慧與啟示(聖經即是以人類語言寫出的)。我們應該從信仰角度對ChatGPT這類對話機器人,投以更多的神學關注。

2. ChatGPT可以在信仰脈絡下被更善加利用

但是讀者可能會有的質疑:前文不是已經說明,ChatGPT這類的AI對話機器人是以機率計算的方式,來模擬人類的語言,並不存在真實的意識或人性,也可能充滿錯誤或偏見嗎?那這樣無法排除隨機或錯誤的文字組合,如何可能承載上帝永恆不變的真道呢?對此問題,不妨讓我們先問問ChatGPT吧,我得到的回答如下:

上述看來謙遜中立的文字,的確展現了ChatGPT回答相關問題時的特色。

筆者曾經撰文表示,就一般性的語言文字理解的五個層次:

字詞(word)、

信息(information)、

意見(opinion)、

知識(knowledge)

與洞見(Insight)來說明(參見附錄),ChatGPT的文字生成結果只能算是屬於“意見”這個層次,有種邏輯架構讓人覺得彷彿值得參考,但是只有在某些特定的範圍中,可以與外在世界的事實產生對應,確認可靠而形成“知識”。但是這個與外在世界的事實如何對應,呼應的程度或標準是如何,其實與使用者個人的解讀有關。

因此,即便是AI機器人是藉由複雜的演算法模擬而產生的文字,只要在使用者本身也在適當的信心與脈絡之下理解,也可能被聖靈所使用來承載上帝的真道,成為我們的幫助。

上帝固然是透過聖靈感動先知與使徒,以人手所寫的文字記錄下聖經。但是,對聖經詮釋學有一定瞭解的人都知道,要理解一段聖經經文的意思,不可能不回到該段經文原始的處境,先以其相關的背景作理解,再從中提取精義而適當地應用於現代環境,也同時可以從現代的環境對經文的意思作不同層次的延伸與解讀。

這本是一個經文詮釋的循環,讓基督徒於古代經文和當代現實之間保持彈性距離,創造信仰的傳承與發展。甚至連我們目前所讀的中文聖經,也都是因此而翻譯過來的,不適合在去除相關的文化脈絡下,來作靈意或私意解經。

目前,我們所討論的AI對話機器人,就是將這些有紀錄的相關文字輸入資料庫中作為訓練材料,讓機器學習字詞間常見的關係,來回應使用者的提問。因此它所作的回應,以經文解釋為例,基本上也就是許多解經學者整體的統計結果。雖然只屬於“意見”層次,但往往也可能有相當的機會帶有正確的知識,因而被上帝使用來成為信徒造就的工具之一。

類似的情形也可以應用在禱文:許多內容可能都是以前在信仰書籍中出現過的,只是重新組合而已,很難說因此就不能被上帝使用,引導使用者更接近祂。

筆者曾詢問ChatGPT一個常見的聖經問題,並再請它產生一篇祈禱文來作例子,請讀者自行判斷,也鼓勵更多的嘗試。

3. 使用ChatGPT會挑戰牧養的權柄與信徒的習慣

但是,當AI機器人用於信仰或牧養領域,它的無所不答也可能在明明沒有資料的空白處,“抓”其他關聯性較次要的文字來填補,造成“一本正經地胡言亂語”。這對於不容易直接檢驗的信仰議題,就容易給初信者或基本知識瞭解過少的人,帶來了誤導。

用前面提到救贖論的角度解決這個問題,除了需要在聖經或神學研究上更有經驗的牧者、適時澄清外,似乎只得靠基督教會用自己篩選過的資料來訓練給信徒的AI對話機器人。

但即使資料來源都是正統神學背景,也不愁訓練AI的大量經費,仍可能引發一連串的問題:這樣的AI對話機器人是否可能比一般的牧者懂得更多更正確?所寫的禱告文或靈修筆記,更能造就信徒?信徒遇到的信仰問題是否就應該更多相信或接受AI的“權柄”,反而對牧師不一樣的回答帶有質疑? 

當然,真正的牧養並不只是文字上的問題解答或講道,還包括關懷、陪伴、勸勉、聆聽等目前AI無法作好的事情。但是基督教會畢竟是需要順服上帝的啟示與真理而行,並不是一個經營人際關係的俱樂部,所以筆者以為未來牧養的挑戰,並不只是與AI搭配互補,而是應該思考如何協助牧者善用這樣的AI技術,能將對會眾的牧養帶到更高的層次。

同時,如果一些困難的經文或章節大意,都能靠著ChatGPT這類AI機器人簡要的回答與瞭解,那基督徒自己是否需要思考反芻經文或信仰議題了呢?若抱著不求甚解而無求真追問的心態,是否反而將自己的信仰架空於AI模擬的文字之上而已?如何將信仰落地成為真實的生命,在未來更多AI虛擬設備的出現後,會是另一番挑戰。

职场与Chatgp…

Chatgpt官方app?

ChatGPT实际上是美国open AI工作室推出的一款聊天软件,最早发布是在2022年11月,open AI是美国一家叫做“开放式人工智能实验室”的机构,这家机构最大的出资方,就是比尔盖茨的微软公司,前前后后,比尔盖茨已经在这家机构的科学实验当中砸了一百多亿美元,这么多钱砸下去,推出的产品果然不同凡响。ChatGPT推出市场后,因为能快速地对各种复杂问题进行处理和反馈,在问世短短5天后,注册用户就突破了100万,两个月后,月活跃用户规模就突破了1个亿,成为人类历史上用户增长最快的消费软件,秒杀脸书和推特。

ChatGPT是由OpenAI开发的一种语言模型,它使用了大规模的神经网络和自然语言处理技术,能够根据用户的输入生成有逻辑、有连贯性的自然语言文本,并能够回答用户的问题和进行对话。ChatGPT的全称为”Generative Pre-trained Transformer”,它采用了Transformer模型的架构,使用了大量的文本数据进行预训练,使其具备了很强的语言理解和生成能力。目前,ChatGPT已经发布了多个版本,其中最新版本为GPT-3,它使用了1750亿个参数进行训练,是目前最大的语言模型之一。

由于ChatGPT具有出色的语言理解和生成能力,因此它在许多领域都有广泛的应用,比如自然语言处理、智能客服、智能对话等等。同时,也有许多开发者使用ChatGPT开发出了各种有趣的应用程序,比如生成有趣的对话、创作诗歌和小说等等,因此,ChatGPT也成为了人工智能领域的热门话题之一。

德国Vlog

ChatGPT是一种预训练的自然语言生成模型,由OpenAI开发。它是基于Transformer架构的语言模型,可以生成各种形式的人类语言文本,如回答问题、生成文本、生成对话等。与其他生成模型不同,ChatGPT预先训练了大量的文本数据,并在此基础上开发了一种新的生成方法,可以以非常高的质量生成语言文本。它使用了非常复杂的神经网络架构,并采用了大量的预训练数据来进行训练,以保证生成的语言文本拥有人类语言的样式、语法和语义。通过使用ChatGPT,开发人员可以创建出非常智能和真实的语言生成系统,用于许多应用场景,如虚拟助手、对话系统、语音助手等。ChatGPT的出色的语言生成能力和高效的计算性能,使其成为自然语言处理领域中非常受欢迎的模型。

Vic生活技巧

ChatGPT是一个基于GPT-3.5架构训练的大型语言模型,由OpenAI开发。它使用深度学习技术来自动产生自然语言响应,以回答用户提出的问题或进行对话。ChatGPT可以用于各种任务,如自然语言处理、文本生成、对话系统等。它可以学习和理解自然语言的语法、语义、上下文等特征,并根据输入的上下文和历史记录生成适当的响应。

一往无前微风fU

Mj拼车吗,建了Mi+gpt的交流群,可以进群沟通大家一起来拼车

TOP域名

ChatGPT是利用人工智能(AI)被训练成可以理解和生成人类语言的进行文字创作的语言模型。可以用来创作故事、撰写新闻、回答问题、聊天、写代码和查找代码问题等内容。人们能够通过简短的语言指令实现对指令内容文字内容充实,形成措辞流畅、快速书写的文本成果。其实大众不用了解他的复杂原理,但是你只要知道他可以回答你提出的任何问题就好了。未来那些繁重的、重复的、没有创造性、艺术性的工作将会被人工智能逐步代替,比如建筑工人、司机、快递员、保姆、银行业务员、电话客服、仓库管理员、收银员、清洁工、销售等工作。

人工智能来袭,不少人惊呼未来有不少职业将会被人工智能和机器人所替代。确实,机器和人工智能会替代人的一些简单劳动、重复性劳动和规则性活动,但是,它们也会创造出更多更新的、前所未有的新的职业。人工智能概念的火热促进了不少行业的兴起,比如域名,许多相关的top域名已经被注册。

人工智能作为科技创新产物,在促进人类社会进步、经济建设和提升人们生活水平等方面起到越来越重要的作用。国内人工智能经过多年的发展,已经在安防、金融、客服、零售、医疗健康、广告营销、教育、城市交通、制造、农业等领域实现商用及规模效应。

ChatGPT为何引教育界“封杀”?
酉甘居士
不封杀,能行吗?首先,论文存在的意义在于思索探究教育中存在的“问题”,进而提出可行的解决办法。而ChatGPT显然并不具备这样的能力,它缺少像人脑那样的思维机制与过程。其次,教育的功用不能简单的用人工智能来替代,毕竟人的成长一旦被“量化”甚至“机械化表达”之后就失去了鲜活的生命意义。

最后,简单粗暴的ChatGPT如果大行其道的话,将会培养出许许多多溜奸耍滑、不思进取、坐享其成之辈,难道这就是教育的初衷吗?

综上所述,ChatGPT被教育界“封杀”是个明智决定!

外语那点事

人类都是好逸恶劳的,ChatGPT作为一个语言模型,兼具撰写文章和编程能力,聪明的大学生们很自然而然地,就会想到可以利用它来生成论文。大学生写论文最头疼的是什么?查重呀,1000多万大学生同时写论文,不能和过往几十年上亿大学生写的论文雷同。但是,人类的语言表达能力是有限的,不同的人去描述相同的事物,即便没有抄袭,仍然有可能在查重率的表现上呈现出不合格。所以,大学生们早就开始使用各种各样的工具来控制查重率,论文里面包含“科技与狠活”早就不是什么新闻了。但是,工具归工具,总是有各种各样的硬伤,用机器生成的语言,痕迹太明显。

ChatGPT的诞生,解决了大学生的痛点。它是AI,用它生成的论文,高度原创,而且可读性很强。由于这个语言模型可以自主地通过每秒几十万字的阅读来扩充自己的语言表达能力,用它生成的文本甚至可以和人类文学家的水平比肩。你让他用鲁迅的口吻写一篇文章,你就可以读出鲁迅的味道,以假乱真。因此,大学生们争相利用这个工具撰写论文。

国外的论文机构也开了一个很坏的头,比如顶级期刊Nature在过去的一两年,就允许在论文中,添加ChatGPT作为共同作者。这让这款AI语言模型名声大振,给ChatGPT的大火添了一把柴。

但是,教育界没有办法区分ChatGPT生成的文本和普通人写出来的文本有什么区别,使用这个工具就变成了变相的抄袭。而且,这种抄袭更加的隐蔽,文章都是原创,只不过是机器原创,能够轻松的逃避查重。所以,各大高校都对ChatGPT表示反对,论文机构则被迫禁止ChatGPT的署名。

ChatGPT也很识趣,目前已经主动拒绝论文撰写任务了。但是,聪明的大学生仍然可以利用分段撰写的方式,诱导ChatGPT完成一篇论文。高校和人工智能的诚信战争,才刚刚开始。

学生会用ChatGPT来写论文,失去了自己的思考,ChatGPT的内容,基本上来自网络,这就容易导致抄袭、作弊的问题。ChatGPT是利用人工智能(AI)被训练成可以理解和生成人类语言的进行文字创作的语言模型。可以用来创作故事、撰写新闻、回答问题、聊天、写代码和查找代码问题等内容。人们能够通过简短的语言指令实现对指令内容文字内容充实,形成措辞流畅、快速书写的文本成果。其实大众不用了解他的复杂原理,但是你只要知道他可以回答你提出的任何问题就好了。未来那些繁重的、重复的、没有创造性、艺术性的工作将会被人工智能逐步代替,比如建筑工人、司机、快递员、保姆、银行业务员、电话客服、仓库管理员、收银员、清洁工、销售等工作。

人工智能来袭,不少人惊呼未来有不少职业将会被人工智能和机器人所替代。确实,机器和人工智能会替代人的一些简单劳动、重复性劳动和规则性活动,但是,它们也会创造出更多更新的、前所未有的新的职业。人工智能概念的火热促进了不少行业的兴起,比如域名,许多相关的top域名已经被注册。人工智能作为科技创新产物,在促进人类社会进步、经济建设和提升人们生活水平等方面起到越来越重要的作用。国内人工智能经过多年的发展,已经在安防、金融、客服、零售、医疗健康、广告营销、教育、城市交通、制造、农业等领域实现商用及规模效应。

ChatGPT来袭,写作投稿还能赚钱吗?

韵味横生

近年来,随着网络科技的飞速发展和社交媒体的兴起,人们已经逐渐从传统的线下阅读方式转变到了线上阅读。在这个过程中,新潮的出现给了写作者们更多展示自己所写作品的机会,同时也给了广大读者更加便利的获取知识的方式。最近,一款名为 ChatGPT 的平台上线了,提供了一种全新的写作投稿赚钱的方式,对于写作者来说是一个新的机会。那么,ChatGPT 到底是什么?使用 ChatGPT 进行投稿会如何赚钱?对于新潮的发展前景会有怎样的影响呢?下文将为你一一讲解。首先,ChatGPT 是一款基于AI技术开发的写作平台,他可以模仿人类的写作能力,在自动生成的文章中不仅能保持文意连贯,语法准确,还能达到自然流畅的效果。因此,作为一个写作者,使用这款平台进行投稿有一定的优势,没有拘束于时间和地点的限制,还能够避免因为语文能力的限制而无法正常提交文章的困扰。

那么,在 ChatGPT 的平台上进行投稿会如何赚钱呢?首先,ChatGPT 会根据您的投稿情况给予一定的稿酬,随着投稿的增多,您的收入也会逐渐提升。其次,平台中还设有各种各样的奖励机制,例如点赞、分享、收藏等,这些行为都会增加您文章的曝光度和人气,从而间接的为您带来更多的收益。

那么,对于新潮这样的传统媒体来说,ChatGPT 的出现会有怎样的影响呢?从现在的情况来看,新潮作为一个拥有数十年历史的杂志,一直致力于传承和发扬中国文化,而 ChatGPT 则是一个年轻且充满生机的纯网络媒体。两者之间的差异在于适应不同的读者需求和市场趋势。虽然新潮在印刷媒体领域有一定的影响力,但是随着科技的日新月异,越来越多的读者已经转向使用手机或者电脑进行阅读,而 ChatGPT 提供的便利而又实用的方式让人们不再需要购买书刊杂志而拥有阅读丰富内容。

总的来说,ChatGPT 作为一款基于AI技术的写作平台,为写作者们提供了更加灵活、便捷、高效的写作环境和写作方式,同时为广大读者提供了更加方便、快捷的获取知识和文化的方式。虽然对于传统媒体来说,会有一定的冲击和挑战,但是在未来不断发展的科技浪潮中,不断适应读者需求的媒体才能够在激烈的竞争中生存和发展。

那个夏天

这个有影响吗,你要先了解GPT没有网上那些人说的那么神,他们如此夸大GPT,只是吸引韭菜上钩而已,有的是骗钱,有的是曾流量,收割流量。其实写文章用GPT查点资料也许可以,但是出自它的资料有很大一部分是错误的,就连人名和关系都能出错。

程序员也绘画

随着人工智能技术的飞速发展,它已经在许多领域展示了其强大的能力。在写作投稿方面,人工智能技术也正在不断推动这一领域的发展。下面我将从以下几个方面来分析人工智能对写作投稿的影响。

编辑与校对

在传统的写作投稿中,编辑和校对是非常重要的环节。但是,人工智能技术的出现,为编辑和校对带来了一种全新的可能性。现在,许多自然语言处理技术都可以被用于自动编辑和校对文章,这使得文章的撰写和修改变得更加高效和准确。

内容生成

人工智能还可以用于自动化生成文章内容。通过深度学习技术,人工智能可以分析大量的文章,并模拟出它们的结构和写作风格。这些技术使得生成高质量文章变得更加容易,这对于那些需要快速生产大量文章的写作投稿者来说是非常有益的。

分析和推荐

人工智能技术可以分析文章的受众和受众的兴趣,为写作投稿者提供更好的写作建议和内容推荐。这使得文章能够更好地吸引读者,提高投稿的质量和效率。

竞争和挑战

尽管人工智能技术在写作投稿方面带来了诸多好处,但它也可能会对传统的写作投稿产生竞争和挑战。随着越来越多的人工智能技术被用于写作投稿,写作投稿者需要更加努力地提高自己的写作水平和技能,才能保持竞争力。

综上所述,人工智能技术对写作投稿产生了重大的影响。虽然它在许多方面为写作投稿者带来了便利和好处,但它也带来了一定的挑战和竞争。写作投稿者需要不断学习和掌握新技术,以确保其在这个竞争激烈的市场中保持竞争力。

随着人工智能技术的不断发展,写作投稿领域也受到了影响。虽然现在有些AI技术已经非常优秀,但是仍然有许多方面需要人类写作者来完成。

1.创意和独特性:人工智能的算法可以生成大量的文本,但是它们缺乏创意和独特性。这也是为什么很多公司还是更愿意雇佣人类写作者来创建他们的内容。

2.读者需求:与机器相比,人类写作者更容易理解读者需求,并且可以更好地满足他们的期望。这是因为人类作者可以将自己的生活经验、情感和思想融入到文章中,以创造更具吸引力和深度的内容。

3.编辑和校对:尽管AI技术在拼写检查和语法纠错方面已经有所进步,但是它们仍然无法像人类编辑一样进行复杂的编辑和校对工作。人类写作者不仅能够识别和修复拼写和语法错误,还可以改善流畅度和逻辑性,使得文章更加易读且清晰。

4.行业专业知识:某些行业或主题需要丰富的专业知识,而这些知识通常需要人类作者才能掌握。例如,医疗保健、法律和金融等领域的文章需要深入了解相关行业的法规和术语,并将其应用到内容中。

综上所述,尽管人工智能技术在某些方面已经取得了进步,但人类写作者仍然有其不可替代性。因此,写作投稿依然可以赚钱,只是需要更加注重创新和个性化的内容。虽然AI可以帮助缩短写作时间和提高生产效率,但它无法代替人类创意和思维。

“ChatGPT”是什么?投资圈为何爆炒?

因果不空

“ChatGPT”是人工智能,也就是具有自学习能力的程序,它具备了自己学习的能力,能从互联网海量的数据中学习知识,经过人工训练,能代替人脑从事很多工作,比如写程序、找bug、写论文、写小说、写诗歌等。“ChatGPT”的出现可以与蒸汽机的意义相比,三百年前人类发明了蒸汽机,这是个巨大的转折,人类从人力畜力时代过渡到机械力时代,这是划时代的发明,如今的“ChatGPT”智能也是划时代的发明,人类将从脑力劳动过渡到机器思考,很多需要人类思考的繁杂的问题完全可以让人工智能代替。

蒸汽机将人类从辛苦的体力劳动中解放出来,“ChatGPT”人工智能将人类从辛苦的思考中解放出来,这两次技术巨变彻底改变人类的生活方式,让人类有更多的时间从事自己想做的事情,不必为繁杂的事件整天忙碌,如果再减少或者消灭剥削阶层,人类将活在天堂里。股市往往有点题材就会爆炒,以前有过无数个题材,互联网、苹果手机、生物科学等等,这些题材和这次的“ChatGPT”完全不能比,“ChatGPT”是划时代的变革。

它其实就是一款聊天机器人。聊天机器人对于很多人来说并不陌生,但ChatGPT能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流。在ChatGPT推出之前,关于自然语言的研究都缺乏本质突破。甚至有些学者认为,认知和对语言的理解是人的特殊天赋,机器怎么学都是照猫画虎,缺乏真正的理解。

ChatGPT却技惊四座,出色地回答了人类提出的各种问题,其强大的理解自然语言的能力,使得特斯拉创始人马斯克不禁感慨:“ChatGPT好到吓人,我们离强大到危险的AI不远了。”

ChatGPT是利用人工智能(AI)被训练成可以理解和生成人类语言的进行文字创作的语言模型。可以用来创作故事、撰写新闻、回答问题、聊天、写代码和查找代码问题等内容。人们能够通过简短的语言指令实现对指令内容文字内容充实,形成措辞流畅、快速书写的文本成果。其实大众不用了解他的复杂原理,但是你只要知道他可以回答你提出的任何问题就好了。未来那些繁重的、重复的、没有创造性、艺术性的工作将会被人工智能逐步代替,比如建筑工人、司机、快递员、保姆、银行业务员、电话客服、仓库管理员、收银员、清洁工、销售等工作。

人工智能来袭,不少人惊呼未来有不少职业将会被人工智能和机器人所替代。确实,机器和人工智能会替代人的一些简单劳动、重复性劳动和规则性活动,但是,它们也会创造出更多更新的、前所未有的新的职业。人工智能概念的火热促进了不少行业的兴起,比如域名,许多相关的top域名已经被注册。

人工智能作为科技创新产物,在促进人类社会进步、经济建设和提升人们生活水平等方面起到越来越重要的作用。国内人工智能经过多年的发展,已经在安防、金融、客服、零售、医疗健康、广告营销、教育、城市交通、制造、农业等领域实现商用及规模效应。

ChatGPT是一种继承GoogleMagenta开发的Web应用,旨在使用对话机器人来对话并理解用户的意图和动作。ChatGPT是一种自然语言处理(NLP)技术,该技术可以实现沟通与交流,用于人工智能机器人、信息检索、咨询服务等。资本市场对于ChatGPT的热情投入,很大程度上可能是由于它在自然语言处理领域的发展潜力和技术深度而吸引了投资者。此外,ChatGPT对用户和服务提供商来说,可以提供大量的用户洞察信息,并有助于增强客户体验,而这也是投资商考虑的重要因素。

Chatgpt识图的方法?

Chat GPT是一个基于GPT模型的聊天机器人,它并不具备识图的功能。如果您想要实现图像识别的功能,可以考虑使用一些其他的图像识别API或者工具,例如Google Vision API、Microsoft Azure Computer Vision、Amazon Rekognition等。

这些工具可以通过调用其API接口来实现图像识别的功能,常见的识别任务包括图像分类、目标检测、人脸识别等。

使用这些工具需要您提供一些图像数据,并按照其API文档中的要求进行调用和参数设置。在使用时,您还需要注意保护用户的隐私和数据安全。