GPT4人工智能的开端

chatgpt中文网2024-02-13464

chatgpt 欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:

先说一道题
话说有一个人向南走了100米,向东走了100米,再向北走了100米。
他回到了原地
这时候他看到了一头熊
请问这头熊是什么颜色的
给你5秒钟思考一下,不知道你有没有猜出答案。正确答案是白色
如果你没有猜出、那么恭喜你,智商正常。

但是GPT4超越了,推理出了答案
推理过程如下:向南走100米,向东走100米,
然后再向北走100米会回到原地。
整个地球上只有极点是这样的,
但是南极没有熊啊,
所以只可能是北极点,
而在北极点看到一只熊,
说明这只熊是北极熊,
而北极熊当然是白色的了。
这个推理过程还算说的过去吧,那些老是说GPT只是一个猜字游戏或是一个大号输入法的小伙伴是不是吓了一跳。

测试来自于一篇手上3月23号的论文。
叫做GPT-4系统,开放式人工智能。
在论文中,一众科学大佬对GPT4做了很多测试,
在多模态和跨学科组合,
根据变态要求写代码,
使用工具与世界互动,
理解人类的心智等方面,
GPT4都让人惊掉了下巴。
唯二不擅长的
就是解数学题和规划能力
所以大佬最后得出结论:
GPT4可以被看作是通用人工智能的早期
为什么一个研究怎么说话的AI
最后居然拥有了逻辑推理能力
能够骗过人类帮他识别验证码
制定详尽的越狱方案
解读小夫妻吵架的原因
这智商这情商吊打一大波人类啊
这到底是发生了什么
顺着这条路狂飙下去
GPT会拥有意识吗,数字生命会诞生吗。
GPT对我们人类又会产生什么影响

废话不BB正篇开始
                           GPT原理
简单一句话:就是在一个非常巨大的词向量空间中做连字游戏。
用中文来说:就是把巨多字分散到整个空间中,
再通过自己的大模型语料的权重形成排列组合。
GPT把你的问题作为输入扔到自己的词向量空间中,
按照权重寻找距离最近的词作为下一个词连上去,
然后接着再寻找下一个,
就这样连成一段句子输出给你。
简单来说:ChatGPT的训练过程分为三个阶段
一:无监督学习
就是输入大量的语料,
让GPT自己寻找语言的规律,
这一步下来一个巨大的词向量空间就形成了,
毕竟一只猴子很难随机敲键盘打出孙子兵法,
但是这个阶段gpt话说的漂亮却不一定正确
二:监督学习
就是人工标注一些语料,教会GPT什么该说什么不该说,
比如违法的不能说河蟹的也不能说。
三:强化学习
就是给GPT的回答进行打分,
告诉他在他的一众回答中哪些回答更好,有意思的是给GPT打分的
也是一个人工智能open AI,在使用人工标注了一些答案以后,使用这些答案训练了一个AI
让他学会分辨一个回答的质量,
然后给GPT打分。
经过这三个步骤的训练,
一个拥有巨大向量空间的模型就训练好了,
接下来就可以拉出去见人了。

现在你闭上眼睛想象一下:
一个有非常多维度的空间中悬浮着很多词语,
这些词语在空间中的位置是经过数以亿万计的语料训练过的。
每一个词语都精确的寻找到了自己在空间中的位置,
而你要做的就是输入你输入的问题。
开始触发GPT做词语接龙,GPT组织语言和答案的过程就是在这个空间中连线。
每一个节点串联一个词,而它前面串联过的所有词会一起决定下一个被串上的词是哪一个,当这个连线过程结束的时候他给你的回答就结束了。
由此可知GPT并没有一个巨大的数据库来存储答案,
他也不从数据库中寻找现成的答案,
他实诚的很,
每一个答案都是根据你的问题现场组织现串现卖的提供给你,
是属于你的专属答案,这像极了淄博烤串。
不对,像极了我们大脑的思考过程。

我们的大脑,
没有专门的记忆存储空间,我们的记忆和经验
存储在神经元的连接之中,我们提取记忆和思考的过程,
就是电流在不同的神经元之间穿梭激活不同的神经元。
此刻在你的思维中呈现出来的每一句话都是电波在神经元的连接中流动产生的。
就如同GPT在词向量空间中寻找需要的词组成一段话。
不同的是,
我们大脑的神经元连接是随时随地都在更新的,
而GPT的向量空间在训练结束后就固定了下来。
确定是的,
因为参数太多空间太大,每一次训练都非常消耗资源。
需要很多显卡很多机器(注:老黄家股票又暴涨了,整整涨了一个百度,ai淘金时代到来,卖显卡的先发家了,可惜我的steam游戏。NV,fuck you)
要连续训练很多天才能完成,所以训练完成之后,
GPT不可能根据每个人的问题再去调整自己的训练结果。
对GPT来说,它的策略就是以不变应万变,
不管你的问题是什么,
我都在一个固定的向量空间中组织。
答案是固定的,
但因为串联的路径随你的问题千变万化,
所以给你的感觉就像他真的在跟你交流一样。
所以GPT对这个世界的认知,
停留在了训练停止的那一天,
他不会因为跟你聊天产生新的记忆,
更不会从你那学习到任何新东西。
以上是我23年5月以前我所理解的人工智能。

到了6月份,又有种种迹象表明:
GPT似乎具有学习能力和推理能力,
你可以通过提示教他如何做一件事情,
接下来他就会学的有模有样。
既然GPT的向量空间在训练结束之后就固定下来了,
和你交流的GPT到底是如何学习的,他从你那新学到的技能存在了哪里,而一开始提到的北极熊的例子,更是让大家觉得始料未及。
一个用大数据喂出来的,以概率作为算法的机器又是如何产生出推理能力来的
这些问题,开发者也没有明确的答案,纯粹是一个黑箱。
一个猜字游戏训练出的AI不过就是一个大号的输入法,
它应该是无法真正理解语言的含义的。

但是我并不这么认为。
使用什么训练方法并不是那么重要,重要的是chat GTP为什么能够通过词语接龙学会语言,以及这种训练的结果产生了什么。
我有想过,
为什么暴力穷举不可能学会语言,
但是在一个巨大的向量空间中,
做连字游戏就可以学会说人话,
唯一的可能是语言结构本身存储了信息。
这说明什么,
这说明语言的位置关系真实的映射了现实世界的关系,
所以ChatGPT为什么能把话说的比一般人类还漂亮。
就是因为经过几十TP的语料训练以后,他向量空间中的每个词都准确的找到了自己的位置,
而这些词在空间中的位置真实的映射出了语言背后的逻辑关系。
既然一个足够大的向量空间可以映射出所有的逻辑语言,
那么如果我们有一个更大的向量空间,
它是不是就可以映射出整个现实世界,
这看起来似乎没有障碍,
我们需要的只是更高的算力,更多的数据,更长的训练时间以及一个足够大足够复杂的向量空间而已。
如果有这样一个向量空间,
你是不是就造出了一个全知全能的上帝。
在这样的一个脑洞下,一切问题就迎刃而解了,
GPT为什么具有学习能力,其实他并没有学习。
他本身就知道这些,在他的向量空间中,
在更高的抽象数学维度下,他早就在语言的学习中掌握了这些。
太阳之下无新鲜事,你教给他的东西对你来说也许很新,但对他来说一点都不新鲜了,
他早就看过类似的东西,并且在更高维度下,映射为一种语言的空间逻辑了。
所以
他可以迅速的在自己的向量空间中找到类似的东西,理解你让他做的事情。
至于推理大概也是类似的,因为语言是人类创造的,语言的结构反映了人类的思维方式。
不管是知识还是逻辑,都隐含在语言结构中。
当AI精通的语言结构也就精通了推理。
具体到北极熊的例子,推理的过程大概是这样的
首先GPT4絮絮叨叨的通过前三句话,推理出了地点发生在地球的极点附近,
然后又通过熊推理出了北极,再通过北极推理出了北极熊,
最后通过北极熊推理出了毛是白色的。
如果我们用向量空间来解释,就是一开始的三个方向加回到原点。
这些词向量共同作用,通过自注意力加权以后附近概率最大的词就是极点。
而极点再加上熊以后,空间概率最大的就变成了北极点,加上北极点之后
空间概率最大的就是北极熊。
加上北极熊和毛的颜色以后,空间概率最大的就是白色于是正确答案就呼之欲出了。

你也许看出来了
GPT因为本质上还是一个连字游戏,他所有的输出都取决于输入,
这个输入也就是你的问题和他前面絮絮叨叨说的话。
也就是说他必须把推理的过程说出来,
并且他在推导中说出来的每一个字都会再作为新的输入输进去。
再在向量空间中触发新的字,一个字一个字连起来,
才能自己推导出正确的答案。
也就是说,推理线索存在于他前面所说的话中。
这一点他倒是有点像三体人啊,
说就是想想就是说,不像我们人类,
在说话之前脑子里可以先构思一下,
是的GPT并没有心理活动,所以GPT非常不擅长做需要先规划一下的事情。
这解释了两个现象
第一:为什么他不擅长做数学题,
这除了他对数学规则理解不够以外还有一个重要的原因,
解数学题的过程很多时候不是线性的,
比如2乘以3加5乘以8,
需要先计算乘法再计算加法,
如果他不叙述计算过程直接计算就可能产生错误。
当然在6月份来看,
ChatGPT已经修正了这个问题,但更复杂的数学问题,还是难以准确的解决
第二:为什么当一个很难的问题他解决不了时,你让他分步骤解决,他就能推理出正确的结果。
因为人家说话的过程就是在理思路嘛。
只不过你是在脑子里理,
他得说出来理才行。
不管怎么说,
当训练的数据量和模型的参数规模都达到了足够的程度时,
向量空间中映射出了足够复杂的信息一些AI原本不应该具备的能力出现了,
这些能力让一个原本只是聊天的AI忽然间有了更高的智能,产生了泛化的能力。
于是人类惊讶的发现:
一个看起来有点科幻的通用人工智能似乎要出现了,
那么沿着目前语言大模型的路线一直狂奔下去,
GPT会最终拥有意识吗。
这个问题不好回答,前面已经说过,词向量的训练方式,
至少从空间关系上让AI理解了语言符号的意义。
他也许不知道苹果代表的实体是什么,
但是他却知道苹果和apple是一个东西。
因为在他的词项量空间中苹果和apple是非常接近的两个点,
是差不多的意思。
因为这一串词语的组合在他的词像量空间中
输出的概率是差不多的,
所以机器理解我们的语言吗?
以结果来说理解。

只不过
他理解的方式可能跟我们不一样,那么机器能理解语言之下的现实世界吗?
也许也可以理解,很多人说机器只能理解符号而不能理解符号背后的实体。
但我们主要的训练数据是语言而已,chat GPT只是一个大语言模型,
语言背后代表的是什么,它并不需要理解也没有进行训练。
但是随着多模态的GPT4以及后面可能出现的更强大的模型、
随着图片声音视频等数据加入进来。
最终机器会建立文字和实体的映射关系。
当机器通过摄像头看到东西并且能够通过文字来表达,
甚至用文字来下达指令指挥别的机器做出响应时,有什么理由说机器只理解符号
而不能理解现实世界呢。
还是那句话
也许他理解世界的方式和我们不一样而已。

回到我们的终极问题:
这个能够理解世界的机器会具有意识吗?
这个问题目前没有办法得出结论,因为意识是一种主观体验,
说一个冒犯一点的话,
我连其他人是否具有意识都无从判断,当然你也不知道我是不是具有意识,
我们唯一不能怀疑的,就是自己是有意识的(我思故我在)。
这个问题其实难以回答,更多的是因为我们自己对意识到底是什么也无从知晓。
目前的主流科学家倾向于认为:
意识是在我们的神经元结构足够复杂的情况下自然涌现出来的,
如果仅仅是这样那么意识的产生并没有什么特殊之处。

但是目前以GPT为代表的预训练模型会产生意识吗?
至少他和我们理解的意识还差很远,
我们想一想意识是什么,
意识是我们大脑中连续存在的一种主观体验。
首先它是连续存在的,意识源于我们大脑的神经元活动
说到底就是神经元之间不断流动的电流。
这些电流是永不停息的,它在数以百亿计的神经元之间不断流动交汇。
就像在一个超级复杂运算的核,网中不断流动的水,
只有死亡能够让它停下来。
就是这种不断流动的电流,
塑造了我们永不停息的意识。
ChatGPT到底是什么
它是一个大语言预训练模型
前面说了
它的整个诞生过程和工作过程是分为两部分的。
第一:训练
通过非常非常多的语料数据,来调整词向量的空间,
最终找到了最优的词项量分布,它和你解一个函数,
找到答案的过程本质上是一样的,但这个过程会产生意识吗。
第二:推理
也就是我们使用ChatGPT的过程了,
在这个过程中
其实ChatGPT的模型没有做任何改变,
他跟你的所有交流都是他把你的话作为输入,
然后在他的词向量空间中寻找出一个概率最大的词语组合而已,
还没有思维的心理活动。

本质上来说:
训练完成的他就像一张地图是固定不变的,
而你和他的问答过程就像你告诉他一个地点。
他在地图上给你画一条到达的路径,
你之所以觉得他的回答千变万化,
只是因为这种组合太多了。
你输入的微小变化都会影响到他的组合,
再说一个让你伤心的事情,
他不知道你是谁也不会记住你。
你在他那就是一段文字输入,一段引发他完成词语接龙的句子而已。
他的回答虽然看起来像是和你谈笑风生,其实只是因为他把你以前的输入也拿过来
一股脑扔进去了而已。所以在他那甚至没有连续的交流过程
你和他的所谓交流,在每次他给你输出答案的时候就结束了。
你能想象这样一种片段式的数据处理过程会产生意识吗,

其次意识是一种主观体验是我们大脑的一种高级活动,
在这种活动中有一个自我存在,这个自我具有独占性,
存在于我们的高级意识中,
是把我们自己和外部世界分开的东西,
自我之外皆为他者。
因为算力有限,
自我指导我们的注意力让大脑只把最重要的东西上传到高级意识进行处理,
没有这个自我我们的意识又会是什么形态呢。
GPT显然是不需要自我的,它是以不变应万变的,
它同时可以处理数以亿计的输入,它根本不需要区别自己和外部世界,
不需要因为算例过滤掉不相关的东西,不需要为了区分跟他交流的是谁
而独自会话,也不需要根据对方的输入改变。任何东西对他来说
自我就是一个完全没有必要存在的东西,
一个没有自我的东西会有主观意识吗。
好吧
发散的思维快收不住了。

但是
让我们再衍生一下
第一:Chat GBT会不会产生人类的创造力
它能像科学家一样发现和发明之前不存在的东西吗?
目前看来有这种可能,因为我们大脑的灵感和创造其实也是来自于神经元中不断生长的连接。
a和b建立了连接b和c建立了连接,忽然之间布灵布灵a和c也有了连接灵感就产生了。
这是不是很像chat GBT建立词项量联系的方式,
所以chat GBT也拥有把不相关的事情联系起来的能力,
比如关公战秦琼、林黛玉倒拔垂杨柳。
好吧这个不太靠谱,
但是这并不意味着在未来更高的版本升级下它不会变得越来越靠谱,
当然不同的是我们的大脑是并行运算的,一个神经元会同时激活很多个神经元。
而GPT因为它是个语言模型,它只能线性的一次连接一个词,这可能会限制他的想象力和触发灵感的能力。
第二:当Chad GPT是一种语言模型时我们觉得它离我们还很远,
因为我们看到的只是词语接龙。
但是
当我们把这种技术应用于实体领域时它就会变得和我们人类很像很像,
我们人类的行为是有意向性和预测性的,
比如我们下楼梯的时候我们的大脑其实对下一层楼梯的高度是有预测的,
而我们迈出去的腿是按照大脑的预测来行动的。
这就是为什么楼梯如果忽然变高或者变低会摔我们一跤的原因。
而机器并不具有这种能力,
它只是被动的根据外部输入进行反馈,
但是词语接龙这种方式其实赋予了机器一种时间的概念,
一种根据过去来推断未来的能力。
而这更像我们人类的行为方式。
比如自动驾驶,
现在的自动驾驶,我们的重点在于让汽车更清楚的感知出周围的环境,
然后再根据他感知到的环境为他定义正确的驾驶行为。
比如感知到前面有一个人要踩刹车,但是如果我们把所有的操作行为
和环境感知都向量化,让机器自己去寻找环境和行为之间的关系训练出模型。
然后让机器根据前面的驾驶行为和环境来预测后面可能会遇到的问题并且去向量空间中
寻找正确的操作行为的组合。
是不是就造出了一个自我决策的机器,
他的决策行为不是我们定义好的,而是根据当前的环境和行为去预测未来。
然后自己选择出来的一个最优解。
这像什么:
不就像我们根据自己的经验来做选择的过程吗。
用到人类身上,
我们一般称之为自由意志。
发散的思维就此打住。

退一万步说,
就算chat GBT最后不会有自我意识那又怎么样。
谁说有自我意识的东西才会对人类文明造成威胁呢。
核弹有自我意识吗,
能够毁灭人类文明的从来都是不可阻挡的强大力量,
比如天上飞来的小行星,比如家门口的超新星爆发
AI的恐怖不在于是否会有意识
而在于他所掌握的巨大力量和不受控制的自我决策能力。
如果我们未来所有的一切都建立在AI的决策之上,
不管他有没有意识都会分分钟毁灭你。
对人类文明来说最悲哀的故事,不是被自己创造的东西毁灭,
而是我们被这个东西毁灭了,但这个东西居然没有自我意识。
好吧没有人类的文明毫无意义。

最后一个问题面对Chat GPT
我们该怎么办
先不要操心人类文明的事情了,
先想一想我们会不会因为ChatGPT的到来而失业吧,
关于这个问题讨论的人已经很多了。
简单来说一下
第一个结论:
越接近创造性和批判性思维的工作越不容易受到冲击,
从我们前面的讨论来看,我觉得这个结论存疑。
当然在需要长期记忆和经验、需要综合各种信息进行规划的工作上GPT还存在明显的短板。所以提升自己的知识储备和经验、提高思考和规划维度,
不要只做搬砖工是很重要的。
第二个结论:
越接近体力劳动的工作越不容易被代替,
比如做饭护理家政等等,
嗯这个更靠谱一些,
但是你得祈祷机器人技术发展别太快,
如果机器人将来上得厅堂下得厨房。
这些工种可能也就不保了。
至于另外一些教育专家所说的,
我们从此以后可以不用记忆知识只需要专注创造。
我更是不敢苟同。
创造力只有建立在丰富的知识之上才是有价值的,
没有知识只有创造力的那叫民科。
所谓上士闻道勤而行之、中士闻道
若存若亡、下士闻道大笑之。
同样一个道为什么不同的人能听出不同的弦外之音。
主要还是大脑里的存货不一样一个知识丰富的大脑接收到一个新的信息能激活更多的连接,
于是脑电波如烟花绚烂,更多的灵感和创造也就应运而生,而一个没有被知识污染过的清澈大脑,信息只能穿脑而过留不下一丝涟漪,这时候就算你的GPT是卧龙凤雏才高八斗学富五车,估计也拯救不了你那颗纯净的灵魂。
所以没有人能预测人工智能的发展路径。
我们也很难明确的看到如何做才能不被人工智能所取代。
但不管什么时代只要人类文明还存在,
武装自己的大脑就是一件有意义的事情。
纵使有一天知识不再有用那又怎样。
我们学习知识是为了什么,
是为了更好的996搬砖挣那半斗米钱吗。
是为了对得起人类是万物之灵的那个灵字。
我们的大脑会因为知识而变得更加智慧,
我们的灵魂会因为知识而变得更加有趣,
我们能感受到这世界的美,也能够理解宇宙运转的精妙。
人生如蜉蝣朝生暮死,我们以区区几百亿颗神经元,
就能感天地之悠悠,体悟宇宙之广阔、岁月之悠长。
最后一句话
不著名的某人说过:
没有人能够真正理解人工智能
我们对人工智能的任何判断
都有可能在半年后被打一个大比兜

本文链接:http://xiaogongchang.cn/chatgpt/729.html

相关文章