欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:
话说有一个人向南走了100米,向东走了100米,再向北走了100米。给你5秒钟思考一下,不知道你有没有猜出答案。正确答案是白色这个推理过程还算说的过去吧,那些老是说GPT只是一个猜字游戏或是一个大号输入法的小伙伴是不是吓了一跳。简单一句话:就是在一个非常巨大的词向量空间中做连字游戏。就是人工标注一些语料,教会GPT什么该说什么不该说,告诉他在他的一众回答中哪些回答更好,有意思的是给GPT打分的也是一个人工智能open AI,在使用人工标注了一些答案以后,使用这些答案训练了一个AI这些词语在空间中的位置是经过数以亿万计的语料训练过的。开始触发GPT做词语接龙,GPT组织语言和答案的过程就是在这个空间中连线。每一个节点串联一个词,而它前面串联过的所有词会一起决定下一个被串上的词是哪一个,当这个连线过程结束的时候他给你的回答就结束了。每一个答案都是根据你的问题现场组织现串现卖的提供给你,存储在神经元的连接之中,我们提取记忆和思考的过程,此刻在你的思维中呈现出来的每一句话都是电波在神经元的连接中流动产生的。就如同GPT在词向量空间中寻找需要的词组成一段话。需要很多显卡很多机器(注:老黄家股票又暴涨了,整整涨了一个百度,ai淘金时代到来,卖显卡的先发家了,可惜我的steam游戏。NV,fuck you)GPT不可能根据每个人的问题再去调整自己的训练结果。和你交流的GPT到底是如何学习的,他从你那新学到的技能存在了哪里,而一开始提到的北极熊的例子,更是让大家觉得始料未及。一个用大数据喂出来的,以概率作为算法的机器又是如何产生出推理能力来的这些问题,开发者也没有明确的答案,纯粹是一个黑箱。一个猜字游戏训练出的AI不过就是一个大号的输入法,使用什么训练方法并不是那么重要,重要的是chat GTP为什么能够通过词语接龙学会语言,以及这种训练的结果产生了什么。所以ChatGPT为什么能把话说的比一般人类还漂亮。就是因为经过几十TP的语料训练以后,他向量空间中的每个词都准确的找到了自己的位置,而这些词在空间中的位置真实的映射出了语言背后的逻辑关系。既然一个足够大的向量空间可以映射出所有的逻辑语言,我们需要的只是更高的算力,更多的数据,更长的训练时间以及一个足够大足够复杂的向量空间而已。在更高的抽象数学维度下,他早就在语言的学习中掌握了这些。太阳之下无新鲜事,你教给他的东西对你来说也许很新,但对他来说一点都不新鲜了,他早就看过类似的东西,并且在更高维度下,映射为一种语言的空间逻辑了。他可以迅速的在自己的向量空间中找到类似的东西,理解你让他做的事情。至于推理大概也是类似的,因为语言是人类创造的,语言的结构反映了人类的思维方式。首先GPT4絮絮叨叨的通过前三句话,推理出了地点发生在地球的极点附近,然后又通过熊推理出了北极,再通过北极推理出了北极熊,如果我们用向量空间来解释,就是一开始的三个方向加回到原点。这些词向量共同作用,通过自注意力加权以后附近概率最大的词就是极点。而极点再加上熊以后,空间概率最大的就变成了北极点,加上北极点之后加上北极熊和毛的颜色以后,空间概率最大的就是白色于是正确答案就呼之欲出了。GPT因为本质上还是一个连字游戏,他所有的输出都取决于输入,并且他在推导中说出来的每一个字都会再作为新的输入输进去。是的GPT并没有心理活动,所以GPT非常不擅长做需要先规划一下的事情。这除了他对数学规则理解不够以外还有一个重要的原因,ChatGPT已经修正了这个问题,但更复杂的数学问题,还是难以准确的解决第二:为什么当一个很难的问题他解决不了时,你让他分步骤解决,他就能推理出正确的结果。当训练的数据量和模型的参数规模都达到了足够的程度时,向量空间中映射出了足够复杂的信息一些AI原本不应该具备的能力出现了,这些能力让一个原本只是聊天的AI忽然间有了更高的智能,产生了泛化的能力。这个问题不好回答,前面已经说过,词向量的训练方式,因为在他的词项量空间中苹果和apple是非常接近的两个点,他理解的方式可能跟我们不一样,那么机器能理解语言之下的现实世界吗?也许也可以理解,很多人说机器只能理解符号而不能理解符号背后的实体。但我们主要的训练数据是语言而已,chat GPT只是一个大语言模型,语言背后代表的是什么,它并不需要理解也没有进行训练。但是随着多模态的GPT4以及后面可能出现的更强大的模型、甚至用文字来下达指令指挥别的机器做出响应时,有什么理由说机器只理解符号这个问题目前没有办法得出结论,因为意识是一种主观体验,我连其他人是否具有意识都无从判断,当然你也不知道我是不是具有意识,我们唯一不能怀疑的,就是自己是有意识的(我思故我在)。这个问题其实难以回答,更多的是因为我们自己对意识到底是什么也无从知晓。意识是在我们的神经元结构足够复杂的情况下自然涌现出来的,这些电流是永不停息的,它在数以百亿计的神经元之间不断流动交汇。找到答案的过程本质上是一样的,但这个过程会产生意识吗。然后在他的词向量空间中寻找出一个概率最大的词语组合而已,你在他那就是一段文字输入,一段引发他完成词语接龙的句子而已。他的回答虽然看起来像是和你谈笑风生,其实只是因为他把你以前的输入也拿过来一股脑扔进去了而已。所以在他那甚至没有连续的交流过程你和他的所谓交流,在每次他给你输出答案的时候就结束了。你能想象这样一种片段式的数据处理过程会产生意识吗,自我指导我们的注意力让大脑只把最重要的东西上传到高级意识进行处理,它同时可以处理数以亿计的输入,它根本不需要区别自己和外部世界,不需要因为算例过滤掉不相关的东西,不需要为了区分跟他交流的是谁而独自会话,也不需要根据对方的输入改变。任何东西对他来说目前看来有这种可能,因为我们大脑的灵感和创造其实也是来自于神经元中不断生长的连接。a和b建立了连接b和c建立了连接,忽然之间布灵布灵a和c也有了连接灵感就产生了。这是不是很像chat GBT建立词项量联系的方式,所以chat GBT也拥有把不相关的事情联系起来的能力,但是这并不意味着在未来更高的版本升级下它不会变得越来越靠谱,当然不同的是我们的大脑是并行运算的,一个神经元会同时激活很多个神经元。而GPT因为它是个语言模型,它只能线性的一次连接一个词,这可能会限制他的想象力和触发灵感的能力。第二:当Chad GPT是一种语言模型时我们觉得它离我们还很远,当我们把这种技术应用于实体领域时它就会变得和我们人类很像很像,比如我们下楼梯的时候我们的大脑其实对下一层楼梯的高度是有预测的,这就是为什么楼梯如果忽然变高或者变低会摔我们一跤的原因。但是词语接龙这种方式其实赋予了机器一种时间的概念,现在的自动驾驶,我们的重点在于让汽车更清楚的感知出周围的环境,比如感知到前面有一个人要踩刹车,但是如果我们把所有的操作行为和环境感知都向量化,让机器自己去寻找环境和行为之间的关系训练出模型。然后让机器根据前面的驾驶行为和环境来预测后面可能会遇到的问题并且去向量空间中他的决策行为不是我们定义好的,而是根据当前的环境和行为去预测未来。就算chat GBT最后不会有自我意识那又怎么样。而在于他所掌握的巨大力量和不受控制的自我决策能力。对人类文明来说最悲哀的故事,不是被自己创造的东西毁灭,而是我们被这个东西毁灭了,但这个东西居然没有自我意识。先想一想我们会不会因为ChatGPT的到来而失业吧,当然在需要长期记忆和经验、需要综合各种信息进行规划的工作上GPT还存在明显的短板。所以提升自己的知识储备和经验、提高思考和规划维度,主要还是大脑里的存货不一样一个知识丰富的大脑接收到一个新的信息能激活更多的连接,于是脑电波如烟花绚烂,更多的灵感和创造也就应运而生,而一个没有被知识污染过的清澈大脑,信息只能穿脑而过留不下一丝涟漪,这时候就算你的GPT是卧龙凤雏才高八斗学富五车,估计也拯救不了你那颗纯净的灵魂。我们也很难明确的看到如何做才能不被人工智能所取代。我们能感受到这世界的美,也能够理解宇宙运转的精妙。
本文链接:http://xiaogongchang.cn/chatgpt/729.html