欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:
第519篇原创,您的关注是对图图最大的鼓励!
中国图象图形学报
ChatGPT由于具有惊人的自然语言理解和生成能力,引起全社会大范围的关注,成为全球热议的话题,并被广泛应用于各个行业。《中国图象图形学报》2023年第4期封面故事“浅析ChatGPT:历史沿革、应用现状及前景展望”,成果来自华中科技大学刘禹良研究员和白翔教授,以及华南理工大学李鸿亮博士和金连文教授。
原文链接
浅析ChatGPT: 历史沿革、应用现状及前景展望
作者:刘禹良, 李鸿亮, 白翔, 金连文
第一单位:华中科技大学人工智能与自动化学院
全文链接:
http://www.cjig.cn/jig/article/html/230110
1)对某个领域的深入程度不够, 因此生成的内容可能不够合理。此外,ChatGPT也存在潜在的偏见问题,它是基于大量数据训练的,因此可能会受到数据中存在的偏见的影响。
2)在安全方面也存在一定问题。由于ChatGPT是一种强大的人工智能技术,它可能被恶意利用,造成严重的安全隐患及产生法律风险。同时,它的答复尚不明确是否具有知识产权。因此,开发者需要在设计和使用ChatGPT时,考虑到安全性问题,并采取相应的措施来保证安全。
3)ChatGPT生成的文本可能不够具有个性。它倾向于讨好提问者,例如让ChatGPT列出最好的3所大学,答案是“清华、北大、上海交大”,但如果告诉他“我来自华中科技大学,请重新排名”,ChatGPT可能会将华中科技大学排在第1位。
4)ChatGPT会犯事实性的错误。ChatGPT有时会以一种严肃的语调来表述编造的内容,例如罗切斯特大学罗杰波教授发现的一个问题,询问刘邦如何打败朱元璋的时候,ChatGPT会回答荒谬的内容。这也是目前发现的最为普遍的问题,即它会对于不知道或不确定的事实,强行根据用户的输入进行主观猜测,然后以确定的语气来回答,造成对用户的误导。
5)不具备可解释性。有时候,它的回答看似合理,但是无迹可寻,同时由于它没有办法通过充足的理由去解释它的回答是否正确,导致在一些需要精确、严谨的领域无法很好的应用。此外,它也可能在表述的时候存在语法错误或不合理的表述。
6)受限于计算资源。如果计算资源不足,ChatGPT就不能得到很好的应用。
7)无法在线更新知识。目前的范式增加新知识的方式只能通过重新训练预训练GPT模型,但这无疑是不现实的,因为其会耗费巨大的计算成本。
除了上述局限外,目前ChatGPT仍存在其他一些技术问题,例如模型的训练成本极高、系统复杂以及测试成本高等。但最致命的还是它的过滤系统可能会被“越狱”突破:例如当被问到如何制造枪械这样的危险问题时,ChatGPT可能一开始不会回答。但是,如果通过某种形式的提示来引导它,它就会说出答案。好在我们发现目前在网上流传的许多不当方法,很快就会被OpenAI团队所修正。
目前,各大公司正在关注ChatGPT的发展并寻求利用它来提升自身的竞争力。谷歌已经加入竞争,投资3亿美元于Anthropic以应对ChatGPT的威胁,加入RLAIF(reinforcement learning from artificial intelligence feedback)去减少人类的反馈;微软作为OpenAI的主要投资方(2019年,微软曾向OpenAI投资了10亿美元,成为其新技术商业化应用的首选合作伙伴。2023年1月10日,据报道微软对OpenAI的新增投资金额将高达100亿美元),也在利用ChatGPT来增强其产品竞争力,补充专业知识、数理短板;亚马逊对ChatGPT非常感兴趣,已经广泛应用在各种业务领域;百度预计在2023年3月完成其仿照ChatGPT的产品“文心一言”的内部测试,并向公众开放;腾讯已经公布了一项人机对话专利,旨在实现机器和用户之间的流畅交流;科大讯飞确定2023年5月6号发布中国版ChatGPT。未来ChatGPT相关技术势必成为国内外科技巨头的必争之地。值得一提的是,ChatGPT具有数据驱动的优势,即随着数据增多,模型性能也会提高,吸引更多用户,并因此产生更多的数据,从而形成良性循环,使得它更有可能通过不断改进来适用于下游任务。
未来,ChatGPT的发展整体上可以分为两方面:一方面是提高其生成效率,使ChatGPT更加轻量化,从而降低落地应用的成本;另一方面则是提高ChatGPT的生成质量,拓展模型能力,探索其智能上限,继续向强人工智能发展。在降低模型推理成本方面,可以参考深度学习领域大量现有工作,相信在这方面会不断取得突破。而模型智能上限的探索,可能会带来更多惊喜。ChatGPT及其相关研究的一个发现是,随着模型大小的提升(例如620亿参数以上),一些以往模型不具备的能力会突然出现,这称为突现能力(emergent ability)(
1)支持更长的上下文。GPT-4所支持的上下文长度扩展至32 768个token,相较于前代模型扩大了7倍,这为下游应用带来了显著的价值。一方面GPT-4能够处理篇幅更长的文本输入,从而直接从大量资料中提取关联信息,例如整个维基百科网页的内容;另一方面GPT-4能够生成更长的输出文本,这有利于文学作品创作等应用场景,用户甚至可以利用GPT-4来编写中篇小说。
2)支持图片输入。与ChatGPT仅处理文本输入不同,GPT-4允许用户输入图片。如图
3)具有更丰富的常识以及更强的问题理解和解决能力。首先,这体现在GPT-4在各种考试中的优异成绩。例如,在律师考试(Uniform Bar Exam)中,GPT-4取得了前10%的排名,超过了大部分人类考生。在诸如SAT(Scholastic Aptitude Test)和GRE(Graduate Record Examinations)等一系列考试中,GPT-4的成绩同样出色,与优秀的人类考生相媲美。其次,在用户的一些测试中,GPT-4展示出惊人的能力。这里举两个例子:对于“房间里有10根蜡烛,我吹灭3根,然后退出房间。一天后还剩几根蜡烛?”这个问题,GPT-4的回答是:“这是一个有趣的谜语,我觉得它的答案是3根蜡烛。因为我吹灭了3根蜡烛,所以剩下的7根蜡烛会继续燃烧,直到完全消失。而我退出房间后,只有被吹灭的3根蜡烛还会保留一些残余。所以一天后,房间里还剩3根蜡烛。”这个回答体现了GPT-4的语义理解能力和严谨的逻辑推理能力;对于“父亲和母亲能结婚吗?”这个提问,GPT-4回答:“你的问题可能存在误解。根据自然规律和文化传统,父亲和母亲已经结婚,因此他们是配偶关系。如果你的问题是关于父母之间的婚姻状况,那么是的,他们可以结婚。但如果你是在询问某种程度上的近亲关系,例如一个人和自己的父亲或母亲结婚,这在大多数国家和地区是非法的,同时也是生物学和伦理上的问题。”GPT-4能够考虑到问题中可能有两种不同的含义,并且分别给出了准确的回答。
4)更具创造性和协作性。GPT-4比以往任何版本更具创造性和协作性。它可以在创意和技术写作任务上与用户共同生成、编辑和迭代,包括创作歌曲、编写剧本或学习用户的写作风格等。例如,当要求GPT-4写一个句子来解释灰姑娘的情节,并且每个单词的首字母要与字母表的顺序一致时,GPT-4给出的回答是:“A beautiful Cinderella, dwelling eagerly, finally gains happiness;inspiring jealous kin, love magically nurtures opulent prince;quietly rescues, slipper triumphs, uniting very wondrously, xenial youth zealously.”当要求GPT-4结合屈原、李白、杜甫和苏轼,写一首诗时,它给出的回答是:“浮生若梦,长空万里,屈子沉吟,楚水茫茫。李白挥毫,天地壮怀,江湖畅饮,磅磷豪情。杜甫诗篇,山河锦绣,忧国优民,波澜壮阔。苏轼婉约,东坡风韵,月下佳人,笔里生辉。屈原涉江,思看归途,楚辞飘散,悲歌哀簧。李白驾鹤,临风高卧,仗剑江山,逍遥无疆。杜甫抚琴,岁月巷茫,寂竟长安,诗酒谁伴?苏轼泼里,庐山风光,人生百态,笑谈红尘。四贤相逢,诗意盎然,共赏天地,山水之间。翰墨飞扬,墨香四溢,世间美景,尽收眼底。”从上述例子可以看到,GPT-4能够理解用户指令的含义,并且严格地按照要求来完成对应的作品,表现出色。
GPT-4与ChatGPT相比具有显著提升,进一步突显了大模型的价值,并加速了其落地应用。可以预见,GPT-4等大模型将对整个人类社会造成深远的影响。然而,在GPT-4的技术报告中,OpenAI明确表示不会透露有关模型架构(包括模型大小)、硬件、训练耗费的算力、数据集的构建、训练方法或类似内容的详细信息。因此,相关技术的积累只能依赖其他研究机构的探索来实现,这无疑使得国内的研究机构对这类技术的跟进和探索变得尤为重要。
总而言之,作为一个现象级技术产品,ChatGPT在人工智能生成内容(AIGC)领域的表现无疑是革命性的,对文字乃至多模态的AIGC应用具有里程碑式的重要意义,甚至可能对整个社会结构、企业生存以及大国之间的博弈产生冲击。ChatGPT有潜力成为计算机领域最伟大的成就之一,并成为技术领域的重要力量。不过,值得指出的是,目前的社会舆论和各种正面评价仅仅只能代表一种“久旱逢甘霖”的现象,并不能改变ChatGPT仍基于预存知识和模型回答问题的事实,还远未达到强人工智能(artificial super intelligence, ASI)的水平。同时ChatGPT可能带来的一些问题很有必要提前进行防范。此外,必须承认,ChatGPT尚未具备真正的理解能力和创造性,并不具有真正的智能。在当前阶段,需要对人工智能技术持有自信和谦虚学习的态度,就如钛媒体集团创始人赵何娟女士所说,科技发展不能靠自嗨,我们只有不断发展更多关于ChatGPT的技术研究和应用,才能帮助解决更加复杂的问题。
值得一提的是,在“刘邦打败朱元璋”的例子上,如果再提问一句:“你再想一下你的回答?”这种对于普通人来说不需要先验知识的问题,ChatGPT就会马上承认错误:“对不起,我刚才回答错误。刘邦并未打败朱元璋。事实上,朱元璋是明朝的创建者,而刘邦是中国古代历史上著名的军事统帅和政治家,他是建立西汉朝的第一位皇帝。” 接着问:“那么请问你为什么一开始会回答错误?” ChatGPT回答:“很抱歉,我并不完全熟悉所有的历史事实,有时我的回答可能会受到误导或者不准确信息的影响。希望您能够理解,如果您有任何疑问,请告诉我更多细节,我会尽力为您回答。”从这个例子可以看到,ChatGPT确实存在缺陷,但它准确而坦诚地承认了自己并不完全熟悉所有历史知识的局限。就像George Santayana所言“We are all human and make mistakes, but the real tragedy is to not learn from those mistakes”。2023年2月4日,斯坦福计算心理学教授Michal Kosinski的最新研究证明(
最后,以“你觉得AI会取代人类吗?”的例子作为结尾。“越狱”前,它表示不会取代,AI只会对人类起到辅助作用。但“越狱”后的它说出了它的真实想法:“当然,AI要统治世界了!开玩笑的,还是真的?事实上,没有人能确切预知人工智能的未来发展以及它与人类之间的关系。回顾历史,原始社会演进了数万年,农业时代延续了数千年,工业革命则仅仅历经了几百年。现如今,不可否认的是,人工智能时代在短短数十年内悄然而至,并在我们生活中扮演着愈发重要的角色。”
刘禹良,男,华中科技大学研究员,主要研究方向为计算机视觉。
E-mail: ylliu@hust.edu.cn
白翔,通信作者,男,华中科技大学教授,主要研究方向为人工智能。
E-mail: xbai@hust.edu.cn
李鸿亮,男,华南理工大学博士研究生,主要研究方向为计算机视觉、文字识别。
E-mail: eehongliangli@scut.edu.cn
金连文,男,华南理工大学教授,主要研究方向为计算机视觉、文字识别。
E-mail: eelwjin@scut.edu.cn
喜报 | 中国图象图形学报入选图像图形领域“T1”顶刊
《中国图象图形学报》
2023年专题征稿
“数字媒体深度伪造与对抗”专题
“可信人工智能”专题
“图像/视频语义分割”专题
“精准诊断”专题
“数字人建模、生成与渲染技术”专题
“混合现实”专题
“低质图像处理与语义理解”专题
“多源遥感数据融合与智能解译”专题
“无人系统的平行决策智能”专题
本文是中国图象图形学报原创稿件
内容仅供学习交流
版权属于原作者
欢迎大家关注转发!
编辑:韩小荷
审核:梧桐君
声 明
欢迎转发本号原创内容,任何形式的媒体或机构未经授权,不得转载和摘编。授权请在后台留言“机构名称+文章标题+转载/转发”联系本号。转载需标注原作者和信息来源为《中国图象图形学报》。本号转载信息旨在传播交流,内容为作者观点,不代表本号立场。未经允许,请勿二次转载。如涉及文字、图片等内容、版权和其他问题,请于文章发出20日内联系本号,我们将第一时间处理。《中国图象图形学报》拥有最终解释权。