ChatGPT不适合做什么

chatgpt中文网2024-07-07419

chatgpt 欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:

ChatGPT引领了新一波的AI发展,确实令人惊艳,刷新了人们对AI的认知,带动了产业的新一轮浪潮。人们对AI又有了新的期望。

另一方面,GPT只是AI领域中的一个方向,并不是AI的全部,对ChatGPT也应该有较为客观的认知。

对于AI的实现,始终存在着两大基本方法,专家规则和相关性拟合。

  • 专家规则方法,就是在总结人类逻辑方法基础上形成规则,让机器按照人类的思维逻辑进行推理从而得到结果,结果有可能是未知的,典型的专业基础课是数理逻辑与集合论,属于演绎法

  • 而拟合这个词,在大学上数学课的时候形成了深刻的印象,用离散的点拟合出一条连续曲线,倒推(猜测)原始规律,通过对大量数据的统计,找出其中的相关性,属于归纳法

基于机器学习形成大模型,采用的是归纳法,所以非常适合将已知的具有相关性的信息都检索出来,并按照预训练出来的模型,组合出句子、文章。正是这种“相关性”的本质,目前ChatGPT一类的大模型生成出来的结果,能够把相关的内容集合在一起,而且在达到相当规模之后,机器在浩瀚的数据中还能“发现”新的相关性,涌现出超过一般人想象的“能力”,确实对用户有非常大的启发作用,这也是AIGC吸引人的地方。

这种相关性的拟合,可以说是利用大算力、大数据的一种“暴力破解”,其实并没有形成真正的逻辑,缺乏可解释性。这一点使其不适合用于辅助决策,只能给出现象,不能给出真正的原因分析,不能进行逻辑推导,也不能保证决策结果的准确性,甚至会出现“一本正经胡说八道”的现象。“火鸡科学家”的典故也是形容这种情况的。即使有时让人觉得带有情感因素,其实也是被人工训练出来的非常理性的“情感”。这也是不少人对AIGC仍保持警惕的主要原因,而这方面恰恰是专家规则方法所擅长的领域。

早年的人工智能,主要思路是专家法,毕竟那个年代最新的机器是386,只能直接建立凝练的规则,在具体领域中进行应用。早年曾接触过中医专家系统,用探针收集一些耳穴的状况后,基于预置的专家规则,推导出身体中可能存在的病症,操作简便易行,印象中结果还挺准的。随着算力的飞速发展,数据的不断积累,算法技术的丰富与提高,拟合的方法开始大行其道,最早听到的例子,就是经典的“尿布与啤酒”的关系,通过对超市销售数据的分析,发现尿布与啤酒的销量关联性非常高,然后把这两类商品就近摆放在一起提升销量。AI在医学影像学诊断中的运用也是如此。

就目前技术能力而言,AI领域中已经可以综合运用归纳法和演绎法。用归纳法来发现现象中的潜在规律,经过人的分析判别形成规则,用演绎法来运用规律给出比较准确的结果。有不少人从字面上把“机器学习”想象的太简单了,其实在“机器学习”过程中,也需要专家的大量参与,对于模型的建立与训练,对核心的基础数据的标注,都离不开专家的贡献。人工智能,没有人工哪来的智能。AI的发展,应该是“用专家规则建立模型-基于大数据训练拟合-修正规则持续优化模型”这样一个持续迭代升级的过程。

“实践、认识、再实践、再认识,这种形式,循环往复以至无穷”。

不断观察数据并完善模型方法,连续迭代推出新的版本,这才是AI持续发展的正确姿势,最终一定要做到有逻辑、可解释。

本文链接:http://xiaogongchang.cn/chatgpt/698.html

ChatGPT不适合做什么

相关文章