超越ChatGPT的原来是TA

chatgpt中文网2024-07-06477

chatgpt 欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:

欢迎关注硅基合伙人”,免费获取日份“维他命AI

号称ChatGPT“最强对手”的Claude迎史诗级更新:

本次更新,将模型上下文窗口token数提升到了足足10万,相当于7.5万个单词!这意味着,ChatGPT“记性不好”的缺陷被Claude解决了,如此,我们就可以直接丢给大模型上百页材料让他学习,比如财报、技术文档甚至是一本书,而TA都可以在一分钟之内理解、生成概要并能回答您提问的相关问题。

什么是token?

token指的是大模型处理文本的基本单位,例如“hamburger” 被分成 “ham”、“bur” 和 “ger” 三个 Token,而 “tea” 是一个 token。1个token大约相当于4个字符或者0.75个英文单词。中文相对英文,需要使用更多的token,譬如“你好,世界”11个token,"Hello World"只有两个token。GPT3.5可以处理4k到8k的token,GPT4也只能处理8k到32k的token。

最后,LLM还有LangChain又是啥?

LangChain是在LLM(Large language models,譬如ChatGPT就是一个LLM)发展体系中的一个开源框架,能够把LLM的能力做为一个模块与其他能力进行组合,创造出功能更强大的应用。LangChain中的"Lang"是language的缩写,"Chain"是链接的意思,LangChain本身并不提供LLM模型,只是把LLM当作一个功能模块使用,TA可以让LLM这个大脑有了身体,并且能使用工具。

举个例子,ChatGTP只能进行文本输入和输出,那么也就只能进行一些聊天方式的交互,结合LangChain之后,可以通过LangChain调用搜索引擎获取最新的信息、调用外部控制系统控制机器人部件、调用AutoGPT完成一些复杂任务分解等。

本文链接:http://xiaogongchang.cn/chatgpt/301.html

相关文章