欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:
欢迎关注“硅基合伙人”,免费获取每日份“维他命AI”
号称ChatGPT“最强对手”的Claude迎史诗级更新:
本次更新,将模型上下文窗口token数提升到了足足10万,相当于7.5万个单词!这意味着,ChatGPT“记性不好”的缺陷被Claude解决了,如此,我们就可以直接丢给大模型上百页材料让他学习,比如财报、技术文档甚至是一本书,而TA都可以在一分钟之内理解、生成概要并能回答您提问的相关问题。
什么是token?
token指的是大模型处理文本的基本单位,例如“hamburger” 被分成 “ham”、“bur” 和 “ger” 三个 Token,而 “tea” 是一个 token。1个token大约相当于4个字符或者0.75个英文单词。中文相对英文,需要使用更多的token,譬如“你好,世界”11个token,"Hello World"只有两个token。GPT3.5可以处理4k到8k的token,GPT4也只能处理8k到32k的token。
最后,LLM还有LangChain又是啥?
LangChain是在LLM(Large language models,譬如ChatGPT就是一个LLM)发展体系中的一个开源框架,能够把LLM的能力做为一个模块与其他能力进行组合,创造出功能更强大的应用。LangChain中的"Lang"是language的缩写,"Chain"是链接的意思,LangChain本身并不提供LLM模型,只是把LLM当作一个功能模块使用,TA可以让LLM这个大脑有了身体,并且能使用工具。
举个例子,ChatGTP只能进行文本输入和输出,那么也就只能进行一些聊天方式的交互,结合LangChain之后,可以通过LangChain调用搜索引擎获取最新的信息、调用外部控制系统控制机器人部件、调用AutoGPT完成一些复杂任务分解等。