OpenAI 推出 GPT-4o, GPT-4o 更「聪明」了,基于 GPT-4 的多模态能力

chatgpt中文网2024-05-14217

chatgpt 欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:

凌晨 OpenAI 在线直播发布会,推出了一个并不算完全全新的模型:GPT-4o,但看到它的演示效果,着实还是被惊到了。

要知道,原本的 GPT-4 已经很牛了,可以分析图像和文本,甚至能从图像中提取文本和描述图像内容。但这次,GPT-4o 给它加上了语音功能。

要知道,之前的 ChatGPT 也有过语音版,但问题多多,比如你不能打断它,声音听起来像是个没吃饱的机器人,完全么得感情,体验上就很一般,大家还是能直观感受到机器跟人的区别。

但这次发布的这版 GPT-4o 就更「聪明」了,基于 GPT-4 的多模态能力,变成了一个真正的语音交互助手。

实话说,它的实时语音对话效果太惊艳了,没有任何停顿处理的间隔,语气和语调都更像人类。这就像你在和一个特别健谈的朋友聊天,不需要等它完全说完你才能接着说,而是你可以随时打断它。还能让它用各种语音语调调整说话的情绪。不仅能说,还能唱歌,这种真实感到什么程度呢?

就是当你看到直播演示里,演示那哥们熄屏中断 ChatGPT 时,让人忍不住感到这种打断是对「她」的不礼貌,你会忍不住想说「能不能别老打断她说话」?这种情感上的共鸣距离电影《Her》中的 Samantha 又近了一步。可以想象,情感陪伴行业又要热闹起来了。

外,让人印象深刻的,还有实时翻译这块,虽然很多人觉得现在翻译软件什么的都很多了,但当你看到它演示实时翻译的时候,你依旧会被惊讶到,那叫一个丝滑,这下出国是真不用愁语言沟通问题了。

除此之外,GPT-4o 还提高了 ChatGPT 的视觉能力。通过摄像头实时观察真实世界和屏幕内容,GPT-4o 不仅能「看到」,还能「理解」。你可以让它读取电脑屏幕上的代码,它能直接理解并操作,发送图片给它,也能迅速得到反馈和相应的描述。

直播过程还演示了做题的,要是小孩做题不懂的,还可以把数学计算式作为视频投给 ChatGPT,和实时语音一起使用,同 ChatGPT 讨论数学问题。坦白说我觉得家长能适当带小孩尝试使用这些功能,其实还挺有意思的。

之前有朋友就给家里小孩尝试使用,结果发现跟 ChatGPT 交流起来十分顺畅,,甚至还激发了更多的疑问和思考。相比于盯着学校那几本枯燥的课本,和 ChatGPT 一起「玩」更有趣,更能让小孩产生更多好奇。

尤其现在 GPT-4o 提供的语音+视频功能,其实是更便于更多人体验适应的,毕竟,会打字的人总是少于会说话的人嘛。

这次更让人惊讶的是,GPT-4o 模型免费给注册用户,如果你现在用的是 GPT-3.5 免费版,那你可以直接体验到有限的 GPT-4o 模型的。另外 GPT-4o API 速度是原版的两倍,但价格却便宜一半,并且具有更高的速率限制,这对开发者来说也很友好了。

最后,尽管有不少人觉得这次发布会聊胜于无,没有超出预期,可能因为 AI 更新迭代的速度太快,大家都在期待 ChatGPT-5 这样的重大更新。但我认为,GPT-4o 的推出实际上具有更深远的意义。

技术可以不断更新迭代,但让 AI 真正融入人们的生活,关键在于它在情感上更接近人类,加强应用和人性化能力。语音+视频呈现的实时交互效果,正是迈向这一目标的重要一步。更重要的是,这次更新降低了用户的使用成本,让更多人能够体验和适应这些新功能。

有时候慢下来,反而是快,真正的突破不在于技术本身的飞跃,而在于技术如何更贴近生活,让更多人受益。这种「进步」的深刻性和影响力,不亚于直接推出一个 ChatGPT-5。

本文链接:http://xiaogongchang.cn/chatgpt/1120.html

GPT-4oGPT4ogpt-4o检测人的情绪gpt-4o多模态大模型发布GPT-4o免费GPT-4o官网GPT4o官网

相关文章