欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:
一起来试用一下刚发布的GPT-4o。
打开chatgpt官网是这样介绍的:“我们宣布推出 GPT-4o,这是我们的新旗舰模型,可以实时对音频、视觉和文本进行推理。”
GPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频、图像和视频的任意组合作为输入,并生成文本、音频和图像的任意组合输出。它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,这与人类在对话中的响应时间(opens in a new window)相似。它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。
借助 GPT-4o,我们跨文本、视觉和音频端到端地训练了一个新模型,这意味着所有输入和输出都由同一神经网络处理。
1. Explorations of capabilities
2. Model evaluations
根据传统基准测试,GPT-4o 在文本、推理和编码智能方面实现了 GPT-4 Turbo 级别的性能,同时在多语言、音频和视觉功能上设置了新的高水位线。
小编阅读理解一下,就是说GPT-4o在这五个领域(比如文本评估-Text Evaluation)的总体表现能力相较于之前的模型和算法(比如GPT-4T)更加出色。淡紫色柱子越高,说明表现力越强,其它四张图表的结论类似就不再放上来了。
3. Model availability
我们正在免费套餐中提供 GPT-4o,并向 Plus 用户提供高达 5 倍的消息限制。我们将在未来几周内在 ChatGPT Plus 中推出新版本的语音模式 GPT-4o alpha。
所以,现在你可以自由打断ChatGPT的回复,就像现实中的人与人对话一样。有兴趣的小伙伴快去试试吧!
官网:https://openai.com/index/hello-gpt-4o/
网友评论