分享
OpenAI 春季发布会
输入“/”快速插入内容
✨
OpenAI 春季发布会
用户2838
用户2838
用户6949
用户6949
用户2810
用户2810
用户8464
用户8464
2025年10月14日修改
✨
本文档开放编辑,欢迎共建,讨论OpenAI春季发布会的一切!
🔔 简介
📌
OpenAI春季发布会,推出旗舰模型
GPT-4o
,以及给到ChatGPT免费用户的更多工具
OpenAI 春季发布会官网
:
https://openai.com/index/spring-update/
GPT-4o面向所有人
免费开放,立刻试用
:
https://openai.com/index/hello-gpt-4o/
ChatGPT Mac客户端(点击可下载):
ChatGPT_Desktop_public_latest.dmg
一手信源
关注
OpenAI的X
:
https://twitter.com/OpenAI
所有人都可以直接使用GPT-4O
50%
直观感受一下GPT-4O的实时多模态交互
50%
OpenAI春季发布会英文完整版
GPT-4o
,「o」代表着「omni」,意味着OpenAI朝着通用人工智能的交互迈出了重要一步
1.
多模态输入输出:
◦
文本、音频、图像等模态的
任意组合的输入与输出
◦
训练方法:
单一新模型端到端训练
,处理所有输入和输出
2.
接近人类的响应时间
:
◦
音频输入的响应时间:最短232毫秒,平均320毫秒
3.
多快好省:
◦
成本:
API使用费用降低50%
◦
英文文本和代码:与GPT-4 Turbo相当,非英文语言文本显著改进
◦
视觉和音频理解:优于现有模型
◦
推理速度:GPT-4o 的速度是 GPT-4 Turbo 的 2 倍
◦
限制:GPT-4o 的速率限制是 GPT-4 Turbo 的 5 倍——每分钟最多可处理
1000 万个Token
◦
GPT-4o 目前的
上下文窗口为 128k
,
知识截止日期为 2023 年 10 月
4.
模型评估
在传统基准测试中的测量结果显示,GPT-4o在文本、推理和编码智能方面达到了GPT-4 Turbo的性能水平,同时在多语言、音频和视觉能力方面创下了高水平的新记录。
•
改进推理能力 - 在零样本cot MMLU测试中,GPT-4o获得了88.7%的新高分。
•
音频ASR性能 - GPT-4o在所有语言上显著提高了相对于Whisper-v3的语音识别性能,尤其是在小语种上。
•
音频翻译性能 - GPT-4o在语音翻译方面设立了新的业界标准,并在MLS基准测试中超越了Whisper-v3。