5月14日消息(颜翊)今日凌晨,OpenAI举行了一场发布会,正式发布了一款最新的GPT-4o多模态大模型。
OpenAI介绍,与现有模型相比,GPT-4o在视觉和音频理解方面尤其出色,可以在232毫秒内对音频输入做出反应,平均响应速度为320毫秒,这与人类在对话中的反应时间相近。而GPT-3.5和GPT-4用户以语音模式Voice Mode与ChatGPT对话的平均延迟时间为2.8秒和5.4秒。
在发布会演示中,GPT-4o甚至能够从OpenAI高管的喘气声中理解“紧张”的含义,并且指导他进行深呼吸。
该大模型可以处理50种不同的语言,并实时对音频、视觉和文本进行推理。相比GPT-4 Turbo,GPT-4o的速度快两倍,成本降低50%,API速率限制提高五倍。
OpenAI官网显示,GPT-4o将对用户免费开放,免费用户可获得分析数据、帮助总结、写作和分析等功能。
OpenAI的CEO Sam Altman发布博客文章表示,“新的语音(和视频)模式是我用过的最佳计算机界面。感觉(GPT-4o)就像电影里的AI一样。它的成真让我感到惊讶。”
- 讯飞医疗大模型惊艳全球:破纪录登顶MedBench榜,实力碾压同行,创新引领未来
- MiniMax开源M1模型:打破性能界限,456B参数引领混合架构推理新时代
- 美军与AI巨头签巨额合同:打造新型智能武器,应对未来战争挑战
- Meta AI应用新增隐私警告:分享隐私需谨慎,避免泄露个人敏感信息
- 国内首展人形机器人全产业链:特斯拉、宇树参展,未来科技魅力尽展杭州!
- 谷歌新聊天机器人 Gemini 疑用ChatGPT训练,引发争议,Scale AI 回应:不存在此事
- 阿里巴巴新架构Qwen3升级版助力苹果MLX入华:为智慧未来铺路?
- 哈佛大学公开98万本图书,AI训练从此告别数据稀缺
- 巨头冲突升级:谷歌因Meta投资欲与Scale AI终止合作,AI竞赛愈演愈烈
- 北京荣华医院儿科大模型引领诊断新纪元:准确率超越主治医师,儿科未来已来
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。