您的位置 首页 新闻

OpenAI发布GPT-4o:可实时对音频、视觉和文本进行推理,能处理超过50种不同的语言

  5月14日,在今天凌晨的OpenAI发布会上,最新升级的大模型GPT-4o正式发布。   GPT-4o的“o”代表“omni”…

  5月14日,在今天凌晨的OpenAI发布会上,最新升级的大模型GPT-4o正式发布。

  GPT-4o的“o”代表“omni”。该词意为“全能”,源自拉丁语“omnis”,在英语中“omni”常被用作词根,用来表示“全部”或“所有”的概念。

  GPT-4o可以实时对音频、视觉和文本进行推理,能处理超过50种不同的语言,并且速度和质量大大提升。

OpenAI发布GPT-4o:可免费开放使用 语音对话媲美真人

  此前GPT-3.5语音对话的平均延迟为2.8秒、GPT-4为5.4秒,音频在输入时还会由于处理方式丢失大量信息,无法识别笑声、歌唱声和情感表达等。

  而GPT-4o可以在232毫秒内对音频输入做出反应,甚至还能随意打断,与人类在对话中的反应时间相近,彻底颠覆了以往的“语音助手”。

  GPT-4o在现场充当实时翻译也是相当的丝滑,意大利语和英语即听即翻。

  最重要的是,GPT-4o还可以接受文本、音频和图像三者组合作为输入,并生成文本、音频和图像的任意组合输出,人机交互更加自然、全面了。

  GPT-4o的能力还会向免费用户开放,不过会限制数量,免费用户达到数量之后,会自动跳回GPT-3.5。

  GPT-4o还将开放相应API给GPT的开发者,价格是GPT-4-turbo的一半,速度却是GPT-4-turbo的两倍,速率限制也高5倍。

OpenAI发布GPT-4o:可免费开放使用 语音对话媲美真人

  官方表示,GPT-4o将会在未来几周内陆续开放。

  此外,OpenAI还推出了ChatGPT的桌面版应用,不过目前只有MacOS版本,Windows版要稍晚一些亮相。

本文来源于网络,不代表中国科技观察网立场,转载请注明出处:http://imgmg.com/post/147340.html
联系我们

联系我们

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部