当地时间周二(7月30日),美国人工智能(AI)研究公司OpenAI宣布,即日起开始向部分ChatGPT Plus用户推出GPT-4o的语音模式。
图片来源:OpenAI官网
OpenAI表示,春季更新期间演示的视频和屏幕共享功能并不包括在Alpha版本在内,而是在后面推出。
ChatGPT高级语音模式不同于此前的语音模式,原有的音频解决方案使用了三个独立的模型:一个用于将用户的语音转换为文本,然后由GPT-4处理Prompt,然后由第三个模型将ChatGPT生成的文本转化为语音。
GPT-4o是一个多模态模型,能够在没有其他模型辅助的情况下处理这些任务,因为在体验上将显著降低对话的延迟。
OpenAI还透露,GPT-4o可以感知用户声音中的情绪语调,包括悲伤、兴奋或者唱歌;目前,Alpha组的用户将在ChatGPT中收到提醒,并将收到一封邮件介绍如何使用。
OpenAI在今年5月推出了新版本大模型GPT-4o,同时还展示出了语音模式。该公司原定于6月底开始逐步向用户开放语音模式,但最终决定推迟至7月发布。语音模式将于今年秋季向所有ChatGPT Plus用户开放。
OpenAI周二表示:“通过逐步推出,我们可以密切监控使用情况,并根据实际反馈不断改进模型的能力和安全性。”该公司还透露,它仍在开发5月发布会期间展示的视频和屏幕共享功能。这些功能尚未确定推出时间。
因此,语音模式初期的功能将比较有限。例如,ChatGPT将无法使用计算机视觉功能,该功能可让聊天机器人通过智能手机的摄像头对用户的舞蹈动作提供语音反馈。
目前GPT-4o语音模式可使用四种预设声音,Juniper、Breeze、Cove和Ember,这些声音是与付费配音演员合作制作的。
此前,ChatGPT一款名为Sky的女性配音被指与好莱坞明星斯嘉丽·约翰逊十分相似。在收到约翰逊团队的律师函后,OpenAI暂停使用Sky语音。
OpenAI还表示,它已引入了新的过滤器,以确保软件能够发现并拒绝某些生成音乐或其他形式的受版权保护的音频的请求。对于AI公司而言,避免陷入法律纠纷已成为格外需要警惕的事项。
值得注意的是,6月21日,OpenAI宣布成功收购初创公司Rockset,将该公司人才、重要技术同时纳入囊中。
OpenAI在公告中表示,AI有机会改变个人和组织利用自身数据的方式。这就是我们收购Rockset的原因,Rockset是一家提供顶尖实时分析功能的数据库公司,提供世界一流的数据索引和查询功能。
Rockset提供一种名为“向量搜索”的关键技术。随着越来越多公司使用人工智能驱动推荐引擎、语音助手、聊天机器人等应用,这项技术的应用场景也变得越来越宽广。