OpenAI全面开放ChatGPT高级语音模式,支持5种风格50种语言
在首次向公众展示四个月后,终于宣布将向所有付费用户开放的高级人工智能语音助手功能——“高级语音模式”( Mode,简称AVM)。
于周二(24日)宣布,所有付费订阅 Plus和Team计划的用户,都将可以使用新的AVM功能。该功能将在未来几天逐步推出,并首先在美国市场上线。下周,该功能将向 Edu和计划的订阅者开放。
据悉,AVM提高了外语对话的速度、流畅度,并改进口音。此外,AVM还新增了两大功能:为语音助手存储“自定义指令”,以及记住用户希望语音助手表现何种行为的“记忆”功能。这意味着,用户可以利用自定义指令和“记忆”来确保语音模式是个性化的,AVM会根据他们对所有对话的偏好做出响应。
还推出了五种不同风格的新声音:、、Sol、和Vale,加上之前老版本的四种声音、、Cove和,可选声音达到九种。值得注意的是,被指模仿某著名女演员的声音Sky已被撤下。
这一更新意味着,的Plus版个人用户和小型企业团队用户()可以通过“说话”的方式,而不是输入提示来使用聊天机器人。当用户在应用程序上进入语音模式时,他们会通过一个弹出窗口知道他们已经进入了高级语音助手。
AVM的另一个亮点是,它可以用超过50种语言说“对不起,我迟到了”。据发布的视频显示,用户要求语音助手表达,由于让奶奶久等了,向奶奶致歉。AVM先用英语流畅地总结了一遍,并在用户表示“奶奶只会说普通话”后,又用标准的中文普通话表达了一遍。
不过,这些更新只适用于的AI模型GPT-4o,不适用于最近发布的预览模型o1。今年5月,首次展示了这款语音产品,但在6月因解决潜在安全问题而推迟发布。到了7月,该功能也只面向有限数量的 Plus用户开放。
新的语音模式缺少5月展示过的不少功能,比如计算机视觉功能。该功能可让GPT仅通过使用智能手机的摄像头就对用户的舞蹈动作提供语音反馈。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。