OpenAI 为开发人员提供增强的语音和推理模型

宣布为使用其技术构建产品和服务的开发人员提供众多新选项,并承诺升级将“提高性能、灵活性和成本效率”。

在他们的今天现场宣布OpenAI 团队首先强调了 OpenAI o1 的变化,该公司的推理模型可以“处理复杂的多步骤任务”,该公司表示。开发人员现在可以在最高使用级别上使用该模型;目前,开发人员使用它来构建自动化客户服务系统,帮助为供应链决策提供信息,甚至预测财务趋势。

新的 o1 模型还可以连接到外部数据和 API(又名应用程序编程接口,这是不同软件应用程序相互通信的方式)。开发人员还可以使用 o1 微调消息传递,为他们的 AI 应用程序提供特定的语气和风格;该模型还具有视觉功能,因此它可以使用图像“解锁科学、制造或编码中视觉输入很重要的更多应用程序”。

可混搭光速

OpenAI 的实时 API 也得到了改进,开发人员可将其用于语音助手、虚拟导师、翻译机器人和。该公司新的WebRTC支持将有助于实时语音服务,利用JavaScript表面上创建更好的音频质量和更有用的响应(例如,即使用户仍在说话,RealTime API也可以开始制定对查询的响应)。 OpenAI 还宣布降低 WebRTC 支持等服务的价格。

另外值得注意的是,OpenAI 现在向开发人员提供偏好微调,它可以定制技术,以便比所谓的监督微调更好地响应“语气、风格和创造力很重要的主观任务”。请观看下面的完整演示。