OpenAI o1 推理模型 API 上线,仅面向特定开发者开放
GoodNav 12 月 18 日报道,OpenAI 在其“12 天”活动的第 9 天宣布,其“推理”AI模型o1已通过API向部分开发者正式开放,同时更新了包括GPT-4o、实时API及微调API在内的多个开发者工具。
据了解,首批使用o1 API的开发者是OpenAI的“第五级”用户。这要求开发者在OpenAI平台上累计消费至少1000美元(约合7285元人民币),并且账户自首次成功付款以来已超过30天。此外,o1 API取代了之前的o1-preview模型。
与大多数AI模型不同,o1及其推理模型能够有效进行自我事实核查,从而减少常见错误。然而,其缺点在于计算成本较高,得出结果的时间也更长。OpenAI计费为每分析约75万字收取15美元,每生成约75万字收取60美元,是其最新“非推理”模型GPT-4o的六倍。
相较于o1-preview,o1在API中提供了更高的可定制性,新增了函数调用(支持模型连接外部数据)、开发者消息(允许开发者设定模型的语气和风格)以及图像分析等功能。除了结构化输出外,o1还引入了名为“reasoning_effort”的API参数,允许开发者调节模型在回答问题前的“思考”时间。
OpenAI表示,API中的o1(同样即将上线其聊天机器人平台ChatGPT)是“新近经过后训练”的版本,版本号为“o1-2024-12-17”。与两周前在ChatGPT发布的o1模型相比,新版本已根据用户反馈,在多个模型行为方面进行了改进,但OpenAI并未披露具体细节。OpenAI在博客中提到:“我们正在逐步推出访问权限,努力扩大覆盖范围,涵盖更多用户级别并提高速率限制。”OpenAI在其网站上的说明指出,最新的o1应能提供“更全面、更准确的回答”,尤其是在编程和商业相关问题上,并且减少错误拒绝请求的可能性。
在其他与开发者相关的消息中,OpenAI还发布了最新版本的GPT-4o和GPT-4o mini模型,作为其实时API(Realtime API)的一部分。实时API是OpenAI用于构建低延迟、生成AI语音响应应用程序的API。新模型(分别是“gpt-4o-realtime-preview-2024-12-17”和“gpt-4o-mini-realtime-preview-2024-12-17”)拥有更高的数据效率和可靠性,并且成本更低。
实时API当前仍在测试阶段,但已新增多项功能,比如允许在不中断交互的情况下并发运行内容审核等后台任务的带外响应功能。该API现在也支持WebRTC,这是为基于浏览器的客户端、智能手机和物联网设备构建实时语音应用程序的开放标准。值得一提的是,OpenAI于12月初聘请了WebRTC的创始人Justin Uberti。“我们的WebRTC集成旨在确保即便在不稳定的网络条件下,也能实现流畅且迅速的互动,”OpenAI在博客中写道,“它能够处理音频编码、流媒体传输、噪声抑制和拥塞控制。”
最后,OpenAI为其微调API引入了偏好微调功能;该功能通过对模型响应的配对进行比较,来“教导”模型识别问题的首选答案与“非首选”答案。该公司同时针对Go和Java推出了官方软件开发工具包的“早期访问”测试版。