Loading...

百度飞桨框架 3.0 正式版发布,五大特性专为大模型设计

AI前沿资讯19小时前发布 GOODNAV.NET
205 0 0

GoodNav 4 月 3 日报道,百度在本月推出了飞桨框架 3.0 的正式版本,专为大模型设计的五大特性

图片

在大模型时代,深度学习框架的重要性日益显著,所有大模型的训练和推理任务都依赖于其优化与支持。

飞桨框架 3.0 宣称在设计理念上实现了从底层硬件适配到顶层开发体验的全面提升,具体如下:

图片

飞桨提出了“动静统一自动并行”的技术,显著降低了大模型的开发与训练成本,使得算法创新能够回归核心的价值创造;

“训推一体”的设计理念打破了训练与推理之间的壁垒,通过全面深度优化,飞桨框架 3.0 可以支持多个开源大模型进行高性能推理,并在 DeepSeek V3 / R1 上显示了出色的性能。目前,飞桨框架 3.0 支持文心 4.5、文心 X1等多个主流大模型,DeepSeek-R1 满血版的单机部署吞吐量提升了一倍。凭借技术和算法上的创新,飞桨实现了低延迟、高吞吐及低算力成本的推理服务;

在科学智能领域,飞桨框架 3.0 针对科学前沿探索的需求,提升了微分方程求解的速度。通过高阶自动微分和神经网络编译器技术,加快微分方程的求解,速度比 PyTorch 2.6 版本开启编译器优化后的速度快 115%。飞桨还广泛适配了 DeepXDE、Modulus 等主流开源科学计算工具,并成为 DeepXDE 的默认推荐后端。其展现出的科学智能潜力在气象预测、生命科学、航空航天等领域具有广泛的应用价值;

在计算速度方面,借助创新研发的神经网络编译器 CINN,显著提升了性能。在 A100 平台上,RMSNorm 算子的性能测试显示,经过编译优化后的算子运行速度提升了 4 倍;对超过 60 个模型进行实验后,使用 CINN 编译器的超过 60% 模型显著提升性能,平均提升达到 27.4%

在硬件适配方面,飞桨框架 3.0 推出了多芯片统一适配方案,构建了“一次开发,全栈部署”的生态体系。目前已适配超过 60 种芯片系列,涵盖了训练集群、自动驾驶、智能终端等场景,开发者只需编写一份代码,即可在不同芯片上顺畅运行,轻松实现业务跨芯片迁移。

截至 2024 年 10 月,飞桨文心生态系统已吸引了 1808 万开发者,服务了 43 万家企事业单位,创建了 101 万个模型。

飞桨框架 3.0 正式版本现已向开发者开放,并且与 2.0 版本的开发接口兼容。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...