百度机器学习框架”飞桨”贡献到启智平台

近日, OpenI技术委员会第五次会议在北京智源研究院举行,OpenI技术委员会主席黄铁军,OpenI技术委员邱景飞,OpenI启智平台秘书长刘明等参加会议。会议经OpenI技术委员投票一致通过将百度paddle(深度学习)及parl(强化学习)两个重要项目贡献至启智平台,成为启智平台算法框架层的OpenI飞桨机器学习框架。


会上,百度何经舟和周波介绍了飞桨两个项目的相关工作,包括项目发展历程、核心技术原理、目前开源情况等。期间,黄铁军针对相关组件的技术实现与项目介绍人进行了讨论,并给出进一步优化建议。最后,经过到会的8位委员评议后进行投票,结果均同意百度贡献的两个项目paddle和parl进入启智平台的孵化阶段,进行迭代开发。并命名为OpenI飞桨机器学习框架,进入启智社区基础平台算法框架层。


同时,刘祥龙向技术委员介绍了深度学习鲁棒性评测的必要性及相关研究成果。黄铁军针对该项目的开源计划,与刘祥龙做了进一步沟通。

 
  飞桨(PaddlePaddle)
 
飞桨(PaddlePaddle)是集深度学习核心框架、工具组件和服务平台为一体的技术先进、功能完备的开源深度学习平台,已被中国企业广泛使用,深度契合企业应用需求,拥有活跃的开发者社区生态。提供丰富的官方支持模型集合,并推出全类型的高性能部署和集成方案供开发者使用。




飞桨的五大优势


1、同时支持动态图和静态图,兼顾灵活性和高性能
飞桨同时为用户提供动态图和静态图两种计算图。动态图组网更加灵活、调试网络便捷,实现AI 想法更快速;静态图部署方便、运行速度快,应用落地更高效。


2、源于实际业务淬炼,提供应用效果领先的官方模型
飞桨提供的80+官方模型,全部经过真实应用场景的有效验证。不仅包含“更懂中文”的NLP 模型,同时开源多个视觉领域国际竞赛冠军算法。


3、源于产业实践,输出业界领先的超大规模并行深度学习平台能力
飞桨同时支持稠密参数和稀疏参数场景的超大规模深度学习并行训练,支持万亿规模参数、数百个节点的高效并行训练,提供强大的深度学习并行技术。飞桨提供高性价比的多机CPU参数服务器解决方案,基于真实的推荐场景的数据验证,可有效地解决超大规模推荐系统、超大规模数据、自膨胀的海量特征及高频率模型迭代的问题,实现高吞吐量和高加速比。


4、追求极致速度体验,推理引擎一体化设计实现训练到多端推理的无缝对接
飞桨完整支持多框架、多硬件和多操作系统,为用户提供高兼容性、高性能的多端部署能力。依托业界领先的底层加速库,利用 Paddle Lite和 Paddle Serving 分别实现端侧和服务器上的部署。飞桨提供高效的自动化模型压缩库 PaddleSlim,实现高精度的模型体积优化,并提供业界领先的轻量级模型结构自动搜索Light-NAS,对比MobileNet v2在ImageNet 1000类分类任务上精度无损情况下FLOPS 减少17%


5、秉承用户至上理念,提供系统化技术服务与支持
飞桨提供完善的技术支持,满足不同层次的开发者的应用需求;提供系统化技术服务,致力于为企业合作伙伴保驾护航;提供领先的教育资源,支持高校和教育合作伙伴构建完善的教育体系。


文字 | OpenI秘书处媒体组 
排版 | OpenI秘书处媒体组

上一篇:OpenI启智社区2019年第五次工作会议会议通知
下一篇:OpenI 2019启智开发者大会欢迎您参加