巨头AI框架竞争激烈,百度11项更新+1亿元力推自有平台,还缺什么?

商业
巨头AI框架竞争激烈,百度11项更新+1亿元力推自有平台,还缺什么?
麻省理工科技评论 2019-04-25

2019-04-25

当下,作为人工智能的一个重要分支,深度学习技术已经被应用到越来越广泛的实践当中。而其中必不可少的基本工具,深度学习框架之争也暗流涌动。
人工智能
当下,作为人工智能的一个重要分支,深度学习技术已经被应用到越来越广泛的实践当中。而其中必不可少的基本工具,深度学习框架之争也暗流涌动。

当下,作为人工智能的一个重要分支,深度学习技术已经被应用到越来越广泛的实践当中。而其中必不可少的基本工具,深度学习框架之争也暗流涌动。

国外的谷歌、Facebook、微软等公司都已经推出了自己的深度学习框架,比如 TensorFlow、Caffe、MXnet 等,国内的本土深度学习框架则以百度的 Paddle Paddle 为首。各家大型科技公司都希望全球开发者使用并推广自己开发的技术栈,从整个行业的视角来看,不同科技巨头支持的不同深度学习框架必然可以相互推动,加快创新,但对于参与这场竞争的公司来说,抢到并保持今日窗口期的领跑者地位,也意味着能够在明日定义种种行业标准之时更有话语权。

这也是为何百度史无前例地为其 PaddlePaddle 框架召开了一场重大发布会的原因。

国产深度学习框架的一次重要亮相


4 月 23 日,首届 WAVE SUMMIT 2019 深度学习开发者峰会在北京举办,整个峰会的重点,便是围绕 PaddlePaddle 的一系列更新和升级,以期这款百度自有的深度学习框架能够覆盖更多的中国开发者。

在发布会上,百度深度学习技术平台部总监马艳军首次对外公布了 PaddlePaddle 全景图,集核心框架、工具组件和服务平台为一体的端到端开源深度学习平台,囊括支持面向真实场景应用、达到工业级应用效果的模型,针对大规模数据场景的分布式训练能力、支持多种异构硬件的高速推理引擎等。

巨头AI框架竞争激烈,百度11项更新+1亿元力推自有平台还缺什么?

图丨 PaddlePaddle 全景图(来源:DeepTech)

PaddlePaddle 也发布了 11 项新特性及服务,包含 PaddleNLP、视频识别工具集、Paddle Serving、PaddleSlim、AutoDL Design 等多种深度学习开发、训练、预测环节的“硬通货”。据马艳军介绍,百度希望围绕深度学习框架本身提供一整套紧密关联、灵活组合的完整工具组件和服务平台,覆盖初学者、零算法基础工程师、算法工程师、研究者。

具体而言,核心框架层开放了从开发到训练,再到预测的一整套完整能力。开发环节,PaddlePaddle 已开源 60 多个经过真实业务场景验证的官方模型,涵盖视觉、NLP、推荐等 AI 核心技术领域,例如全新发布 PaddleCV 及业界首个视频识别工具集,面向工业应用的中文 NLP 工具集 PaddleNLP。

而首次重磅发布的视频识别工具集,为开发者提供解决视频理解、视频编辑、视频生成等一系列任务。它开放了 7 个视频分类经典模型,这些模型共享一套配置文件,并且在数据的读取、评估等方面共享一套代码,覆盖视频识别方向的主流领先模型,还可实现一键式的高效配置来做训练和预测。

训练环节,大规模分布式训练主要从三方面实现了升级。首先多机多卡的全面高效支持,提升了速度;其次是在 CPU 的应用场景方面,针对大规模稀疏特征设计并开放了大规模稀疏参数服务器,开发者可轻松下载相关镜像使用;大规模分布式训练支持在各种容器上高速运行,同时支持在 K8S 生态下使用 PaddlePaddle 进行训练。

巨头AI框架竞争激烈,百度11项更新+1亿元力推自有平台还缺什么?

图丨橙色部分为本次更新的 11 项新服务的分布(来源:DeepTech)

数据处理方面,优化分布式 IO,增加远程文件系统流式读取能力。GPU 多机多卡同步训练通过增加稀疏通信能力提升带宽不敏感训练能力,在低配网络带宽网络环境下,例如 10G 网络下,同步训练可提速 10 倍。

开发和训练后,将模型部署到各种应用场景下是非常关键的一个步骤。部署环节需要高速的推理引擎,在此基础上,为了部署在更多的硬件上往往需要做模型压缩,在真正使用时,还需要软硬一体能力的支持。基于此,PaddlePaddle 准备了完整的端到端的全流程部署方案,并将持续扩展对各类硬件的支持。基于多硬件的支持,PaddlePaddle 提供性能全面领先的底层加速库和推理引擎,全新发布 Paddle Serving 支持服务器端的快速部署。不仅如此,模型体积压缩库 PaddleSlim 也是为开发者准备的“重磅惊喜”,针对体积已经很小的 MobileNet 模型,它仍能在模型效果不损失的前提下实现 70% 以上的体积压缩。

在多项全新发布及重磅升级中,工具组件方面显得尤为突出。此次,PaddlePaddle 不仅开源 AutoDL Design、升级 PARL,并首次提出并发布预训练一站式管理工具 PaddleHub。

巨头AI框架竞争激烈,百度11项更新+1亿元力推自有平台还缺什么?

图丨百度 AI Studio 算力支持计划(来源:DeepTech)

One More Thing。在发布会上,为了解决非大型企业的开发者在开发深度学习应用时遭遇的算力问题,百度宣布推出了 1 亿元的免费算力计划:免费算力主要以两种模式提供,第一种是一人一卡模式,V100 的训练卡包括 16G 的显存,最高 2T 的存储空间。另外一种是远程集群模式,PaddlePaddle 提供高性能集群,供开发者免费使用。

PaddlePaddle 开源3年之际,下一步会是打造专有硬件吗?


结合本次发布会回顾百度的 AI 之路,PaddlePaddle 的存在感愈发强烈。

百度是国内最早研究深度学习技术的公司之一,早在 2013 年即设立全球首个深度学习研究院,并在 2016 年 正式开源百度 PaddlePaddle,PaddlePaddle 成为中国首个也是目前国内唯一开源开放、功能完备的端到端深度学习平台。

开源之后,PaddlePaddle 的本土化特色吸引了国内不少开发者,另外,随着百度频繁与国外高校和企业进行技术交流,一度有业内数据显示,PaddlePaddle 也是全球范围内开发热度攀升最快的深度学习平台之一。

2017 年,由国家发改委批复,百度牵头筹建了国内唯一的深度学习技术及应用国家工程实验室。

负责实验室的百度高级副总裁王海峰就在这次大会上表示,百度认为深度学习框架是“智能时代的操作系统”,“深度学习技术已经具备了很强的通用性,正在推动人工智能进入工业大生产阶段,呈现出标准化、自动化和模块化的特点”。

巨头AI框架竞争激烈,百度11项更新+1亿元力推自有平台还缺什么?

图丨王海峰(来源:百度)

而当深度学习继续走向与产业结合的深水区,深度学习框架进化的一个非常关键的趋势就在于软硬件结合。尽管整场 PaddlePaddle 的更新并不涉及这一方面的内容,但在大会的讨论环节,包括百度、华为、英特尔等业内领军企业的与会者也纷纷表示认同这一趋势。

在这一点上,谷歌已经做出表率。谷歌基于 TensorFlow 定制了专属的芯片 TPU,加速深度学习平台的部署,而系统广泛的应用,也为其不断降低专属 AI 芯片的成本。

巨头AI框架竞争激烈,百度11项更新+1亿元力推自有平台还缺什么?

(来源:DeepTech)

AI 芯片、深度学习框架、行业应用的关系是,深度学习框架承上启下,下接芯片、大型计算机系统,上承各种业务模型、行业应用。当业务和应用对深度学习框架提出越来越多、越来越复杂的新需求时,传统的芯片恐怕将难以支撑深度学习框架新能力的输出,后者反向定制专用 AI 芯片也就成为大势所趋。

也就是说,某种程度上,未来谁在深度学习框架上有了决定性优势,谁在 AI 芯片的优化和定制上就更有话语权。深度学习框架之争,演化成各家比拼专属化硬件研发能力,也就是早晚的事情了。

巨头AI框架竞争激烈,百度11项更新+1亿元力推自有平台还缺什么?

图丨PaddlePaddle 的新中文名“飞桨”(来源:DeepTech)


麻省理工科技评论

From Tech to Deeptech