时局如此,国产AI框架雄心更盛。气势更足、功能更新力度更大、开发者羊毛更丰厚……而且新发布还不是全部,已获得的成绩也相当亮眼:先用AI算法为中国传统产业节省了1个亿。这就是百度旗下AI开源框架飞桨(PaddlePaddle),刚刚秀出的肌肉。
2016年开源至今,飞桨目前有150万AI开发者,超过6.5万企业用户,在定制化训练平台上发布了16.9万个模型。俨然中国第一大深度学习开源平台。并且形势所迫,自主可控也成为AI框架等基础平台发展要求之一。所以在此次飞桨更新发布中,也无处不透露着“国家队”担当。
在采访中,百度方面透露,飞桨不仅是完全自主知识产权的深度学习平台,而且在分布式训练的性能以及易用性上,都超过了国内外竞争对手。那么接下来如何实现更多场景、更全面地同场竞技优势?此次的九大新产品、上亿新羊毛,以及进一步产业落地,就更值得关注。
九大新产品都是啥?
在“WAVE Summit+”2019深度学习开发者秋季峰会上,飞桨迎来全面升级。
百度CTO、深度学习技术及应用国家工程实验室主任王海峰,率先登台分享最新思考,他说:深度学习正在推动人工智能进入工业大生产阶段,具有很强的通用性,同时具备了标准化、自动化和模块化的基本特征,推动人工智能技术从实验室走向产业,并且越来越大规模使用起来。而深度学习技术和平台也在不断发展,在未来的时间里也将继续发挥重要作用。我们秉承开源开放的理念,把飞桨平台开源开放,与所有开发者一起,推动科技发展、产业创新和社会进步。
此次飞桨一共有9大产品全新发布:包含一个模式、一个端侧推理引擎、四大产品开发套件,三个工具组件。具体详情如下:
首先,一个模式,指的是飞桨Master模式。
百度AI技术平台体系执行总监、深度学习技术及应用国家工程实验室副主任吴甜介绍说:飞桨是一个源于产业实践,与产业共进的深度学习开源开放平台。未来,飞桨将持续发展超大规模分布式计算、异构计算能力,定位于全硬件平台支持、端云边结合,为应用场景提供面向场景的端到端套件,构建融合数据和知识的预训练结合迁移学习的Master开发模式,为开发者提供最强大的生产平台和基础设施,加速产业智能化。
核心是依靠百度的强大算力,提升开发者在部署模型时的移动性。具体来说,开发者只使用自己的少量标注数据,加上飞桨的迁移学习工具,就能将自己的算法模型快速部署到自己的应用场景中。带来的直接影响,是面向产业场景平台开发时,降低工作量,提升模型的准确度、可靠性。
其次,一个端侧推理引擎,指的是Paddle Lite 2.0。这一轻量级深度学习推理框架,在今年8月份正式发布。这次的升级中,专注易用性,提供了预测到部署完整工具链,只需要7行代码调用Resnet50,也支持极致轻量级部署。硬件支持也更加广泛,移动端支持8种主流硬件,新增华为NPU和边缘设备FPGA支持,寒武纪、比特大陆等国产硬件的支持也在路上。在架构设计上对硬件扩展也更加友好。最后是性能,百度深度学习技术平台部总监马艳军,现场放出了与其他几家主流框架的性能对比图,基本上都是“吊打”状态:
第三,四大面向场景的端到端开发套件,也是飞桨体系中完全新增的模块。覆盖语义理解、图像分割、目标检测,以及个性化推荐。
包含ERNIE 2.0,一个基于持续学习的语义理解预训练框架,号称在16个中英文任务全面超越对标产品。核心亮点在于,新构建的预训练任务类型可以无缝的加入训练框架,持续的进行语义理解学习。
还有PaddleSeg,产业级图像分割库,提供了18个预训练模型,覆盖了DeepLabv3+, U-Net, ICNet三类主流的分割模型。通过统一的配置,帮助用户完成从训练到部署的全流程图像分割应用。
以及目标检测库PaddleDetection,已集成60+预训练模型。目的是为工业界和学术界提供易使用的目标检测模型。在这个库中,飞桨还提供了许多目标检测小模型,方便给移动端设备使用。
此外新增的套件,是用于个性化推荐的ELASTIC CTR,这一套件源自于百度的产业实践。可以实现分布式训练CTR预估任务和Serving流程一键部署,提供了端到端的CTR训练和二次开发的解决方案。
最后,三大发布,都聚焦在深度学习领域前沿的工具组件:PALM,多任务学习框架。
其中内置了模型backbone(BERT、ERNIE等)、常见的任务范式(分类、匹配、序列标注、机器阅读理解等)和数据集读取与处理工具。功能亮点在于易用性,对于典型的任务场景,几乎无需书写代码便可完成新任务的添加。对于特殊的任务场景,用户可通过对预置接口的实现来完成对新任务的支持。
PGL,图神经网络框架。
提供了一系列的Python接口用于存储/读取/查询图数据结构,并且提供基于游走(Walk Based)以及消息传递(Message Passing)两种计算范式的计算接口。利用这些接口,可以搭建最前沿的图学习算法,结合飞桨核心框架,就基本能够覆盖大部分的图网络应用,包括图表示学习以及图神经网络。现在,PGL已有13个图学习模型,涵盖图神经网络和图表示学习的主流模型。
PaddleFL,联邦学习框架。
其能力在于复制和比较不同的联邦学习算法。在PaddleFL中,还提供了很多联邦学习策略及其在计算机视觉、自然语言处理、推荐算法等领域的应用,在部署大规模分布式集群中部署联邦学习系统时,也较为容易。
此外,伴随着这次1.6版本发布,飞桨还有12项产品重要升级。比如:
(1)提供更多的算子库、简单高效的API接口、完善的文档内容,全面提升易用性。
(2)升级轻量级模型结构自动搜索PaddleSlim,增加了基于硬件搜索等能力,打通训练、压缩和部署全流程。
(3)NLP、CV、推荐系统、语音等各大基础模型库的模型,从原来的60+到了100+。这其中有多个在AI竞赛中夺冠的算法模型,比如在EMNLP获得了10项阅读理解项目冠军的D-Net。
(4)Paddle Hub,新增了超参优化Auto Fine-tune功能,预训练模型数量大幅增加,支持飞桨Master模式。
(5)深度强化学习框架PARL并行能力升级,支持进化算法。
(6)Paddle2ONNX和X2Paddle升级,飞桨和其他框架的模型互转更加方便。
聚焦产业场景,上亿新羊毛待薅
所以上述新发布究竟够不够竞争力?自飞桨开源以来,作为深度学习框架,经常被人拿来与PyTorch、TensorFlow两大框架进行对比。但时至今日,飞桨官方认为已经不能再单纯以AI框架视之了。他们更愿意定位自称:深度学习开源平台。以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心框架、基础模型库、端到端开发套件、工具组件和服务平台于一体。
在接受量子位采访时,吴甜解释了这一定位背后的考虑:“不同的AI框架都有其相应的发展规划,这就是飞桨选择的发展路线。”现在,百度对外宣称的飞桨四大领先技术时,框架只是其中之一。而且如今谈AI发展,不谈落地都显得太虚。于是大会主题演讲中,飞桨也重点分享了发展至今的侧重点与发力点:产业。因为产业之大,转型之需,AI的降本增效作用简直再明显不过。在发布会举办前夕,百度还专门发布了一个名为“看中国算法工程师如何手动省出1个亿”的视频。
其中在农业、工业制造、质检和电力抢修等方面,AI算法都在帮助传统产业降本增效。先节省一个亿,这是飞桨已经完成的小目标。但AI发展,产业场景也已经是各大人工智能平台服务供应商的必争之地,接下来如何面对这种日益白热化的竞争?飞桨透露的打法是:放羊毛、建生态,与开发者和传统产业一起赢。一手抓开发者培养和教育。比如百度响应教育部产学研合作号召,在全国开展深度学习师资培训班,有效地弥补了国内高校AI教师缺口。在一年半的时间里,飞桨已成功举办8期培训,培养了1000多个AI专业高校教师,从教育环节开始,让计算机学生从接触飞桨,将来散落到产业界才能遍地开花。产业界还有“黄埔学院”,学术界与高校组建联合实验室,飞桨已经和西交、中科大、南大、浙大、大连理工合作,人才联合培养。另一手给福利。在今日大会发布最后,飞桨也发布了最新生态激励计划:
(1)免费开放10多个AI课程;
(2)支持100多所重点高校教学培训;
(3)为1000多个企业转型提供助力计划;
(4)还有百万级的AI竞赛奖金和亿元级GPU算力资源支持。
(5)不过,这两手效果如何、究竟够不够硬,还得经受时间和实践检验。
当然还得经受激烈竞争检验。如今机器学习的框架之争,全球范围内已经沦TensorFlow和PyTorch两家的较量,要从这两家手中分一杯羹,仅仅有产业界的支持是远远不够的。但飞桨现在也算在国内拥有民心和祝愿。在活动现场上,一则这样的留言格外醒目,或许也是2019年潮水方向里的小小注脚:还是得支持国产深度学习框架啊,免得国外框架垄断,又要跟电脑操作系统和芯片一个结局。
所以,好风凭借力,飞桨要加油。毕竟天时地利都有,最关键的人心也兼具,唯有拿出更好成绩,才能实现更大雄心了。你说呢?
特别提醒:本网内容转载自其他媒体,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。