/ EN
0755-83044319

资讯中心

information centre
资讯中心
首页 -资讯中心 -媒体资讯 -芯智讯 -百度、Intel、NVIDIA……各大厂商集结于此,共创软硬一体全新生态

百度、Intel、NVIDIA……各大厂商集结于此,共创软硬一体全新生态

发布时间:2022-05-19作者来源:芯智讯浏览:564


WAVE SUMMIT 2022深度学习开发者峰会重磅来袭!本届峰会,将呈现以飞桨为代表的深度学习领域的最新技术突破、最扎实的产业实践和共创共享的生态成果,来自产学研界的专家学者和资深AI工程师将在七大平行论坛带来精彩的技术分享。此外,飞桨将携手多家硬件合作伙伴生态共创,带来全新的生态合作模式。 



共创软硬一体生态繁荣




本次峰会专设【智能硬核 生态共创】平行论坛,论坛荣幸地邀请到北京大学数学科学学院长江特聘教授、大数据分析与应用技术国家工程实验室副主任杨超担任论坛主席。飞桨硬件生态中的多位资深专家及伙伴将为大家分享与飞桨在算力和算法方面优势的深度融合合作,利用各自的优势技术和市场应用经验共同打造软硬件协同定义的创新生态。



论坛内容精彩预告






英特尔携手百度,加速AI实践

1.png


深度学习技术是推动人工智能时代发展的强大引擎,然而,因为数据量庞大、技术门槛高,对很多企业而言,深度学习技术似乎高不可攀。开发者迫切希望找到深度学习模型在产业中落地的支点。针对这些需求,百度飞桨结合英特尔®至强®可扩展处理器给出了令产业开发者满意的解决方案,为深度学习技术在实际场景应用落地提供了有力支撑。同时,基于百度飞桨与英特尔的长期合作, 百度飞桨的部署工具 Paddle Inference 和 Paddle Lite 等也分别与 OpenVINO™ 工具套件等英特尔推理加速库进行原生整合, 开发者可以使用OpenVINO™来提升飞桨模型在英特尔的CPU、VPU等芯片上的性能。 




加速PaddlePaddle高性能计算

-NVIDIA Hopper 全新架构

2.png


在过去的半年里,NVIDIA与飞桨紧密合作,针对用户的多层次需求,双方联合开发了三大主要产品。基于英伟达GPU定制优化的飞桨容器NGC,包含了最新的NVIDIA工具包和优化后的飞桨版本,致力于为开发者提供最佳的开发环境。NVIDIA DeepLearning Example向用户提供易于训练和部署的飞桨模型示例。此外,NVIDIA与飞桨在DLI Course准备了系列课程及联名认证证书,帮助大家提高训推性能并简化代码,敬请期待。




携手飞桨,在Arm虚拟硬件平台上布署智能IoT

3.png

Arm虚拟硬件平台(Arm Virtual Hardware)突破了物理硬件的制约,为广大智能IoT开发者提供了极致的灵活性和可扩展性,第一时间提供Arm最新的处理器技术。Arm虚拟硬件平台和飞桨携手合作,优化智能IoT开发流程,提高MLOps开发效率,改善开发者体验,并且合作推出高效运行于Arm虚拟硬件平台上的产业级模型库Model Zoo。 




Imagination携手飞桨, 联合打造异构计算方案

4.png


随着人工智能技术在各行业的广泛应用及快速发展,业界已从各自独立的硬件算力驱动和算法创新驱动进入到算法和硬件协同创新阶段。在硬件生态共创计划中,双方基于百度飞桨(PaddlePaddle)对未来硬件计算平台的需求,结合Imagination (GPU,NNA 和CPU)异构计算IP技术,从算法模型到计算框架再到半导体IP技术通过联合优化的方法,构建高效灵活的软件栈方案,为芯片厂商提供设计指导和Benchmark参考。




中科曙光携手百度飞桨,共建AI生态

5.png


在数据量与模型规模都在大幅度增长的今天,如何通过大规模算力集群支撑新一代人工智能技术的发展变得极为重要。曙光与飞桨携手,完成了从框架到应用的全方位整合与优化,为AI开发和多场景行业应用提供优质的解决方案。 




RKNN与飞桨助力AI新硬件落地

6.png

数字技术已全面进入生产、制造、城市、家庭、社会生活各领域,从而带来由硬件、系统、内容、AI算法及云端服务融合的新硬件发展必然趋势,新硬件十年对芯片,对AI算法提出了更高的要求。基于瑞芯微在AI芯片方面的沉淀以及飞桨在AI领域的积累,双方的合作将极大地助力AI新硬件的落地。飞桨与RKNN将共建Model Zoo,共同制定培训计划,针对特定场景联合打造软硬一体的场景标杆。




IPU上的飞桨:共同构建全球AI创新生态

7.png


GraphcoreIPU支持通过飞桨完成大规模的模型训练任务,也支持通过飞桨推理库执行高性能的推理任务。双方团队通过在16个IPU组成的IPU-POD16上做数据并行与模型并行,并在Bert-Base、ERNIE等模型上进行了精读和吞吐量验证,取得了良好的性能效果。结果证明,运行在IPU硬件上的百度飞桨解决方案,在目前主流的AI训练任务和前沿AI创新模型任务上,可以取得很好的加速效果。IPU良好的系统扩展性使得用户可以根据任务需求灵活进行性能扩展。 




灵汐科技类脑产品携手飞桨
赋能人工智能产业升级与发展

8.png


灵汐科技与飞桨将展开深入合作,通过类脑学习框架、类脑算法研发,应用业务支撑等方式,聚焦类脑计算等国家重大前沿战略技术,推动类脑计算芯片、板卡及解决方案在脑科学和传统AI领域的应用落地,共同助力类脑生态的构建,促进类脑产业化。




昆仑芯×飞桨:共创智能计算“芯”生态

9.png


XPU-R是昆仑芯第二代架构,采用SDNN +Cluster的融合架构,在第一代的基础上,进一步提升了计算性能和通用性;昆仑芯提供完整的AI芯片软件栈,包括运行时环境、编译器、模拟器、通讯库、高性能算子库和图引擎等,为AI和高性能计算等业务场景提供高效支持;昆仑芯适配了百度飞桨等主流框架,支持推理和训练场景,生态建设正在逐渐完备,已在丰富的业务场景落地。

百度飞桨是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台。自2016年开源后,就紧密地与国内外包括英特尔、英伟达、Arm、华为、寒武纪、瑞芯微等厂商开展软硬一体联合优化,截止2021年底已有超过20个厂商、30种以上、超过1000个型号的芯片适配飞桨。而为了让开发者更好的使用到这些技术,在22年飞桨更进一步与厂商开展软件生态系统共建,当前已与近10家厂商分别计划或已推出基于飞桨的AI开发软件,更广泛的服务硬件开发者。本次峰会【智能硬核 生态共创】论坛,硬件伙伴集结于此,共创软硬一体全新生态合作模式,敬请期待。


(本文采摘自网络,意见与观点不代表本站立场。如有侵权,请联系我们删除!)


服务热线

0755-83044319

霍尔元件咨询

肖特基二极管咨询

TVS/ESD咨询

获取产品资料

客服微信

微信服务号