华为开源MindSpore深度学习框架
发布于 2月前 作者 andy 来自分享

2019年8月23日,华为发布了全场景 AI 计算框架 MindSpore,并宣布 “MindSpore 将在2020年第一季度开源”。这是与 TensorFlow、PyTorch、PaddlePaddle 等框架竞争的一款产品。
华为在AI 框架的开发态友好(例如显著减少训练时间和成本)和运行态高效(例如最少资源和最高能效比)、适应每个场景(包括端、边缘和云)这三个方面都取得了显著进展:
在原生适应每个场景包括端,边缘和云,并能够按需协同的基础上,通过实现 AI 算法即代码,提供一系列的关键技术,例如
MindSpore 自动微分,采用 Source 2 Source 方式实现,在性能和可编程性上,明显优于业界图和运算符重载方式。能够实现任意算子的微分表达和编译优化,同时实现反向算子自动生成,使开发态变得更加友好,显著减少模型开发时间,降低了模型开发门槛。相比手工切分的模型并行的门槛高、效率低、调优难,MindSpore 只需定义单机模型,即可自动实现多机混合并行运行,无需了解 AI 集群细节。以一个 NLP(自然语言处理)典型网络为例,相比其他框架,用 MindSpore 可降低核心代码量 20%,开发门槛大大降低,效率整体提升 50% 以上。
通过 MindSpore 框架自身的技术创新及其与昇腾处理器协同优化,有效克服 AI 计算的复杂性和算力的多样性挑战,实现了运行态的高效,大大提高了计算性能。除了昇腾处理器,MindSpore 同时也支持 GPU、CPU 等其它处理器。
全场景支持,是在隐私保护日渐重要的背景下,实现 AI 无所不在越来越基础的需求,现在已有的 TensorFlow、PyTorch
框架,还没有任何一个现有框架支持全场景,这正是 MindSpore 的重要特色。针对不同的运行环境,MindSpore 框架架构支持可大可小,适应全场景独立部署。MindSpore 框架通过协同经过处理后的、不带有隐私信息的梯度、模型信息,而不是数据本身,以此实现在保证用户隐私数据保护的前提下跨场景协同。
MindSpore 在设备端的深度学习框架,其容量只有不到 2m 大小,运行时占用内存不到 50m。华为表示,MindSpore 同时也支持目前所有主流深度学习框架中的模型。在框架之上,华为还为开发者提供了更为高级的 ModelArts,这是一个机器学习PaaS,提供全流程服务、分层分级 API 及预集成解决方案。

回到顶部