企业的品牌宣传策划,seo快速排名培训,直播的网站开发,国内flash网站点击以下链接收听本期 “大咖访谈” 播客#xff0c;与大咖面对面#xff1a; 大咖访谈链接#xff1a;于璠 | AI 框架应该和而不同#xff1f; 刘天栋#xff1a;访谈主持#xff0c;开源雨林社区顾问、开源社联合创始人、ASF member
于璠#xff1a;访谈嘉宾#xf… 点击以下链接收听本期 “大咖访谈” 播客与大咖面对面 大咖访谈链接于璠 | AI 框架应该和而不同 刘天栋访谈主持开源雨林社区顾问、开源社联合创始人、ASF member
于璠访谈嘉宾昇思 MindSpore 技术总经理AI for Science 实验室主任 职业生涯的挑战 请先简单介绍一下自己
于璠大家好我是华为 2012 实验室中央软件院的于璠现在主要负责 MindSpore 的研发工作同时也兼任 AI for Science 的 Lab 主任。
2009 年我从中科大博士毕业后来到了华为刚开始做的是云计算相关的一些事情主要是负责云计算大规模的集群调度。后来大概在 2018 年左右软件院承接了公司对外发布的 AI 全栈全场景策略 当中的 MindSpore 这一个重要的软件环节当时的我认为如果云计算是前一波浪潮那 AI 就是新的浪潮再加上对新鲜事物的浓烈兴趣我可以在 AI 这里做很多事情于是就跟领导申请加入 MindSpore。
在 MindSpore 我主要负责一些偏创新的工作当时谷歌的 TensorFlow 是生态以及行业应用绝对的领导者。那么我们做同一个层级的 AI 框架如何能做到差异化我们想了很多也与公司的很多领导和专家沟通过我们发现当我们与华为的硬件协同联动在一起时会出现极致的性能因此我们在系统上做了很多工作当时一个创新点就是做一个高阶优化器那时整个 AI 的训练过程是由一阶的优化算法在主导我们在想华为的硬件这么强这样的优化器完全无法压榨它应有的实力如果我们将这个优化器升级成高阶优化器那我们训练的迭代步数就会大幅度缩短但代价是对计算能力的要求呈指数级增长而我们的昇腾硬件是可以把这个几何指数级别的计算量消耗掉的因此我们在这方面做了很长时间的探索并取得了一定成果很多模型的性能都得到大幅度提升。
那时候大模型还没有火起来但我们已经笃定大模型是未来的一个差异化路径。在这个过程中我们布局了 “自动并行” 这种能力。假如一个科学家要开发一个大模型那么他需要同时扮演算法科学家和系统工程师两个角色而这两个领域都是可以出图灵奖的领域所以同时要兼顾这两个领域太难了。“自动并行” 就可以将 TA 解放出来专注做算法的创新。
与此同时我们还布局了 AI for Science 这个领域它以 DeepMind 的 AlphaFold 为代表由 “Transformer 传统算法” 融合而成在蛋白质结构预测这个领域远远领先于其他竞争者而且成本比原来做实验要大幅度降低。我们在分析时发现AlphaFold 2 对软件和硬件的要求非常高而且 AlphaFold 2 里除了算法、数据有创新系统工程上也有巨大的创新传统的 “隐马尔可夫的搜索” 与 Transformer 架构两者融合之后在一般的软硬件上运行性能就非常差如果没有一个很好的系统级优化可能运行速度会慢 10 倍以上而且 Transformer 的代码里有一个非常复杂的 “for 循环” 架构想要达到好的效果可能需要几十层 “for 循环”这对性能及整个架构的压力非常大。而 AlphaFold 2 最终版本就解决了这两个难点。
所以也借着这个机会我们把 MindSpore 架构升级成了一个叫 “AI 融合计算” 的架构将科学和 AI 融合在这一个架构里同时我们也支持了国内昌平实验室的科学家们做了一版新的 “AlphaFold 2”整体效果非常显著。
其实我们很早在技术的布局上就已经为这两个领域做了铺垫同时也支持了国内很多科学家们对大模型的探索我在其中做的技术创新跟我自己的成长过程、喜好以及能力都是有关系的。
您在华为这边有没有这样压力例如先跟随潮流持续优化精进 AI 这个大模型/框架AI for Science 要不要稍微晚一点您是如何抗拒这种压力的
于璠会有业务上的优先级排序但这个是动态变化的。目前大模型最重要那么我们百分之八九十的精力都会投入其中AI for Science 这边就会投入相对少量的人去布局但也会撬动外部人员一起协同。同理像前一段时间 AI for Science 火的时候我们就会多一些投入而这两者我们都兼顾的比较好。
在 AI for Science 这边我们不仅自己做研究、系统升级也连接了非常多的院士和长江学者其中涉及领域不止计算机领域还有化学、生物、材料、流体等除此之外我们也不断有落地的东西例如支持昌平实验室做的蛋白质折叠。昌平实验室做生物的专家一开始并不相信昇腾硬件能发挥作用坚持要买 CPU 和 GPU但跟我们联合工作了一段时间后发现想做的东西在昇腾上运行是完全没问题的所以最终顺利成交。而这种类似案例很多而且这个过程中我们同时也会将生态里的一些软件库、模型等孵化到 MindSpore 和昇腾上这样以后可以再复制给其他人用且老师们也非常愿意从而形成良性循环。所以说虽然公司在 AI for Science 也有投资但我们在这过程中也不断的“沿途下蛋”不仅能自己养活自己还可以超额完成销售/生态的目标。
当然整体贡献中目前大模型还是居于主导地位但 AI for Science 和大模型两者已逐渐处于一个融合状态现在很多做科学计算的行业伙伴已经将大模型融合进去了。我在今年 AI for Science 项目立项的时候也重新调整了技术规划把大模型给放到了 AI for Science 基础设施里举个例子
做化学材料的老师因为看到了大模型的能力希望做出化学材料的设计、仿真、实验这三个基础大模型。比如说我们想做一款全新的材料它能粘合玻璃、塑料、木材等。那么我们可以把这种材料设计的信息输给大模型大模型就会给出反馈通过不断交互最后可能反馈出来一个方案例如金属 Fe加上 O2氧气在某种温度和某些催化剂的配合下生成一个新型氧化铁的物质这个物质再经过一些操作就可以做出来一款新材料。而目前大模型非常有可能能帮忙完成这件事情一旦它真正设计出来了一种材料再送到仿真的模型中或者用传统仿真软件再仿真一下检验真实情况没问题的话接下来就能用起来了。
这是一件激动人心的事因为它是在底层去改造但其中的难度也很高它不像做 CV、LP 的基本上跟摄像头或者搜索广告直接匹配路径非常短它麻烦点就在于这么长的路径如何将 AI 和传统算法融合起来这是一件挺困难的事需要很多的人和时间。 MindSpore的开源 当时 MindSpore 的开源在华为内部是不是也有引发一些讨论跟冲突现在业内很多人在讨论“大模型框架要自主可控”所以我认为很多人应该会有这方面的困惑。
于璠MindSpore 诞生的时候公司的战略上就已经定义了一些关键的差异化竞争力比如把 MindSpore 定义为全场景框架——在华为所有的硬件上像集群、服务器、板卡、手机、耳机等等MindSpore 能快速使能。像刚上线的 MATE 60 Pro里面有很多 AI 功能MindSpore 的 Lite 版本就在其中。
正是因为公司有巨大的场景MindSpore 也就慢慢练出来了。随着时间的推移及外面形式的不断变化MindSpore 的竞争力也在不断调整。关于这点内部讨论也是非常激烈。我一直认为在讨论技术的时候尽量不要太和谐这样反而能找出一个兼顾长远期和中短期的策略。例如大模型一开始我们做了自动并行的能力但还是有很多人提出疑问做这个有什么用ResNet 模型就 2,500 万的参数开发者写一写就弄完了而且小模型提升一点性能从 60 分钟提升到 40 分钟这个提升比例虽然很大但又怎么样呢60 分钟和 40 分钟中间学生或者老师多做一会儿或者出去做一道题回来就 OK 了所以意义并不是很大。但在这个过程中我们还是坚持住了当时我们就在想“总归要做两个绝对差异化竞争力有样学样是永远不可能超越的。”
您作为 MindSpore 的技术总负责人在 MindSpore 框架开源的过程中有没有遇到什么挑战呢MindSpore 开源是否一开始就是公司的方向与共识还是说有经过一番思想斗争与挣扎
于璠战略层面上的共识就是一定要开源最初在给领导汇报这件事的时候领导就问“业界是不是所有的都开源了”我说是的然后他说“那这还要汇报什么那必然就是要开源的。”
但是在开源的过程中也发生了一些有意思的事情比如如何设置代码的 License代码开源出去之后专利会不会有侵权代码有没有抄袭开源后的版本如何迭代这些我们当时在汇报的时候都考虑到了。而且 MindSpore 开源对华为的压力还是挺大虽然战略上是必须开源但是华为之前并没有一个自主研发如此大代码量的、且没有任何保留的开源项目这对于我们的开发流程、人员配置等都有巨大的挑战直至现在这个挑战依旧存在。
这里面我的感触很深华为是做硬件起家的所以很注重流程质量我们设计一个东西大概需要两三个月然后开发三个月再测试一个多月最后版本交付整个流程下来至少需要三个季度甚至一年。但在 AI 开源上就不可以因为外面变化的速度太快了比如说我们要针对一个 Bert 模型经过一系列流程下来你会发现半年以后 Bert 在业界早就不流行了变成 GPT 了那我们做完了就又没啥用了。
还有就是来自外界的压力开源以后会有一些人的吐槽、批评同时也会有赞扬和支持还有用户的反馈和建议面对这些声音我们该如何回应这些都是开源之前没有的。
总而言之战略上很早就达成一致了但在战术上和执行上仍有许多挑战我们一直以来都在不断学习、不断进步。 AI框架的变革 大模型时代您觉得 AI 框架未来会有哪些变革或创新可能因为关系到行业用户的受众很多可能更多是使用者所以您可以简单介绍一下 AI 框架比如说它是一个操作系统或者是汽车里的方向盘
于璠MindSpore 就是 AI 框架的一个实践AI 框架相当于 AI 领域的操作系统屏蔽掉底下硬件的复杂性往上也需要做一些事情比如抽象出来一些接口大家做模型开发的时候会把共性的东西给抽象出来比如说怎么定义一个层这个层里有 Transformer还是有卷集还有一些典型组合比如说优化器推理的压缩小型化等同时上下游还有一些东西比如前面部分会有一些数据处理再比如说图片的旋转上再增一些东西会有助于提高推理和训练的精度等等这些常用部分当然还有一些像调试、调优工具可视化工具同时支持多种硬件、多种操作系统这些都是框架里必须具备的功能这就是 AI 框架的一个“画像”它有一堆的关键的、能简化开发者开发流程的 API然后有一堆可以内部并行和融合计算的加速功能还有周边的一些工具。
以前框架之所以定义成这个样子是因为它上面有成千上万个小模型而大模型时代来临了以后可能仅 10 个大模型就能实现原来成千上万个模型的所有功能原先我们需要支持几千个模型而现在只需要做好这几个大模型的预训练而且大模型的使用也与以前不一样——有微调过程也有与人类对齐的过程还有部署过程。对于行业使用者来讲我们做好了这套库他们就可以直接复用减少重复造轮子举个例子我们现在做的这个库叫 Mindformers 里面内置了业界所有开源典型模型且使用流程中的关键点也已经完成行业用户如果想要做一个知识问答的模型就可以拿一个我们的预训练模型输入一些数据再加上我们微调的算法就可以训练出来了而且训练过程中的并行功能也已经自动部署好了所以基本不需要感知什么就能迅速完成知识问答模型的建立。
Mindformers 是建立在 MindSpore 原来基础框架之上的我们可以认为 Mindformers 也是我们基础框架的一部分并且 Mindformers 与底下硬件软硬联动会将性能做到极致。小模型下性能提升个百分之 20 至 30客户对此可能没有什么感知但是如果大模型提升百分之 20 至 30那其中成本降低幅度非常大GPT-4 这种级别的模型训练一次至少花费 5000 万美金如果能提升 30%那可以节省 1500 万美金这非常可观。
所以大模型时代对我们框架是一个好事情当然也有新的挑战出现但更多的是机会大于挑战并且在这个过程中行业伙伴也在不断地调整。举个例子云从、电信、讯飞等企业也看到了大模型的趋势他们想做个一体机比如说是一个 256 卡的非常精致的一台服务器或者一个大的超级节点在这个节点上我们将 Mindformers 内置再加上伙伴的数据集以及一些可视化工具等整体做成一个一体机这个一体机就可以卖给客户客户将一体机放置机房输入数据就可以直接使用了并且讯推一体基本上能达到开箱即用的状态这也因此形成了一个新的产业。
看起来“百模大战”将来并不是那么必要大家很多时候是在重复造轮胎其实用像 MindSpore 这样的框架十大模型就可以覆盖主要需求那您认为“百模大战”还有必要么
于璠华为目前将大模型分为了 L0、L1、L2 三个类别L0 是基础大模型比如 GPT-4 、GPT-3.5、华为的盘古大模型以及谷歌秋季即将发布的 Gemini这一类模型业界并不多但什么都可以做比如加一些人类对话它可以变成一个聊天工具再加点法律的内容它就能变成一个律师L1 是行业大模型比如说法律领域、金融领域等行业大模型L2 是细分场景模型比如律师里是打经济官司的还是打其他的官司的会进行类似于这种场景的细分。
而百模大战现在大部分是处在 L1 和 L2 这两个层级也是基于业界开源的数据集微调出来的结果。但目前商业模式尚不明确且竞争力不够在我看来客户基于华为厂商制作的一体机用自己的数据稍微一调立马就能调出一个比百模大战的百模好很多的模型或者至少也是持平的一个状态而且它完全自主可控。当然百模里也有一些很强的模型例如唐杰老师的 ChatGLM 但这种模型也不是很多。
所以我觉得百花齐放对行业来说是件好事能慢慢地、真正地突围或者明确边界到底是 L0、L1、L2还是有新的分类对于华为来说目前华为的软硬件已经能支持外界很多的模型例如 ChatGLM、百川都可以在昇思和昇腾上运行。
随着 Llama 2 的开源您觉得开源对 AI 框架层面将来会有哪些影响
于璠目前我看到的模型的开源和其他开源框架的一些走向像 Pytorch 这个级别的可能互相有借鉴或者是 PK 状态比如说我们的技术流派Pytorch 采用的是动态图机制但现在也在融合静态图这种在华为称之为“友商”属于亦友亦敌互相学习、互相促进。
说到 Llama 2就不得不提 OpenAI虽然它叫 OpenAI但一点都不 “open目前 OpenAI 正在抢占生态所以是赔钱的一个状态但它肯定要慢慢变现它很厉害的一点是它闭源了大家在使用时就会上传数据然后它会持续吸收数据最终变得越来越强。Meta 和谷歌也在思考如何争夺业界的生态那 Meta 借鉴安卓将模型开源但 Llama 2 一开始就在开源上做了商业化的考量在使用的时候有商业化 license 限制小公司使用没问题因为那就是它的生态而大公司使用的时候如果产生了巨大的商业价值那他必然会追究。
Llama 2 的开源对 AI 框架的影响在技术或 license 方面来说还好但 Llama 2 的开源跟 Pytorch 形成了一体他们都是 Meta 的Pytorch 在小模型时代取代了 TensorFlow如果 Llama 2 在大模型时代统领开源而且 Llama 2 原生在 Pytorch 上强强联合那属于其他模型的机遇又少了MindSpore 或者 MindSporeMindformers 如何超越他们又是件打问号的事情。但好在框架与大模型的粘性非常少对于框架来说我们还是喜欢做一个“重型武器”而不是去建一百个小模型而且框架有绝对的门槛。
其实我们也没想清楚 Meta 在开源 Llama 2 后怎么变现有可能像安卓一样只要掌握住生态随意一个方向就能商业化比如做一个 GMS 或者 agent。 AI for Science的现状及展望 对 AI for Science 的现状以及未来的发展您有什么可以跟大家分享的么
于璠在学术界从成果上来讲AI for Science 有三个趋势一是 AI 完全取代掉 AI for Science另外一个就是互相融合的状态还有一个是不依赖于数据但是又出来一个新的 AI 模型比如在科学计算里面有麦克思韦方程、牛顿方程这些方程我们认为就是数据的总结因为随意输入一个x、 y 就能得出 z。
但是现在最好的、已落地的、能随时产生效果的还是 AI 数据驱动比如 AlphaFold它就有很多的数再比如气象里有大量历史上的数据像欧洲气象局公开的就有 9 个 PB 的数据但是这些领域又没有一个像牛顿或者爱因斯坦这样的人出现能将这些数总结成一个牛顿方程这时就可以用模型来进行总结因为 AI 非常擅长将很多的数据整合到一起从而形成一个模型而这两个领域我们可以看到有数据且又没有特别的方程那 AI 就容易着手布局而像麦克思韦方程科学家们都已经整合成了一个模型AI 模型想要取代它就没那么容易了。
而在工业界主要有两个典型一个是谷歌另一个是英伟达
谷歌在硬件方面做了个新东西叫 “TPU”类似于华为的昇腾在框架方面它有 TensorFlow以及新的框架 Jax基于 Jax 上有 DeepMind 这个强大的科学家团队创造了 AlphaFold 这个超级模型。
DeepMind 太强了强到可以把很多科学家拉到英国跟他们一起封闭三四年做一些科学问题创新性研究比如蛋白质折叠问题、水的演化问题、玻璃的演化问题大家都知道玻璃和水但是水是如何变成冰的过程是不清楚的。
而英伟达主要从硬件出发一开始主力方向也是在科学计算它希望科学上所有能计算的软件在英伟达上运行得是最好的所以他们常年会与老师联动来进行软硬件适配。现在 AI 成了以后不断地融合 AI 与硬件从下往上做。所以相对来说英伟达是一个比较零散的平台但依托于原来生态的强大所以使用它的人还是很多慢慢的它也成立了一些算法团队也希望能诞生一些超级模型所以它联合了很多人一起发布了 FourCastNet是一个与华为盘古 weather 同个方向的模型。
当时我们也梳理了一下我们的场景及利益诉求定义了几层其中一个是核心的 MindSpore 框架要升级支持神经网络将一些科学计算、概率计算、排序的、微分的库等统一划分在其中但不是单纯的糅合而是互相之间可以自动并行。
另外我们规划了 “101” 的库“10” 是指通过科学家们计算规划出来的十个科学领域原来科学领域有 8 个方程主导但有一些方程进行演化如果它演化出来气象那气象就会单独列出来。“1” 比较特别“1” 是一个通用的库比如说库里面的一个傅里叶神经网络模型可以布在方程里因为那些方程很多的求解方式都离不开神经网络也离不开傅里叶变换它不是只针对电、磁或者牛顿方程等而是通用的。这个 “101” 也是业界首创的一个规划其中 “1” 的主要策略就是复现业界最强的软件。
我们也与国内很多老师联合也包括通过人工智能学会、科技部、工信部等参与活动但前提是基于 MindSpore 与昇腾。举个例子我们与人大的老师联合他做了一个新的神经网络这个神经网络非常厉害而且也发表在《Nature》 的子刊上了那这个模型可以做到什么样子呢将电或者磁以及流体统一在一个模型里面但如果仅仅只是一个模型很多科学家就会觉得不美观所以它里面新增加了一个功能可以将这个神经网络转换成一个微分方程最终做出来的感觉非常炫。 AI 框架的机遇与挑战 企业跟模型公司对 AI 框架的选择。在数据管线阶段 AI 发展有什么新的机会么
于璠像华为有做数据存储的也有做数据平台的随着 AI 演进到大模型时代他们会在网上积极的观察了解客户真实的痛点以及需要改变的地方。举几个例子
大模型和存储的联动非常关键因为大模型的数据量大模型也很大上一次华为存储一体机发布时提到大模型在训练过程中的时间非常漫长如果没有备份坏一次就得重新做所以存储计算的配合非常关键而这一点业界大部分人都做不了也只有谷歌、微软或者 Meta 可以。我们可以看到大概几个小时就要存一次训练过程中的 checkpoint快照而这个过程与 IO 存储硬件极其相关所以通过一个存储一体机就能高可用、高可靠、高性能地将大模型训练出来。
这个是纯硬件的部分当然后续还会有很多很多的点可能现在我们还没有特别挖掘出来比如说大模型未来真正部署上线时会有离线推理以及增量、全量推理等这对存储的硬件设备有很高的诉求。
对于数据的平台管线以谷歌为例TensorFlow 是它的数据管线中的一环叫 TFX 管线因为计算框架叫 TF所以管线叫 TFX-TensorFlow Extended是围绕 TensorFlow 来配合的这个管线里有数据的存储包括数据格式的定义还有做数据切分、增强的库以及数据的审计、数据的可靠性、数据安全等等。
而大模型时代来了以后这个管线就变得不太一样了在大模型方面公司一直强调的是数据飞轮的状态比如说大模型训练完上线之后客户使用时如何保证客户数据的安全以及模型再更新后如何区分客户的数据贡献这都属于数据飞轮里面的安全管理、定价管理以及数据和模型的区分等等。目前这些可能还没有特别清晰的划分至少还未形成一个类似于 Spark 这种大数据处理引擎但我认为数据管线肯定会围绕计算框架和大模型发生一个大变革。
请您分享一下算力侧的机遇与挑战。
于璠其实 AI 由数据、算法、算力组成框架在中间将三者连接起来其中算力是一道门槛也是为什么许多人做不到 L0 模型的一个重要原因在这里面算力我理解是泛算力的一种说法在华为的术语上应该对应到比如说我们真正的那块硬件然后对应到算子库再对应到框架还对应到 ModelArts。
在大模型时代算力渐渐变成了一个大集群那我们如能何将它高性能、高可靠地运维起来刚才我们举了几个例子性能是非常关键的如果不仅仅只是看稳定训练那一阵儿的性能而是也将断掉的那一阵也算上Meta 的集群三天就会断一次断一次起来要好几个小时而我们是 30 天断一次半个小时之内就能起来那这样看来我们的性能比 Meta 还要强。当然这个可靠性、可用性不单单是一个环节就能完成而是整个算力集群软硬件的一体化。
未来还有一个挑战单纯从硬件上看FP 16半精度、FP 32单精度、FP 64双精度 要更加平衡另外里面的带宽以及功耗等一系列都需要做好上面的几个软件也需要升级一个有意思的点就是未来大模型的训练和推理必然是在一个集群上才能进一步降低成本把大模型商用起来那这个应该怎么做呢就是 AI 框架要和 serverless 结合在一起serverless 完全将硬件和软件解耦出来能动态调整资源我觉得在算力的硬件底座上的可靠、可用、功耗等再加上算子库的完备度以及 AI 框架和 serverless 的融合都需要巨大的升级才能真正带来大模型的红利最终实现变现。
对企业或者是想要做模型的公司而言AI 框架的项目以及自身公司的服务与自研他们应该如何选择会比较好您是否有什么更具体的建议
于璠从我们跟客户的交流来看客户分为几种类型一种是实力特别强的像讯飞、阿里、腾讯等等也跟华为类似全栈要自己开发但是越往下门槛越高比如说硬件我们可能将硬件卖给他们或者他们连我们的库都不需要而是直接使用指令集但这类客户不多且有标杆效应。
更多的行业客户和广度应该是再往上一点他们不需要关注用什么硬件和软件而是希望能开箱即用。我们在去年就发现业界客户用到的典型 AI 产品可能就 10 个套件比如说做 OCR 的票据识别做人脸识别的做语音、翻译的还有生成的如 Stable Diffusion 等等产品种类非常少就这么几种而且现在逐渐稳定了大模型出现以后小模型的创新较之前停滞了许多所以我们就将它们做成套件就是 MindSpore 的 10 个套件而且将性能和精度做到业界最强集成之后客户就可以直接用。
还有一类就是需要创新突破的做研究的这帮人我们也需要将这一层的接口开放出来但这一类就是研究类并不属于行业客户。
总而言之目前大概就这么几类人群行业客户大部分还是聚焦在套件上。 社区的运营 您觉得 MindSpore 社区的发展现状如何发展过程中是否有碰到什么挑战
于璠现在社区可能要有一个转变以前的运营主力是我们但是社区或者说 MindSpore 的成功是需要其他人参与的比如 Pytorch 的核心就一点点但是它外面生长出来的部分都是其他人做的在这一点上我们与 Pytorch 存在差距。
所以下一步就是要转变要有一些高精尖的东西比如说像刚才说 ChatGPT、AlphaFold 第一版、以及天气预报的模型等都原生在 MindSpore 上类似这种的是我们第一个想做的事情。第二个就是通过这些东西不断完善基础能力让行业客户和研究者们能主动来贡献、主动来主导。目前我们正处于一个由我们主动慢慢转变成生态伙伴们主动的时期这个转变时期有技术的挑战也有运营的挑战。
请问您对开源雨林有什么期待希望我们接下来做哪些事情
于璠刘老师和开源雨林应该是我们整个开源界的先驱、领路者回想一路走来我们踩过的坑、交的学费如果前面有很多的泰斗或者先驱者们能帮我们提前把脉给我们建议那我们就可以腾飞得更快一点。
从微观来说希望能与刘老师以及开源雨林多多互动MindSpore 的技术专家/项目经理如果合适都可以一块儿参加开源雨林的活动我们也多多分享 MindSpore 的经验刘老师也能给我们一些建议比如刘老师您刚才提的案例这件事儿我觉得就很好AI 的门槛其实挺高的如果有案例册客户就能通过案例册了解到社区的很多事情。 —End— 开源雨林围绕开源通识、开源使用、开源贡献三大方面构建知识体系愿把长期积累的经验系统化分享给企业在团队、机制、项目三方面提供合作推动各企业更高效地使用开源、贡献开源提升全行业开源技术与应用水平。 开源雨林的内容已开源并托管在 https://github.com/opensource-rainforest/osr 欢迎通过 Pull Request 的形式贡献内容通过 Issue 的形式展开讨论共同维护开源雨林的内容。