11月21日下昼正规配资炒股网,华为在上海举办“2025 AI容器应用落地与发展论坛”,会上进展发布并开源了翻新AI容器工夫Flex:ai。
现在,行业内算力资源的平均哄骗率仅为30%至40%,据华为先容,Flex:ai通过算力切分工夫,将单张GPU(图形处理器)/NPU(神经收罗处理器)算力卡切分为多份杜撰算力单位,切分粒度精确至10%。此工夫罢了了单卡同期承载多个AI使命负载,在无法充分哄骗整卡算力的AI使命负载场景下,算力资源平均哄骗率可提高30%。
与英伟达旗下Run:ai只可绑定英伟达算力卡不同,华为AI容器工夫Flex:ai通过软件翻新,可罢了对英伟达、昇腾卓越他第三方算力资源的长入治理和高效哄骗,有用屏蔽不同算力硬件之间的相反,为AI练习推理提供更高效的资源赞助。
大幅提高算力资源哄骗率
据先容,华为Flex:ai是基于Kubernetes容器编排平台构建的XPU池化与援救软件,通过对GPU、NPU等智能算力资源的高超化治理与智能援救,罢了AI使命负载与算力资源的“精确匹配”,大幅提高算力资源哄骗率。
据了解,容器工夫四肢一种轻量级杜撰化工夫,不错将模子代码、运转环境等打包成一个独处的、轻量级的镜像,罢了跨平台无缝迁徙,惩办模子部署“环境设立不一致”的痛点。容器还不错按需挂载GPU、NPU算力资源,按需分拨和回收“资源”,提高集群全体资源哄骗率。
AI时间需要AI容器
笔据Gartner的诠释,现在AI负载大多皆已容器化部署和运转,据谈判,到2027年,75%以上的AI使命负载将收受容器工夫进行部署和运转。
说念及为什么推出Flex:ai AI容器工夫,华为公司副总裁、数据存储居品线总裁周跃峰示意,传统容器工夫已无法透澈知足AI使命负载需求,AI时间需要AI容器。
具体而言,周跃峰示意,领先,大型说念话模子(LLM)的容器镜像纵欲谬误10GB,多模态模子镜像以至可达TB级别,传统容器无法赞助超大镜像的快速拉起,环境构建期间频频长达数小时。
其次,传统容器主要针对CPU(中央处理器)、内存等通用计较资源进行治理与援救,而AI大模子练习与推理还需大幅依赖GPU、NPU等智能算力资源,传统容器无法对异构智算资源作念到算力细粒度切分与智能援救,导致即使很小的AI使命负载也独占整张算力卡,且无法进行汉典调用。
临了,传统容器的资源援救以固定分拨、通用援救为主,而AI使命负载的资源援救需要以保险任务完成后果为看法,对不同任务的特质进行感知,罢了动态弹性的资源分拨。
据先容,与英伟达本年龄首收购的Run:ai公司的中枢居品比拟,华为Flex:ai在杜撰化、智能援救等方面具备至极上风。
具体来看,在腹地杜撰化工夫中,Flex:ai赞助把单个物理GPU/NPU算力卡切割为数个杜撰算力单位,并通过弹性生动的资源挫折工夫,可罢了算力单位的按需切分。
同期,Flex:ai至极的“拉远杜撰化”工夫,不错在不作念复杂的散播式任务莳植情况下,将集群内各节点的清闲XPU算力团聚造成“分享算力池”,此时不具备智能计较才能的通用就业器通过高速收罗,可将AI使命负载转发到远端“资源池”中的GPU/NPU算力卡中践诺,罢了通用算力与智能算力资源和会。
在智能援救方面,Flex:ai的智能资源和任务援救工夫,可自动感知集群负载与资源景况,集会AI使命负载的优先级、算力需求等多维参数,对腹地及远端的杜撰化GPU、NPU资源进行全局最优援救,知足不同AI使命负载对资源的需求。
加快AI行业化落地
周跃峰示意,Flex:ai将在发布后同步开源在魔擎社区中。Flex:ai将与华为此前开源的Nexent智能体框架、AppEngine应用编排、DataMate数据工程、UCM推理驰念数据治理器等AI器具共同构成完好的ModelEngine开源生态,加快赋能AI行业化落地。
周跃峰示意,不同业业、不同场景的AI使命负载相反较大,通过开源,Flex:ai可提供提高算力资源哄骗率的基础才能和部分优秀履行,与业界一集合会行业场景完成落地探索。
此外,华为还但愿通过开源鼓动造成以AI容器工夫为载体的资源高效哄骗新范式。周跃峰说,开源的Flex:ai不错在产学研各界拓荒者的参与下,共同鼓动异构算力杜撰化与AI应用平台对接的模范构建,造成算力高效哄骗的模范化惩办决策。

天元证券--专业服务伴您稳健前行!提示:本文来自互联网,不代表本网站观点。