2025年11月21日,华为重磅发布Flex:ai AI容器软件,为AI算力资源管理带来革命性突破。该软件通过创新的算力切分技术,能够将单张GPU/NPU计算卡虚拟化为多个独立单元,最小粒度可达10%,这意味着用户可以更精细地分配计算资源,实现单卡上同时运行多个AI工作负载,大幅提升硬件利用率。这一技术突破不仅解决了传统AI计算资源分配的痛点,更为AI应用开发提供了前所未有的灵活性。
Flex:ai的另一个核心功能是集群级算力聚合。该软件能够智能整合集群中各节点的闲置XPU算力,构建形成强大的”共享算力池”。通过这种资源池化机制,Flex:ai有效解决了算力分配不均的问题,显著提升了整个集群的资源利用率,降低了企业AI算力成本。这种集群协同工作模式,为大规模AI应用提供了强大的算力支撑。
随着AI技术的快速发展,算力资源的需求呈现爆炸式增长。华为Flex:ai的推出恰逢其时,它不仅解决了算力资源分配不均的难题,更为AI开发与部署效率带来了质的飞跃。值得一提的是,Flex:ai发布后将同步开源至华为魔擎社区,这一举措将极大地促进AI技术的开源生态发展,助力全球AI开发者提升开发与部署效率。可以预见,Flex:ai将成为未来AI算力管理的重要标准,推动AI技术在各行各业的应用落地。
