在首尔隆重举行的第31届操作系统原理研讨会上,阿里云自主研发的Aegaeon计算池化解决方案成功入选大会议题,引发业界广泛关注。该研究成果聚焦于人工智能模型服务中普遍存在的GPU资源闲置难题,提出了一套具有突破性的优化方案。
当前,云计算服务领域普遍面临算力资源分配不均的困境。以阿里云模型市场为例,数据显示17.7%的GPU算力仅承担了1.35%的请求处理任务,资源闲置现象十分严峻。为应对这一挑战,阿里云创新性地推出了Aegaeon系统,通过先进的GPU资源池化技术,实现了单个GPU能够动态适配多个AI模型的计算需求,彻底打破了传统模式下GPU与模型强制绑定的僵化模式。
经过为期三个月的严格测试,Aegaeon系统在服务720亿参数规模的大模型时展现出卓越性能,将原本所需的H20 GPU数量从1192个大幅缩减至213个,资源利用率提升了惊人的82%。这一突破性成果不仅显著降低了计算成本,更为AI模型服务提供了全新的资源优化路径。
这项由北京大学与阿里云联合研发的尖端技术,成功将高校的学术研究成果与企业的产业实践相结合,为整个云计算行业提供了极具价值的参考方案。通过Aegaeon系统的创新应用,未来AI模型的部署将更加灵活高效,算力资源的配置也将更加科学合理,有力推动人工智能技术的规模化落地发展