首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
容器AI 人工智能云+社区沙龙online [云原生技术实践]

算力强大的GPU,如何在k8s上的多个Pod之间共享?

累计人气 4169

活动简介

GPU作为一种异构资源,k8s社区的管理方案里,资源调度粒度为单个GPU,无法将一个GPU共享给多个Pod,实际业务环境里一个GPU往往支撑多个任务负载,对此社区方案无法很好的支持.GPUManager是腾讯云容器服务TKEStack上自研的GPU资源管理组件,除具备社区版调度功能外,还新增了更细粒度的资源调度、GPU拓扑感知、碎片资源优化等功能,很好的解决了上述问题.本次分享将为大家介绍GPU在K8s集群的使用及GPUManager的架构设计和实现原理,帮助大家在k8s集群上更高效的利用GPU资源.

  • 2020-03-07 周六 20:00-21:00

直播详情

讲师

何猛

腾讯云容器产品中心高级解决方案架构师

腾讯云容器产品中心高级解决方案架构师,负责容器相关的GPU和存储方面产品架构设计,有多年容器和AI相关工作经验.

内容纲要

1. GPU在裸服务器上使用 2. GPU在容器里使用 3. 常见的GPU虚拟化方案 4. 腾讯自研GPUManager方案 5. GPUManager的部署和使用

互动评论

我来说两句

0 条评论
登录 后参与评论

相关产品

  • 容器服务

    高可扩展和高性能容器管理服务

领券


http://www.vxiaotou.com