GPU租用手册
一、服务器简介 概述 实验室利用两台ESC 4000G2 服务器 4张3090显卡搭建GPU服务器。但是因为3090非专业显卡。不支持vGPU功能。如果大家都直接操作宿主主机,直接在宿主主机上配置自己的开发环境将会发生不可避免的冲突。最后经过实际考虑,利用Docker进行合理的系统资源的搭配。使用 Docker 把服务器容器化,每个人都直接登录自己的容器,所有开发都在自己的容器内完成,这样就避免了冲突。并且,Docker 容器的额外开销小得可以忽略不计,所以也不会影响服务器性能。 一个docker镜像就可以看作是一个操作系统。在docker上面进行的操作不会影响主机本生的环境。 虚拟容器采用docker方式实现,为了能在docker中可以使用GPU。采用nvidia-docker进行gpu的加载。nvidia-docker 是专门为需要访问显卡资源的容器量身定制的,它对原始的 Docker 命令作了封装,只要使用 nvidia-docker run 命令运行容器,容器就可以访问主机显卡设备(只要主机安装了显卡驱动)。 如果要在docker中使用显卡。现在NVIDIA给出的解决方案中必须使用linux系统。 可以在docker中加载基础的镜像,然后将22端口映射出来。就可以直接使用主机ip加映射的端口来访问和使用docker容器。 可以使用web界面如Shipyard等来对docker进行GUI管理 NVIDIA有官方的Docker目录网站NGC,NGC为AI,机器学习和HPC提供了GPU加速容器的综合中心,这些容器已优化,测试并可以在本地和云中受支持的NVIDIA GPU上运行。此外,它提供了可以轻松集成到现有工作流程中的预训练模型,模型脚本和行业解决方案。 NGC网站镜像中包含很多包,例如TensorFlow,PyTorch,MXNet,NVIDIA TensorRT™,RAPIDS等,并且有各个版本的组合可以下载。更新也非常快。 服务器基本配置 备注 HPC1 HPC2 CPU Intel(R) Xeon(R) CPU E5-2620 2.00GHz Intel(R) Xeon(R) CPU E5-2620 2.00GHz 内存 64 G (8*8G) 硬盘 3T 2T 显卡 技嘉RTX 3090 Turbo*2 技嘉RTX 3090 Turbo*2 IP 172....