手把手教你启用RemoteFX以及Hyper-V GPU卸载

简介:

微软的RemoteFX特性可以帮助改善虚拟机图形密集型应用工作负载的性能。

服务器虚拟化已经成熟到大多数工作负载都能够在虚拟机内运行的程度。毫无疑问,与其他工作负载相比,某些工作负载在虚拟机内运行将面临更多的挑战,例如图形密集型应用一直面临挑战。因为正常情况下,虚拟机内的图形处理是由服务器的CPU完成的。对于大多数工作负载来说并不存在什么问题,但有一些工作负载肯定会受益于图形硬件加速。

在Hyper-V中,该类型的硬件加速可以通过使用RemoteFX以及vGPU实现。vGPU将图形处理任务交给主机服务器的物理GPU而不再使用CPU完成上述任务。

在启用Hyper-V GPU卸载前,有两件重要的事儿你需要知道。首先大多数虚拟机不应该启用Hyper-V GPU卸载,最好是让GPU卸载需求最大的虚拟机使用节省下来的GPU资源,而不是让不需要硬件GPU的虚拟机浪费掉GPU资源。

你还需要知道GPU卸载基于RemoteFX,而RemoteFX依赖于远程桌面协议(RDP)客户端。在某种程度上这非常有意义,运行在虚拟机上的图形密集型工作负载通常是通过RDP客户端访问的,因此按道理讲RDP客户端应该在渲染过程中扮演角色。 RDP v 7.1及更高的版本支持RemoteFX以及Hyper-V GPU卸载。Windows 7 SP1使用的是RDP v 7.1。新版Windows操作系统包括了更高版本的RDP,这些版本应该全面支持RemoteFX以及vGPU,例如Windows 8.1使用的是RDP v8.1。

如果打算让虚拟机使用主机的GPU资源,那么首先要让Hyper-V能够感知到GPU的存在。打开Hyper-V Manager,右键单击Hyper-V主机服务器,然后在快捷菜单中选择Hyper-V 设置命令。这时Windows将会显示已选主机的Hyper-V设置对话框。单击物理GPU容器,然后在GPU下拉菜单中选择要优先使用的GPU。最后,勾选“通过RemoteFX使用GPU”复选框。 Hyper-V要求你在下拉菜单中选择一个GPU。你可以选择启用多个GPU,但选择的所有GPU规格型号必须相同。这引出了另一个很重要的问题——如果你计划启用虚拟机的GPU卸载,那么需要考虑这会对在线迁移或者故障切换带来怎样的影响。虚拟机可以被在线迁移到任何一台主机服务器,在主机发生故障时虚拟机也可能会故障前移到任何一台主机服务器,运行该虚拟机的主机服务器必须配置与之前物理主机相同的GPU。

给单个虚拟机增加vGPU相对简单。在Hyper-V Manager内,右键单击虚拟机然后在弹出的菜单中选择设置命令。打开设置对话框后,单击添加硬件,选择显示适配器然后单击添加。硬件对话框列表将会更新,包括已经选择的显示适配器列表。如果在硬件列表中选择显示适配器,你可以指定监视器的最大数量,设置最大的显示分辨率,或者从虚拟机中移除显示适配器。 正如你所看到的那样,将物理GPU链接给一个Hyper-V虚拟机的操作步骤简单明了。然而请记住Hyper-V GPU卸载应该仅用于正在运行图形密集型工作负载的虚拟机,而且在考虑在线迁移或者故障切换计划时必须格外当心。



本文转自d1net(转载)

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
并行计算 Ubuntu PyTorch
Ubuntu配置pytorch gpu环境(含Cuda+Cudnn+pytorch-gpu+卸载)(下)
Ubuntu配置pytorch gpu环境(含Cuda+Cudnn+pytorch-gpu+卸载)(下)
Ubuntu配置pytorch gpu环境(含Cuda+Cudnn+pytorch-gpu+卸载)(下)
|
并行计算 Ubuntu PyTorch
Ubuntu配置pytorch gpu环境(含Cuda+Cudnn+pytorch-gpu+卸载)(上)
Ubuntu配置pytorch gpu环境(含Cuda+Cudnn+pytorch-gpu+卸载)(上)
Ubuntu配置pytorch gpu环境(含Cuda+Cudnn+pytorch-gpu+卸载)(上)
|
3月前
|
人工智能 机器人 Serverless
魔搭大模型一键部署到阿里云函数计算,GPU 闲置计费功能可大幅降低开销
魔搭大模型一键部署到阿里云函数计算,GPU 闲置计费功能可大幅降低开销
580 2
|
4月前
|
机器学习/深度学习 弹性计算 TensorFlow
阿里云GPU加速:大模型训练与推理的全流程指南
随着深度学习和大规模模型的普及,GPU成为训练和推理的关键加速器。本文将详细介绍如何利用阿里云GPU产品完成大模型的训练与推理。我们将使用Elastic GPU、阿里云深度学习镜像、ECS(云服务器)等阿里云产品,通过代码示例和详细说明,带你一步步完成整个流程。
773 0
|
4月前
|
机器学习/深度学习 存储 弹性计算
阿里云GPU云服务器有哪些版本
阿里云GPU云服务器有哪些版本
|
4月前
|
机器学习/深度学习 人工智能 弹性计算
阿里云GPU云服务器有哪些方案
阿里云GPU云服务器有哪些方案
|
1月前
|
存储 机器学习/深度学习 并行计算
阿里云服务器X86计算、Arm计算、GPU/FPGA/ASIC、高性能计算架构区别
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别,本文主要简单介绍下不同类型的云服务器有何不同,主要特点及适用场景有哪些。
阿里云服务器X86计算、Arm计算、GPU/FPGA/ASIC、高性能计算架构区别
|
1月前
|
机器学习/深度学习 存储 弹性计算
阿里云GPU服务器价格多少钱?2024年阿里云GPU服务器价格配置及性能测评
2024年阿里云GPU服务器是一款高性能的计算服务器,基于GPU应用的计算服务,多适用于视频解码、图形渲染、深度学习、科学计算等应用场景。阿里云GPU服务器具有超强的计算能力、网络性能出色、购买方式灵活、高性能实例存储等特点。 阿里云提供了多种配置的GPU服务器,包括gn6v、gn6i、vgn6i-vws和gn6e等,这些服务器配备了不同型号的GPU计算卡、不同规格的内存和存储空间,可以满足不同用户的计算需求。同时,阿里云还为新用户提供了特惠价格,包年购买更是低至3折起,使得用户可以更加经济地购买到高性能的GPU服务器。
150 0
|
3月前
|
存储 人工智能 Kubernetes
阿里云ACK助力GPU成本优化,实现灵活管理
摘要:本文将介绍如何在阿里云容器服务ACK中,利用cGPU技术,共享GPU算力,提高GPU利用率,降低TCO。
58 2
|
4月前
|
JavaScript Java PHP
阿里云GPU云服务器支持哪些语言
阿里云GPU云服务器支持哪些语言