J’ai ajouté la fonctionnalité suivante : - Prise en charge de la configuration de l'intervalle de dépassement temporaire de la bande passante (Burst) pour les données envoyées aux clients.
Attention, cette fonction n'est pas configurable par GPO.
Dell Wyse Management Suite version 4.2.0.521 est un programme d’installation complet qui peut être installé directement ou mis à niveau à partir de Dell Wyse Management Suite version WMS 4.0/WMS 4.0 HF 1/WMS 4.0 HF2/WMS 4.0 HF3/WMS 4.1/WMS 4.1 HF1/WMS 4.1.1.
- WMS Cloud Remote Shadowing (aperçu technique). - Mise à niveau Wave. - Prise en charge du suivi des installations de licences WMS standard. - Prise en charge de l’application automatique de la politique d’application DHC après la création d’une nouvelle image.
App Volumes Tools est un utilitaire inclus depuis la version 2103 de App Volumes qui permet de créer et de mettre à jour les packages d'applications indépendamment de App Volumes Manager.
Prérequis Machine virtuelle Windows 10/11 propre et à jour UAC désactivé Image ISO App Volumes 4.4+ Un logiciel à packager
Monter l'image ISO sur la VM Windows. Installer le composant App Volumes Tools.
Prendre un snapshot de la VM Windows.
Copier la source du logiciel sur le Bureau.
Ouvrir une invite de commande. Changer le répertoire pour : C:\Program Files (x86)\VMware\AppCapture
Taper la commande suivante pour lancer la création d'un package :
appcapture.exe /new <nom_du_package>
Une nouvelle invite de commande va s'ouvrir brièvement.
Installer le logiciel à packager.
Une fois l'installation terminée, taper la commande
appcapture.exe /end
La machine virtuelle va redémarrer automatiquement.
Ouvrir une session sur la machine virtuelle. Laisser la capture se finaliser.
Le résultat de la capture se trouve au format vhd et vmdk dans le dossier C:\ProgramData\VMware\AppCapture\appvhds
Copier les fichiers vmdk et json sur le serveur App Volumes Manager dans le dossier : C:\Program Files (x86)\CloudVolumes\Manager\ppv\packages
Se connecter sur l'interface web de App Volumes Manager. Cliquer sur Configuration > Storage > Upload Templates Sélectionner et uploader le nouveau package.
L'application est désormais visible dans App Volumes Manager
Ce tutoriel décrit la création d'un load balancer pour les Connection Server Horizon ou App Volumes Manager. Nous utiliserons la distribution Linux de VMware : Photon OS 5.0, ainsi que le load balancer open source : HAProxy.
Prérequis : Photon OS 5.0 OVA x86_64 lien 2 Gb de RAM / 16 GB HDD Une adresse IP
Déployer l'OVA sur l'infrastructure vSphere
Une fois l'appliance déployée, allumer celle-ci. L'appliance est par défaut en DHCP, se connecter en SSH (ou en console) avec le compte root et le password changeme. Changer le mot de passe (obligatoire).
Lancer la mise à jour des packages avec la commande tdnf upgrade -y
Désactiver le DHCP sur la carte Ethernet en éditant le fichier /etc/systemd/network/99-dhcp-en.network Mettre DHCP=no
Pour définir une adresse IP fixe sur la machine virtuelle, créer un fichier /etc/systemd/network/10-static-en.network Ajouter le contenu suivant :
Créer un nouveau fichier (avec vi ou touch) /etc/haproxy/haproxy.cfg Copier le contenu suivant et modifier les champs surlignés :
# HAProxy configuration
#Global definitions
global
chroot /var/lib/haproxy
stats socket /var/lib/haproxy/stats
daemon
defaults
timeout connect 5s
timeout client 30s
timeout server 30s
### Configuration des statistiques ###
userlist stats-auth
group admin users admin
user admin insecure-password Horiz0n
group ro users stats
user stats insecure-password ReadOnly
frontend stats-http8404
mode http
bind <IP_HAProxy>:8404
default_backend statistics
backend statistics
mode http
stats enable
stats show-legends
stats show-node
stats refresh 30s
acl AUTH http_auth(stats-auth)
acl AUTH_ADMIN http_auth_group(stats-auth) admin
stats http-request auth unless AUTH
stats admin if AUTH_ADMIN
stats uri /stats
######
### Horizon Connection servers ###
frontend horizon-http
mode http
bind <IP_HAProxy>:80
# Redirect http to https
redirect scheme https if !{ ssl_fc }
frontend horizon-https
mode tcp
bind <IP_HAProxy>:443
default_backend horizon
backend horizon
mode tcp
option ssl-hello-chk
balance source
server CS1 <IPConnSrv1>:443 weight 1 check inter 30s fastinter 2s downinter 5s rise 3 fall 3
server CS2 <IPConnSrv2>:443 weight 1 check inter 30s fastinter 2s downinter 5s rise 3 fall 3
######
Taper la commande suivante pour que HAProxy soit persistent après chaque reboot :
systemctl enable haproxy.service
Redémarrer l'appliance Photon OS :
reboot
HAProxy est désormais opérationnel.
Si une erreur 421 Unknown apparaît lors de la connexion d'un client via le load balancer, il est nécessaire d’activer la redirection d’hôte et d'ajouter l'adresse IP ou le nom d'hôte du HAProxy sur chaque Connection Server dans la Console Horizon (Paramètres > Serveurs).
Pour vérifier l'état du service HAProxy, utiliser la commande suivante :
systemctl status haproxy.service
Pour obtenir les statistiques de HAProxy, se connecter à l'URL suivante avec le mot de passe défini dans le fichier /etc/haproxy/haproxy.cfg :
Voici les nouveautés apportées par cette version :
Support de Horizon 2309
Mises à jour de sécurité : consultez le Bulletin de sécurité : Pilote d'affichage GPU NVIDIA – Octobre 2023, publié peu de temps après la date de sortie de cette mise à jour et répertorié sur la page NVIDIA Product Security
Dans le monde de l'accélération graphique VDI, il existe une alternative aux GPU Nvidia couramment utilisés dans les bureaux virtuels: les GPU Intel Data Center GPU Flex Series.
Depuis Avril 2023, VMware Horizon supporte le codec AV1 exploité par les GPU Flex Series.
Il existe actuellement deux modèles, Flex 140 et 170, compatibles Horizon 8 et vSphere 8.0.
Contrairement aux GPU Nvidia, les GPU Flex Series ne nécessitent pas de licence, ce qui permet de réduire le TCO et simplifie le management.
Benchmark Intel
Intel® Data Center GPU Flex 140 offre un débit de transcodage des médias 5 fois supérieur à celui de NVIDIA A10 sur HEVC 1080p60 avec une consommation d'énergie réduite de moitié. Et un débit de décodage multiplié par 2 à la moitié de la puissance du NVIDIA A10 sur HEVC, AV1, AVC, VP9.1
Pour rappel, les vGPU ne sont pas uniquement dédiés aux workloads avec des applications graphiques, ils permettent également d'accélérer les outils de productivité (Microsoft Teams, Office 365, WebGL, Youtube, ..) et déchargent le CPU de l'encodage du protocole Blast.
Depuis vSphere 8.0 U2, il est désormais possible d'utiliser la fonctionnalité de Load Balancing de vSphere DRS pour équilibrer sur le cluster les machines virtuelles disposant d'un vGPU. La migration des VMs est automatisée lors de la mise en mode maintenance d'un hôte ESXi.
Pour activer cette fonctionnalité, il est nécessaire d’ajouter deux variables dans les paramètres avancés de DRS : PassthroughDrsAutomation = 1 LBMaxVmotionPerHost = 1
Ce paramétrage va permettre de migrer les VMs dont le temps de blocage dû au VMotion (stun time) n’excède pas 100 secondes.
Pour les machines virtuelles vGPU dont les temps de stun dépassent la « limite de temps de stun vMotion » (100 secondes par défaut), il est possible d'ajouter l'option avancée de cluster DRS suivante :
Option : VmDevicesStunTimeTolerated Valeur : (100 secondes par défaut)
⚠️ A l'heure actuelle, la documentation de Nvidia GRID 16 précise qu'il faut configurer DRS en mode Manuel ou Partiellement automatisé...