You are on page 1of 240

Stockage vSphere

ESXi 5.0 vCenter Serveur 5.0

Ce document prend en charge la version de chacun des produits rpertoris, ainsi que toutes les versions publies par la suite jusqu'au remplacement dudit document par une nouvelle dition. Pour rechercher des ditions plus rcentes de ce document, rendezvous sur : http://www.vmware.com/fr/support/pubs.

FR-000603-00

Stockage vSphere

Vous trouverez la documentation technique la plus rcente sur le site Web de VMware l'adresse : http://www.vmware.com/fr/support/pubs/ Le site Web de VMware propose galement les dernires mises jour des produits. Nhsitez pas nous transmettre tous vos commentaires concernant cette documentation ladresse suivante : docfeedback@vmware.com

Copyright 20092011 VMware, Inc. Tous droits rservs. Ce produit est protg par les lois amricaines et internationales relatives au copyright et la proprit intellectuelle. Les produits VMware sont protgs par un ou plusieurs brevets rpertoris l'adresse http://www.vmware.com/go/patents-fr. VMware est une marque dpose ou une marque de VMware, Inc. aux tats-Unis et/ou dans d'autres juridictions. Toutes les autres marques et noms mentionns sont des marques dposes par leurs propritaires respectifs.

VMware, Inc. 3401 Hillview Ave. Palo Alto, CA 94304 www.vmware.com

VMware, Inc. 100-101 Quartier Boieldieu 92042 Paris La Dfense France www.vmware.com/fr

VMware, Inc.

Table des matires

propos de vSphere Storage 7

1 Introduction au stockage 9

Virtualisation de stockage 9 Adaptateurs de stockage pris en charge 10 Types de stockage physique 11 Reprsentations de priphriques et de cibles 15 Afficher les priphriques de stockage 16 Affichage de banques de donnes 19 Accs des machines virtuelles au stockage 21 Comparaison des types de stockage 21

2 Prsentation de l'utilisation d' ESXi avec un SAN 23

Cas d'utilisation d' ESXi et du SAN 24 Informations dtailles sur l'utilisation du stockage SAN avec ESXi 24 Prendre des dcisions LUN 25 Choisir l'emplacement des machines virtuelles 26 Applications par couches 27 Applications de gestion tierces 28 Considrations sur la sauvegarde de stockage SAN 29

3 Utilisation d' ESXi avec un SAN Fibre Channel 31

Concepts du SAN Fibre Channel 31 Utilisation du zonage avec les SAN Fibre Channel 33 Accs des machines virtuelles aux donnes sur un SAN Fibre Channel 33

4 Configuration du stockage Fibre Channel 35


ESXi 35 tapes d'installation et de configuration 37 Configuration des adaptateurs FCoE 37 Virtualisation d'identification N-Port 40

5 Modification du stockage Fibre Channel pour ESXi 45

Test des configurations SAN de l' ESXi 46 Considrations gnrales de configuration pour les baies SAN Fibre Channel 46 Systmes de stockage EMC CLARiiON 47 Systmes de stockage EMC Symmetrix 48 Systmes de stockage IBM System Storage DS4800 48 Systmes IBM Storage 8000 et IBM ESS800 50 Systmes de stockage HP StorageWorks 50 Stockage Hitachi Data Systems 51

VMware, Inc.

Stockage vSphere

Stockage Network Appliance 51 Systmes de stockage bass sur LSI 51

6 Dmarrage ESXi partir du SAN Fibre Channel 53

Avantages du dmarrage partir d'un SAN 53 Considrations et spcifications du dmarrage partir du SAN Fibre Channel 54 Prparation pour le dmarrage partir du SAN 54 Configurer Emulex HBA pour un dmarrage partir du SAN 56 Configurer QLogic HBA pour un dmarrage partir du SAN 57

7 Meilleures pratiques pour le stockage Fibre Channel 59

Prvention des problmes de SAN Fibre Channel 59 Dsactiver l'enregistrement automatique de l'hte 60 Optimisation des performances du stockage SAN Fibre Channel 60 Liste de vrification de la configuration du SAN Fibre Channel 62

8 Utilisation d' ESXi avec un SAN iSCSI 63

Concepts SAN iSCSI 63 Accs des machines virtuelles aux donnes sur un SAN iSCSI 68

9 Configuration des adaptateurs iSCSI et du stockage 71

Conditions du SAN ESXi iSCSI 72 ESXi iSCSI 72 Dfinition des allocations de LUN pour iSCSI 72 Configuration de rseau et authentification 73 Configurer des adaptateurs de matriel iSCSI dpendants 73 Configuration des adaptateurs de matriel iSCSI dpendants 75 Configuration de l'adaptateur iSCSI logiciel 77 Paramtrage du rseau iSCSI 78 Utilisation des trames Jumbo avec iSCSI 85 Configuration des adresses de dcouverte des adaptateurs iSCSI 86 Configurer des paramtres CHAP pour des adaptateurs iSCSI 87 Configuration des paramtres avancs iSCSI 91 Gestion des sessions iSCSI 93

10 Modification des systmes de stockage iSCSI pour ESXi 97

Test des configurations SAN de l' ESXi iSCSI 97 Considrations gnrales pour les systmes de stockage SAN iSCSI 98 Systmes de stockage EMC CLARiiON 98 Systmes de stockage EMC Symmetrix 99 Activer HP StorageWorks MSA1510i pour communiquer avec ESXi 99 Systmes de stockage EVA HP StorageWorks 100 Systmes de stockage NetApp 101 Systmes de stockage Dell EqualLogic 101 Systmes de stockage HP StorageWorks SAN/iQ 102 Systmes de stockage Dell PowerVault MD3000i 102 Cibles iSCSI dans vApp 102

VMware, Inc.

Table des matires

11 Dmarrage partir du SAN iSCSI 103

Recommandations gnrales de dmarrage partir du SAN iSCSI 103 Prparation du SAN iSCSI 104 Configurez l'adaptateur iSCSI matriel indpendant pour le dmarrage partir du SAN Prsentation de iBFT iSCSI Boot 106

105

12 Meilleures pratiques pour le stockage iSCSI 113

Prvention des problmes de iSCSI SAN 113 Optimisation des performances du stockage SAN iSCSI 114 Consultation des statistiques des commutateurs Ethernet 118 Liste de vrification de la configuration du SAN iSCSI 118

13 Utilisation des banques de donnes 121

Prsentation des banques de donnes VMFS 122 Banques de donnes NFS 137 Dmonter des banques de donnes VMFS ou NFS 138 Renommer les banques de donnes VMFS ou NFS 139 Regrouper les banques de donnes VMFS ou NFS 139 Gestion des dconnexions de priphrique de stockage 140 Crer une partition de diagnostic 143 Configuration de la mise en miroir des disques dynamiques 144

14 Mappage de priphrique brut 147

propos du mappage de priphrique brut 147 Caractristiques du mappage de priphrique brut 151 Cration de machines virtuelles avec des RDM 153 Gestion des chemins pour un LUN brut mapp 154

15 Activation des disques l'tat solide 155

Avantage de l'activation des SSD 155 Auto-Dtection des priphriques SSD 156 Marquer les priphriques comme SSD 156 Supprimer un priphrique SSD 157 Supprimer un priphrique SSD dtect automatiquement Marquer les priphriques comme local 159 Identifier les priphriques SSD 160 Identification d'un priphrique SSD virtuel 160

158

16 VMkernel et Stockage 161


API de stockage 162

17 Prsentation de la gestion gestion multivoie et du basculement 165


Basculement avec Fibre Channel 166 Basculement bas sur hte avec iSCSI 166 Basculement base de baie avec iSCSI 168 Basculement de chemin et machines virtuelles 169 Gestion des chemins multiples 170 Module de gestion multivoie de VMware 171

VMware, Inc.

Stockage vSphere

Scan et rclamation des chemins 173 Gestion des chemins de stockage et des plug-ins gestion multivoie 176

18 Acclration matrielle du stockage 187

Avantages de l'acclration matrielle 187 Conditions requises pour l'acclration matrielle 188 tat de la prise en charge de l'acclration matrielle 188 Acclration pour les priphriques de stockage de blocs 188 Acclration matrielle sur les priphriques NAS 194 Considrations sur l'acclration matrielle 196

19 Provisionnement dynamique du stockage 199

Sur-abonnement de stockage 199 Provisionnement dynamique du disque virtuel 199 Allocation dynamique des baies et banques de donnes VMFS 203

20 Utilisation des fournisseurs de distributeur de stockage 207

Fournisseurs de distributeur et Reprsentation des donnes de stockage 207 Considrations et conditions du fournisseur de distributeur 208 Rapport de l'tat de stockage 209 Enregistrer les fournisseurs des distributeurs 209 Afficher les informations des fournisseurs de fabricants 210 Annuler l'enregistrement des fournisseurs de distributeur 210 mettre niveau les fournisseurs de distributeur 211

21 Profils de stockage de machine virtuelle 213

Prise de connaissance des capacits de stockage 213 Description des profils de stockage de machine virtuelle 217

22 Utilisation de vmkfstools 223

Syntaxe des commandes vmkfstools 223 Options vmkfstools 224

Index 233

VMware, Inc.

propos de vSphere Storage

vSphere Storage dcrit les options de stockage disponibles de VMware ESXi et montre comment configurer votre systme ESXi afin qu'il puisse utiliser et grer diffrents types de stockage. En outre, vSphere Storage se concentre explicitement sur les rseaux de zone de stockage (SAN) Fibre Channel et iSCSI comme options de stockage et dcrit les particularits de l'utilisation de ESXi dans les environnements Fibre Channel et iSCSI.

Public cible
Ces informations s'adressent des administrateurs systme expriments qui matrisent la technologie de machine virtuelle et les oprations associes aux centres de donnes et les concepts de stockage SAN.

VMware, Inc.

Stockage vSphere

VMware, Inc.

Introduction au stockage

Cette introduction dcrit les options de stockage disponibles pour ESXi et explique comment configurer votre hte de sorte qu'il puisse utiliser et grer diffrents types de stockage. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n

Virtualisation de stockage , page 9 Adaptateurs de stockage pris en charge , page 10 Types de stockage physique , page 11 Reprsentations de priphriques et de cibles , page 15 Afficher les priphriques de stockage , page 16 Affichage de banques de donnes , page 19 Accs des machines virtuelles au stockage , page 21 Comparaison des types de stockage , page 21

Virtualisation de stockage
ESXi offre une virtualisation de stockage de niveau hte, qui extrait logiquement la couche de stockage physique des machines virtuelles. Une machine virtuelle ESXi utilise un disque virtuel pour stocker son systme d'exploitation, les fichiers de programmes et d'autres donnes lies ses activits. Un disque virtuel est un grand fichier physique, ou un ensemble de fichiers, qui peut tre copi, dplac, archiv et sauvegard aussi facilement que n'importe quel autre fichier. Vous pouvez configurer les machines virtuelles avec plusieurs disques virtuels. Pour accder des disques virtuels, une machine virtuelle utilise les contrleurs SCSI virtuels. Ces contrleurs virtuels sont notamment BusLogic Parallel, LSI Logic Parallel, LSI Logic SAS, et VMware Paravirtual. Ces contrleurs sont les seuls types de contrleurs SCSI visibles et accessibles par une machine virtuelle. Chaque disque virtuel auquel une machine virtuelle peut accder via l'un des contrleurs SCSI virtuels se trouve sur une banque de donnes du systme de fichiers de la machine virtuelle VSphere(VMFS), une banque de donnes NFS ou un disque brut. Du point de vue de la machine virtuelle, chaque disque virtuel apparat comme un lecteur SCSI connect un contrleur SCSI. Que le priphrique de disque physique rel soit accessible via des adaptateurs SCSI parallles, iSCSI, rseau ou Fibre Channel sur l'hte, il est transparent pour le systme d'exploitation client et pour les applications s'excutant sur la machine virtuelle.

VMware, Inc.

Stockage vSphere

Adaptateurs de stockage pris en charge


Les adaptateurs de stockage assurent la connectivit de votre hte ESXi un rseau ou une unit de stockage spcifique. ESXi prend en charge diffrentes catgories d'adaptateurs, y compris SCSI, iSCSI, RAID, Fibre Channel, Fibre Channel over Ethernet (FCoE) et Ethernet. ESXi accde directement aux adaptateurs via des pilotes de priphriques dans le VMkernel. Selon le type de stockage utilis, vous devrez peut-tre activer ou configurer un adaptateur de stockage sur votre hte. Pour plus d'informations sur la configuration des adaptateurs FCoE logiciels, consultez Configuration des adaptateurs FCoE , page 37. Pour plus d'informations sur la configuration des diffrents types d'adaptateurs iSCSI, consultez Chapitre 9, Configuration des adaptateurs iSCSI et du stockage , page 71.

Afficher les adaptateurs de stockage


L'hte utilise des adaptateurs de stockage pour accder aux diffrents priphriques de stockage. Vous pouvez afficher les informations des adaptateurs de stockage disponibles et les vrifier. Vous devez activer certains adaptateurs, par exemple iSCSI ou FCoE, pour pouvoir afficher leurs informations. Tableau 1-1. Informations sur les adaptateurs de stockage
Informations sur les adaptateurs Modle Cibles (Fibre Channel et SCSI) Cibles connectes (iSCSI) WWN (Fibre Channel) Nom iSCSI (iSCSI) Alias iSCSI (iSCSI) Adresse IP (iSCSI matriel indpendant) Priphriques Chemins d'accs Proprits Description Modle de l'adaptateur. Nombre de cibles auxquelles il a t accd via l'adaptateur. Nombre de cibles connectes sur un adaptateur iSCSI. Nom mondial form selon les normes Fibre Channel qui identifie de manire univoque l'adaptateur FC. Nom unique form selon les normes iSCSI qui identifie l'adaptateur iSCSI. Surnom utilis au lieu du nom iSCSI. Adresse assigne au HBA iSCSI. Tous les priphriques de stockage ou LUN auxquels l'adaptateur peut accder. Tous les chemins que l'adaptateur l'utilise pour accder aux priphriques de stockage. Lien indiquant que l'adaptateur ncessite une configuration supplmentaire. Les adaptateurs iSCSI et FCoE affichent ce lien.

Consulter les informations sur les adaptateurs de stockage


Utilisez le vSphere Client pour afficher les adaptateurs de stockage que votre hte utilise et vrifier leurs informations. Procdure 1 2 3 Dans l'inventaire, slectionnez [Htes et clusters] . Slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Adaptateurs de stockage] .

10

VMware, Inc.

Chapitre 1 Introduction au stockage

4 5 6

Pour afficher les dtails sur un adaptateur particulier, slectionnez-le dans la liste d'adaptateurs de stockage. Pour rpertorier tous les priphriques de stockage auxquels l'adaptateur peut accder, cliquez sur [Priphriques] . Pour rpertorier tous les chemins qu'utilise l'adaptateur, cliquez sur [Chemins] .

Copier des identifiants d'adaptateur de stockage dans le presse-papiers


Si vos adaptateurs de stockage utilisent des identifiants uniques, tels qu'un nom iSCSI ou un WWN, vous pouvez les copier dans un presse-papiers directement partir de vSphere Client. Procdure 1 2 3 4 5 Dans l'inventaire, slectionnez [Htes et clusters] . Slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Adaptateurs de stockage] . Slectionnez l'adaptateur dans la liste d'adaptateurs de stockage. Dans le volet Dtails, slectionnez la valeur dans le champ du nom, cliquez avec le bouton droit de la souris, et slectionnez [Copier] .

Types de stockage physique


Le processus de gestion de stockage de l'ESXi dbute avec l'espace de stockage prallou par votre administrateur stockage sur diffrents systmes de stockage. ESXi prend en charge les types de stockage suivants : Stockage local Stockage en rseau Stocke des fichiers de machine virtuelle sur des disques de stockage externes connects directement ou internes. Stocke des fichiers de machine virtuelle sur des baies ou disques de stockage externes relis votre hte via une connexion directe ou un rseau haut dbit.

Stockage local
Le stockage local peut tre des disques durs internes situs dans votre hte ESXi ou des systmes de stockage externes situs l'extrieur et directement connects l'hte via des protocoles comme SAS ou SATA. Le stockage local ne requiert pas de rseau de stockage pour communiquer avec votre hte. Vous avez besoin d'un cble connect l'unit de stockage et, si ncessaire, d'un HBA compatible dans votre hte. L'illustration suivante dcrit une machine virtuelle utilisant un stockage SCSI local.

VMware, Inc.

11

Stockage vSphere

Figure 1-1. Stockage local


Hte

virtuel machine

SCSI

VMFS

Dans cet exemple de topologie de stockage local, l'hte emploie une connexion unique un disque. Sur ce disque, vous pouvez crer une banque de donnes VMFS que vous utilisez pour stocker les fichiers de disque de la machine virtuelle. Bien que cette configuration de stockage soit possible, cette topologie n'est pas recommande. L'utilisation de connexions uniques entre des baies de stockage et des htes cre des points de dfaillance uniques (SPOF) pouvant causer des interruptions lorsqu'une connexion devient instable ou choue. ESXi prend en charge divers priphriques de stockage local internes et externes, y compris des systmes de stockage SAS, SCSI, IDE, SATA et USB. Quel que soit le type de stockage utilis, votre hte masque une couche de stockage physique aux machines virtuelles. REMARQUE Vous ne pouvez pas utiliser de lecteurs IDE/ATA pour stocker des machines virtuelles. Les priphriques de stockage local ne prend en chargent pas le partage sur plusieurs htes. Une banque de donnes sur un priphrique de stockage local peut tre accde seulement par un seul hte. Puisque la majorit des priphriques de stockage local ne prennent pas en charge de connexions multiples, vous ne pouvez pas utiliser plusieurs chemins d'accs pour accder au stockage local.

Stockage en rseau
Le stockage en rseau est compos de systmes de stockage externes que votre hte ESXi utilise pour stocker des fichiers de machine virtuelle distance. En rgle gnrale, l'hte accde ces systmes sur un rseau de stockage haut-dbit. Les priphriques de stockage en rseau sont partags. Les banques de donnes sur des priphriques de stockage en rseau sont accessibles par plusieurs htes simultanment. ESXi prend en charge les technologies de stockage en rseau suivantes. REMARQUE L'accs simultan au mme stockage via des protocoles de transport diffrents, tels qu'iSCSI et Fibre Channel, n'est pas pris en charge.

Fibre Channel (FC)


Stocke des fichiers de machine virtuelle distance sur un rseau de zone de stockage FC (SAN). FC SAN est un rseau haut dbit spcialis qui connecte vos htes des priphriques de stockage haute performance. Le rseau utilise le protocole Fibre Channel pour acheminer le trafic SCSI depuis des machines virtuelles vers des priphriques FC SAN.

12

VMware, Inc.

Chapitre 1 Introduction au stockage

Pour se connecter au FC SAN, votre hte doit tre quip d'adaptateurs de bus hte (HBA) Fibre Channel. moins d'utiliser un stockage de connexion directe Fibre Channel, vous avez besoin de commutateurs Fibre Channel pour acheminer le trafic de stockage. Si votre hte contient des adaptateurs FCoE (Fibre Channel over Ethernet), vous pouvez vous connecter vos priphriques Fibre Channel partags l'aide d'un rseau Ethernet. Stockage Fibre Channel dcrit les machines virtuelles utilisant le stockage Fibre Channel. Figure 1-2. Stockage Fibre Channel
Hte

virtuel machine

fibre channel HBA SAN

VMFS baie Fibre

Dans cette configuration, un hte se connecte une infrastructure SAN, qui est constitue de commutateurs Fibre Channel et de baies de stockage, en utilisant un adaptateur Fibre Channel. Les LUN d'une baie de stockage deviennent disponibles pour l'hte. Vous pouvez accder aux LUN et crer des banques de donnes pour vos besoins de stockage. Les banques de donnes utilisent le format VMFS. Pour plus d'informations spcifiques sur la configuration du SAN Fibre Channel, consultez Chapitre 3, Utilisation d'ESXi avec un SAN Fibre Channel , page 31.

SCSI Internet (iSCSI)


Stocke des fichiers de machine virtuelle sur des priphriques de stockage iSCSI distance. iSCSI rassemble le trafic de stockage SCSI dans le protocole TCP/IP de sorte qu'il puisse tre achemin via des rseaux TCP/IP standard, et non le rseau FC spcialis. Grce une connexion iSCSI, votre hte sert d'initiateur qui communique avec une cible, situe dans des systmes de stockage iSCSI distance. ESXi offre les types de connexions iSCSI suivants : iSCSI matriel Votre hte se connecte au stockage via un adaptateur tiers capable de dcharger la gestion de rseau et iSCSI. Les adaptateurs matriels peuvent tre dpendants et indpendants. Votre hte utilise un initiateur iSCSI logiciel dans le VMkernel pour se connecter au stockage. Avec ce type de connexion iSCSI, votre hte ne requiert qu'un adaptateur rseau standard pour la connectivit rseau.

iSCSI logiciel

Vous devez configurer les initiateurs iSCSI de l'hte pour qu'il accde et affiche les priphriques de stockage iSCSI.

VMware, Inc.

13

Stockage vSphere

Le stockage iSCSI dcrit diffrents types d'initiateurs iSCSI. Figure 1-3. Stockage iSCSI
Hte

virtuel machine

virtuel machine logiciel carte Ethernet NIC LAN

iSCSI HBA

LAN

VMFS Baie iSCSI

Dans l'exemple de gauche, l'hte utilise l'adaptateur iSCSI matriel pour se connecter au systme de stockage iSCSI. Dans l'exemple de droite, l'hte utilise un adaptateur iSCSI logiciel et un adaptateur d'interface rseau Ethernet pour se connecter au stockage iSCSI. Les priphriques de stockage iSCSI du systme de stockage deviennent disponibles pour l'hte. Vous pouvez accder aux priphriques de stockage et crer des banques de donnes VMFS pour vos besoins de stockage. Pour plus d'informations spcifiques sur la configuration du SAN iSCSI, consultez Chapitre 8, Utilisation d'ESXi avec un SAN iSCSI , page 63.

Stockage reli au rseau (NAS)


Stocke les fichiers de machine virtuelle sur des serveurs de fichiers distance accessibles sur un rseau TCP/IP standard. Le client NFS intgr dans ESXi utilise le protocole NFS (Network File System) version 3 pour communiquer avec les serveurs NAS/NFS. Pour une connectivit rseau, l'hte requiert un adaptateur rseau standard. REMARQUE ESXi ne prend pas en charge la fonctionnalit d'utilisateur dlgu qui permet d'accder aux volumes NFS via des informations d'identification non-racine. Stockage NFS dcrit une machine virtuelle utilisant le volume NFS pour stocker ses fichiers. Dans cette configuration, l'hte se connecte au serveur NFS stockant les fichiers du disque virtuel via un adaptateur rseau normale.

14

VMware, Inc.

Chapitre 1 Introduction au stockage

Figure 1-4. Stockage NFS


Hte

virtuel machine

Ethernet NIC LAN

NFS botier NAS

SAS (Serial Attached SCSI) partag


Stocke des machines virtuelles sur des systmes de stockage directement relis au SAS qui offrent un accs partag plusieurs htes. Ce type d'accs permet plusieurs htes d'accder la mme banque de donnes VFMS sur un LUN.

Reprsentations de priphriques et de cibles


Dans un contexte ESXi, le terme cible identifie une unit de stockage unique accessible par l'hte Les termes priphrique et LUN dcrivent un volume logique qui reprsente l'espace de stockage sur une cible. En gnral, les termes priphrique et LUN, dans un contexte ESXi signifient qu'un volume SCSI est prsent l'hte depuis une unit de stockage cible et disponible pour un formatage. Diffrents fournisseurs de stockage prsentent les systmes de stockage pour les htes ESXi de diffrentes manires. Certains fournisseurs prsentent une cible unique comportant plusieurs LUN ou priphriques de stockage, tandis que d'autres proposent plusieurs cibles disposant chacune d'un LUN. Figure 1-5. Reprsentations LUN et de cibles
cible LUN LUN LUN cible LUN cible LUN cible LUN

baie de stockage

baie de stockage

Dans cette illustration, trois LUN sont disponibles pour chaque configuration. Dans un cas, l'hte voit une cible, mais cette cible comporte trois LUN utiliser. Chaque LUN reprsente un volume de stockage individuel. Dans l'autre exemple, l'hte voit trois cibles diffrentes, chacune disposant d'un LUN.

VMware, Inc.

15

Stockage vSphere

Les cibles accessibles via le rseau ont des noms uniques fournis par les systmes de stockage. Les cibles iSCSI utilisent des noms iSCSI, tandis que les cibles Fibre Channel utilisent des noms mondiaux dits Noms mondiaux (WWN). REMARQUE ESXi ne prend pas en charge l'accs au mme LUN via diffrents protocoles de transport, tels que iSCSI et Fibre Channel. Un priphrique, ou LUN, est identifi par son nom UUID. Si un LUN est partag par plusieurs htes, il doit tre prsent tous les htes ayant le mme UUID.

Afficher les priphriques de stockage


Vous pouvez afficher tous les priphriques de stockages ou LUN disponibles pour l'hte, y compris tous les priphriques en rseau et locaux. Si vous utilisez des plug-ins gestion multivoie tiers, les priphriques de stockage disponibles via les plug-ins apparaissent galement dans la liste. Pour chaque adaptateur de stockage, vous pouvez afficher une liste distincte de priphriques de stockage disponibles pour cet adaptateur. En rgle gnrale, lorsque vous consultez les priphriques de stockages, vous voyez les informations suivantes. Tableau 1-2. Informations du priphrique de stockage
Informations du priphrique de stockage Nom Description Appel galement Nom d'affichage. C'est un nom que l'hte ESXi affecte un priphrique selon le type de stockage et le fabricant. Vous pouvez changer ce nom par le nom de votre choix. Identificateur universel unique intrinsque au priphrique. Nom du premier chemin d'accs au priphrique. Indique si le priphrique est mont ou non mont. Pour des dtails, veuillez vous reporter la section Dconnexion des priphriques de stockage , page 140. LUN (Logical Unit Number) l'intrieur de la cible SCSI. Type de priphrique, par exemple, disque ou CD-ROM. Informations indiquant si le priphrique est un lecteur l'tat solide (SSD) ou un disque dur ordinaire non SSD. Pour plus de dtails, consultez Chapitre 15, Activation des disques l'tat solide , page 155. Protocole de transport utilis par votre hte pour accder au priphrique. Capacit totale du priphrique de stockage. Le plug-in, tel que le NMP ou un plug-in tiers, que l'hte utilise pour grer les chemins vers le priphrique de stockage. Pour plus de dtails, consultez Gestion des chemins multiples , page 170. Informations indiquant que le priphrique de stockage assiste l'hte avec des oprations de gestion de machine virtuelle. L'tat peut tre Pris en charge, Non pris en charge ou Inconnu. Pour plus de dtails, consultez Chapitre 18, Acclration matrielle du stockage , page 187. Chemin d'accs au priphrique de stockage dans l'inventaire /vmfs/devices/. Un systme de partition utilis par le priphrique de stockage. Ce pourrait tre un format MBR (master boot record) ou un format GDT (GUID partition table) GUID. Les priphriques GPT peuvent prendre en charge des banques de donnes d'une taille suprieure 2 To. Pour plus d'informations, voir Formats de banques de donnes VMFS et de disque de stockage , page 123. Partitions logiques et principales, y compris une banque de donnes VMFS, si configure.

Identificateur Nom d'excution tat oprationnel LUN Type Type de lecteur

Transport Capacit Propritaire

Acclration matrielle

Emplacement Format de partition

Partitions

16

VMware, Inc.

Chapitre 1 Introduction au stockage

Explication du nommage de priphriques de stockage


Chaque priphrique de stockage, ou LUN, est identifi par plusieurs noms.

Identificateurs de priphrique
Selon le type de stockage, l'hte ESXi utilise diffrents algorithmes et conventions pour gnrer un identificateur pour chaque priphrique de stockage. Identificateurs de SCSI INQUIRY. L'hte utilise la commande SCSI INQUIRY pour interroger un priphrique de stockage et utilise les donnes rsultantes, en particulier les informations de la Page 83, pour gnrer un identificateur unique. Les identificateurs de priphrique qui sont bass sur la Page 83 sont uniques pour tous les htes, permanents, et ont l'un des formats suivants :
n n n

naa.number t10.number eui.number

Ces formats sont conformes aux normes du comit T10. Consultez la documentation SCSI-3 sur le site Web du comit T10. Identificateur bas sur le chemin. Lorsque le priphrique ne fournit pas les informations de la Page 83, l'hte gnre un nom .mpxpath, o path reprsente le chemin du priphrique, par exemple, mpx.vmhba1:C0:T1:L3. Cet identificateur peut tre utilis de la mme manire que SCSI INQUIRY l'identifie. L'identificateur mpx. est cr pour les priphriques locaux dans l'hypothse que leurs noms de chemin sont uniques. Toutefois, cet identificateur n'est ni unique ni permanent et pourrait changer aprs chaque dmarrage.

Identificateur hrit
Outre les identificateurs SCSI INQUIRY ou mpx., pour chaque priphrique, ESXi gnre un autre nom hrit. L'identificateur est au format suivant : vml.number L'identificateur hrit inclut une srie de chiffres qui est unique pour le priphrique et qui peut tre obtenue en partie partir des informations de la Page 83, si elles sont disponibles. Pour les priphriques non locaux qui ne prennent pas en charge les informations la Page 83, le nom vml. est utilis comme tant le seul et unique identificateur disponible.

Exemple : Affichage des noms de priphrique dans la vSphere CLI


Vous pouvez utiliser la commande esxcli --server=server_name storage core device list pour afficher tous les noms de priphrique dans la vSphere CLI. Le rsultat est similaire l'exemple suivant :
# esxcli --server=server_name storage core device list naa.number Display Name: DGC Fibre Channel Disk(naa.number) ... Other UIDs:vml.number

VMware, Inc.

17

Stockage vSphere

Nom d'excution
Dans le vSphere Client, vous pouvez voir l'identificateur de priphrique et un nom d'excution. Le nom d'excution est gnr par l'hte et reprsente le nom du premier chemin pour le priphrique. Ce n'est pas un identificateur fiable pour le priphrique, et il n'est pas permanent. En gnral, le chemin vers le priphrique est au format suivant : vmhbaAdapter:CChannel:TTarget:LLUN
n

vmhbaAdapter est le nom de l'adaptateur de stockage. Le nom fait rfrence la carte physique sur l'hte et non au contrleur SCSI utilis par les machines virtuelles. CChannel est le numro de canal de stockage. Les adaptateurs iSCSI logiciels et les adaptateurs de matriel iSCSI dpendants utilisent le numro de canal pour prsenter plusieurs chemins menant la mme cible.

TTarget est le numro cible. La numrotation de la cible est choisie par l'hte et peut tre modifie en cas de changement de mappages des cibles visibles par l'hte. Les cibles qui sont partages par diffrents htes n'ont pas ncessairement le mme numro cible. LLUN est le numro de LUN qui indique la position du LUN dans la cible. Le numro de LUN est fourni par le systme de stockage. Si une cible possde un seul LUN, le numro de LUN est toujours zro (0).

Par exemple, vmhba1:C0:T3:L1 reprsente LUN1 sur la cible 3 accessible via l'adaptateur de stockage vmhba1 et le canal 0.

Affichage des priphriques de stockage d'un hte


Utilisez le vSphere Client pour afficher tous les priphriques de stockage ou les LUN disponibles pour un hte. Si vous utilisez des plug-ins gestion multivoies tiers, les priphriques de stockage disponibles via les plug-ins apparaissent galement dans la liste. Procdure 1 2 3 4 5 Dans l'inventaire, slectionnez [Htes et clusters] . Slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Stockage] . Cliquez sur [Priphriques] . Pour afficher des informations complmentaires sur un priphrique spcifique, slectionnez le priphrique partir de la liste.

Affichage des priphriques de stockage d'un adaptateur


Utilisez le vSphere Client pour afficher une liste de priphriques de stockage accessibles un adaptateur de stockage spcifique sur l'hte. Procdure 1 2 3 4 5 Dans l'inventaire, slectionnez [Htes et clusters] . Slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Adaptateurs de stockage] . Slectionnez l'adaptateur dans la liste d'adaptateurs de stockage. Cliquez sur [Priphriques] .

18

VMware, Inc.

Chapitre 1 Introduction au stockage

Copier des identificateurs de priphrique de stockage dans le presse-papiers


Un identificateur de priphrique de stockage est un ID universelle unique attribue un priphrique de stockage ou LUN. Selon le type de stockage, diffrents algorithmes sont utiliss pour crer l'identificateur et il peut tre long et complexe. Vous pouvez copier l'identificateur du priphrique de stockage directement depuis le vSphere Client. Procdure 1 2 Affichez la liste des priphriques de stockage. Cliquez avec le bouton droit de la souris sur un priphrique, puis slectionnez [Copier identifiant dans le presse-papier] .

Affichage de banques de donnes


Les banques de donnes sont des conteneurs logiques, analogues des systmes de fichiers, qui masquent les informations de chaque priphrique de stockage et fournissent un modle uniforme pour stocker des fichiers de machine virtuelle. Vous pouvez afficher toutes les banques de donnes disponibles pour vos htes et analyser leurs proprits. Les banques de donnes sont ajoutes vSphere Client de la faon suivante :
n n

banque de donnes cres sur un priphrique de stockage disponible. Reconnaissance en cas d'ajout d'hte l'inventaire. Lorsque vous ajoutez un hte l'inventaire, vSphere Client affiche les banques de donnes disponibles pour l'hte.

Si votre vSphere Client est connect un systme vCenter Server, vous pouvez afficher des informations sur les banques de donnes dans la vue Clusters de banques de donnes. Cette vue affiche toutes les banques de donnes et tous les clusters de banques de donnes de l'inventaire, organises par centre de donnes. Grce cette vue, vous pouvez organiser des banques de donnes dans une hirarchie de fichiers, crer des banques de donnes, modifier leurs proprits ou supprimer des banques de donnes existantes. Cette vue est complte et affiche toutes les informations de vos banques de donnes et clusters, y compris les htes et machines virtuelles les utilisant, les informations de rapports de stockage, les autorisations, les alarmes, les tches et vnements, la topologie de stockage, et les rapports de stockage. REMARQUE La vue Banques de donnes et Clusters de banques de donnes n'est pas disponible quand le vSphere Client se connecte directement votre hte. Dans ce cas, consultez les informations de banque de donnes via l'onglet de configuration de stockage de l'hte. Le tableau suivant fournit des informations dtailles sur les banque de donnes que vous pouvez afficher lorsque vous effectuez une analyse de banque de donnes. Tableau 1-3. Informations sur les banque de donnes
Informations sur les banque de donnes Identification Priphrique Type de lecteur Description Nom modifiable affect la banque de donnes. Priphrique de stockage sur lequel est dploye la banque de donnes. Type de priphrique de stockage sous-jacent, un lecteur l'tat solide (SSD) ou un disque dur ordinaire non SSD. Pour plus de dtails, consultez Chapitre 15, Activation des disques l'tat solide , page 155. Capacit totale formate de la banque de donnes. libre disponible.

Capacit Espace

VMware, Inc.

19

Stockage vSphere

Tableau 1-3. Informations sur les banque de donnes (suite)


Informations sur les banque de donnes Type Description Systme de fichiers utilis par la banque de donnes (VMFS ou NFS). Pour plus d'informations sur les banques de donnes et la mise niveau vers VMFS5, consultez Chapitre 13, Utilisation des banques de donnes , page 121. Informations sur l'activation de la priorisation E/S du stockage dans l'ensemble des clusters. Consultez la documentation Gestion des ressources vSphere. Informations sur la prise en charge de l'acclration matrielle par les priphriques de stockage sous-jacents. L'tat peut tre Pris en charge, Non pris en charge ou Inconnu. Pour plus de dtails, consultez Chapitre 18, Acclration matrielle du stockage , page 187. Chemin d'accs la banque de donnes dans l'inventaire /vmfs/volumes/. Nom ou adresse IP d'un serveur NAS. Nom d'un dossier mont. Extensions individuelles de la banque de donnes et capacit correspondante. Capacits de stockage signales par les priphriques de stockage pris en charge et hrites par les banques de donnes. Vous ne pouvez pas les modifier. Capacits de stockage que vous dfinissez et associez aux banques de donnes. Pour plus d'informations, consultez Prise de connaissance des capacits de stockage , page 213. Rgles de slection de chemin d'accs utilises par l'hte pour accder aux espaces de stockage. Pour plus d'informations, voir Chapitre 17, Prsentation de la gestion gestion multivoie et du basculement , page 165. Nombre de chemins d'accs utiliss pour accder au stockage et leur statut.

Contrle d'E/S de stockage Acclration matrielle

Emplacement (banques de donnes VMFS) Serveur (banques de donnes NFS) Dossier (banques de donnes NFS) Extensions (banques de donnes VMFS) Capacit de stockage du systme Capacit de stockage dfinie par l'utilisateur Slection de chemin d'accs (banques de donnes VMFS) Chemins (banques de donnes VMFS)

Consulter les proprits des banque de donnes


Utilisez le vSphere Client pour afficher toutes les banques de donnes disponibles pour les htes et analysez leurs proprits. Procdure 1 2 3 4 5 Dans l'inventaire, slectionnez [Htes et clusters] . Slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Stockage] . Cliquez sur la vue [banques de donnes] . Pour afficher les informations sur une banque de donnes spcifique, slectionnez la banque de donnes partir de la liste.

20

VMware, Inc.

Chapitre 1 Introduction au stockage

Accs des machines virtuelles au stockage


Lorsqu'une machine virtuelle communique avec son disque virtuel stock sur une banque de donnes, elle lance des commandes SCSI. tant donn que les banques de donnes peuvent rsider sur plusieurs types de stockage physique, ces commandes sont encapsules dans d'autres formes, selon le protocole utilis par l'hte ESXi pour se connecter un priphrique de stockage. ESXi prend en charge les protocoles Fibre Channel (FC), Internet SCSI (iSCSI), Fibre Channel over Ethernet (FCoE) et NFS. Quel que soit le type de priphrique de stockage utilis par votre hte, le disque virtuel apparat toujours en tant que priphrique SCSI mont pour la machine virtuelle. Le disque virtuel masque une couche de stockage physique au systme d'exploitation de la machine virtuelle. Cette action permet d'excuter des systmes d'exploitation non certifis pour un quipement de stockage spcifique, tel que SAN, dans une machine virtuelle. L'illustration suivante dcrit cinq machines virtuelles utilisant diffrents types de stockage afin d'illustrer leurs diffrences. Figure 1-6. Machines virtuelles accdant diffrents types de stockage
Hte requiert une connectivit TCP/IP virtuel machine virtuel machine virtuel machine virtuel machine virtuel machine

SCSI fibre channel HBA SAN logiciel carte iSCSI HBA Ethernet NIC LAN Ethernet NIC LAN

VMFS

Touche
physique disque

LAN

banque de donnes virtuel disque VMFS baie Fibre VMFS Baie iSCSI NFS botier NAS

REMARQUE Ce diagramme est uniquement destin des fins conceptuelles. Ce n'est pas une configuration recommande. Vous pouvez utiliser les mappages sur l'onglet [Vues du stockage] pour reprsenter visuellement et comprendre les relations entre les machines virtuelles sur votre hte et toutes les ressources de stockage virtuelles et physiques disponibles. Pour plus d'informations, consultez la documentation Surveillance et performances vSphere.

Comparaison des types de stockage


La prise en charge de certaines fonctionnalits de vSphere peut dpendre de la technologie de stockage que vous utilisez. Le tableau suivant compare les technologies de stockage en rseau pris en charge par ESXi.

VMware, Inc.

21

Stockage vSphere

Tableau 1-4. Stockage en rseau pris en charge par ESXi


Technologie Fibre Channel Fibre Channel sur Ethernet iSCSI Protocoles FC/SCSI FCoE/SCSI Transferts Bloquer l'accs de donnes/LUN Bloquer l'accs de donnes/LUN Bloquer l'accs de donnes/LUN Fichier (pas d'accs direct LUN) Interface FC HBA
n n

Adaptateur rseau converg (FCoE matriel) Carte NIC avec prise en charge FCoE (FCoE logiciel) Carte NIC compatible iSCSI HBA ou iSCSI (iSCSI matriel) Adaptateur rseau (iSCSI logiciel)

IP/SCSI

n n

NAS

IP/NFS

Adaptateur rseau

Le tableau suivant compare les fonctions de vSphere pris en charge par diffrents types de stockage. Tableau 1-5. Fonctions vSphere pris en charge par le stockage
API de stockage Protectio n des donnes Oui Oui Oui Oui

Type de stockage Stockage local Fibre Channel iSCSI NAS sur NFS

Dmarrage VM Oui Oui Oui Oui

vMotion Non Oui Oui Oui

Banque de donnes VMFS VMFS VMFS NFS

RDM Non Oui Oui Non

Cluster VM Oui Oui Non Non

VMware HA et DRS Non Oui Oui Oui

REMARQUE Le stockage local prend en charge un cluster de machines virtuelles sur un seul hte (connu galement sous le nom cluster dans une bote). Un disque virtuel partag est requis. Pour plus d'informations sur cette configuration, consultez la documentation Gestion des ressources vSphere.

22

VMware, Inc.

Prsentation de l'utilisation d' ESXi avec un SAN

L'utilisation d'ESXi avec un SAN signifie plus de souplesse, plus d'efficacit et plus de fiabilit. L'utilisation d'ESXi avec un SAN prend galement en charge la gestion centralise et les technologies de basculement et d'quilibrage de charge. L'utilisation d'ESXi avec un SAN vous offre les avantages suivants :
n

Vous pouvez stocker vos donnes de manire scurise et configurer plusieurs chemins vers votre lieu de stockage afin d'liminer tout risque de dfaillance d'un point de stockage unique. L'utilisation d'un SAN avec les systmes ESXi prolonge la rsistance aux pannes sur le serveur. Lorsque vous utilisez un stockage SAN, toutes les applications peuvent tre immdiatement redmarres sur un autre hte suite la panne de l'hte d'origine. Vous pouvez effectuer la migration en direct des machines virtuelles l'aide de VMware vMotion. Utilisez VMware High Availability (HA) avec un SAN pour redmarrer des machines virtuelles dans leur dernier tat connu sur un serveur diffrent en cas de dfaillance de leur hte. Utilisez VMware Fault Tolerance (FT) pour copier les machines virtuelles protges sur deux htes diffrents. Les machines virtuelles continuent fonctionner sans interruption sur l'hte secondaire en cas de dfaillance de l'hte principal. Utilisez VMware Distributed Resource Scheduler (DRS) pour migrer les machines virtuelles depuis un hte vers un autre afin d'obtenir un quilibrage de charge. Le stockage se trouvant sur une baie SAN partage, les applications continuent de s'excuter de manire transparente. Si vous utilisez des clusters VMware DRS, mettez l'hte ESXi en mode maintenance afin que le systme migre toutes les machines virtuelles en service vers d'autres htes ESXi. Ensuite, vous pouvez effectuer les mises niveau ou d'autres oprations de maintenance sur l'hte d'origine.

n n

La portabilit et l'encapsulation des machines virtuelles VMware sont un complment la nature partage de ce stockage. Lorsque les machines virtuelles se trouvent sur un stockage SAN, vous pouvez rapidement arrter une machine virtuelle sur un serveur et la dmarrer sur un autre serveur, ou la suspendre sur un serveur et reprendre l'activit sur un autre serveur sur le mme rseau. Ainsi, vous pouvez migrer des ressources informatiques tout en maintenant un accs partag cohrent. Ce chapitre aborde les rubriques suivantes :
n n n n n

Cas d'utilisation d'ESXi et du SAN , page 24 Informations dtailles sur l'utilisation du stockage SAN avec ESXi , page 24 Prendre des dcisions LUN , page 25 Choisir l'emplacement des machines virtuelles , page 26 Applications par couches , page 27

VMware, Inc.

23

Stockage vSphere

n n

Applications de gestion tierces , page 28 Considrations sur la sauvegarde de stockage SAN , page 29

Cas d'utilisation d' ESXi et du SAN


Lorsque l'ESXi est utilis avec un SAN, il peut bnficier de multiples fonctionnalits vSphere, y compris Storage vMotion, Distributed Resource Scheduler (DRS), High Availability, etc. L'utilisation de l'ESXi avec un SAN est efficace pour les tches suivantes : Consolidation du stockage et simplification de l'architecture de stockage Maintenance sans interruption de service Si vous travaillez avec plusieurs htes, et que chacun d'entre-eux utilisent plusieurs machines virtuelles, le stockage sur les htes n'est plus suffisant et vous allez devoir utiliser un stockage externe. Choisissez un SAN pour le stockage externe de faon fournir une architecture systme plus simple ainsi que d'autres avantages. Lors de la maintenance d'une infrastructure ou d'un hte ESXi, utilisez vMotion pour migrer les machines virtuelles vers un autre hte. Si le stockage partag se trouve sur le SAN, vous pouvez effectuer les oprations de maintenance sans aucune interruption pour les utilisateurs des machines virtuelles. Les processus de travail de VM continuent au cours d'une migration. Vous pouvez ajouter un hte un cluster DRS et les ressources de l'hte font partie des ressources du cluster. La rpartition et l'utilisation de l'UC et des ressources mmoire de tous les htes et des machines virtuelles du cluster sont constamment surveilles. DRS compare ces mesures une utilisation idale des ressources . L'utilisation idale prend en compte les attributs des pools de ressources du cluster et des machines virtuelles, la demande actuelle,et la cible de dsquilibre. Il effectue ensuite (ou recommande) des migrations de VM en consquence. Vous pouvez utiliser VMware High Availability pour configurer de multiples htes ESXi en cluster de faon assurer une reprise d'activit rapide suite une interruption et une haute disponibilit moindres cots pour les applications excutes sur des machines virtuelles. Lorsque vous achetez de nouveaux systmes de stockage ou de nouvelles baies de stockage, utilisez Storage vMotion pour pouvoir effectuer la migration automatise en direct des fichiers de disque des machines virtuelles partir de l'emplacement de stockage existant vers leur nouvelle destination sans aucune interruption pour les utilisateurs des machines virtuelles.

quilibrage de charge

Rcupration d'urgence

Migrations de baies et mises niveau du stockage simplifies

Informations dtailles sur l'utilisation du stockage SAN avec ESXi


L'utilisation d'un SAN avec un hte ESXi est bien diffrente de l'utilisation traditionnelle d'un SAN. Lorsque vous utilisez un stockage SAN avec ESXi, tenez compte des lments suivants :
n

Vous ne pouvez pas accder directement au systme d'exploitation de la machine virtuelle qui utilise le stockage. Avec les outils traditionnels, vous pouvez uniquement surveiller le systme d'exploitation de VMware. ESXi. Vous utilisez vSphere Client pour surveiller les machines virtuelles. Le HBA visible aux outils d'administration du SAN fait partie du systme ESXi et non de la machine virtuelle. Votre systme ESXi effectue la gestion multivoie pour vous.

24

VMware, Inc.

Chapitre 2 Prsentation de l'utilisation d' ESXi avec un SAN

Prendre des dcisions LUN


Vous devez planifier la configuration du stockage de vos systmes ESXi avant de formater les LUN avec les banques de donnes VMFS. Lorsque vous prenez une dcision de LUN, envisagez les choses suivantes :
n

Chaque LUN doit avoir le bon niveau RAID et des caractristiques de stockage correctes pour les applications s'excutant dans les machines virtuelles utilisant la LUN. Chaque LUN ne doit contenir qu'une banque de donnes VMFS. Si plusieurs machines virtuelles ont accs au mme VMFS, utilisez les partages de disque pour classer les machines virtuelles par ordre de priorit. Reportez-vous Utiliser les partages de disque pour dfinir la priorit des machines virtuelles , page 26.

n n

Vous pourriez souhaiter utiliser moins de LUN mais de plus grande taille pour les raisons suivantes :
n

Plus de souplesse de cration des machines virtuelles sans avoir demander plus d'espace de stockage l'administrateur. Plus de souplesse de redimensionnement des disques virtuels, de prise de snapshots et de bien d'autres choses encore. Moins de banques de donnes VMFS grer.

Vous pourriez souhaiter utiliser moins de LUN et de plus petite taille pour les raisons suivantes :
n n n n

Gain d'espace. Diffrentes applications pourraient ncessiter des caractristiques RAID diffrentes. Plus de souplesse grce la dfinition de la rgle de gestion multivoie et des partages de disque par LUN. L'utilisation du service de cluster de Microsoft (Microsoft Cluster Service) exige que chaque ressource de disque en cluster soit dans sa LUN respective. Meilleures performances car un volume unique subit moins de contention.

Lorsque la caractrisation du stockage d'une machine virtuelle n'est pas disponible, il n'existe pas de mthode simple pour dterminer le nombre et la taille des LUN configurer. Vous pouvez essayer l'aide d'un schma prdictif ou adaptatif.

Utilisation du schma prdictif pour prendre les dcisions de LUN


Lors de la dfinition du stockage pour les systmes ESXi, et avant la cration de banques de donnes VMFS, vous devez dcider de la taille et du nombre de LUN mettre en place. Vous pouvez essayer le schma prdictif. Procdure 1 2 3 Mettez en place plusieurs LUN avec diffrentes caractristiques de stockage. Crez une banque de donnes VMFS sur chaque LUN, en tiquetant chaque banque de donnes selon ses caractristiques. Crez des disques virtuels qui contiendront les donnes des applications de la machine virtuelle dans les banques de donnes VMFS cres sur les LUN avec le niveau RAID appropri aux conditions requises des applications. Utilisez les partages de disque pour distinguer les machines virtuelles disposant des priorits les plus hautes de celles ayant les priorits les plus basses. REMARQUE Les parts de disque sont uniquement utiles au sein d'un hte dfini. Les parts assignes aux machines virtuelles sur un hte n'exercent aucun effet sur des machines virtuelles sur d'autres htes.

VMware, Inc.

25

Stockage vSphere

Excutez les applications pour dterminer si les performances de la machine virtuelle sont acceptables.

Utilisation du schma adaptatif pour prendre les dcisions de LUN


Lors de la dfinition du stockage pour les htes ESXi, avant la cration de banques de donnes VMFS, vous devez dcider de la taille et du nombre de LUN mettre en place. Vous pouvez essayer le schma adaptatif. Procdure 1 2 3 4 Mettez en place une LUN (RAID 1+0 ou RAID 5) de grande taille et activez la mise en cache des critures. Crez un VMFS sur cette LUN. Crez quatre ou cinq disques virtuels sur le VMFS. Excutez les applications pour dterminer si les performances du disque sont acceptables.

Si les performances sont acceptables, placez les disques virtuels supplmentaires sur le VMFS. Si les performances ne sont pas acceptables, crez un nouveau LUN de grande taille avec un niveau RAID diffrent et rptez la procdure. Utilisez la migration afin de ne pas perdre les donnes des machines virtuelles lorsque vous recrez la LUN.

Utiliser les partages de disque pour dfinir la priorit des machines virtuelles
Si plusieurs machines virtuelles ont accs la mme banque de donnes VMFS (et donc la mme LUN), utilisez les partages de disque pour tablir un ordre de priorit d'accs au disque partir des machines virtuelles. Les parts de disque distinguent les machines virtuelles haute priorit et basse priorit. Procdure 1 2 3 4 Dmarrez un vSphere Client et connectez-vous au vCenter Server. Slectionnez la machine virtuelle dans le panneau d'inventaire et cliquez sur [Modifier les paramtres de machine virtuelle] partir du menu. Cliquez sur l'onglet [Ressources] , puis cliquez sur [Disque] . Cliquez deux fois sur la colonne [Partages] du disque pour modifier et slectionnez la valeur de votre choix partir du menu droulant. Les parts sont une valeur qui reprsente la mesure relative pour la bande passante de contrle de disque toutes les machines virtuelles. Les valeurs Basses, Normales, Hautes et Personnalises sont compares la somme de toutes les parts de toutes les machines virtuelles sur l'hte. Les valeurs symboliques d'allocation de partages peuvent tre utilises pour configurer leur conversion en valeurs numriques. 5 Cliquez sur [OK] pour enregistrer votre slection.

REMARQUE Les parts de disque sont pertinentes uniquement dans un hte ESXi donn. Les parts assignes aux machines virtuelles sur un hte n'exercent aucun effet sur des machines virtuelles sur d'autres htes.

Choisir l'emplacement des machines virtuelles


Si vous souhaitez optimiser les performances de vos machines virtuelles, l'emplacement du stockage est un facteur important. Il existe toujours un compromis entre un stockage onreux qui offre des performances leves et une grande disponibilit et un stockage moins onreux mais offrant moins de performances. Le stockage peut tre divis en plusieurs niveaux, selon un certain nombre de facteurs :
n

Niveau lev. Offre de hautes performances et une grande disponibilit. Peut offrir des snapshots intgrs pour faciliter les sauvegardes et les restaurations instantanes. Prend en charge la rplication, la redondance SP complte et les lecteurs SAS. Utilise des axes de prix lev.

26

VMware, Inc.

Chapitre 2 Prsentation de l'utilisation d' ESXi avec un SAN

Niveau intermdiaire Offre des performances de milieu de gamme, une disponibilit plus faible, quelques redondances SP et des lecteurs SCSI ou SAS. Peut proposer des snapshots. Utilise des axes de prix moyen. Niveau infrieur Offre des performances faibles, peu de redondance de stockage interne. Utilise des pilotes SCSI ou SATA bas de gamme (axes de srie peu onreux).

Toutes les applications ne doivent pas ncessairement offrir les performances les plus leves ou un stockage la plus grande disponibilit, tout du moins pas tout au long de leur cycle de vie. REMARQUE Si vous avez besoin de certaines fonctionnalits du niveau suprieur, telles que les snapshots, mais que vous ne souhaitez pas en payer le prix, vous pouvez peut-tre obtenir certaines caractristiques de performance leve grce un logiciel. Par exemple, vous pouvez crer des snapshots dans un logiciel. Lorsque vous dcidez de l'emplacement d'une machine virtuelle, posez-vous ces questions :
n n n n n

quel point la machine virtuelle est-elle essentielle ? Quelles sont ses exigences en termes de performances et de disponibilits ? Quelles sont ses exigences en termes de restauration instantane ? Quelles sont ses exigences en termes de sauvegarde ? Quelles sont ses exigences en termes de rplication ?

Une machine virtuelle peuvent changer de niveau au cours de son cycle de vie suite des modifications d'importance ou de technologie qui entranent les fonctionnalits de niveau suprieur vers un niveau infrieur. Son importance est relative et peut changer pour diverses raisons, parmi lesquelles les modifications apportes l'organisation, les processus oprationnels, les obligations rglementaires, la planification suite un incident, etc.

Applications par couches


Les administrateurs SAN utilisent souvent un logiciel spcial baies pour la sauvegarde, la reprise aprs sinistre, l'exploration de donnes, les examens juridiques et les tests de configuration. Les fournisseurs de stockage fournissent de faon classique deux types de services avancs pour leurs LUN : la capture et la rplication.
n

La prise de snapshot cre un espace avec des copies fonctionnelles de LUN, partageant des blocs de donnes communes. En gnral, la capture est utilise localement sur les mmes systmes de stockage que le LUN primaire, afin d'acclrer les sauvegardes, le test des applications, les examens juridiques, ou l'exploration des donnes. La rplication cre des copies compltes des LUN. Les rpliques sont gnralement conues pour sparer les systmes de stockage, potentiellement pour protger des sites contre des pannes majeures invalidant ou dtruisant une baie ou un site entier.

Lorsque vous utilisez un systme ESXi conjointement un SAN, vous devez dcider si les outils bass sur les baies ou sur les htes conviennent plus votre situation.

Solution (tierce) base de baie


Lorsque vous utilisez un systme ESXi en conjonction avec un SAN, vous devez dcider si les outils pour baies conviennent davantage votre situation. Lorsque vous envisagez une solution base de baie, gardez l'esprit les points suivants :
n

Les solutions base de baie permettent souvent des statistiques plus exhaustives. Avec les RDM, les donnes prennent toujours le mme chemin, ce qui facilite la gestion des performances.

VMware, Inc.

27

Stockage vSphere

La scurit devient plus transparente pour l'administrateur de stockage lorsque vous utilisez un RDM et une solution base de baie, car avec RDM les machines virtuelles ressemblent plus des machines physiques. Si vous utilisez une solution base de baie, des RDM de compatibilit physique servent souvent de stockage pour des machines virtuelles. Si vous n'envisagez pas d'utiliser de RDM, consultez la documentation du fournisseur de stockage pour vrifier si les oprations sur des LUN avec volumes VMFS sont prises en charge. Si vous utilisez des oprations de baie sur des LUN VMFS, lisez attentivement la section sur la resignature.

Solution base sur les fichiers (VMFS)


Lorsque vous utilisez un systme ESXi conjointement un SAN, vous devez dcider si les outils bass sur les fichiers conviennent plus votre situation. Si vous envisagez une solution base de fichiers utilisant les outils VMware et VMFS au lieu des outils de baie, gardez l'esprit les points suivants.
n

L'utilisation des outils VMware et de VMFS est meilleure pour le provisionnement. Un grand LUN est allou, et de multiples fichiers .vmdk peuvent tre placs sur ce LUN. Avec un RDM, un nouveau LUN est requis pour chaque machine virtuelle. La prise de snapshot est comprise dans votre hte ESXi, sans cots supplmentaires. Utiliser VMFS est plus facile pour les administrateurs ESXi. Les administrateurs ESXi qui choisissent la solution base sur les fichiers deviennent plus indpendants de l'administrateur SAN.

n n n

Applications de gestion tierces


Vous pouvez utiliser les applications de gestion tierces avec votre hte ESXi. La majorit des matriels SAN sont dlivrs avec le logiciel de gestion du stockage. Dans la majorit des cas, ce logiciel est une application web qui peut tre utilise avec tout navigateur web connect votre rseau. Dans certains autres cas, ce logiciel s'excute habituellement sur le systme de stockage ou sur un serveur unique, indpendamment des serveurs utilisant le SAN pour le stockage. Utilisez le logiciel de gestion tiers pour effectuer les tches suivantes :
n

La gestion des baies de stockage, y compris la cration de LUN, la gestion de la mmoire cache des baies, le mappage de LUN et la scurit des LUN. La configuration de la rplication, des points de vrification, des snapshots ou de la mise en miroir.

Si vous dcidez d'excuter le logiciel de gestion du SAN sur une machine virtuelle, vous bnficiez de tous les avantages de l'excution d'une machine virtuelle, y compris le basculement l'aide de vMotion et de VMware HA. Toutefois, en raison du niveau supplmentaire d'indirection, il se peut que le logiciel de gestion ne soit pas en mesure de voir le SAN. Dans ce cas, utilisez un RDM. REMARQUE Le succs d'excution d'un logiciel de gestion par une machine virtuelle dpend du systme de stockage.

28

VMware, Inc.

Chapitre 2 Prsentation de l'utilisation d' ESXi avec un SAN

Considrations sur la sauvegarde de stockage SAN


Une stratgie de sauvegarde approprie est l'un des aspects les plus importants de la gestion d'un SAN. Dans un environnement SAN, les sauvegardes ont deux objectifs. Le premier objectif est d'archiver des donnes en ligne sur des supports hors ligne. Ce processus est rpt rgulirement pour toutes les donnes en ligne, selon un calendrier. Le second objectif est de fournir un accs aux donnes hors ligne pour une restauration en cas de problme. Par exemple, la restauration de bases de donne ncessite souvent la rcupration des fichiers de journalisation qui ne sont pas en ligne ce moment. La programmation des sauvegardes dpend de plusieurs facteurs :
n

L'identification des applications critiques ncessitant des cycles de sauvegarde plus rapprochs dans une priode donne. Les points de restauration et les objectifs de priode restaure. Dfinissez la prcision ncessaire de vos points de restauration, et la dure d'attente qui vous est permise. Le taux de changement (RoC) associ aux donnes. Par exemple, si vous utilisez une rplication synchrone/asynchrone, le RoC affecte la quantit de bande passante requise entre les priphriques de stockage primaires et secondaires. L'impact global sur l'environnement SAN, les performances de stockage (lors de sauvegarde), et les autres applications. L'identification des horaires de pointe sur le SAN (les sauvegardes prvues pendant ces heures de pointe peuvent ralentir les applications et le processus de sauvegarde). Le temps pass programmer toutes les sauvegardes dans la centre de donnes. Le temps pass sauvegarder une application spcifique. La disponibilit des ressources pour l'archivage des donnes, typiquement des supports hors ligne (cassettes).

n n n

Incluez un objectif de temps de restauration pour chaque application lorsque vous concevez votre stratgie de sauvegarde. C'est--dire que vous devez envisager le temps et les ressources ncessaires pour effectuer une sauvegarde. Par exemple, si une sauvegarde programme stocke tant de donnes que leur restauration cause un dlai considrable, rexaminez la programmation des sauvegardes. Vous pouvez effectuer des sauvegardes plus frquemment, de faon sauvegarder moins de donnes la fois, et diminuer ainsi le dlai de restauration. Si une application particulire ncessite une restauration dans un dlai prcis, le processus de sauvegarde devra fournir un horaire et un traitement des donnes convenant ce dlai. Une restauration rapide peut exiger l'utilisation des volumes de sauvegarde dans le stockage en ligne afin de minimiser ou supprimer le besoin d'un accs des donnes hors ligne lentes pour des composants de donnes manquantes.

Utilisation des modules de sauvegarde tiers


Vous pouvez utiliser des solutions de sauvegarde tierces pour protger le systme, l'application et les donnes utilisateur dans vos machines virtuelles. VMware offre les API de stockage - Protection des donnes pour fonctionner avec les produits tiers. Lors de l'utilisation des API, le logiciel tiers peut effectuer les sauvegardes sans charger les htesESXi du traitement des tches de sauvegarde. Les produits tiers utilisant les API de stockage - Protection des donnes peuvent effectuer les tches de sauvegarde suivantes :
n

Effectuez une sauvegarde d'images complte, diffrentielle et incrmentielle, et la restauration des machines virtuelles. Effectuez, au niveau du fichier, une sauvegarde des machines virtuelles qui utilisent les systmes d'exploitation Windows et Linux pris en charge.

VMware, Inc.

29

Stockage vSphere

Vrifiez la cohrence des donnes en utilisant VSS (Microsoft Volume Shadow Copy Services) pour les machines virtuelles qui excutent les systmes d'exploitation Microsoft Windows pris en charge.

Grce aux API de stockage - Protection du stockage exploitent les possibilit de capture de VMFS, les sauvegardes que vous pouvez effectuer ne ncessitent aucun temps d'arrt pour les machines virtuelles. Ces sauvegardes ne sont pas perturbatrices ; elles peuvent tre effectues tout moment et ne ncessitent pas des fentres de sauvegarde tendues. Pour plus d'informations sur les API de stockage - Protection des donnes et sur l'intgration aux produits de sauvegarde, consultez le site Web de VMware ou contactez votre fournisseur de produits de sauvegarde.

30

VMware, Inc.

Utilisation d' ESXi avec un SAN Fibre Channel

Lorsque vous installez des htes ESXi pour utiliser des baies de stockage SAN FC, certaines considrations spciales sont ncessaires. Cette section vous fournit une premire approche de l'utilisation d'ESXi avec une baie SAN FC. Ce chapitre aborde les rubriques suivantes :
n n n

Concepts du SAN Fibre Channel , page 31 Utilisation du zonage avec les SAN Fibre Channel , page 33 Accs des machines virtuelles aux donnes sur un SAN Fibre Channel , page 33

Concepts du SAN Fibre Channel


Si vous tes administrateur de ESXi et envisagez de configurer les htes pour fonctionner avec des SAN, vous devez avoir une connaissance pratique des concepts SAN. Vous trouverez des informations sur les SANs en livre et sur Internet. Du fait que ce secteur technologique volue constamment, cherchez les ressources les plus rcentes. Si vous tes novices en technologie SAN, familiarisez-vous avec la terminologie de base. Un rseau de zone de stockage (SAN) est un rseau haute vitesse spcialis, qui connecte des systmes informatique, ou des serveurs htes, des sous-systmes de stockage hautes performances. Les composants SAN comprennent les adaptateurs de bus hte (HBA), les commutateurs qui aident diriger le trafic de stockage, les cbles, les processeurs de stockage (SPs), et les baies de disques de stockage. Une topologie SAN avec au moins un commutateur prsent sur le rseau forme une structure SAN. Pour transfrer le trafic des serveurs htes vers le stockage partag, le SAN utilise le protocole Fibre Channel (FC) qui rassemble les commandes SCSI en trames Fibre Channel. Pour restreindre l'accs d'un serveur aux baies de stockage non alloues ce serveur, le SAN utilise le zonage. Classiquement, des zones sont cres pour chaque groupes de serveurs accdant un groupe partag de priphriques de stockage et de LUN. Ces zones dfinissent quels HBA peuvent se connecter quels SPs. Les priphriques en dehors d'une zone ne sont pas visibles aux priphriques inclus dans cette zone. Le zonage est similaire au masquage des LUN, frquemment utilis pour l'administration des permissions. Le masquage des LUN est un processus qui rend un LUN disponible pour certains htes, mais indisponibles pour d'autres htes. Lors du transfert de donnes entre le serveur hte et le stockage, le SAN utilise une technique connue sous le nom de gestion gestion multivoie. La fonction de chemin multiple permet de disposer de plusieurs chemins physiques depuis un hte ESXi vers une LUN dans un systme de stockage.

VMware, Inc.

31

Stockage vSphere

De manire gnrale, un chemin unique partant d'un hte vers un LUN se compose d'un HBA, de ports de commutateur, de cbles de connexion et du port de contrleur de stockage. Si un des composants du chemin subit une dfaillance, l'hte slectionne un autre chemin disponible pour l'E/S. Le processus de dtection d'un chemin dfaillant et de changement vers un autre chemin est connu sous le nom de basculement de chemin.

Ports dans le SANPorts dans le SAN Fibre Channel


Dans le contexte de ce document, un port est une connexion partir d'un priphrique dans le SAN. Chaque nud du SAN, tel qu'un hte, un priphrique de stockage ou un composant de l'infrastructure d'interconnexion dispose d'un ou de plusieurs ports qui le connectent au SAN. Les ports sont identifis de plusieurs manires. WWPN (World Wide Port Name) Port_ID (ou adresse du port) Un identificateur global unique pour un port qui permet certaines applications d'accder au port. Le commutateur FC dtecte le WWPN d'un priphrique ou d'un hte et affecte une adresse de port au priphrique. Dans un SAN, chaque port a un ID de port exclusive qui lui sert d'adresse FC pour le port. Cette ID exclusive permet le routage des donnes via le SAN vers ce port. Les commutateurs FC affectent l'ID du port lorsque le priphrique se connecte l'infrastructure d'interconnexion. L'ID du port est valide uniquement lorsque le priphrique est connect.

Lorsque N-Port ID Virtualization (NPIV) est utilis, un seul port FC HBA (N-port) peut s'enregistrer sur l'infrastructure d'interconnexion en utilisant plusieurs WWPN. Cette mthode permet un N-port de rclamer plusieurs adresses d'interconnexion, chacune d'entre-elles apparaissant en tant qu'entit unique. Lorsque l'hte ESXi utilise un SAN, ces nombreux identificateurs exclusifs permettent l'affectation des WWN des machines virtuelles individuelles dans le cadre de leur configuration.

Types de baie de stockage Fibre Channel


ESXi prend en charge diffrents systmes et baies de stockage. Votre hte prend en charge les types de stockage suivants : actif-actif, actif-passif et conforme ALUA. Systme de stockage actif-actif Systme de stockage actif-passif Permet d'accder simultanment aux LUN par tous les ports de stockage qui sont disponibles sans dgradation importante des performances. Tous les chemins sont actifs tout moment sauf en cas de dfaillance d'un chemin. Un systme dans lequel un processeur de stockage fournit l'accs un LUN donn. Les autres processeurs sont utiliss en tant que sauvegarde pour le LUN et peuvent fournir l'accs d'autres LUN. L'E/S peut uniquement tre envoye avec succs vers un port actif pour un LUN spcifique. Si l'accs via le port de stockage actif choue, un des processeurs de stockage passifs peut tre activ par les serveurs qui y accdent. Prend en charge Asymmetric Logical Unit Access (ALUA). Les systmes de stockage ALUA offrent des niveaux diffrents d'accs par port. ALUA permet aux htes de dterminer les tats des ports cibles et classer par priorit les chemins. L'hte utilise certains des chemins actifs comme tant principaux alors que d'autres sont secondaires.

Systme de stockage asymtrique

32

VMware, Inc.

Chapitre 3 Utilisation d' ESXi avec un SAN Fibre Channel

Utilisation du zonage avec les SAN Fibre Channel


Le zonage fournit le contrle d'accs dans la topologie du SAN. Le zonage dfinit quels HBA peuvent se connecter aux cibles. Lorsque vous configurez un SAN en utilisant le zonage, les priphriques extrieurs une zone ne peuvent pas tre vus par les priphriques se trouvant l'intrieur de la zone. Le zonage a les effets suivants :
n n n

Rduit le nombre de cibles et de LUN prsentes l'hte. Contrle et isole les chemins dans une infrastructure d'interconnexion. Interdit aux systmes non ESXi l'accs un systme de stockage particulier et empche toute destruction potentielle des donnes VMFS. Peut tre utilis pour sparer des environnements diffrents, par exemple, un environnement de tests d'un environnement de production.

Avec les htes ESXi, utilisez un zonage initiateur unique ou un zonage initiateur unique et cible unique. La dernire tant la mthode de zonage la plus pratique. L'utilisation d'un zonage plus restrictif vite les problmes et les risques de mauvaises configurations et le SAN. Pour des instructions plus dtailles et les bonnes mthodes de zonage, contactez l'diteur de la baie de stockage ou du commutateur.

Accs des machines virtuelles aux donnes sur un SAN Fibre Channel
ESXi stocke les fichiers disque d'une machine virtuelle dans une banque de donnes VMFS se trouvant sur un priphrique de stockage du SAN. Lorsque les systmes d'exploitation invits de la machine virtuelle envoient des commandes SCSI leurs disques virtuels, la couche de virtualisation SCSI traduit ces commandes en oprations de fichier VMFS. Lorsqu'une machine virtuelle interagit avec son disque virtuel stock sur un SAN, le processus suivant a lieu : 1 2 3 4 Lorsque le systme d'exploitation invit sur une machine virtuelle lit ou crit sur le disque SCSI, il envoie des commandes SCSI au disque virtuel. Les pilotes de priphriques dans le systme d'exploitation de la machine virtuelle communiquent avec les contrleurs SCSI virtuels. Le contrleur SCSI virtuel transmet la commande au VMkernel. Le VMkernel effectue les tches suivantes : a b c 5 Recherche du fichier dans le volume VMFS correspondant au disque de la machine virtuelle invite. Mappage des requtes de blocs sur le disque virtuel sur les blocs sur le priphrique physique appropri. Envoi de la demande d'E/S modifie partir du pilote du priphrique du VMkernel vers le HBA physique.

Le HBA physique effectue les tches suivantes : a b Prparation de la demande d'E/S selon les rgles du protocole FC. Transmission de la requte au SAN.

Selon le port utilis par HBA pour se connecter l'infrastructure d'interconnexion, un des commutateurs du SAN reoit la demande et l'achemine jusqu'au priphrique de stockage auquel l'hte souhaite accder.

VMware, Inc.

33

Stockage vSphere

34

VMware, Inc.

Configuration du stockage Fibre Channel

Lorsque vous utilisez des systmes ESXi avec un stockage SAN, il existe des conditions requises spcifiques au matriel et au systme. Ce chapitre aborde les rubriques suivantes :
n n n n

ESXi , page 35 tapes d'installation et de configuration , page 37 Configuration des adaptateurs FCoE , page 37 Virtualisation d'identification N-Port , page 40

ESXi
Lors de la prparation de la configuration de votre SAN et de votre systme ESXi pour que celui-ci utilise le stockage SAN, consultez les conditions requises et les recommandations.
n

Veillez ce que les combinaisons de microprogramme et matriel de stockage SAN que vous utilisez soient prises en charge conjointement aux systmes ESXi. Pour obtenir une liste de mises jour, consultez le Guide Guide de compatibilit vSphere. Configurez votre systme pour avoir un seul volume VMFS par LUN. Sauf si vous utilisez des serveurs sans disque, ne configurez pas la partition de diagnostic sur un LUN SAN. Dans le cas d'un serveur sans disques dmarrant partir d'un SAN, une partition de diagnostic partage est approprie.

n n

Utilisez les RDM pour accder aux disques bruts. Pour plus d'informations, consultez Chapitre 14, Mappage de priphrique brut , page 147. Pour que les chemins multiples fonctionnent correctement, chaque LUN doit prsenter le mme ID de LUN pour tous les htes ESXi. Veillez ce que le pilote du priphrique de stockage dfinisse une file d'attente suffisamment grande. Vous pouvez dfinir la profondeur de file d'attente pour le HBA physique lors de la configuration du systme. Pour plus d'informations sur le changement de la profondeur de la file d'attente pour les HBA et les machines virtuelles, consultez la documentation Dpannage vSphere. Sur les machines virtuelles excutant Microsoft Windows, augmentez la valeur du paramtre TimeoutValue SCSI sur 60. Cette augmentation permet Windows de mieux tolrer les E/S retardes suite un basculement de chemin. Pour plus d'informations, consultez Dfinir le dlai d'expiration du SE invit Windows , page 169.

VMware, Inc.

35

Stockage vSphere

ESXi
Lorsque vous utilisez ESXi avec un SAN, certaines restrictions s'appliquent.
n n

ESXi ne prends pas en charge les priphriques de bande connects au FC. Vous ne pouvez pas utiliser de logiciel de chemins multiples de machine virtuelle pour effectuer un quilibrage de charge E/S sur un LUN physique unique. Vous ne pouvez pas utiliser un logiciel de chemins multiples l'intrieur d'une machine virtuelle pour effectuer un quilibrage de charge E/S sur un LUN physique unique. Cependant, lorsque votre machine virtuelle Microsoft Windows utilisez des disques dynamiques, cette restriction ne s'applique pas. Pour plus d'informations sur la configuration des disques dynamiques, consultez Configuration de la mise en miroir des disques dynamiques , page 144.

Dfinition des allocations de LUN


Cette rubrique fournit des informations gnrales sur l'allocation des LUN lorsque votre ESXi fonctionne conjointement au SAN. Lorsque vous dfinissez les allocations de LUN, tenez compte des points suivants : Provisionnement de stockage Pour garantir que le systme ESXi reconnaisse les LUN au dmarrage, provisionnez tous les LUN aux HBA appropris avant de connecter le SAN au systme ESXi. VMware vous conseille de provisionner simultanment tous les LUN tous les HBA ESXi. Le basculement de HBA fonctionne uniquement si tous les HBA voient les mmes LUN. Pour les LUN qui seront partags entre plusieurs htes, veillez ce que les ID de LUN soient cohrents sur les diffrents htes. Par exemple, LUN 5 doit tre mapp sur l'hte 1, l'hte 2 et l'hte 3 en tant que LUN 5. DRS vMotion et VMware Vous utilisez vCenter Server et vMotion ou DRS, veillez ce que les LUN des machines virtuelles soient provisionns pour tous les htes ESXi. Cela permet de dplacer le plus facilement les machines virtuelles. Lorsque vous utilisez vMotion ou DRS avec un matriel de stockage SAN actifpassif, vrifiez bien que dans tous les systmes ESXi les chemins vers tous les processeurs de stockage sont cohrents. Sans cette vrification, une migration vMotion peut provoquer un crasement de chemin. Pour les baies de stockage actives/passives non numres dans la section Compatibilit de stockage/SAN, VMware ne prend pas en charge le basculement des ports de stockage. Dans ces cas, vous devez connecter le serveur au port actif sur la baie de stockage. Cette configuration garantit que les LUN sont prsents l'hte ESXi.

Baies actives/actives par rapport baies actives/passives.

Configuration des HBA Fibre Channel


En gnral, les FC HBA que vous utilisez sur votre hte ESXi fonctionnent correctement avec les paramtres de configuration par dfaut. Vous devez suivre les instructions de configuration donnes par votre fournisseur de baie de stockage. Lors de la configuration du FC HBA, prenez en considration les aspects suivants.
n

Ne mlangez pas les FC HBA de diffrents fournisseurs sur un mme serveur. Il est possible d'avoir diffrents modles du mme HBA, mais on ne peut pas accder un mme LUN via deux types diffrents de HBA; ceci est possible uniquement via un mme type.

36

VMware, Inc.

Chapitre 4 Configuration du stockage Fibre Channel

n n

Assurez-vous que le niveau du microprogramme sur chaque HBA est le mme. Dfinissez le dlai pour la dtection d'un basculement. Pour assurer une performance optimale, ne modifiez pas la valeur par dfaut.

tapes d'installation et de configuration


Cette rubrique dcrit les tapes d'installation et de configuration que vous devez suivre lors de la configuration de votre environnement SAN pour que celui-ci fonctionne avec l'ESXi. Suivez ces tapes pour configurer votre environnement SAN ESXi. 1 2 3 Configurez votre SAN si ce n'est dj fait. La plupart des SAN existants ne ncessitent que quelques modifications mineures pour fonctionner avec ESXi. Assurez-vous que tous les composants SAN remplissent les conditions requises. Apportez toute modification ncessaire la baie de stockage. La plupart des fournisseurs possdent leur propre documentation pour la configuration d'un SAN pour que celui-ci fonctionne avec VMware ESXi. 4 5 6 7 8 Configurez les HBA pour les htes connects au SAN. Installez ESXi sur les htes. Crez des machines virtuelles et installez les systmes d'exploitation client. (Facultatif) Configurez votre systme pour le basculement de VMware HA ou pour utiliser Microsoft Cluster Services. Mettez niveau ou modifiez votre environnement selon vos besoins.

Configuration des adaptateurs FCoE


ESXi peut utiliser des adaptateurs Fibre Channel over Ethernet (FCoE) pour accder au stockage Fibre Channel. Le protocole FCoE encapsule les trames Fibre Channel dans des trames Ethernet. Par consquent, l'hte n'a pas besoin de liaisons Fibre Channel spciales pour se connecter au stockage Fibre Channel, mais peut utiliser Ethernet de 10 Gbit sans perte pour fournir un trafic Fibre Channel. Pour pouvoir utiliser FCoE, vous devez installer des adaptateurs FCoE. Les adaptateurs pris en charge par VMware entrent gnralement dans deux catgories : adaptateurs FCoE matriels et adaptateurs FCoE logiciels qui utilisent la pile de FCoE en natif dans l'ESXi.

Adaptateurs FCoE matriels


Cette catgorie inclut les cartes CNA (Converged Network Adapters) spciales compltement dcharges qui contiennent des fonctions de rseau et Fibre Channel sur la mme carte. Lorsque ce type d'adaptateur est install, l'hte dtecte et peut utiliser les deux composants CNA. Dans vSphere Client, le composant rseau apparat comme adaptateur rseau standard (vmnic) et le composant Fibre Channel, comme adaptateur FCoE (vmhba). Il n'est pas ncessaire de configurer l'adaptateur FCoE matriel pour pouvoir l'utiliser.

Adaptateur FCoE de logiciel


Un adaptateur FCoE logiciel utilise la pile de protocoles FCoE en natif dans l'ESXi pour le traitement des protocoles. L'adaptateur FCoE logiciel est utilis avec une carte NIC qui offre les capacits de Data Center Bridging (DCB) et de dchargement E/S. Pour des informations sur les adaptateurs rseau qui prennent en charge le FCoE logiciel, voir le Guide de compatibilit vSphere.

VMware, Inc.

37

Stockage vSphere

Pour l'adaptateur FCoE de logiciel, vous devez configurer correctement la mise en rseau puis activer l'adaptateur. REMARQUE Le nombre d'adaptateur FCoE de logiciel que vous pouvez activer correspond au nombre de ports de carte rseau physiques. ESXi 5.0 prend en charge au maximum quatre adaptateur FCoE de logiciel sur un hte.

Instructions de configuration pour le FCoE logiciel


Lors de la configuration de votre environnement rseau de faon ce qu'il fonctionne avec le FCoE du logiciel ESXi, suivez les instructions et les meilleures pratiques proposes par VMware.

Instructions concernant le commutateur de rseau


Suivez ces instructions lorsque vous configurez un commutateur de rseau pour l'environnement FCoE logiciel :
n

Sur les ports qui communiquent avec votre hte ESXi, dsactivez le protocole d'arborescence de rpartition (STP). Le fait d'avoir le STP activ pourrait retarder la rponse du protocole d'initialisation du FCoE (FIP) au niveau du commutateur et provoquer un tat APD (Tous chemins bas). Le FIP est un protocole utilis par FCoE pour trouver et initialiser les entits FCoE sur l'Ethernet.

Dmarrez le PFC (Contrle de flux bas sur les priorits) et dfinissez-le sur AUTO.

VMware recommande d'utiliser le microprogramme suivant sur le commutateur FCoE :


n n

Cisco Nexus 5000 : version 4.1(3)N2 ou suprieure. Commutateur Brocade FCoE : version 6.3.1 ou suprieure.

Meilleures pratiques pour les adaptateurs rseau


Si vous envisagez d'activer les adaptateurs FCoE logiciels pour qu'ils fonctionnent avec les adaptateurs rseau, des considrations particulires s'appliquent.
n n

Assurez-vous que le tout dernier microcode est install sur l'adaptateur rseau FCoE. Si l'adaptateur rseau comporte plusieurs ports, lors de la configuration de la mise en rseau, ajoutez chaque port un vSwitch spar. Cette pratique vous permet d'viter un tat APD lorsqu'un vnement perturbateur, tel qu'un changement de MTU, se produit. Ne dplacez pas un adaptateur rseau d'un vSwitch vers un autre lorsque le trafic FCoE est actif. Si vous devez faire ce changement, redmarrez votre hte ensuite. Si vous avez remplac le vSwitch par un port d'adaptateur rseau et provoqu une dfaillance, redplacez le port vers le vSwitch d'origine pour rsoudre le problme.

Configurer le rseau pour un adaptateur FCoE logiciel


Avant d'activer les adaptateur FCoE de logiciel, vous devez connecter VMkernel des cartes rseau FCoE physiques installes sur l'hte. Procdure 1 2 3 4 5 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Mise en rseau] . Dans la vue de commutateur standard vSphere, cliquez sur [Ajouter mise en rseau] . Slectionnez [VMkernel] et cliquez sur [Suivant] . Slectionnez [Crer un commutateur standard vSphere] pour crer un commutateur standard.

38

VMware, Inc.

Chapitre 4 Configuration du stockage Fibre Channel

Slectionnez l'adaptateur rseau (vmnic#) qui prend en charge FCoE et cliquez sur [Suivant] . Si l'hte est dot de plusieurs cartes rseau ou plusieurs ports sur l'adaptateur, vous pouvez les ajouter tous dans un commutateur standard vSphere. Vous pouvez aussi connecter chaque carte NIC FCoE un commutateur standard distinct. REMARQUE ESXi 5.0 prend en charge au maximum quatre ports de carte rseau utiliss pour le FCoE logiciel.

Entrez une tiquette de rseau. L'tiquette de rseau est un nom descriptif qui identifie l'adaptateur VMkernel que vous crez, par exemple, FCoE.

Prcisez un ID de VLAN et cliquez sur [Suivant] . Le trafic FCoE ncessitant un rseau isol, veillez ce que l'ID VLAN que vous entrez soit diffrent de celui utilis pour les communications rseau normales sur l'hte. Pour plus d'informations, voir la documentation Mise en rseau vSphere.

9 10

Configurez l'IP puis cliquez sur [Suivant] . Passez vos informations en revue et cliquez sur [Terminer] .

Vous avez cr l'adaptateur virtuel VMkernel de l'adaptateur rseau FCoE physique install sur l'hte. REMARQUE Pour viter les perturbations du trafic FCoE, ne retirez pas la carte rseau FCoE (vmnic#) du commutateur standard vSphere aprs avoir dfini la mise en rseau FCoE.

Ajout d'adaptateurs FCoE du logiciel


Vous devez activer les adaptateurs FCoE du logiciel afin que votre hte puisse les utiliser pour accder au stockage Fibre Channel. Le nombre d'adaptateur FCoE de logiciel que vous pouvez activer correspond au nombre de ports NIC FCoE physiques sur l'hte. ESXi 5.0 prend en charge au maximum quatre adaptateur FCoE de logiciel sur un hte. Prrequis Configurez le rseau pour l'adaptateur FCoE du logiciel. Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Procdure 1 2 3 4 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. Cliquez sur [Ajouter] , slectionnez [Adaptateur FCoE du logiciel] , et cliquez sur [OK] . Dans la bote de dialogue Ajouter l'adaptateur FCoE de logiciel, slectionnez la carte rseau vmnic approprie dans la liste droulante des adaptateurs rseau physiques. Seuls les adaptateurs qui ne sont pas encore utiliss pour le trafic FCoE figurent dans la liste. 5 Cliquez sur [OK] . Les adaptateurs FCoE logiciels figurent dans la liste des adaptateurs de stockage. Aprs avoir activ l'adaptateur FCoE de logiciel, vous pouvez afficher ses proprits. Si vous n'utilisez pas l'adaptateur, vous pouvez le supprimer de la liste des adaptateurs.

VMware, Inc.

39

Stockage vSphere

Virtualisation d'identification N-Port


La virtualisation d'ID N-Port (NPIV) est un standard ANSI T11 qui dcrit comment un port HBA unique Fibre Channel peut s'enregistrer dans la structure avec plusieurs noms worldwide mondiaux (WWPNs). Cela permet au N-Port attach au fabric de possder des adresses de structure multiples. Chaque adresse apparat comme une entit unique dans la structure Fibre Channel.

Comment fonctionne l'accs un LUN par NPIV


NPIV permet un unique port HBA FC d'enregistrer plusieurs WWN uniques dans la structure, chacun pouvant tre assign une machine virtuelle. Les objets SAN comme les commutateurs, HBA, priphriques de stockage ou machines virtuelles peuvent se voir assigns des identifiants Nom mondial WWN. Les WWN identifient de manire unique ces objets dans la structure Fibre Channel. Lorsque les machines virtuelles possdent des affectations WWN, elles les utilisent pour tout leur trafic RDM, et donc les LUN vers lesquels pointent tous les RDM de la machine virtuelle doivent rester non masqus pour ces WWN. Si les machines virtuelles ne possdent pas d'affectations WWN, elles peuvent accder aux LUN de stockage au moyen des WWN des HBA physiques de leur hte. Toutefois, grce NPIV, un administrateur SAN peut surveiller et router l'accs au stockage pour chaque machine virtuelle. La section suivante dcrit le fonctionnement de NPIV. Lorsqu'une machine virtuelle se voit assigner un WWN, le fichier de configuration de la machine virtuelle (.vmx) est actualis afin d'inclure une paire WWN (contenant un Numro de port WWPN, et un Nom de nud WWNN). Au dmarrage de cette machine virtuelle, VMware active un port virtuel (VPORT) sur le port physique HBA utilis pour accder au LUN. Ce VPORT est un HBA virtuel apparaissant comme HBA physique pour la structure FC, c'est--dire qu'il possde son identifiant unique, la paire WWN assigne la machine virtuelle. Chaque port VPORT est spcifique la machine virtuelle, et quand cette machine est teinte, le VPORT est dtruit sur l'hte et n'apparat plus dans la structure FC. Lorsqu'une machine virtuelle est migre d'un hte vers un autre, le VPORT est ferm sur le premier hte et ouvert sur l'hte de destination. Si NPIV est activ, les paires WWN (WWPN et WWNN) sont spcifies pour chaque machine virtuelle au moment de leur cration. Lorsqu'une machine virtuelle utilisant NPIV est mise sous tension, elle utilise chacune de ces paires WWN par squence afin de dcouvrir un chemin d'accs au stockage. Le nombre de VPORTs activs par VMware est gal au nombre de HBA physiques prsents sur l'hte. Un VPORT est cr sur chaque HBA physique o un chemin physique est trouv. Chaque chemin physique est utilis pour dterminer le chemin virtuel qui sera utilis pour accder au LUN. Notez que les HBA ne prenant pas en charge NPIV sont ignors lors de ce processus de dcouverte, car les VPORT ne peuvent y tre instancis.

Conditions ncessaires pour l'utilisation de NPIV


Si vous prvoyez d'activer NPIV sur vos machines virtuelles, vous devez connatre certaines conditions pralables. Les conditions suivantes sont requises :
n

NPIV ne peut tre utilis que pour des machines virtuelles avec disques RDM. Les machines virtuelles dotes de disques virtuels standard utilisent les noms WWN des HBA physiques de l'hte. Les HBA doivent prendre en charge NPIV. Pour plus d'informations, consultez le Guide de compatibilit vSphere et consultez la documentation du fournisseur.
n

Utilisez les HBA du mme type, soit tout QLogic, soit tout Emulex. VMware ne prend pas en charge les HBA htrognes sur le mme hte ayant accs aux mmes LUN. Si un hte utilise de multiples HBA physiques en tant que chemins vers le stockage, slectionnez tous les chemins physiques vers la machine virtuelle. Cela est ncessaire afin de prendre en charge le gestion multivoie, mme si un seul chemin sera actif la fois.

40

VMware, Inc.

Chapitre 4 Configuration du stockage Fibre Channel

Vrifiez que les HBA physiques sur l'hte ont accs tous les LUN auxquels les machines virtuelles compatibles NPIV excutes sur cet hte doivent avoir accs.

n n

Les commutateurs de structure doivent prendre en charge NPIV. Lorsque vous configurez un LUN pour un accs NPIV au niveau du stockage, assurez-vous que le numro de LUN NPIV et l'ID NPIV de la cible correspondent au LUN physique et l'ID cible. Utilisez vSphere Client pour manipuler les machines virtuelles avec WWN.

Capacits et limitations NPIV


Dcouvrez les capacits et limitations spcifiques de l'utilisation de NPIV avec ESXi. ESXi avec NPIV prend en charge les lments suivants :
n

NPIV prend en charge vMotion. Lorsque vous utilisez vMotion pour migrer une machine virtuelle, elle conserve le WWN assign. Si vous migrez une machine virtuelle active par NPIV vers un hte qui ne prend pas en charge NPIV, VMkernel repasse l'utilisation d'un HBA physique pour acheminer l'E/S.

Si votre environnement FC SAN prend en charge les E/S simultanes sur les disques depuis une baie active-active, les E/S simultanes vers deux ports NPIV diffrents sont galement prises en charge.

Lorsque vous utilisez ESXi avec NPIV, les limitations suivantes s'appliquent :
n

tant donn que la technologie NPIV est une extension du protocole FC, elle exige un commutateur FC et ne fonctionne pas sur les disques FC directement relis. Lorsque vous clonez une machine virtuelle ou un modle avec un WWN assign, les clones ne conservent pas le WWN. NPIV ne prend pas en charge Storage vMotion. La dsactivation puis ractivation du NPIV sur un commutateur FC alors que des machines virtuelles fonctionnent peut provoquer la panne du lien FC et l'arrt des E/S.

n n

Affectation de WWN aux machines virtuelles


Vous pouvez affecter un WWN une nouvelle machine virtuelle avec un disque RDM lors de sa cration. Vous pouvez crer entre 1 et 16 paires WWN, qui peuvent tre mappes aux premiers 1 16 HBA physiques sur l'hte. Procdure 1 2 3 4 5 Ouvrez l'Assistant Nouvelle machine virtuelle. Slectionnez [Personnalis] , et cliquez sur [Suivant] . Suivez toutes les tapes requises pour crer une machine virtuelle personnalis. Dans la page Slectionner un disque, slectionnez [Mappage de priphrique brut] , et cliquez sur [Suivant] . Dans la liste des disques SAN ou des LUN, slectionnez un LUN brut auquel la machine virtuelle pourra accder directement.

VMware, Inc.

41

Stockage vSphere

Slectionnez une banque de donnes pour le fichier de mappage RDM. Vous pouvez placer le fichier RDM dans la mme banque de donnes que celle qui contient les fichiers de votre machine virtuelle ou en spcifier une autre. REMARQUE Si vous souhaitez utiliser vMotion pour une machine virtuelle avec NPIV activ, vrifiez que le fichier RDM se trouve dans la mme banque de donnes que le fichier de configuration de la machine virtuelle.

7 8

Suivez les tapes requises pour crer une machine virtuelle avec le RDM. Sur la page Prt Terminer, cochez la case [diter les paramtres de la machine virtuelle avant achvement] et cliquez sur [Continuer] . La bote de dialogue Proprits de la machine virtuelle s'ouvre.

Affectez des WWN aux machines virtuelles. a b c Cliquez sur l'onglet [Options] et slectionnez [Fibre Channel NPIV] . Slectionnez [Gnrer nouveaux WWN] . Spcifiez le nombre de WWNN et de WWPN. Il faut 2 WWPN minimum pour prendre en charge le basculement avec NPIV. De manire gnrale, un seul WWNN est cr pour chaque machine virtuelle.

10

Cliquez sur [Terminer] .

L'hte cre des affectations WWN pour la machine virtuelle. Suivant Enregistrez les nouveaux WWN dans la structure pour que la machine virtuelle puisse se connecter au commutateur et assigner des LUN de stockage aux WWN.

Modification des affectations WWN


Vous pouvez modifier les affectations WWN pour une machine virtuelle avec un RDM. De manire gnrale, vous ne devez pas changer les affectations WWN existantes sur votre machine virtuelle. Dans certaines circonstances, par exemple, lorsque des WWN affectes manuellement provoquent des conflits sur le SAN, il peut tre ncessaire de changer ou de supprimer les WWN. Prrequis Veillez mettre la machine virtuelle hors tension avant la modification des WWN existants. Avant de commencer, vrifiez que l'administrateur SAN a effectu le provisionnement de liste de contrle d'accs (ACL) aux LUN, qui permettent l'hte ESXi de la machine virtuelle d'y accder. Procdure 1 2 Ouvrez la bote de dialogue Proprits de la machine virtuelle en cliquant sur le lien [Modifier les paramtres] pour la machine virtuelle slectionne. Cliquez sur l'onglet [Options] et slectionnez [Fibre Channel NPIV] . La bote de dialogue Proprits de la machine virtuelle s'ouvre.

42

VMware, Inc.

Chapitre 4 Configuration du stockage Fibre Channel

Modifiez les affectations WWN en slctionnant l'une des options suivantes :


Option Dsactivez temporairement NPIV pour cette machine virtuelle. Laisser tel quel Description Dsactivez les affectations WWN pour la machine virtuelle. Les affectations de WWN existantes sont conserves. La section d'affactations de WWN en lecture seule de cette bote de dialogue affiche les valeurs de nud et de port des affectations WWN existantes. De nouveaux WWN sont crs puis affects la machine virtuelle, remplaant les WWN existants (les WWN du HBA lui-mme sont inchangs). Les WWN affects la machine virtuelle sont supprims ; celle-ci utilise les WWN du HBA pour l'accs aux LUN de stockage. Cette option n'est pas disponible en cas de cration d'une nouvelle machine virtuelle.

Gnrer nouveaux WWN

Supprimer l'affectation WWN

Cliquez sur [OK] pour enregistrer vos modifications.

VMware, Inc.

43

Stockage vSphere

44

VMware, Inc.

Modification du stockage Fibre Channel pour ESXi

Cette section tudie plusieurs des priphriques de stockage pris en charge conjointement VMware ESXi. Pour chaque priphrique, elle rpertorie les problmes potentiels principaux connus, pointe vers des informations spcifiques chaque fournisseur (le cas chant) et inclut des informations provenant d'articles de la base de connaissances VMware. REMARQUE Les informations lies certains priphriques de stockage spcifiques sont mises niveau uniquement chaque nouvelle version. De nouvelles informations peuvent dj tre disponibles. Consultez le Guide de compatibilit de Stockage/SAN le plus rcent, vrifiez auprs de votre fournisseur de baies de stockage et explorez les articles de la base de connaissances VMware. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n n n

Test des configurations SAN de l'ESXi , page 46 Considrations gnrales de configuration pour les baies SAN Fibre Channel , page 46 Systmes de stockage EMC CLARiiON , page 47 Systmes de stockage EMC Symmetrix , page 48 Systmes de stockage IBM System Storage DS4800 , page 48 Systmes IBM Storage 8000 et IBM ESS800 , page 50 Systmes de stockage HP StorageWorks , page 50 Stockage Hitachi Data Systems , page 51 Stockage Network Appliance , page 51 Systmes de stockage bass sur LSI , page 51

VMware, Inc.

45

Stockage vSphere

Test des configurations SAN de l' ESXi


ESXiprend en charge divers systmes de stockage SAN dans diffrentes configurations. En gnral, VMware teste ESXi avec les systmes de stockage pris en charge pour une connectivit de base, le basculement HBA, etc. Les priphriques de stockage ne sont pas tous certifis pour toutes les fonctionnalits et possibilits de l'ESXi, et les fournisseurs peuvent avoir des positions spcifiques de prise en charge concernant l'ESXi. Connectivit de base Teste si l'ESXi peut reconnatre et fonctionner avec la baie de stockage. Cette configuration ne permet pas le chemins multiples ou tout autre type de basculement. Le serveur est quip de plusieurs HBA se connectant un ou plusieurs commutateurs SAN. Le serveur est rsistant aux pannes de HBA et de commutateur uniquement. Le serveur est associ plusieurs ports de stockage et est rsistant aux pannes de port de stockage et aux pannes de commutateur. L'hte dmarre partir d'un LUN configur sur le SAN plutt qu' partir du serveur lui-mme. Le serveur se connecte la baie sans utiliser de commutateurs. Pour tous les autres tests, une connexion matricielle est utilise. FC Arbitrated Loop (AL) n'est pas pris en charge. Le systme est test avec Microsoft Cluster Services s'excutant sur la machine virtuelle.

Basculement HBA

Basculement de port de stockage Dmarrage partir du SAN Connexion directe

Mettre en cluster

Considrations gnrales de configuration pour les baies SAN Fibre Channel


Lorsque vous prparez votre systme de stockage SAN FC pour qu'il fonctionne avec ESXi, vous devez suivre les conditions gnrales spcifiques qui s'appliquent toutes les baies de stockage. Pour toutes les baies de stockage, veillez ce que les conditions requises suivantes soient remplies :
n

Les LUN doivent tre prsents chaque HBA de chaque hte avec le mme ID de LUN. tant donn que les instructions sur la configuration des ID de LUN SAN identiques sont spcifiques chaque fournisseur, consultez la documentation de votre baie de stockage pour obtenir plus d'informations.

Sauf mention particulire pour des baies de stockage individuelles, dfinissez le type d'hte des LUN prsents ESXi sur Linux, Linux Cluster, ou, si disponible, sur vmware ou esx. Si vous utilisez vMotion, DRS ou HA, veillez ce que les htes source et cible des machines virtuelles puissent voir les mmes LUN avec des ID de LUN identiques. Les administrateurs SAN peuvent trouver peu intuitif que plusieurs htes voient les mmes LUN car ils peuvent alors tre concerns par la corruption des donnes. Toutefois, VMFS empche que plusieurs machines virtuelles n'crivent sur le mme fichier au mme moment. Il est donc appropri de fournir les LUN tous les systmes ESXi requis.

46

VMware, Inc.

Chapitre 5 Modification du stockage Fibre Channel pour ESXi

Systmes de stockage EMC CLARiiON


Les systmes de stockage EMC CLARiiON fonctionnent avec les htes ESXi dans les configurations SAN. La configuration de base inclut les tapes suivantes : 1 2 3 4 5 6 Installation et configuration du priphrique de stockage. Configuration du zonage au niveau du commutateur. Cration des groupes RAID. Cration et liaison des LUN. Inscription des serveurs connects au SAN. Par dfaut, l'hte effectue automatiquement cette tape. Cration des groupes de stockage contenant les serveurs et les LUN.

Utilisez le logiciel de gestion de stockage EMC pour effectuer cette configuration. Pour plus d'informations, reportez-vous la documentation EMC. ESXi envoie automatiquement le nom et l'adresse IP de l'hte la baie et inscrit l'hte auprs de la baie. Vous n'avez plus besoin d'effectuer manuellement l'inscription de l'hte. Toutefois, si vous prfrez utiliser le logiciel de gestion de stockage, tel qu'EMC Navisphere, pour effectuer une inscription manuelle, dsactivez la fonction d'inscription automatique de l'ESXi. Cette dsactivation vous permet d'viter de remplacer l'inscription manuelle de l'utilisateur. Pour plus d'informations, consultez Dsactiver l'enregistrement automatique de l'hte , page 60. tant donn que cette baie est une baie de disques active/passive, les considrations gnrales suivantes s'appliquent.
n

La rgle de gestion des chemins multiples dfinie par dfaut pour les baies CLARiiON qui ne prennent pas en charge ALUA est la plus communment utilise. Dans le cas des baies CLARiiON qui prennent en charge ALUA, VMW_PSP_FIXED est la rgle de gestion des chemins multiples dfinie par dfaut. Le systme ESXi dfinit la rgle par dfaut lorsqu'il identifie la baie. La resignature automatique de volume n'est pas prise en charge pour les priphriques de stockage AX100. Pour utiliser le dmarrage partir du SAN, assurez-vous que le SP actif est slectionn comme cible du LUN de dmarrage dans le BIOS HBA.

n n

IMPORTANT Pour qu'un ESXi prenne en charge EMC CLARiiON avec ALUA, vrifiez les HCL pour vous assurer que vous utilisez bien la bonne version de microprogramme sur la baie de stockage. Pour plus d'informations, contactez votre fournisseur de stockage.

EMC CLARiiON AX100 et RDM


Sur les systmes EMC CLARiiON AX100, les RDM sont pris en charge uniquement si vous utilisez Navisphere Management Suite pour l'administration du SAN. Le fonctionnement correct de Navilight n'est pas garanti. Pour utiliser correctement les RDM, un LUN donn doit tre prsent avec le mme ID de LUN chaque hte ESXi du cluster. Par dfaut, l'AX100 ne prend pas en charge cette configuration.

Problmes de l'affichage EMC CLARiiON AX100 avec des connexions inactives


Lorsque vous utilisez un priphrique de stockage AX100 FC directement connect un systme ESXi, vous devez vrifier que toutes les connexions sont oprationnelles et dsinscrire les connexions qui ne sont plus utilises. Dans le cas contraire, l'ESXi ne peut pas dtecter les nouveaux LUN ou chemins. Considrez le scnario suivant :

VMware, Inc.

47

Stockage vSphere

Un hte ESXi est directement connect un priphrique de stockage AX100. L'hte possde deux FC HBA. L'un des HBA tait prcdemment inscrit auprs de la baie de stockage et ses LUN taient configurs, mais les connexions sont dsormais inactives. Lorsque vous connectez le deuxime HBA sur l'hte au AX100 et que vous l'inscrivez, l'hte indique correctement la baie comme ayant une connexion active. Toutefois, aucun des LUN qui taient prcdemment configurs sur l'hte n'est visible, mme aprs plusieurs nouvelles analyses. Pour rsoudre ce problme, supprimez le HBA inactif, annulez l'inscription de la connexion au HBA inactif ou activez toutes les connexions inactives. Cela permet de dplacer uniquement les HBA actifs dans le groupes de stockage. Aprs cette modification, effectuez une ranalyse pour ajouter les LUN configurs.

Systmes de stockage EMC Symmetrix


Les systmes de stockage EMC Symmetrix fonctionnent avec les htes ESXidans les configurations FC SAN. Gnralement, vous utilisez le logiciel EMC pour effectuer ces configurations. Les paramtres suivants sont requis sur le systme de stockage rseau Symmetrix. Pour plus d'informations, reportez-vous la documentation EMC.
n n n n n n

Numro de srie commun (C) Auto-ngociation (EAN) active Fibrepath activ sur ce port (VCM) SCSI 3 (SC3) activ Nom mondial unique (UWN) L'indicateur SPC-2 (Decal) (SPC2) SPC-2 est requis

L'hte ESXi considre tous les LUN partir d'une baie de stockage Symmetrix avec une capacit de 50 Mo maximum comme LUN de gestion. Ces LUN sont galement appels pseudo LUN ou LUN de contrle d'accs. Ces LUN apparaissent dans l'interface de gestion EMC Symmetrix et ne doivent pas tre utiliss pour contenir des donnes.

Systmes de stockage IBM System Storage DS4800


Les systmes IBM System Storage DS4800 s'appelaient auparavant IBM FAStT. Un certain nombre de fournisseurs de baie de stockage (dont LSI et StorageTek) fabriquent des baies de stockage SAN compatibles avec le systme DS4800. Veillez dfinir la politique de gestion des chemins multiples sur votre hte sur Le plus rcemment utilis (Most Recently Used) pour que votre hte fonctionne avec IBM DS4800 et d'autres systmes compatibles.

Configuration du matriel pour le basculement du SAN avec les serveurs de stockage DS4800
Cette rubrique fournit des informations sur la configuration d'un basculement de SAN HA avec un hte ESXi et un stockage DS4800. Vous devez disposer des composants matriels suivants :
n n n

Deux FC HBA, tels que QLogic ou Emulex, sur chaque machine ESXi. Deux commutateurs FC reliant les HBA au SAN (par exemple, commutateur FC 1 et commutateur FC 2). Deux SP (par exemple, SP1 et SP2). Chaque SP doit possder au moins deux ports connects au SAN.

48

VMware, Inc.

Chapitre 5 Modification du stockage Fibre Channel pour ESXi

Utilisez les paramtres de connexion suivants pour l'hte ESXi, comme indiqu dans le basculement du SAN :
n

Connectez chaque HBA de chaque machine ESXi un commutateur distinct. Par exemple, connectez HBA1 Commutateur FC 1 et HBA2 Commutateur FC 2. Figure 5-1. Basculement du SAN
Hte 1 HBA1 HBA2 Hte 2 HBA3 HBA4

commutateur FC 1

commutateur FC 2

SP1 stockage

SP2

Cette configuration fournit deux chemins de chaque HBA, pour que chaque lment de la connexion puisse basculer vers un chemin redondant. L'ordre des chemins dans cette configuration permet le basculement de HBA et de commutateur sans avoir besoin de dclencher le basculement de SP. Le processeur de stockage auquel sont connects les chemins par dfaut doit contenir les LUN. Dans le prcdent exemple de configuration, SP1 les contient. REMARQUE Le prcdent exemple suppose que les commutateurs ne sont pas connects via un ISL (Inter-Switch Link) dans un matriciel.

Dsactivation du transfert automatique de volume


Pour viter toute annulation de chemin, dsactivez l'AVT (Auto Volume Transfer) sur les processeurs de stockage SAN. Si l'AVT est activ, les deux processeurs de stockage peuvent tour tour prendre possession du LUN dans certaines situations, entranant ainsi une dgradation des performances. L'AVT est galement connu sous le nom d'ADT (Auto Disk Transfer). Pour dsactiver l'AVT, dans le DS 4800 Storage Manager, pour chaque port dfini dans chaque groupe d'hte contenant des HBA pour un ou plusieurs htes ESXi dfinissez le type d'hte sur LNXCL ou dans les versions ultrieures, sur VMware. Vous devez redmarrer les htes aprs avoir modifi la configuration de l'AVT.

Configuration des donnes de dtection du processeur de stockage


Un SP DS4800 qui excute Windows comme systme d'exploitation client doit renvoyer les donnes de dtection Not Ready lorsqu'il est inactif. Le renvoi de Unit Attention peut entraner l'chec du client Windows lors d'un basculement. Procdure 1 Dterminez l'index pour le type d'hte LNXCL en utilisant les commandes suivantes dans une fentre shell. Appuyez sur Entre aprs chaque commande.
SMcli.exe ip-addr-for-SPA show hosttopology; Enter SMcli.exe ip-addr-for-SPB show hosttopology

Les commandes suivantes supposent que 13 est l'index correspondant LNXCL dans les dfinitions du type d'hte NVSRAM. Si vos processeurs de stockage ont LNXCL au niveau d'un autre index, remplacez cet index par 13 dans les commandes suivantes.

VMware, Inc.

49

Stockage vSphere

Excutez ces commandes pour SPA pour que celui-ci renvoie les donnes de dtection Not Ready. Appuyez sur Entre uniquement aprs avoir saisi toutes les commandes.SMcli.exe ip-addr-for-SPA set controller [a] HostNVSRAMBYTE [13,0x12]=0x01; set
controller [a] HostNVSRAMBYTE [13,0x13]=0x00; reset Controller [a]

Excutez ces commandes pour SPB pour que celui-ci renvoie les donnes de dtection Not Ready. Appuyez sur Entre uniquement aprs avoir saisi toutes les commandes.SMcli.exe ip-addr-for-SPB set controller [b] HostNVSRAMBYTE [13,0x12]=0x01; set
controller [b] HostNVSRAMBYTE [13,0x13]=0x00; reset Controller [b]

REMARQUE Si vous utilisez la GUI DS4800 Storage Manager, collez les commandes de configuration pour les deux processeurs de stockage dans un seul script et configurez-les simultanment. Si vous utilisez SMcli.exe, tablissez des connexion individuelles chaque SP.

Systmes IBM Storage 8000 et IBM ESS800


Les systmes IBM Systems Storage 8000 et IBM ESS800 utilisent une baie active/active qui ne ncessite aucune configuration spciale conjointement VMware ESXi. Les considrations suivantes s'appliquent si vous utilisez ces systmes :
n n

La resignature automatique n'est pas prise en charge pour ces systmes. Pour utiliser correctement les RDM, un LUN donn doit tre prsent avec le mme ID de LUN chaque hte ESXi du cluster. Dans l'outil ESS800 Configuration Management, slectionnez [Utiliser le mme ID de LUN dans la source et la cible] . Si vous configurez l'hte pour qu'il utilise le dmarrage partir du SAN de ces baies, dsactivez le port de fibre interne pour la lame correspondante jusqu' la fin de l'installation.

Systmes de stockage HP StorageWorks


Cette section contient des informations de configuration pour les diffrents systmes de stockage HP StorageWorks. Pour plus d'informations, reportez-vous la section HP ActiveAnswers sur VMware ESXi sur le site Web de HP.

HP StorageWorks EVA
Pour utiliser un systme HP StorageWorks EVA avec ESXi, vous devez configurer le type de mode d'hte correct. Dfinissez le type de connexion sur Personnaliser lorsque vous prsentez un LUN l'hte. La valeur est l'une des suivantes :
n

Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme antrieur 5.031, utilisez le type de mode d'hte 000000202200083E. Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme 5.031 et versions ultrieures , utilisez le type de mode d'hte VMware.

Sinon, les systmes EVA ne ncessitent aucune modification spciale de la configuration pour fonctionner avec un systme ESXi. Consultez la page VMware Infrastructure, HP StorageWorks Best Practices sur le site Web de HP.

50

VMware, Inc.

Chapitre 5 Modification du stockage Fibre Channel pour ESXi

HP StorageWorks XP
Pour HP StorageWorks XP, vous devez paramtrer spcifiquement le mode d'hte.
n n

Sur XP128/1024/10000/12000, dfinissez le mode hte sur Windows (0x0C). Sur XP24000/20000, dfinissez le mode hte sur 0x01.

Stockage Hitachi Data Systems


Cette section prsente la configuration du stockage Hitachi Data Systems. Cette solution de stockage est galement disponible partir de Sun et comme stockage HP XP. masquage de LUN Microcode et configurations Pour masquer les LUN sur l'hte ESXi et obtenir de meilleurs rsultats, utilisez le logiciel HDS Storage Navigator. Vrifiez auprs de votre reprsentant HDS les configurations exactes et les niveaux de microcode ncessaires pour une interoprabilit avec ESXi. Si votre microcode n'est pas pris en charge, toute interaction avec ESXi n'est gnralement pas possible. Les modes que vous dfinissez dpendent du modle que vous utilisez, par exemple :
n n

Modes

9900 et 9900v utilisent le mode d'hte Netware. La srie 9500v utilise Hostmode1 : standard et Hostmode2 : SUN Cluster.

Vrifiez auprs de votre reprsentant HDS pour obtenir les paramtres de mode d'hte pour les modles non rpertoris ici.

Stockage Network Appliance


Lors de la configuration d'un priphrique de stockage Network Appliance, dfinissez tout d'abord le type de LUN appropri et le type de groupes d'initiateur pour la baie de stockage. Type de LUN Type de groupes d'initiateur VMware (si le type VMware n'est pas disponible, utilisez Linux). VMware (si le type VMware n'est pas disponible, utilisez Linux).

Vous devez alors provisionner le stockage.

Systmes de stockage bass sur LSI


Lors de l'installation de l'ESXi, ne prsentez pas le LUN de gestion, galement appel LUN d'accs, partir des baies bases sur LSI l'hte. Sinon, l'installation de l'ESXi pourrait chouer.

VMware, Inc.

51

Stockage vSphere

52

VMware, Inc.

Dmarrage ESXi partir du SAN Fibre Channel

Lorsque vous paramtrez votre hte pour qu'il dmarre depuis un SAN, l'image de dmarrage de votre hte est archive sur une ou plusieurs numros d'unit logique (LUN) du systme de stockage du SAN. Lorsque l'hte dmarre, il se lance partir de la LUN se trouvant sur le SAN et non pas partir du disque local. ESXiprend en charge des dmarrages par le biais d'un adaptateur de bus hte (HBA) Fibre Channel ou d'un adaptateur de rseau converg (CNA) Fibre Channel sur Ethernet (FCoE). Ce chapitre aborde les rubriques suivantes :
n n n n n

Avantages du dmarrage partir d'un SAN , page 53 Considrations et spcifications du dmarrage partir du SAN Fibre Channel , page 54 Prparation pour le dmarrage partir du SAN , page 54 Configurer Emulex HBA pour un dmarrage partir du SAN , page 56 Configurer QLogic HBA pour un dmarrage partir du SAN , page 57

Avantages du dmarrage partir d'un SAN


Le dmarrage partir du SAN peut offrir de nombreux avantages votre environnement. Toutefois, dans certains cas, vous ne devez pas effectuer le dmarrage partir du SAN dans le cas des htes ESXi. Avant de configurer votre systme pour un dmarrage partir du SAN, vous devez dcider si cela est ncessaire pour votre environnement. AVERTISSEMENT Lorsque vous utilisez le dmarrage partir du SAN avec plusieurs htes ESXi, chaque hte doit possder sa propre LUN de dmarrage. Si vous configurez de nombreux htes pour partager la mme LUN de dmarrage, une corruption de l'image d'ESXi peut ventuellement se produire. Si vous utilisez le dmarrage partir du SAN, les avantages pour votre environnement incluront les lments suivants :
n

Cot moins lev des serveurs. Les serveurs sont plus denses et leur temprature de fonctionnement beaucoup moins leve sans stockage interne. Remplacement plus facile des serveurs. Vous pouvez remplacer les serveurs par un nouveau serveur que vous pointez vers l'ancien emplacement de dmarrage. Gain d'espace. Les serveurs sans disques locaux sont souvent moins volumineux. Processus de sauvegarde plus faciles. Vous pouvez sauvegarder les images de dmarrage du systme dans le SAN dans le cadre des procdures de sauvegarde gnrales du SAN. Vous pouvez galement utiliser les fonctionnalits avances de la baie, telles que les snapshots de l'image de dmarrage. Gestion amliore. La cration et la gestion de l'image du systme d'exploitation sont encore plus faciles et plus efficaces.

n n

VMware, Inc.

53

Stockage vSphere

Meilleure fiabilit. Vous pouvez accder au disque de dmarrage via diffrents chemins. Le disque est ainsi protg en ne reprsentant pas un point unique de panne.

Considrations et spcifications du dmarrage partir du SAN Fibre Channel


Votre configuration de dmarrage ESXi doit rpondre certaines exigences particulires. Tableau 6-1. Conditions requises du dmarrage partir du SAN
Spcifications Spcifications systme ESXi Conditions requises d'une carte Contrle d'accs Description Respectez les recommandations du fournisseur pour le dmarrage du serveur partir d'un SAN. Activez et configurez correctement la carte afin qu'elle puisse accder au LUN de dmarrage. Consultez la documentation du fabricant.
n

Chaque hte doit ne pouvoir accder qu' son propre LUN de dmarrage et non aux LUN de dmarrage des autres htes. Utilisez le logiciel du systme de stockage pour vrifier que l'hte accde uniquement aux LUN qui lui sont assigns. Plusieurs serveurs peuvent partager une partition de diagnostic. Pour le faire, vous pouvez utiliser un masquage de LUN spcifique une baie.

Prise en charge de la gestion de chemins multiples Considrations SAN

La gestion de chemins multiples vers un LUN de dmarrage sur des baies actives/passives n'est pas pris en charge car le BIOS ne prend pas en charge la gestion de chemins multiples et ne peut pas activer un chemin de veille. Les connexions SAN doivent se faire via une topologie commutateur si la baie n'est pas certifie pour une topologie connexion directe. Si la baie est certifie pour la topologie connexion directe, les connexions SAN peuvent tre tablies directement sur la baie. Le dmarrage partir du SAN est pris en charge pour les deux topologies ( commutateur et connexion directe), si ces topologies pour la baie spcifique sont certifies. Si vous excutez un IBM eServer BladeCenter et que vous utilisez le dmarrage partir du SAN, vous devez mettre hors tension les lecteurs IDE sur les lames.

Considrations spcifiques au matriel

Prparation pour le dmarrage partir du SAN


Lorsque vous configurez votre dmarrage partir d'un environnement SAN, vous effectuez diffrentes tches. Ce chapitre dcrit le processus d'activation d'un dmarrage gnrique partir du SAN sur des serveurs monts sur rack. Pour plus d'informations sur l'activation des dmarrages partir du SAN sur des serveurs lame Cisco Unified Computing System FCoE, reportez-vous la documentation de Cisco. 1 Configurer des composants SAN et un systme de stockage page 55 Lorsque vous paramtrez votre hte ESXi pour qu'il dmarre depuis un LUN SAN, configurez les composants du SAN et un systme de stockage. 2 Configurer l'adaptateur de stockage pour un dmarrage partir du SAN page 55 Lorsque vous configurez votre hte pour effectuer un dmarrage partir du SAN, vous devez activer l'adaptateur de dmarrage dans le BIOS de l'hte. Vous devez ensuite configurer l'adaptateur de dmarrage afin de lancer une connexion primitive vers le LUN de dmarrage cible. 3 Configurer votre systme pour effectuer un dmarrage partir du support d'installation page 55 Lorsque vous configurez votre hte pour effectuer un dmarrage partir du SAN, vous devez d'abord dmarrer l'hte partir du support d'installation de VMware. Pour le faire, vous devez modifier la squence de dmarrage du systme dans la configuration du BIOS.

54

VMware, Inc.

Chapitre 6 Dmarrage ESXi partir du SAN Fibre Channel

Configurer des composants SAN et un systme de stockage


Lorsque vous paramtrez votre hte ESXi pour qu'il dmarre depuis un LUN SAN, configurez les composants du SAN et un systme de stockage. La configuration des composants SAN tant propre au fournisseur, reportez-vous la documentation produit de chaque lment. Procdure 1 Connectez les cbles rseau en vous rfrant au guide de cblage correspondant votre configuration. Vrifiez le cblage du commutateur, le cas chant. 2 Configurez la baie de stockage. a b c d e f partir de la baie de stockage SAN, rendez l'hte ESXi visible sur le SAN. On appelle gnralement ce processus, le processus de cration d'un objet. partir de la baie de stockage SAN, configurez l'hte pour avoir les WWPN des adaptateurs de l'hte comme noms de port ou noms de nud. Crez des LUN. Attribuez des LUN. Enregistrez les adresses IP des commutateurs et des baies de stockage. Enregistrez le WWPN de chaque SP.

AVERTISSEMENT Si vous utilisez une installation par script pour installer l'ESXi en mode de dmarrage partir du SAN, vous devez effectuer quelques tapes spcifiques afin d'viter toute perte accidentelle de donnes.

Configurer l'adaptateur de stockage pour un dmarrage partir du SAN


Lorsque vous configurez votre hte pour effectuer un dmarrage partir du SAN, vous devez activer l'adaptateur de dmarrage dans le BIOS de l'hte. Vous devez ensuite configurer l'adaptateur de dmarrage afin de lancer une connexion primitive vers le LUN de dmarrage cible. Prrequis Dterminez le WWPN de l'adaptateur de stockage. Procdure
u

Configurez l'adaptateur de stockage pour effectuer un dmarrage partir du SAN. La configuration des adaptateurs de dmarrage tant propre au fournisseur, reportez-vous la documentation de votre fournisseur.

Configurer votre systme pour effectuer un dmarrage partir du support d'installation


Lorsque vous configurez votre hte pour effectuer un dmarrage partir du SAN, vous devez d'abord dmarrer l'hte partir du support d'installation de VMware. Pour le faire, vous devez modifier la squence de dmarrage du systme dans la configuration du BIOS. La modification de la squence de dmarrage dans le BIOS tant propre au fournisseur, reportez-vous la documentation du fournisseur pour plus d'instructions. La procdure suivante explique comment modifier la squence de dmarrage sur un hte IBM.

VMware, Inc.

55

Stockage vSphere

Procdure 1 2 3 4 Pendant la mise sous tension de votre systme, entrez dans l'utilitaire de configuration du BIOS systme. Slectionnez [Options de dmarrage] et appuyez sur Entre. Slectionnez [Options des squences de dmarrage] et appuyez sur Entre. Modifiez le [Premier dispositif de dmarrage] en [[CD-ROM]] .

Vous pouvez maintenant installer l'ESXi.

Configurer Emulex HBA pour un dmarrage partir du SAN


La configuration du BIOS HBA Emulex pour dmarrer l'ESX partir du SAN comprend l'activation de l'invite BootBIOS et du BIOS. Procdure 1 Activation de l'invite BootBIOS page 56 Lorsque vous configurez le BIOS HBA Emulex pour dmarrer ESXi partir du SAN, vous devez activer l'invite BootBIOS. 2 Activation du BIOS page 56 Lorsque vous configurez le BIOS HBA Emulex pour dmarrer ESXi partir du SAN, vous devez activer le BIOS.

Activation de l'invite BootBIOS


Lorsque vous configurez le BIOS HBA Emulex pour dmarrer ESXi partir du SAN, vous devez activer l'invite BootBIOS. Procdure 1 2 3 4 5 Excutez lputil. Slectionnez [3. Maintenance du microprogramme] . Slectionnez un adaptateur. Slectionnez [6. Maintenance du BIOS du dmarrage] . Slectionnez [1. Activer BIOS du dmarrage] .

Activation du BIOS
Lorsque vous configurez le BIOS HBA Emulex pour dmarrer ESXi partir du SAN, vous devez activer le BIOS. Procdure 1 2 Redmarrez l'hte. Pour configurer les paramtres de l'adaptateur, appuyez sur ALT+E l'invite Emulex et suivez les tapes indiques. a b c d e Slectionnez un adaptateur (avec prise en charge BIOS). Slectionnez [2. Configurer les paramtres de cet adaptateur.] Slectionnez [1. Activer ou mettre hors tension BIOS] Slectionnez [1] pour activer le BIOS. Slectionnez [x] pour quitter et [Esc] pour revenir au menu prcdent.

56

VMware, Inc.

Chapitre 6 Dmarrage ESXi partir du SAN Fibre Channel

Pour configurer le priphrique de dmarrage, suivez les tapes suivantes partir du menu principal Emulex. a b c d e f g h Slectionnez la mme carte. Slectionnez [1. Configurer des priphriques de dmarrage] Choisir l'emplacement pour l'entre de dmarrage. Saisissez le priphrique de dmarrage deux chiffres. Saisissez le LUN de dmarrage deux chiffres (HEX) (par exemple, 08). Slectionnez le LUN de dmarrage. Slectionnez [1. WWPN] (Dmarrez ce priphrique avec WWPN, et non DID). Slectionnez [X] pour quitter et [Y] pour redmarrer.

4 5

Dmarrez dans le BIOS systme et dplacez tout d'abord Emulex dans la squence du contrleur de dmarrage. Redmarrez et procdez l'installation sur un LUN de rseau SAN.

Configurer QLogic HBA pour un dmarrage partir du SAN


Cette procdure, propose titre d'exemple, explique comment configurer QLogic HBA pour effectuer un dmarrage ESXi partir du SAN. Cette procdure implique l'activation du BIOS QLogic HBA, du dmarrage slectionnable et la slection du LUN de dmarrage. Procdure 1 2 Tout en dmarrant le serveur, appuyez sur [Ctrl+Q] pour saisir l'utilitaire de configuration Fast!UTIL. Effectuez l'action approprie selon le nombre de HBA.
Option Un HBA Plusieurs HBA Description Si vous disposez d'un seul adaptateur de bus hte (HBA), la page Options de Fast!UTIL s'affiche. Passez l'tape 3. Si vous disposez de plusieurs HBA, slectionnez manuellement le HBA. a Sur la page Slection de la carte d'hte, utilisez les touches de flches pour positionner le curseur sur le HBA appropri. b Appuyez sur [Entre] .

3 4 5

Sur la page Options de Fast!UTIL, slectionnez [Paramtres de configuration] et appuyez sur [Entre] . Sur la page Paramtres de configuration, slectionnez [Paramtres de l'adaptateur] et appuyez sur [Entre] . Dfinissez le BIOS pour qu'il recherche les priphriques SCSI. a b c Sur la page Paramtres de la carte d'hte, slectionnez [BIOS de l'adaptateur hte] . Appuyez sur [Entre] pour basculer la valeur sur Activ. Appuyez sur [chap] pour quitter.

Activation du dmarrage slectionnable. a b c Slectionnez [Paramtres de dmarrage slectionnable] et appuyez sur [Entre] . Sur la page Paramtres du dmarrage slectionnable, slectionnez [Dmarrage slectionnable] . Appuyez sur [Entre] pour basculer la valeur sur [Activ] .

VMware, Inc.

57

Stockage vSphere

Utilisez les touches des flches de direction pour slectionner l'entre du nom du port de dmarrage dans la liste des processeurs de stockage (SP) et appuyez sur [Entre] pour afficher l'cran Slection du priphrique Fibre Channel. A l'aide des flches de direction, slectionnez le SP choisi et appuyez sur [Entre] . Si vous utilisez une baie de stockage active/passive, le SP slectionn doit se trouver sur le chemin (actif) prfr destination de la LUN de dmarrage. Si vous ne savez pas quel SP se trouve sur le chemin actif, utilisez votre logiciel de gestion de baie de stockage pour le dcouvrir. Les ID cibles sont cres par le BIOS et peuvent changer chaque redmarrage.

Effectuez l'action requise en fonction du nombre de LUN attachs au SP.


Option Une LUN LUN multiples Description La LUN est slectionne en tant que LUN de dmarrage. Vous n'avez pas besoin d'entrer dans l'cran de slection des LUN. L'cran de slection des LUN s'ouvre. Utilisez le curseur pour slectionner la LUN de dmarrage puis appuyez sur [Entre] .

10 11

Si des processeurs de stockage apparaissent dans la liste, appuyez sur [C] pour effacer les donnes. Appuyez deux fois sur [Esc] pour quitter et appuyez sur [Entre] pour enregistrer le paramtrage.

58

VMware, Inc.

Meilleures pratiques pour le stockage Fibre Channel

Lorsque vous utilisez ESXi avec un SAN Fibre Channel, suivez les meilleures pratiques que VMware propose pour viter des problmes de performance. vSphere Client offre une gamme extensive de moyens pour collecter d'informations sur les performances. Les informations sont affiches de manire graphique dans vSphere Client. vSphere Client met niveau son affichage priodiquement. Vous pouvez utiliser les utilitaires de commande resxtop ou esxtop. Les utilitaires fournissent une vue dtaille du mode d'utilisation des ressources de ESXi en temps rel. Pour plus d'informations, voir la documentation Gestion des ressources vSphere. Consultez votre reprsentant de stockage pour savoir si votre systme de stockage prend en charge les fonctionnalits d'acclration matrielle API de stockage - Intgration de baie. Le cas chant, consultez la documentation du fournisseur pour plus d'informations sur le mode d'activation de la prise en charge de l'acclration matrielle du ct du systme de stockage. Pour plus d'informations, voir Chapitre 18, Acclration matrielle du stockage , page 187. Ce chapitre aborde les rubriques suivantes :
n n n n

Prvention des problmes de SAN Fibre Channel , page 59 Dsactiver l'enregistrement automatique de l'hte , page 60 Optimisation des performances du stockage SAN Fibre Channel , page 60 Liste de vrification de la configuration du SAN Fibre Channel , page 62

Prvention des problmes de SAN Fibre Channel


Lorsque vous utilisez ESXi conjointement un SAN Fibre Channel, vous devez suivre des directives spcifiques afin d'viter des problmes de SAN. Vous devriez observer ces conseils, afin d'viter des problmes dans votre configuration SAN.
n n

Placez une seule banque de donnes VMFS sur chaque LUN. Ne changez pas la politique de chemin que le systme dfinit, sauf si vous comprenez les implications de tels changements. Documentez tout ce que vous faites. Incluez des informations sur le zonage, le contrle d'accs, le stockage, le commutateur, le serveur et la configuration HBA FC, les versions de logiciel et firmware, et le plan des cbles de stockage. Plan en cas de panne :
n

Fates plusieurs copies de vos mappages topologiques. Pour chaque lment, envisagez les consquences sur votre SAN si cet lment tombe en panne.

VMware, Inc.

59

Stockage vSphere

Rayez chaque lien, commutateurs, HBA et autres lments pour vrifier que vous n'avez omis aucun point de panne critique dans votre architecture.

Assurez-vous que les HBA Fibre Channel sont installs dans les slots corrects de l'hte, selon la vitesse du slot et du bus. quilibrez la charge de bus PCI entre les divers bus du serveur. Familiarisez-vous avec les diffrents points de contrle de votre rseau de stockage, sur tous les points de visibilit, y compris les graphiques de performance de l'hte, les statistiques des commutateurs FC et des performances de stockage. Soyez prudent lorsque vous modifiez les ID des LUN qui prennent en charge des banques de donnes en cours d'utilisation par votre hte ESXi. Si vous modifiez les ID, la banque de donnes devient inactive et ses machines virtuelles tombent en panne. Vous pouvez resigner la banque de donnes pour la ractiver. Reportez-vous la section Administration des banques de donnes VMFS dupliques , page 131. Si aucune machine virtuelle ne se trouve en fonction sur la banque de donnes VMFS, aprs avoir modifi l'ID du LUN vous devez ranalyser pour rinitialiser l'ID de votre hte. Pour plus d'informations sur l'utilisation de la ranalyse, consultez Ranalyse du stockage , page 134.

Dsactiver l'enregistrement automatique de l'hte


Lorsque vous utilisez des baies EMC CLARiiON ou Invista pour le stockage, il est ncessaire que les htes soient enregistrs avec les baies. ESXi effectue un enregistrement d'hte automatique en envoyant le nom de l'hte et l'adresse IP la baie. Si vous prfrez utiliser le logiciel de gestion de stockage pour effectuer un enregistrement manuel, dsactivez la fonction d'enregistrement automatique de ESXi. Procdure 1 2 3 4 Dans vSphere Client, slectionnez l'hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Paramtres avancs] dans Logiciel. Cliquez sur [Disque] dans le volet de gauche et faites dfiler jusqu' Disk.EnableNaviReg sur la droite. Modifiez la valeur par dfaut pour 0.

Cela dsactive l'enregistrement automatique de l'hte activ par dfaut.

Optimisation des performances du stockage SAN Fibre Channel


Plusieurs facteurs contribuent l'optimisation d'un environnement SAN classique. si l'environnement est correctement configur, les composants de la structure SAN (en particulier les commutateurs SAN) ne sont que des contributeurs mineurs, cause de leurs latences basses par rapport aux serveurs et aux baies de stockage. Assurez-vous que les chemins dans le commutateur de la structure ne sont pas saturs, c'est--dire que le commutateur fonctionne avec le dbit maximal.

Performances des baies de stockage


Les performances des baies de stockage sont l'un des principaux facteurs contribuant aux performances de la totalit de l'environnement SAN. En cas de problme de performances des baies de stockage, consultez la documentation de votre fournisseur de baies de stockage. Suivez ces directives gnrales pour amliorer la performance de baie dans l'environnement vSphere :
n

Lors de l'attribution des LUN, souvenez-vous que chaque LUN est accessible par plusieurs htes et que plusieurs machines virtuelles peuvent tre excutes sur chaque hte. Un LUN utilis par un hte peut servir des E/S provenant d'applications trs varies et excutes sur diffrents systmes d'exploitation. En raison de ces charges de travail trs varies, le groupe RAID contenant les LUN ESXi ne doit pas inclure de LUN utiliss par d'autres serveurs qui n'excutent pas d'ESXi.

60

VMware, Inc.

Chapitre 7 Meilleures pratiques pour le stockage Fibre Channel

n n

Vrifiez que le cache de lecture/criture est activ. Les baies de stockage SAN ncessitent des modifications et des ajustements permanents pour s'assurer que les charges d'E/S sont quilibrs sur tous les chemins d'accs des baies de stockage. Pour rpondre cette exigence, rpartissez les chemins d'accs vers les LUN entre tous les SP pour assurer un quilibrage de charge optimal. Une surveillance attentive permet de savoir lorsqu'il est ncessaire de rquilibrer la rpartition des LUN. L'ajustement des baies de stockage quilibres de manire statique implique la surveillance de statistiques de performance spcifiques (nombre d'oprations d'entre-sortie par seconde, blocs par seconde et temps de rponse) et la rpartition de la charge de travail des LUN pour rpartir la charge de travail sur tous les SP. REMARQUE L'quilibrage de charge dynamique n'est pas pris en charge actuellement avec ESXi.

Performances des serveurs avec Fibre Channel


Vous devez tenir compte de diffrents facteurs pour garantir des performances optimales des serveurs. Chaque application de serveur doit avoir accs son stockage dsign aux conditions suivantes :
n n n

Vitesse d'E/S leve (nombre d'oprations d'entre-sortie par seconde) Rendement lev (mgaoctets par seconde) Latence minimale (temps de rponse)

Comme chaque application a diffrentes exigences, ces objectifs peuvent tre remplis en choisissant un groupe RAID appropri sur la baie de stockage. Pour atteindre les objectifs de performance :
n

Placez chaque LUN sur un groupe RAID qui offre les niveaux de performance ncessaires. Faites attention aux activits et l'utilisation des ressources d'autres LUN dans le groupes RAID associ. Un groupe RAID haute performance ayant un nombre excessif d'applications effectuant des E/S risque de ne pas satisfaire aux exigences de performance requises par une application excute sur l'hte ESXi. Vrifiez que chaque serveur a un nombre suffisant de HBA pour autoriser un dbit maximum pour toutes les applications hberges sur le serveur pendant la priode de pointe. Les entres/sorties rparties sur plusieurs HBA prsentent un dbit suprieur et moins de latence pour chaque application. Pour assurer la redondance en cas de dfaillance HBA, vrifiez que le serveur est connect un double fabric redondant. Lors de l'allocation de groupes LUN ou RAID aux systmes ESXi, plusieurs systmes d'exploitation utilisent et partagent cette ressource. Par consquent, les performances requises de la part de chaque LUN du sous-systme de stockage peuvent tre nettement suprieures en cas d'utilisation du systme ESXi qu'avec des machines physiques. Par exemple, si vous pensez exploiter quatre applications fortes E/S, allouez quatre fois les capacits de performance aux LUN. ESXi. En cas d'utilisation de plusieurs systmes ESXi avec vCenter Server, les performances requises pour le sous-systme de stockage augmentent en consquence. Le nombre d'E/S en attente requises par applications excutes sur un systme ESXi doit correspondre au nombre d'E/S pouvant tre traites par HBA et la baie de stockage.

VMware, Inc.

61

Stockage vSphere

Liste de vrification de la configuration du SAN Fibre Channel


Cette rubrique vous fournit une liste de vrification des configurations spciales requises pour l'installation sur les diffrentes baies de stockage et sur les htes ESXi. Tableau 7-1. Configuration d'installation requise de la gestion multivoie
Composant Toutes les baies de stockage Topologie IBM TotalStorage DS 4000 (anciennement FastT) Famille HDS 99xx et 95xxV Commentaires Le cache en criture doit tre dsactiv s'il n'est pas soutenu par batterie. Une dfaillance unique ne peut en aucun cas entraner le basculement de HBA et de SP, tout particulirement, avec des baies de stockage actives/passives. Le type d'hte doit tre LNXCL or VMware dans les versions les plus rcentes. AVT (Auto Volume Transfer) est dsactiv dans ce mode d'hte. La famille HDS 9500V (Thunder) ncessite deux modes d'hte : n Mode d'hte 1 : Standard.
n

Mode d'hte 2 : Sun Cluster

La famille HDS 99xx (Lightning) et HDS Tabma (USP) ncessitent la dfinition du mode d'hte sur Netware. EMC Symmetrix EMC Clariion HP MSA HP EVA Activez les paramtres SPC2 et SC3. Contactez EMC pour obtenir les paramtres les plus rcents. Rglez le mode de basculement de EMC Clariion sur 1 ou 4. Contactez EMC pour les dtails. Le type d'hte doit tre sur Linux. Dfinissez le type de connexion de chaque port HBA sur Linux. Pour la version 5.031 et suprieure du firmware EVA4000/6000/8000, dfinissez le type d'hte sur VMware. Sinon, dfinissez le type de mode de l'hte sur Custom. La valeur est : 000000202200083E. HP XP NetApp Configuration ESXi
n n

Sur XP128/1024/10000/12000, dfinissez le mode hte sur Windows (0x0C). Sur XP24000/20000, dfinissez le mode hte sur 0x01.

Aucune configuration spcifique requise


n n n n n

Utilisez la PSP la plus rcemment utilise pour tous les LUN hbergeant des disques en cluster pour les baies actives/passives. Pour les LUN sur des baies actives/passives, utilisez les PSP les plus rcemment utilises (Most Recently Used) ou fixes (Fixed). Avec des baies actives/passives ou actives/actives, utilisez le Round Robin PSP. Tous les FC HBA doivent tre du mme modle. Dfinissez les paramtres avancs du logiciel de l'hte : n Dfinissez Disk.UseLunReset sur 1 n Dfinissez Disk.UseDeviceReset sur 0

62

VMware, Inc.

Utilisation d' ESXi avec un SAN iSCSI

Vous pouvez utiliser ESXi conjointement un rseau de zone de stockage (SAN), rseau haut-dbit spcialis qui connecte des systmes informatiques des sous-systmes de stockage hautes performances. L'utilisation d'ESXi avec un SAN fournit une consolidation de stockage, amliore la fiabilit et facilite la rcupration sur incident. Pour utiliser l'ESXi de manire efficace avec un SAN, vous devez avoir une certaine exprience des systmes ESXi et des concepts SAN. De mme, lorsque vous configurez des htes ESXi pour qu'ils utilisent des systmes de stockage SAN Internet SCSI (iSCSI), vous devez connatre les considrations spciales existantes. Ce chapitre aborde les rubriques suivantes :
n n

Concepts SAN iSCSI , page 63 Accs des machines virtuelles aux donnes sur un SAN iSCSI , page 68

Concepts SAN iSCSI


Si vous tes administrateur et envisagez de configurer les htes ESXi pour fonctionner avec des SAN iSCSI, vous devez avoir une connaissance pratique des concepts iSCSI. Les SAN iSCSI utilisent des connexions Ethernet entre les systmes informatiques, ou serveurs htes, et les sous-systmes de stockage hautes performances. Les composants SAN comprennent les adaptateurs de bus hte (HBA) ou cartes d'interface rseau (NIC) des serveurs htes, les commutateurs et les routeurs qui acheminent le trafic de stockage, les cbles, les processeurs de stockage (SP) et les systmes de disque de stockage. Le SAN iSCSI utilise une architecture client-serveur. Le client, appel initiateur iSCSI, agit sur votre hte. Il lance des sessions iSCSI en mettant des commandes SCSI et en les transmettant, encapsules dans le protocole iSCSI, un serveur. Le serveur est connu sous le nom de cible iSCSI. La cible iSCSI reprsente un systme de stockage physique sur le rseau. Elle peut galement tre fournie par un SAN iSCSI virtuel, par exemple un mulateur cible iSCSI s'excutant sur une machine virtuelle. La cible iSCSI rpond aux commandes de l'initiateur en transmettant les donnes iSCSI requises.

Gestion gestion multivoie iSCSI


Lors du transfert de donnes entre le serveur hte et le stockage, le SAN utilise une technique connue sous le nom de gestion gestion multivoie. La fonction de chemin multiple permet de disposer de plusieurs chemins physiques depuis un hte ESXi vers une LUN dans un systme de stockage. De manire gnrale, un chemin unique partant d'un hte vers un LUN se compose d'un adaptateur iSCSI ou NIC, de ports de commutateur, de cbles de connexion et du port de contrleur de stockage. Si un des composants du chemin subit une dfaillance, l'hte slectionne un autre chemin disponible pour l'E/S. Le processus de dtection d'un chemin dfaillant et de changement vers un autre chemin est connu sous le nom de basculement de chemin.

VMware, Inc.

63

Stockage vSphere

Pour plus d'informations sur la gestion gestion multivoie, consultez Chapitre 17, Prsentation de la gestion gestion multivoie et du basculement , page 165.

Ports dans le SAN iSCSI


Une entit simple dtectable sur le SAN iSCSI, telle qu'un initiateur ou une cible, reprsente un nud iSCSI. Chaque nud possde un ou plusieurs ports qui le connectent au SAN. Les ports iSCSI sont les points limites d'une session iSCSI. Chaque nud peut tre identifi de plusieurs manires. Adresse IP Chaque nud iSCSI peut tre associ une adresse IP de sorte que le matriel d'acheminement et de commutation du rseau puisse tablir la connexion entre le serveur et le stockage. Cette adresse est en fait similaire l'adresse IP que vous attribuez votre ordinateur pour bnficier de l'accs au rseau de votre entreprise ou Internet. Nom unique international permettant d'identifier le nud. iSCSI utilise les formats IQN (iSCSI Qualified Name) et EUI (Extended Unique Identifier). Par dfaut, ESXi gnre des noms iSCSI uniques pour vos initiateurs iSCSI, par exemple, iqn.1998-01.com.vmware:iscsitestox-68158ef2. Il n'est gnralement pas ncessaire de modifier la valeur par dfaut, mais si vous la modifiez, veillez ce que le nouveau nom iSCSI que vous saisissez soit unique mondialement. Alias iSCSI Nom plus parlant pour un priphrique ou port iSCSI utilis la place du nom iSCSI. Les alias iSCSI, qui ne sont pas uniques, sont destins n'tre qu'un surnom associer un port.

nom iSCSI

Conventions de dnomination iSCSI


iSCSI utilise un nom unique spcial pour identifier un nud iSCSI, cible ou initiateur. Ce nom est similaire au WorldWide Name (WWN) associ aux priphriques Fibre Channel et est utilis pour identifier de manire universelle le nud. Les noms iSCSI sont formates de deux manires diffrentes. Le format le plus courant est le format IQN. Pour plus d'informations sur les exigences de dnomination iSCSI et les profils de chane, reportez-vous aux sections RFC 3721 et RFC 3722 sur le site Web IETF.

Format IQN (iSCSI Qualified Name)


Le format IQN se prsente sous la forme iqn.yyyy-mm.naming-authority:unique name, o :
n n

yyyy-mm reprsente l'anne et le mois o l'autorit de dnomination a t tablie. naming-authority reprsente la syntaxe habituellement inverse du nom de domaine Internet de l'autorit de dnomination. Par exemple, l'autorit de dnomination iscsi.vmware.com pourrait porter le nom qualifi iSCSI sous la forme iqn.1998-01.com.vmware.iscsi. Ce nom indique que le nom de domaine vmware.com a t inscrit en janvier 1998, et que iscsi est un sous-domaine, dirig par vmware.com. unique name reprsente n'importe quel nom votre guise, par exemple le nom de votre hte. L'autorit de dnomination doit s'assurer que tous les ventuels noms attribus aprs les deux-points sont uniques, comme :
n n n

iqn.1998-01.com.vmware.iscsi:name1 iqn.1998-01.com.vmware.iscsi:name2 iqn.1998-01.com.vmware.iscsi:name999

64

VMware, Inc.

Chapitre 8 Utilisation d' ESXi avec un SAN iSCSI

Format EUI (Enterprise Unique Identifier)


Le format EUI se prsente sous la forme eui.16 hex digits. Par exemple, eui.0123456789ABCDEF. Les 16 chiffres hexadcimaux sont des reprsentations de texte d'un nombre 64 bits au format EUI (extended unique identifier) de l'IEEE. Les 24 premiers bits reprsentent l'identifiant d'une socit que l'IEEE enregistre avec une socit spcifique. Les 40 derniers bits sont attribus par l'entit possdant l'identifiant de cette socit et doivent tre uniques.

Initiateurs iSCSI
Pour accder aux cibles iSCSI, votre hte utilise des initiateurs iSCSI. Les initiateurs transportent les requtes et rponses SCSI, encapsules dans le protocole iSCSI, entre l'hte et la cible iSCSI. L'hte prend en charge diffrents types d'initiateurs. Pour plus d'informations sur la configuration et l'utilisation des adaptateurs iSCSI, consultez Chapitre 9, Configuration des adaptateurs iSCSI et du stockage , page 71.

Adaptateur de logiciel iSCSI


Un adaptateur de logiciel iSCSI est un code vMware intgr au VMKernel. Il permet un hte de se connecter au priphrique de stockage iSCSI par des adaptateurs rseau standard. L'adaptateur de logiciel iSCSI gre le traitement iSCSI tout en communiquant avec l'adaptateur rseau. Avec l'adaptateur de logiciel iSCSI, vous pouvez employer la technologie iSCSI sans acheter de matriel spcialis.

Adaptateur de matriel iSCSI


Un adaptateur de matriel iSCSI est un adaptateur tiers qui dchargre le tratement iSCSI et le rseau de votre hte. Les adaptateurs matriels iSCSI se divisent en plusieurs catgories. Adaptateur de matriel iSCSI dpendant Dpend du rseau VMware et des interfaces de configuration et de gestion iSCSI fournies par VMware. Ce type d'adaptateur peut tre un adapteur rseau standard disposant de la fonction de dchargement iSCSI pour le mme port. La fonction de dchargement iSCSI dpend de la configuration du rseau pour obtenir les paramtres IP, MAC et d'autres paramtres utiliss pour les sessions iSCSI. La carte rseau Broadcom 5709 sous licence iSCSI est un exemple d'adaptateur dpendant. Adaptateur de matriel iSCSI indpendant Implemente ses propres protocoles rseau et ses propres interfaces de configuration et de gestion iSCSI. Une carte disposant uniquement de la fonction de dchargement iSCSI ou de la fonction de dchargement iSCSI et NIC standard est un exemple d'adaptateur iSCSI matriel indpendant. La fonction de dchargement iSCSI dispose d'une fonction de gestion indpendante de la configuration, qui assigne les paramtres IP, MAC et d'autres paramtres pour les sessions iSCSI. L'adaptateur QLogic QLA4052 est un exemple d'adaptateur indpendant. Les adaptateurs de matriel iSCSI doivent avoir une licence. Sinon, ils n'apparatront pas dans vSphere Client ou vSphere CLI. Contactez votre vendeur pour avoir des renseignements sur la licence.

VMware, Inc.

65

Stockage vSphere

tablissement des connexions iSCSI


Dans un contexte ESXi, le terme cible identifie une unit de stockage unique accessible par l'hte. Les termes priphrique de stockage et LUN dcrivent un volume logique reprsentant l'espace de stockage sur une cible. En gnral, les termes priphrique et LUN, dans un contexte ESXi signifient qu'un volume SCSI est prsent l'hte depuis une unit de stockage cible et disponible pour un formatage. Les diffrents fournisseurs de stockage iSCSI prsentent le stockage vers des serveurs de diffrentes manires. Certains fournisseurs prsentent plusieurs LUN sur une seule cible, alors que d'autres prsentent plusieurs cibles avec un LUN chacune. Mme si la manire dont le stockage est utilis par l'ESXi est similaire, la manire dont les informations sont prsentes via les Outils d'administration est diffrente. Figure 8-1. Reprsentations LUN / Cible
cible LUN LUN LUN cible LUN cible LUN cible LUN

baie de stockage

baie de stockage

Trois LUN sont disponibles dans chacune de ces configurations. Dans le premier cas, l'hte dtecte une cible, mais cette cible possde trois LUN utilisables. Chaque LUN reprsente un volume de stockage individuel. Dans le second cas, l'hte dtecte trois cibles diffrentes, chacune possdant un LUN. Les initiateurs iSCSI bass sur l'hte tablissent des connexions sur chaque cible. Les systmes de stockage avec une cible unique contenant plusieurs LUN prsentent un trafic vers tous les LUN sur une seule connexion. Avec un systme possdant trois cibles avec un LUN chacune, un hte utilise des connexions distinctes vers les trois LUN. Ces informations s'avrent utiles lors du regroupement de trafic de stockage sur plusieurs connexions partir de l'hte avec plusieurs HBA iSCSI, o le trafic d'une cible peut tre dfini sur un HBA spcifique, alors que le trafic d'une autre cible peut utiliser un autre HBA.

Types de systmes de stockage iSCSI


ESXi prend en charge diffrents systmes de stockage et de baies. Votre hte prend en charge les types de stockage suivants : actif-actif, actif-passif et conforme ALUA. Systme de stockage actif-actif Systme de stockage actif-passif Permet d'accder simultanment aux LUN par tous les ports de stockage qui sont disponibles sans dgradation importante des performances. Tous les chemins sont actifs tout moment sauf en cas de dfaillance d'un chemin. Un systme dans lequel un processeur de stockage fournit l'accs un LUN donn. Les autres processeurs sont utiliss en tant que sauvegarde pour le LUN et peuvent fournir l'accs d'autres E/S de LUN. L'E/S peut uniquement tre envoye avec succs vers un port actif pour un LUN spcifique. Si l'accs via le port de stockage actif choue, un des processeurs de stockage passifs peut tre activ par les serveurs qui y accdent.

66

VMware, Inc.

Chapitre 8 Utilisation d' ESXi avec un SAN iSCSI

Systme de stockage asymtrique

Prend en charge Asymmetric Logical Unit Access (ALUA). Les systmes de stockage ALUA offrent des niveaux diffrents d'accs par port. ALUA permet aux htes de dterminer les tats des ports cibles et classer par priorit les chemins. L'hte utilise certains des chemins actifs comme tant principaux alors que d'autres sont secondaires. Autorise l'accs tous les LUN disponibles via un port virtuel unique. Il s'agit de priphriques de stockage actifs-actifs qui cachent leurs nombreuses connexions via un seul port. La gestion gestion multivoie ESXi ne permet pas d'tablir de multiples connexions depuis un port spcifique vers le stockage par dfaut. Certains fournisseurs de stockage fournissent des gestionnaires de sessions pour tablir et grer de multiples connexions vers leur stockage. Ces systmes de stockage traitent le basculement des ports et l'quilibrage des connexions de manire transparente. Le terme souvent utilis pour dcrire que ceci est le basculement transparent.

Systme de stockage de ports virtuels

Dcouverte, authentification et contrle d'accs


Vous pouvez utiliser plusieurs mthodes pour dcouvrir votre stockage et y limiter l'accs. Vous devez configurer votre hte et le systme de stockage iSCSI pour qu'il prenne en charge votre politique de contrle d'accs au stockage.

Dcouverte
Une session de dcouverte fait partie du protocole iSCSI et renvoie l'ensemble des cibles auxquelles vous pouvez accder sur un systme de stockage iSCSI. Les deux types de dcouverte disponibles sur ESXi sont les dcouvertes dynamique et statique. La dcouverte dynamique renvoie une liste des cibles accessibles partir du systme de stockage iSCSI, alors que la dcouverte statique peut uniquement tenter d'accder une cible spcifique par nom et adresse de la cible. Pour plus d'informations, voir Configuration des adresses de dcouverte des adaptateurs iSCSI , page 86.

Authentification
Les systmes de stockage iSCSI authentifient un initiateur par un nom et une paire de cls. ESXi prend en charge le protocole CHAP, que VMware recommande pour la mise en uvre de votre SAN. Pour utiliser l'authentification CHAP, l'hte ESXi et le systme de stockage iSCSI doivent avoir la fonction CHAP active et disposer d'informations d'identification communes. Pour plus d'informations sur l'activation du CHAP, consultez Configurer des paramtres CHAP pour des adaptateurs iSCSI , page 87.

Contrle d'accs
Le contrle d'accs est une rgle configure sur le systme de stockage iSCSI. La plupart des mises en uvre prennent en charge un ou plusieurs des trois types de contrle d'accs :
n n n

Par nom d'initiateur Par adresse IP Par protocole CHAP

Seuls les initiateurs qui respectent toutes les rgles peuvent accder au volume iSCSI. L'utilisation exclusive du CHAP pour le contrle d'accs peut ralentir les ranalyses parce que l'hte ESXi peut dcouvrir toutes les cibles, mais choue ensuite l'tape d'authentification. Les ranalyses iSCSI sont plus rapides si l'hte ne dtecte que les cibles qu'il peut authentifier.

VMware, Inc.

67

Stockage vSphere

Correction des erreurs


Pour protger l'intgrit des en-ttes et des donnes iSCSI, le protocole iSCSI dfinit des mthodes de correction des erreurs, plus connues sous le nom de rsums d'en-tte et de rsums de donnes. Ces deux paramtres sont dsactivs par dfaut, mais vous pouvez les activer. Ces rsums appartiennent respectivement l'en-tte et aux donnes SCSI transfrs entre les initiateurs iSCSI et les cibles, dans les deux sens. Les rsums d'en-tte et de donnes vrifient l'intgrit des donnes non cryptographiques compltes en plus des contrles de sant effectus par d'autres couches du rseau, telles que TCP et Ethernet. Ils vrifient le chemin de communication complet, y compris tous les lments susceptibles de modifier le trafic au niveau du rseau, tels que les routeurs, les commutateurs et les proxys. L'existence et le type des rsums sont ngocis lorsqu'une connexion iSCSI est tablie. Lorsque l'initiateur et la cible s'accordent sur une configuration de rsum, celui-ci doit tre utilis pour l'ensemble du trafic entre eux. L'activation des rsums d'en-tte et de donnes ncessite un traitement supplmentaire la fois pour l'initiateur et la cible et peut affecter le dbit et les performances d'utilisation du CPU. REMARQUE Les systmes qui utilisent des processeurs Intel Nehalem dlestent les calculs de rsum iSCSI, en rduisant ainsi l'incidence sur les performances. Pour plus d'informations sur l'activation des rsums d'en-tte et de donnes, consultez Configuration des paramtres avancs iSCSI , page 91.

Accs des machines virtuelles aux donnes sur un SAN iSCSI


ESXi stocke les fichiers disque d'une machine virtuelle dans une banque de donnes VMFS se trouvant sur un priphrique de stockage du SAN. Lorsque les systmes d'exploitation invits de la machine virtuelle envoient des commandes SCSI leurs disques virtuels, la couche de virtualisation SCSI traduit ces commandes en oprations de fichier VMFS. Lorsqu'une machine virtuelle interagit avec son disque virtuel stock sur un SAN, le processus suivant a lieu : 1 2 3 4 Lorsque le systme d'exploitation invit sur une machine virtuelle lit ou crit sur le disque SCSI, il envoie des commandes SCSI au disque virtuel. Les pilotes de priphriques dans le systme d'exploitation de la machine virtuelle communiquent avec les contrleurs SCSI virtuels. Le contrleur SCSI virtuel transmet la commande au VMkernel. Le VMkernel effectue les tches suivantes : a b c 5 Recherche dans le volume VMFS, le fichier qui correspond au disque de la machine virtuelle invite. Mappage des requtes de blocs sur le disque virtuel sur les blocs sur le priphrique physique appropri. Envoi de la demande d'E/S modifie partir du pilote du priphrique du VMkernel vers l'initiateur iSCSI (matriel ou logiciel).

Si l'initiateur iSCSI est un adaptateur iSCSI matriel (indpendant ou dpendant), l'adaptateur effectue les tches suivantes : a b c Encapsulation des demandes d'E/S dans les units de donnes de protocole (PDU) iSCSI. Encapsulation des PDU iSCSI dans les paquets TCP/IP. Envoi des paquets IP via Ethernet au systme de stockage iSCSI.

68

VMware, Inc.

Chapitre 8 Utilisation d' ESXi avec un SAN iSCSI

Si l'initiateur iSCSI est un adaptateur iSCSI logiciel, les actions suivantes ont lieu : a b c d L'initiateur iSCSI encapsule les demandes d'E/S dans les PDU iSCSI. L'initiateur envoie les PDU iSCSI via des connexions TCP/IP. La pile TCP/IP VMkernel relaie les paquets TCP/IP vers un adaptateur rseau (NIC) physique. La carte rseau (NIC) physique envoie les paquets IP via Ethernet au systme de stockage iSCSI.

Selon le port utilis par l'initiateur iSCSI pour se connecter au rseau, les commutateurs et les routeurs Ethernet achemine la demande jusqu'au priphrique de stockage auquel l'hte souhaite accder.

VMware, Inc.

69

Stockage vSphere

70

VMware, Inc.

Configuration des adaptateurs iSCSI et du stockage

ESXi ne pourra pas fonctionner avec un SAN tant que vous n'aurez pas configur vos adaptateurs iSCSI et votre stockage. Pour le faire, vous devez d'abord remplir certaines conditions pralables basiques, puis suivre les directives de meilleures pratiques pour l'installation et la configuration des adaptateurs iSCSI matriels ou logiciels pour accder au SAN. Le tableau suivant indique les adaptateurs iSCSI (vmhbas) que ESXi prend en charge et indique si la configuration rseau VMkernel est requise. Tableau 9-1. Adaptateurs iSCSI pris en charge
Adaptateur iSCSI (vmhba) Logiciel Description Utilise des cartes NICs standards pour connecter votre hte une cible iSCSI distante sur le rseau IP. . Adaptateur tiers qui dcharge la gestion de rseau et iSCSI de votre hte. Adaptateur tiers qui dpend de la mise en rseau VMware, de la configuration iSCSI et des interfaces de gestion. Mise en rseau VMkernel Requis

Matriel indpendant

Non requis

Matriel dpendant

Requis

Aprs avoir configur les adaptateurs iSCSI, vous pouvez crer une banque de donnes sur le stockage iSCSI. Pour plus de dtails sur la faon de crer et de grer les banques de donnes, consultez Crer une banque de donnes VMFS , page 126. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n n n

Conditions du SAN ESXi iSCSI , page 72 ESXi iSCSI , page 72 Dfinition des allocations de LUN pour iSCSI , page 72 Configuration de rseau et authentification , page 73 Configurer des adaptateurs de matriel iSCSI dpendants , page 73 Configuration des adaptateurs de matriel iSCSI dpendants , page 75 Configuration de l'adaptateur iSCSI logiciel , page 77 Paramtrage du rseau iSCSI , page 78 Utilisation des trames Jumbo avec iSCSI , page 85 Configuration des adresses de dcouverte des adaptateurs iSCSI , page 86

VMware, Inc.

71

Stockage vSphere

n n n

Configurer des paramtres CHAP pour des adaptateurs iSCSI , page 87 Configuration des paramtres avancs iSCSI , page 91 Gestion des sessions iSCSI , page 93

Conditions du SAN ESXi iSCSI


Vous devez remplir plusieurs conditions ncessaires pour que votre hte ESXi fonctionne correctement avec un SAN.
n

Vrifiez que les combinaisons de microprogramme et matriel de stockage SAN que vous utilisez sont prises en charge avec les systmes ESXi. Pour obtenir une liste de mises jour, consultez le Guide Guide de compatibilit vSphere. Configurez votre systme de faon n'avoir qu'une seule banque de donnes pour chaque LUN. Sauf si vous utilisez des serveurs sans disques, crez une partition de diagnostic sur un stockage local. En cas d'utilisation de serveurs sans disque qui dmarrent partir d'un SAN iSCSI, consultez Recommandations gnrales de dmarrage partir du SAN iSCSI , page 103 pour plus d'informations sur les partitions de diagnostic avec iSCSI. Utilisez les RDM pour accder tout disque brut. Pour plus d'informations, consultez Chapitre 14, Mappage de priphrique brut , page 147. Dfinissez le pilote de contrleur SCSI dans le systme d'exploitation client sur une file suffisamment grande. Pour plus d'informations sur le changement de la profondeur de la file d'attente pour les adaptateurs iSCSI et les machines virtuelles, consultez Dpannage vSphere. Sur les machines virtuelles sous Microsoft Windows, augmentez la valeur du paramtre SCSI TimeoutValue pour permettre Windows de mieux tolrer les dlais d'E/S dus un basculement de chemin. Pour plus d'informations, consultez Dfinir le dlai d'expiration du SE invit Windows , page 169.

n n

ESXi iSCSI
Plusieurs restrictions existent lorsque vous utilisez ESXi avec un SAN iSCSI.
n n

ESXi ne prend en charge pas les priphriques bande connects par iSCSI. Vous ne pouvez pas utiliser le logiciel multi-chemins de machine virtuelle pour raliser un quilibrage E/S vers une LUN matrielle unique. ESXi ne prend pas en charge la gestion de chemins multiples lorsque vous combinez des adaptateurs de matriel indpendant des adaptateurs logiciel ou de matriel dpendant.

Dfinition des allocations de LUN pour iSCSI


Lorsque vous prparez votre systme ESXi afin d'utiliser un stockage SAN en iSCSI, vous devez configurer les allocations de LUN. Notez les points suivants :
n

Provisionnement de stockage. Afin de garantir que l'hte reconnaisse bien les LUN au dmarrage, configurez toutes les cibles de stockage iSCSI de faon ce que votre hte puisse y accder et les exploiter. De mme, configurez votre hte de faon ce qu'il puisse dcouvrir toutes les cibles iSCSI. vMotion et VMware DRS. Lorsque vous utilisez vCenter Server et vMotion ou DRS, veillez ce que les LUN des machines virtuelles soient provisionns pour tous les htes. Cette configuration vous apporte la plus grande libert dans le dplacement des machines virtuelles.

72

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Baies actives/actives ou baies actives/passives. Lorsque vous utilisez vMotion ou DRS avec un matriel de stockage SAN actif-passif, vrifiez bien que dans tous les htes, les chemins vers tous les processeurs de stockage soient cohrents. Sans cette vrification, une migration vMotion peut provoquer un crasement de chemin. Pour les baies de stockage actives/passives non numres dans Compatibilit de stockage/SAN, VMware ne prend pas en charge le basculement des ports de stockage. Vous devez connecter le serveur au port actif sur le systme de stockage. Cette configuration garantit que les LUN sont prsents l'hte.

Configuration de rseau et authentification


Pour que ESXi puisse dtecter le stockage iSCSI, les initiateurs iSCSI doivent tre configurs et la configuration d'une authentification peut s'avrer ncessaire.
n

Pour les logiciels iSCSI et le matriel dpendant iSCSI, le rseau du VMkernel doit tre configur. Vous pouvez vrifier la configuration rseau grce l'utilitaire vmkping. Pour le iSCSI du matriel indpendant, les paramtres rseau tels l'adresse IP, le masque de sous-rseau et la passerelle par dfaut doivent tre configurs sur le HBA. Vrifiez et changez le nom de l'initiateur par dfaut si ncessaire. L'adresse de dcouverte dynamique ou l'adresse de dcouverte statique et le nom de la cible du systme de stockage doivent tre configurs. Pour le logiciel iSCSI et le matriel iSCSI dpendant, l' adresse doit tre accessible par un ping en utilisant vmkping. Pour l'autentification CHAP, activez la sur l'initiateur et du ct du systme de stockage. Une fois l'autentification active, elle s'appliquera toutes les cibles non encore dcouvertes, mais pas aux adresses dj contactes. Aprs la dfinition de l'adresse de dcouverte, les nouvelles cibles dcouvertes sont exposes et peuvent dsormais tre utilises.

n n

Pour en savoir plus sur la commande vmkping, cherchez dans la Base de connaissances VMware.

Configurer des adaptateurs de matriel iSCSI dpendants


Un adaptateur iSCSI matriel indpendant est un adaptateur tiers spcialis capable d'accder au stockage iSCSI via TCP/IP. Cet adaptateur iSCSI traite tout le traitement et toute la gestion iSCSI et rseau du systme ESXi. La procdure complte d'installation et de configuration des adaptateurs de matriel iSCSI dpendants comprend les tapes suivantes : 1 Vrifiez si l'adaptateur doit faire l'objet d'une licence. Consultez la documentation du fabricant. 2 Installez l'adaptateur. Pour plus d'informations sur l'installation et les mises jour du microprogramme, voir la documentation du fabricant. 3 Assurez-vous que l'adaptateur est correctement install. Reportez-vous la section Afficher des adaptateurs de matriel iSCSI dpendants , page 74. 4 Configurer les informations de dcouverte. Reportez-vous la section Configuration des adresses de dcouverte des adaptateurs iSCSI , page 86. 5 (Facultatif) Configurez les paramtres CHAP. Reportez-vous la section Configurer des paramtres CHAP pour des adaptateurs iSCSI , page 87.

VMware, Inc.

73

Stockage vSphere

Afficher des adaptateurs de matriel iSCSI dpendants


Affichez un adaptateur iSCSI matriel indpendant pour vrifier qu'il est correctement install et prt pour la configuration. Une fois avoir install un adaptateur iSCSI matriel indpendant, il apparat dans la liste des adaptateurs de stockage disponibles pour la configuration. Vous pouvez consulter ses proprits. Prrequis Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. S'il est install, l'adaptateur iSCSI matriel figure dans la liste des adaptateurs de stockage. 3 Slectionnez l'adaptateur afficher. Les informations par dfaut de l'adaptateur apparaissent, y compris le modle, le nom iSCSI, l'alias iSCSI, l'adresse IP, ainsi que les informations de cible et de chemin. 4 Cliquez sur [Proprits] . La bote de dialogue de proprits d'initiateur iSCSI apparat. L'onglet [Gnral] affiche des caractristiques supplmentaire de l'adaptateur. Vous pouvez maintenant configurer l'adaptateur matriel indpendant ou modifier ses caractristiques par dfaut.

Modifier le nom et l'adresse IP des adaptateurs iSCSI matriels indpendants.


Lorsque vous configurez les adaptateurs iSCSI matriels indpendants, veillez formater correctement leurs noms et adresses IP. Prrequis Privilge ncessaire : Hte .Configuration.Configuration de partition de stockage Procdure 1 2 3 Accdez la bote de dialogue de proprits d'initiateur iSCSI. Cliquez sur [Configurer] . Pour changer le nom iSCSI par dfaut de l'adaptateur, entrez le nouveau nom. Veillez ce que le nom que vous entrez est unique mondialement et correctement format, sinon, des priphriques de stockage pourraient ne pas reconnatre l'adaptateur iSCSI. 4 (Facultatif) Entrez l'alias iSCSI. L'alias est un nom que vous utilisez pour identifier l'adaptateur iSCSI matriel indpendant. 5 Changez les paramtres IP par dfaut. Vous devez modifier les paramtres IP par dfaut pour qu'ils soient configurs correctement pour le rseau de stockage IP. Travaillez avec votre administrateur rseau pour dterminer le paramtre IP pour le HBA. 6 Cliquez sur [OK] pour enregistrer vos modifications.

Si vous changez le nom iSCSI, il sera utilis pour de nouvelles sessions iSCSI. Pour des sessions existantes, de nouveaux paramtres ne seront pas utiliss jusqu' la dconnexion et la reconnexion.

74

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Configuration des adaptateurs de matriel iSCSI dpendants


Un adaptateur iSCSI matriel dpendant est un adaptateur tiers qui dpend du rseau VMware et des interfaces de configuration et de gestion iSCSI fournies par VMware. La carte NIC Broadcom 5709 est un exemple d'adaptateur iSCSI dpendant. Lors de l'installation sur un hte, elle prsente ses deux composants, un adaptateur rseau standard et un moteur iSCSI, au mme port. Le moteur iSCSI apparat sur la liste d'adaptateurs de stockage en tant qu'adaptateur iSCSI (vmhba). Bien que l'adaptateur iSCSI soit activ par dfaut, pour le rendre fonctionnel, vous devez d'abord le connecter, par une interface virtuelle VMkernel, un adaptateur rseau physique (vmnic) qui lui est associ. Vous pouvez alors configurer l'adaptateur iSCSI. Aprs avoir configur les adaptateurs de matriel iSCSI dpendants, les donnes de dtection et d'authentification sont transmises par la connexion rseau, alors que le trafic iSCSI passe par le moteur iSCSI, contournant le rseau. La procdure complte d'installation et de configuration des adaptateurs iSCSI matriel dpendant comprend les tapes suivantes : 1 Affichez les adaptateurs matriels dpendants. Reportez-vous la section Affichage des adaptateurs de matriel iSCSI dpendants , page 76. Si vos adaptateurs matriels dpendants n'apparaissent pas dans la liste des adaptateurs de stockage, vrifiez s'ils ncessitent une licence. Consultez la documentation du fabricant. 2 Dterminez l'association entre les adaptateurs matriels dpendants et les NIC physiques. Reportez-vous la section Dterminer l'association entre les adaptateurs iSCSI et les adaptateurs rseau , page 76 Notez bien les noms des NIC physiques correspondants. Par exemple, l'adaptateur vmhba33 correspond au vmnic1 tandis que vmhba34 correspond au vmnic2. 3 Configurez la mise en rseau pour iSCSI. Reportez-vous la section Paramtrage du rseau iSCSI , page 78. La configuration du rseau implique de crer une interface VMkernel pour chaque adaptateur rseau physique et d'associer l'interface un adaptateur iSCSI appropri. 4 Configurer les informations de dcouverte. Reportez-vous la section Configuration des adresses de dcouverte des adaptateurs iSCSI , page 86. 5 (Facultatif) Configurez les paramtres CHAP. Reportez-vous la section Configurer des paramtres CHAP pour des adaptateurs iSCSI , page 87.

Considrations sur l'iSCSI matriel dpendant


Lorsque vous utilisez des adaptateurs de matriel iSCSI dpendants avec ESXi, certaines considrations s'appliquent.
n

Lorsque vous utilisez un adaptateur iSCSI matriel dpendant, le rapport de performances pour une carte rseau associe l'adaptateur ne montre que peu ou pas d'activit, mme lorsque le trafic iSCSI est intense. Cela est d au contournement de la pile rseau habituelle par le trafic iSCSI. Si vous utilisez un commutateur virtuel tiers tel que Cisco Nexus 1000V DVS, dsactivez l'accrochage automatique. Utilisez l'accrochage manuel la place, en veillant connecter un adaptateur VMkernel (vmk) une carte NIC physique approprie (vmnic). Pour plus d'informations, consultez la documentation du fournisseur de commutateurs virtuels.

VMware, Inc.

75

Stockage vSphere

L'adaptateur iSCSI Broadcom rassemble les donnes dans le matriel, dont l'espace tampon est limit. Lorsque vous utilisez l'adaptateur iSCSI Broadcom dans un rseau congestionn ou sous une lourde charge, activez le contrle de flux pour viter la dgradation des performances. Le contrle de flux gre la vitesse de transmission des donnes entre deux nuds pour viter qu'un expditeur rapide ne dpasse un rcepteur lent. Pour obtenir de meilleurs rsultats, activez le contrle du flux aux points d'extrmit du chemin E/S, au niveau des htes et des systmes de stockage iSCSI.

Les adaptateurs iSCSI Broadcom ne prennent pas en charge IPv6 et les trames Jumbo.

Affichage des adaptateurs de matriel iSCSI dpendants


Affichez un adaptateur iSCSI matriel dpendant pour vrifier qu'il est correctement charg. Si l'adaptateur matriel dpendant ne figure pas dans la liste des adaptateurs de stockage, vrifiez s'il a besoin d'une licence. Consultez la documentation du fabricant. Prrequis Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. S'il est install, l'adaptateur iSCSI matriel dpendant figure dans la liste des adaptateurs de stockage sous, par exemple, la catgorie Adaptateur iSCSI Broadcom. 3 Slectionnez l'adaptateur afficher et cliquez sur [Proprits] . La bote de dialogue Proprits d'initiateur iSCSI s'affiche. Elle affiche les dtails par dfaut de l'adaptateur, y compris le nom iSCSI, l'alias iSCSI et l'tat. 4 (Facultatif) Pour modifier le nom iSCSI par dfaut, cliquez sur [Configurer] .

Suivant Bien que l'adaptateur iSCSI dpendant soit activ par dfaut, pour le rendre fonctionnel, vous devez configurer les communications rseau pour le trafic iSCSI et lier l'adapateur un port iSCSI VMkernel appropri. Dfinissez ensuite les adresses de dcouverte et les paramtres CHAP.

Dterminer l'association entre les adaptateurs iSCSI et les adaptateurs rseau


Vous pouvez crer des connexions rseau pour lier des adaptateurs iSCSI dpendants et des adaptateurs rseau. Pour pouvoir crer des connexions correctement, vous devez dterminer le nom de la carte rseau physique avec laquelle l'adaptateur iSCSI matriel dpendant est associ. Prrequis Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Procdure 1 2 Dans la bote de dialogue des proprits de l'initiateur iSCSI, cliquez sur l'onglet [Configuration rseau] . Cliquez sur [Ajouter] . L'adaptateur rseau, vmnic2 par exemple, qui correspond l'adaptateur iSCSI dpendant figure dans la liste.

76

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Suivant Vous devez lier les adaptateurs iSCSI matriels dpendants et les adaptateurs rseau associs en crant des connexions rseau.

Configuration de l'adaptateur iSCSI logiciel


Avec l'implmentation iSCSI logiciel, vous pouvez utiliser des adaptateurs rseau standards pour connecter votre hte une cible iSCSI distante sur le rseau IP. L'adaptateur iSCSI logiciel qui est intgr dans l'ESXi facilite cette connexion en communiquant avec les cartes NIC physiques par la pile rseau. Pour pouvoir utiliser l'adaptateur iSCSI logiciel, vous devez d'abord installer le rseau, activer l'adaptateur et configurer les paramtres tels que les adresses de dcouverte et le CHAP. REMARQUE Dsignez un adaptateur rseau spar pour iSCSI. N'utilisez pas d'iSCSI sur des adaptateurs 100Mbps ou plus lents. Le workflow de configuration de l'adaptateur iSCSI logiciel comprend les tapes suivantes : 1 Activez l'adaptateur iSCSI logiciel. Reportez-vous Activer l'adaptateur iSCSI logiciel , page 77. 2 Configurez la mise en rseau pour iSCSI. Reportez-vous la section Paramtrage du rseau iSCSI , page 78. La configuration du rseau ncessite la cration d'une interface VMkernel pour chaque adaptateur rseau physique utilis pour iSCSI et l'association de toutes les interfaces l'adaptateur iSCSI logiciel. 3 Si ncessaire, activez les trames Jumbo. Reportez-vous la section Activer les trames Jumbo pour l'iSCSI , page 85. 4 Configurer les informations de dcouverte. Reportez-vous la section Configuration des adresses de dcouverte des adaptateurs iSCSI , page 86. 5 (Facultatif) Configurez les paramtres CHAP. Reportez-vous la section Configurer des paramtres CHAP pour des adaptateurs iSCSI , page 87.

Activer l'adaptateur iSCSI logiciel


Vous devez activer votre adaptateur iSCSI logiciel pour que l'hte puisse l'utiliser pour accder au stockage iSCSI. Vous ne pouvez activer qu'un seul adaptateur iSCSI logiciel. Prrequis Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage REMARQUE Si vous dmarrez depuis iSCSI en utilisant l'adaptateur logiciel iSCSI, l'adaptateur est activ et la configuration rseau est cre lors du premier dmarrage. Si vous dsactivez l'adaptateur, il est ractiv chaque dmarrage de l'hte. Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel.

VMware, Inc.

77

Stockage vSphere

Cliquez sur [Ajouter] et slectionnez [Adaptateur iSCSI logiciel] . L'adaptateur iSCSI logiciel figure dans la liste des adaptateurs de stockage.

4 5 6

Slectionnez l'adaptateur iSCSI dans la liste et cliquez sur [Proprits] . Cliquez sur [Configurer] . Vrifiez si l'adaptateur est activ et cliquez sur [OK] . Aprs avoir activ l'adaptateur, l'hte lui assigne un nom iSCSI par dfaut. Si vous changez le nom par dfaut, suivez les conventions de dnomination iSCSI.

Lorsque l'adaptateur est activ, vous pouvez le dsactiver, mais pas le supprimer de la liste des adaptateurs de stockage.

Dsactiver l'adaptateur iSCSI logiciel


Utilisez vSphere Client pour dsactiver l'adaptateur iSCSI logiciel si vous n'en avez pas besoin. REMARQUE Si vous dsactivez l'adaptateur utilis pour le dmarrage iSCSI logiciel, il est ractiv chaque fois que vous dmarrez l'hte. Prrequis Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Procdure 1 2 3 4 5 6 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. Slectionnez l'adaptateur iSCSI logiciel dans la liste des adaptateurs de stockage et cliquez sur [Proprits] . Cliquez sur [Configurer] . Pour dsactiver l'adaptateur, dslectionnez [Activ] et cliquez sur [OK] . Redmarrez l'hte. Aprs le redmarrage, l'adaptateur ne figure plus dans la liste des adaptateurs de stockage. L'tat indique que l'adaptateur est dsactiv.

Paramtrage du rseau iSCSI


Le logiciel et les adaptateurs de matriel iSCSI dpendant dpendent de la mise en rseau VMkernel. Si vous utilisez les adaptateurs iSCSI logiciels ou matriels dpendants, vous devez configurer les connexions du trafic entre le composant iSCSI et les adaptateurs rseau physiques. La configuration de la connexion rseau implique de crer une interface virtuelle VMkernel pour chaque adaptateur rseau physique et d'associer l'interface un adaptateur iSCSI appropri.

Multiples adaptateurs rseau dans la configuration iSCSI


Si l'hte dispose de plusieurs adaptateurs rseau physiques, pour le logiciel et le matriel iSCSI dpendants, utilisez les adaptateurs pour la gestion gestion multivoie.

78

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Vous pouvez connecter l'adaptateur iSCSI logiciel n'importe quelle NIC physique disponible sur votre hte. Les adaptateurs iSCSI dpendants doivent tre connects uniquement leurs propres NIC physiques. REMARQUE Les NIC physiques doivent tre sur le mme sous-rseau que le systme de stockage iSCSI auquel ils se connectent. Figure 9-1. Mise en rseau avec iSCSI
Deux NIC physiques connects l'adaptateur logiciel iSCSI adaptateur logiciel iSCSI vmhba# vmk1 vSwitch Hte1 Hte1 vmnic1 vmnic2 vmnic1 vmnic2 vmk2 iSCSI ports Deux NIC physiques avec capacit de dchargement adaptateurs matriels iSCSI dpendants vmhba33 vmk1 vSwitch Hte2 virtuel vmhba34 vmk2

Hte2 physique

NIC physiques

NIC physiques avec iSCSI sans charge capacits rseau IP

Stockage iSCSI

Stockage iSCSI

L'adaptateur iSCSI et la NIC physique se connectent par un adaptateur virtuel VMkernel, appel galement adaptateur de rseau virtuel ou port VMkernel. Vous crez un adaptateur VMkernel (vmk) sur un commutateur vSphere (vSwitch) en utilisant le mappage 1:1 entre chaque adaptateur virtuel et chaque adaptateur rseau physique. Un moyen d'obtenir le mappage 1:1 lorsque vous avez de multiples NIC, consiste dsigner un commutateur vSphere distinct pour chaque paire d'adaptateurs virtuels--physiques. Les exemples suivants montrent des configurations qui utilisent les commutateurs vSphere standards, mais vous pouvez galement utiliser des commutateurs distribus. Pour plus d'informations sur vSphere Distributed Switches, consultez la documentation Mise en rseau vSphere.

VMware, Inc.

79

Stockage vSphere

Figure 9-2. mappage d'adaptateurs 1:1 sur les commutateurs standards vSphere distincts

REMARQUE Si vous utilisez des commutateurs vSphere distincts, vous devez les connecter diffrents sousrseaux IP. Sinon, les adaptateurs VMkernel risquent de connatre des problmes de connectivit et l'hte n'arrivera pas dtecter les LUN iSCSI. Une autre mthode consiste ajouter toutes les NIC et tous les adaptateurs VMkernel un seul commutateur standard vSphere. Le cas chant, vous devez annuler la configuration du rseau par dfaut et vous assurer que chaque adaptateur VMkernel correspond uniquement un seul adaptateur physique actif. Figure 9-3. mappage d'adaptateurs 1:1 sur un seul commutateur standard vSphere

Le tableau suivant rcapitule la configuration de mise en rseau iSCSI tudie dans cette rubrique. Tableau 9-2. Configuration de la mise en rseau pour iSCSI
Adaptateurs iSCSI iSCSI logiciel vmhba32 vmk1 vmk2 Matriel iSCSI dpendant vmhba33 vmhba34 vmk1 vmk2 vmnic1 vmnic2 vmnic1 vmnic2 Adaptateurs VMkernel (Ports) Adaptateurs physiques (NIC)

Crer des connexions rseau pour l'iSCSI


Configurez les connexions pour le trafic entre le logiciel ou les adaptateurs de matriel iSCSI dpendants et les adaptateurs rseau physiques. Les tches suivantes concernent la configuration du rseau iSCSI avec un commutateur standard vSphere. Si vous utilisez un commutateur vSphere distribu avec plusieurs ports de liaison montante, pour l'association de ports, crez un groupe de ports distribus distinct pour chaque carte NIC physique. Rglez ensuite la politique de groupes de faon ce que chaque groupe de ports distribus n'ait qu'un seul port de liaison montante actif. Pour des informations plus dtailles sur vSphere Distributed Switches, consultez la documentation Mise en rseau vSphere.

80

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Procdure 1 Crer un adaptateur VMkernel unique pour iSCSI page 81 Vous devez connecter l'adaptateur VMkernel, qui excute des services pour le stockage iSCSI, un adaptateur rseau physique. 2 Crer d'autres adaptateurs VMkernel pour iSCSI page 82 Excutez cette tche si vous disposez d'au moins deux adaptateurs rseau physiques pour iSCSI et voulez connecter toutes les cartes rseau NIC un seul commutateur standard vSphere. Au cours de cette tche, vous ajoutez des cartes NIC et des adaptateurs VMkernel existants un commutateur standard vSphere. 3 Changer la rgle de groupe de ports des adaptateurs VMkernel iSCSI page 83 Si vous utilisez un seul commutateur standard vSphere pour connecter VMkernel plusieurs adaptateurs rseau, changez la rgle de groupe de ports pour qu'elle soit compatible avec les conditions rseau iSCSI. 4 Lier des adaptateurs iSCSI des adaptateurs VMkernel page 83 Liez un adaptateur iSCSI un adaptateur VMkernel.

Crer un adaptateur VMkernel unique pour iSCSI


Vous devez connecter l'adaptateur VMkernel, qui excute des services pour le stockage iSCSI, un adaptateur rseau physique. Procdure 1 2 3 4 5 6 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Mise en rseau] . Dans la vue Commutateur standard vSphere, cliquez sur [Ajouter mise en rseau] . Slectionnez [VMkernel] et cliquez sur [Suivant] . Slectionnez [Crer un commutateur standard vSphere] pour crer un commutateur standard. Slectionnez une carte rseau utiliser pour le trafic iSCSI. IMPORTANT Si vous crez une interface VMkernel pour l'adaptateur iSCSI matriel dpendant, slectionnez la carte rseau qui correspond au composant iSCSI. Reportez-vous la section Dterminer l'association entre les adaptateurs iSCSI et les adaptateurs rseau , page 76. 7 8 Cliquez sur [Suivant] . Entrez une tiquette de rseau. Une tiquette de rseau est un nom convivial qui identifie l'adaptateur VMkernel que vous crez (par exemple iSCSI). 9 10 11 Cliquez sur [Suivant] . Configurez l'IP puis cliquez sur [Suivant] . Passez vos informations en revue et cliquez sur [Terminer] .

Vous avez cr l'adaptateur virtuel VMkernel d'un adaptateur rseau physique sur votre hte. Suivant Si votre hte dispose d'un adaptateur rseau physique pour le trafic iSCSI, vous devez lier l'adaptateur virtuel que vous avez cr l'adaptateur iSCSI. Si vous disposez de plusieurs adaptateurs rseau, crez des adaptateurs VMkernel supplmentaires et effectuez la liaison iSCSI. Le nombre d'adaptateurs virtuels doit correspondre au nombre d'adaptateurs physiques sur l'hte.

VMware, Inc.

81

Stockage vSphere

Crer d'autres adaptateurs VMkernel pour iSCSI


Excutez cette tche si vous disposez d'au moins deux adaptateurs rseau physiques pour iSCSI et voulez connecter toutes les cartes rseau NIC un seul commutateur standard vSphere. Au cours de cette tche, vous ajoutez des cartes NIC et des adaptateurs VMkernel existants un commutateur standard vSphere. Prrequis Vous devez crer un commutateur standard vSphere qui mappe un adaptateur VMkernel iSCSI une seule carte NIC dsigne pour le trafic iSCSI. Procdure 1 2 3 4 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Mise en rseau] . Slectionnez le commutateur standard vSphere que vous utilisez pour iSCSI et cliquez sur [Proprits] . Connectez des adaptateurs rseau supplmentaires au commutateur standard. a b Dans la bote de dialogue Proprits de commutateur standard, slectionnez l'onglet [Adaptateurs rseau] , puis cliquez sur [Ajouter] . Slectionnez un NIC ou plus dans la liste puis cliquez sur [Suivant] . S'il s'agit d'adaptateurs iSCSI matriels dpendants, slectionnez uniquement les cartes rseau ayant un composant iSCSI correspondant. c Vrifiez les informations de la page Rsum d'adaptateur, puis cliquez sur [Terminer] . La liste des adaptateurs rseau rapparat en indiquant les adaptateurs rseau que le commutateur standard vSphere demande maintenant. 5 Crez des adaptateurs VMkernel iSCSI pour toutes les cartes rseau que vous avez ajoutes. Le nombre d'interfaces VMkernel doit correspondre au nombre de cartes NIC dans le commutateur standard vSphere. a b c d Dans la bote de dialogue Proprits de commutateur standard, slectionnez l'onglet [Ports] , puis cliquez sur [Ajouter] . Slectionnez [VMkernel] et cliquez sur [Suivant] . Sous [Proprits groupe de ports] , entrez une tiquette de rseau, par exemple iSCSI, puis cliquez sur [Suivant] . Configurez l'IP puis cliquez sur [Suivant] . Lorsque vous entrez un masque de sous-rseau, assurez-vous que la carte rseau est rgle sur le sous-rseau du systme de stockage auquelle elle se connecte. e Passez vos informations en revue et cliquez sur [Terminer] .

AVERTISSEMENT Si la carte rseau que vous utilisez avec l'adaptateur iSCSI, logiciel ou matriel dpendant, ne se trouve pas dans le mme sous-rseau que la cible iSCSI, l'hte ne peut pas tablir de sessions de l'adaptateur rseau vers la cible. Suivant Changez la rgle de rseau de tous les adaptateurs VMkernel pour qu'elle soit compatible avec les conditions de liaison rseau. Ensuite, vous pouvez lier les adaptateurs VMkernel iSCSI aux adaptateurs iSCSI logiciels ou iSCSI matriels dpendants.

82

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Changer la rgle de groupe de ports des adaptateurs VMkernel iSCSI


Si vous utilisez un seul commutateur standard vSphere pour connecter VMkernel plusieurs adaptateurs rseau, changez la rgle de groupe de ports pour qu'elle soit compatible avec les conditions rseau iSCSI. Par dfaut, tous les adapateurs rseau sont actifs pour chaque adaptateur virtuel du commuteur standard vSphere. Vous devez remplacer cette configuration pour que l'interface VMkernel soit mappe une seule carte rseau active correspondante. Par exemple, vmk1 est mappe vmnic1, vmk2 est mappe vmnic2, et ainsi de suite. Prrequis Crez un commutateur standard vSphere qui connecte VMkernel avec des adaptateurs rseau physiques ddis au trafic iSCSI. Le nombre d'adaptateurs VMkernel doit correspondre au nombre d'adaptateurs physiques sur le commutateur standard vSphere. Procdure 1 2 3 4 5 6 7 Ouvrez une session sur vSphere Client et slectionnez l'hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Mise en rseau] . Slectionnez le commutateur standard vSphere que vous utilisez pour iSCSI et cliquez sur [Proprits] . Dans l'onglet [Ports] , slectionnez un adaptateur iSCSI VMkernel et cliquez sur [Modifier] . Cliquez sur l'onglet [Association de cartes rseau] , puis slectionnez [Remplacer ordre de basculement de commutateur] . Dsignez un seul adaptateur physique comme tant actif et transfrez tous les adaptateurs restants vers la catgorie [Adaptateurs inutiliss] . Rpteztape 4 les tapes tape 6 pour chaque interface iSCSI VMkernel du commutateur standard vSphere.

Suivant Une fois cette tche termine, liez les adaptateurs VMkernel virtuels aux adaptateurs iSCSI logiciels ou aux adaptateurs iSCSI matriels dpendants.

Lier des adaptateurs iSCSI des adaptateurs VMkernel


Liez un adaptateur iSCSI un adaptateur VMkernel. Prrequis Crez un adaptateur VMkernel virtuel pour chaque adaptateur rseau physique sur l'hte. Si vous utilisez plusieurs adaptateurs VMkernel, dfinissez correctement la rgle de rseau. Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. La liste des adaptateurs de stockage disponibles apparat. 3 4 Slectionnez l'adaptateur logiciel ou iSCSI dpendant configurer et cliquez sur [Proprits] . Dans la bote de dialogue des proprits de l'initiateur iSCSI, cliquez sur l'onglet [Configuration rseau] .

VMware, Inc.

83

Stockage vSphere

Cliquez sur [Ajouter] et slectionnez un adaptateur VMkernel lier l'adaptateur iSCSI. Vous pouvez lier l'adaptateur iSCSI logiciel une ou plusieurs adaptateurs VMkernel. S'il s'agit d'un adapateur iSCSI matriel dpendant, il n'y a qu'une interface VMkernel associe la carte NIC physique approprie est disponible.

Cliquez sur [OK] . La connexion rseau apparat dans la liste des liaisons de port VMkernel de l'adaptateur iSCSI.

Vrifiez que la rgle de rseau de la connexion est conforme aux conditions de liaison.

Gestion du rseau iSCSI


Des considrations spciales s'appliquent aux adaptateurs rseau, physique et VMkernel, qui sont associs un adaptateur iSCSI. Aprs avoir cr des connexions rseau pour iSCSI, un indicateur iSCSI sur plusieurs botes de dialogue Mise en rseau devient activ. Cet indicateur indique qu'un adaptateur rseau virtuel ou physique particulier est ddi l'iSCSI. Pour viter des interruptions du trafic iSCSI, suivez ces recommandations et considrations lors de la gestion des adaptateurs rseau physiques et virtuels iSCSI :
n

Assurez-vous que des adresses sont affectes aux adaptateurs rseau VMkernel on sur le mme sousrseau que le portail de stockage iSCSI auquel ils se connectent. Les adaptateurs iSCSI utilisant les adaptateurs VMkernel ne peuvent pas se connecter aux ports iSCSI sur diffrents sous-rseaux, mme si ces ports sont dtects par les adaptateurs iSCSI. Lors de l'utilisation de commutateurs vSphere spars pour connecter des adaptateurs rseau physiques et des adaptateurs VMkernel, assurez-vous que les commutateurs vSphere se connectent aux diffrents sous-rseaux IP. Si vous migrez des adaptateurs VMkernel vers un autre commutateur vSphere, dplacez les adaptateurs physiques associs. Ne modifiez pas la configuration des adaptateurs VMkernel ddis l'iSCSI ou les adaptateurs rseau physiques. N'apportez pas de changements qui pourraient rompre l'association des adaptateurs VMkernel et des adaptateurs rseau physiques. Vous pouvez rompre l'association si vous retirez l'un des adaptateurs ou le commutateur vSphere qui les connecte, ou changer la rgle de rseau 1:1 pour leur connexion.

Dpannage du rseau iSCSI


Un avertissement indique une politique de groupe de ports non conforme pour un adaptateur VMkernel ddi l'iSCSI. Problme La politique de groupe de ports d'un adaptateur VMkernel est considre comme tant non conforme dans les cas suivants :
n n n n

L'adaptateur VMkernel n'est pas connect un adaptateur rseau physique actif. L'adaptateur VMkernel est connect plusieurs adaptateurs rseau physiques. L'adaptateur VMkernel est connect un ou plusieurs adaptateurs physiques en veille. L'adaptateur rseau physique actif est chang.

Solution Suivez les tapes dans Changer la rgle de groupe de ports des adaptateurs VMkernel iSCSI , page 83 pour dfinir la rgle de rseau correcte pour l'adaptateur VMkernel ddi l'iSCSI.

84

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Utilisation des trames Jumbo avec iSCSI


ESXi prend en charge l'utilisation des trames Jumbo avec iSCSI. Les trames Jumbo sont des trames Ethernet dont la taille est suprieure 1 500 octets. Le paramtre d'unit de transmission maximale (MTU) est utilis gnralement pour mesurer la taille des trames Jumbo. ESXi autorise des trames Jumbo avec une MTU suprieure 9 000 octets. Lorsque vous utilisez des trames Jumbo pour le trafic iSCSI, les considrations suivantes s'appliquent :
n

Le rseau doit prendre en charger les Trames jumbo d'une extrmit l'autre pour que cette fonction soit active. Vrifiez auprs de vos fournisseurs si vos cartes NIC physiques prennent en charge les trames Jumbo. Pour configurer et vrifier les commutateurs rseau physiques pour les trames Jumbo, consultez la documentation de votre fournisseur.

n n

Le tableau suivant dcrit le niveau de prise en charge de l'ESXi concernant les trames Jumbo. Tableau 9-3. Prise en charge des trames Jumbo
Type d'adaptateurs iSCSI iSCSI logiciel Matriel iSCSI dpendant Matriel iSCSI indpendant Prise en charge des trames Jumbo Pris en charge Consultez le fournisseur Non pris en charge

Activer les trames Jumbo pour l'iSCSI


Utilisez le vSphere Client pour activer les Trames Jumbo pour chaque commutateur standard vSphere et chaque adaptateur VMkernel dsign pour le trafic iSCSI. Activez les Trames Jumbo sur le commutateur standard et l'adaptateur VMkernel en changeant le paramtre des units de transmission (MTU). Procdure 1 2 3 4 5 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Mise en rseau] . Cliquez sur [Proprits] pour le commutateur standard que vous utilisez pour le trafic iSCSI. Dans l'onglet Ports, slectionnez le commutateur standard et cliquez sur [Modifier] . Affectez le paramtre MTU au commutateur standard et cliquez sur [OK] . Cette tape dfinit le MTU pour toutes les cartes NIC physiques sur ce commutateur standard. La valeur MTU doit tre affecte la taille maximale de MTU parmi toutes les cartes NIC connectes au commutateur standard. 6 7 Dans l'onglet Ports, slectionnez l'adaptateur VMkernel et cliquez sur [Modifier] . Faites correspondre le MTU la valeur configure sur le commutateur standard, et cliquez sur [OK] .

VMware, Inc.

85

Stockage vSphere

Configuration des adresses de dcouverte des adaptateurs iSCSI


Configurez les adresses de dcouverte de cible pour que l'adaptateur iSCSI puisse dterminer quelle ressource de stockage prsente sur le rseau est accessible. Le systme ESXi prend en charge les mthodes de dcouvertes suivantes : Dcouverte dynamique galement appele dcouverte SendTargets. Chaque fois que l'initiateur contacte un serveur iSCSI dsign, il envoie la demande de SendTargets au serveur. Le serveur rpond en fournissant une liste de cibles disponibles l'initiateur. Les noms et adresses IP de ces cibles figurent dans l'onglet [Dcouverte statique] . Si vous supprimez une cible statique ajoute par la dcouverte dynamique, il se peut qu'elle soit rintgre la liste la prochaine fois qu'un scannage se produira, que le HBA se rinitialisera ou que l'hte sera redmarr. L'initiateur n'a aucune dcouverte effectuer. L'initiateur dispose d'une liste de cibles qu'il peut contacter, et emploie leurs adresses IP et noms de cible pour communiquer avec elles.

Dcouverte statique

Configurer la dcouverte dynamique


Avec la dcouverte dynamique, chaque fois que l'initiateur contacte un systme de stockage iSCSI donn, il envoie la demande SendTargets au systme. Le systme iSCSI rpond en fournissant une liste de cibles disponibles l'initiateur. Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Lorsque vous configurez la dcouverte dynamique, vous pouvez seulement ajouter un nouveau systme iSCSI. Vous ne pouvez pas changer l'adresse IP, le nom DNS ni le numro de port d'un systme iSCSI existant. Pour effectuer des modifications, supprimez le systme existant et ajoutez-en un nouveau. Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. La liste des adaptateurs de stockage disponibles apparat. 3 Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. La liste des adaptateurs de stockage disponibles apparat. 4 5 6 7 Slectionnez l'initiateur iSCSI configurer et cliquez sur [Proprits] . Cliquez sur l'onglet [Dcouverte dynamique] . Pour ajouter une adresse la dcouverte SendTargets, cliquez sur [Ajouter] . Tapez l'adresse IP ou le nom DNS du systme de stockage et cliquez sur [OK] . Ds que votre hte tablit la connexion SendTargets avec ce systme, toutes les cibles nouvellement dcouvertes apparaissent dans la liste Dcouverte statique. 8 Pour supprimer un serveur SendTargets prcis, slectionnez-le et cliquez sur [Supprimer] . Une fois un serveur SendTargets supprim, il se peut qu'il apparaisse encore dans le champ Hritage en tant que parent de cibles statiques. Cette entre, qui signale o les cibles statiques ont t dcouvertes, n'affecte pas la fonctionnalit.

86

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Suivant Une fois la dcouverte dynamique configure pour votre adaptateur iSCSI, Ranalysez l'adaptateur.

Configurer la dcouverte statique


Avec les initiateurs iSCSI, outre la mthode de dcouverte dynamique, vous pouvez utiliser la dcouverte statique et saisir manuellement des information pour les cibles. Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Quand vous configurez la dcouverte statique, vous pouvez seulement ajouter des cibles iSCSI. Vous ne pouvez changer l'adresse IP, le nom DNS, le nom de cible iSCSI ni le numro de port d'une cible existante. Pour apporter des modifications, supprimez la cible existante et ajoutez-en une nouvelle. Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. La liste des adaptateurs de stockage disponibles apparat. 3 4 Slectionnez l'initiateur iSCSI configurer et cliquez sur [Proprits] . Cliquez sur l'onglet [Dcouverte statique] . L'onglet affiche toutes les cibles dcouvertes dynamiquement et toutes les cibles statiques dj saisies. 5 6 Pour ajouter une cible, cliquez sur [Ajouter] et entrez les informations de la cible. Pour supprimer une cible prcise, slectionnez-la et cliquez sur [Supprimer] .

Suivant Une fois la dcouverte statique configure pour votre adaptateur iSCSI, Ranalysez l'adaptateur.

Configurer des paramtres CHAP pour des adaptateurs iSCSI


Etant donn que les rseaux IP qu'utilise la technologie iSCSI pour se connecter aux cibles distantes ne protgent pas les donnes qu'ils transportent, vous devez scuriser la connexion. L'un des protocoles que l'iSCSI applique est le protocole CHAP, qui vrifie la lgitimit des initiateurs qui accdent des cibles sur le rseau. Le protocole CHAP applique un algorithme de ngociation trois voies pour vrifier l'identit de votre hte et, le cas chant, de la cible iSCSI quand l'hte et la cible tablissent une connexion. La vrification repose sur une valeur prive prdfinie, dite secret CHAP, que l'initiateur et la cible partagent. ESXi prend en charge l'authentification CHAP au niveau de l'adaptateur. Dans ce cas, toutes les cibles reoivent les mmes nom et secret CHAP de la part de l'initiateur iSCSI. Pour les adaptateurs iSCSI logiciels et matriels dpendants, ESXi prend en charge galement l'authentification CHAP en fonction de la cible, qui permet de configurer diffrentes informations d'identification pour chaque cible pour renforcer la scurit.

Choisir la mthode d'authentification CHAP


ESXi prend en charge la mthode CHAP unidirectionnelle pour tous les types d'initiateurs iSCSI et la mthode CHAP mutuelle pour iSCSI logiciel et matriel dpendant. Avant de configurer CHAP, vrifiez s'il est activ dans le systme de stockage iSCSI et vrifiez la mthode d'authentification CHAP que le systme permet. Si CHAP est activ, activez-le pour vos initiateurs, en veillant ce que les informations d'identification d'authentification CHAP concordent avec celles du stockage iSCSI.

VMware, Inc.

87

Stockage vSphere

ESXi prend en charge les mthodes d'authentification CHAP suivantes : CHAP unilatral En authentification CHAP unilatrale, galement appele unidirectionnelle, la cible authentifie l'initiateur, mais l'initiateur n'authentifie pas la cible. En authentification CHAP mutuelle, galement appele bidirectionnelle, un niveau de scurit supplmentaire permet l'initiateur d'authentifier la cible. VMware ne permet cette mthode que pour les adaptateurs iSCSI logiciels et matrielles dpendants.

CHAP mutuel

Pour les adaptateurs iSCSI logiciels et matrielles dpendants, vous pouvez dfinir le CHAP unilatral et le CHAP mutuel pour chaque initiateur ou au niveau cible. iSCSI matriel indpendant prend en charge CHAP uniquement au niveau de l'initiateur. Quand vous dfinissez les paramtres CHAP, indiquez un niveau de scurit pour CHAP. REMARQUE Lorsque vous dfinissez le niveau de scurit CHAP, le type de rponse de la baie de stockage dpend de l'implmentation CHAP de la baie et est spcifique du fournisseur. Par exemple, si vous cochez Utiliser CHAP sauf si la cible l'interdit, certaines baies de stockage appliquent CHAP dans la rponse, alors que d'autres non. Pour plus d'informations sur le comportement de l'authentification CHAP dans diffrentes configurations d'initiateur et de cible, consultez la documentation de la baie. Tableau 9-4. Niveau de scurit CHAP
Niveau de scurit CHAP Ne pas utiliser CHAP Description L'hte n'applique pas l'authentification CHAP. Cochez cette option pour mettre hors tension l'authentification si elle est actuellement active. L'hte prfre une connexion non CHAP, mais peut utiliser une connexion CHAP si la cible l'exige. L'hte prfre CHAP, mais peut utiliser des connexions non CHAP si la cible ne gre pas CHAP. L'hte exige une authentification CHAP russie. La connexion choue si la ngociation CHAP choue. Pris en charge iSCSI logiciel Matriel iSCSI dpendant Matriel iSCSI indpendant iSCSI logiciel Matriel iSCSI dpendant iSCSI logiciel Matriel iSCSI dpendant Matriel iSCSI indpendant iSCSI logiciel Matriel iSCSI dpendant

Ne pas utiliser CHAP sauf si la cible l'exige Utiliser CHAP sauf si la cible l'interdit Utiliser CHAP

Configurer les informations d'identification CHAP d'un initiateur iSCSI


Vous pouvez configurer toutes les cibles pour qu'elles reoivent les mmes nom et secret CHAP de l'initiateur iSCSI au niveau de l'initiateur. Par dfaut, toutes les adresses de dcouverte ou cibles statiques hritent des paramtres CHAP que vous configurez au niveau initiateur. Le nom CHAP ne doit pas dpasser 511 caractres alphanumriques et le secret CHAP doit comporter 255 caractres alphanumriques maximum. Certains adaptateurs, par exemple l'adaptateur QLogic, peuvent avoir des limites plus basses, 255 pour le nom CHAP et 100 pour le secret CHAP. Prrequis
n

Avant de configurer des paramtres CHAP pour l'iSCSI logiciel ou matrielle dpendante, dterminez s'il faut configurer un CHAP unilatral ou mutuel. Les adaptateurs de matriel iSCSI dpendants n'admettent pas le CHAP mutuel.
n n

En CHAP unilatral, la cible authentifie l'initiateur. Dans la mthode CHAP mutuelle, la cible et l'initiateur s'authentifient mutuellement. Utilisez des secrets diffrents pour la mthode CHAP et pour la mthode CHAP mutuelle.

Lorsque vous dfinissez les paramtres CHAP, vrifiez qu'ils correspondent aux paramtres du stockage.

88

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage

Procdure 1 2 3 Accdez la bote de dialogue de proprits d'initiateur iSCSI. Dans l'onglet [Gnral] , cliquez sur [CHAP] . Pour configurer le CHAP unilatral, sous CHAP, spcifiez ce qui suit : a Slectionnez le niveau de scurit CHAP.
n n n

Utiliser CHAP juste si cible le demande (iSCSI logiciel et iSCSI matriel dpendant uniquement) Utiliser CHAP sauf si la cible l'interdit Utiliser CHAP (iSCSI logiciel et iSCI matriel dpendant uniquement) Pour pouvoir configurer la mthode CHAP mutuelle, vous devez slectionner cette option.

Indiquez le nom CHAP. Assurez-vous que le nom que vous indiquez concorde avec celui configur ct stockage.
n n

Pour dsigner comme nom CHAP le nom d'initiateur iSCSI, cochez [Utiliser nom initiateur] . Pour dfinir le nom CHAP en n'utilisant pas le nom d'initiateur iSCSI, dslectionnez [Utiliser nom initiateur] et tapez un nom dans la zone de texte [Nom] .

c 4

Saisissez un secret CHAP unilatral utiliser dans le cadre de l'authentification. Utilisez le mme secret que celui que vous entrez ct stockage.

Pour configurer la mthode CHAP mutuelle, configurez d'abord la mthode CHAP unidirectionnelle en suivant les instructions dans tape 3. Veillez cocher [Utiliser CHAP] comme option du CHAP unilatral. Ensuite, spcifiez les paramtres suivants sous [CHAP mutuel] : a b c Cochez [Utiliser CHAP] . Indiquez le nom CHAP mutuel. Tapez le secret CHAP mutuel. Veillez utiliser des secrets diffrents pour le CHAP unilatral et le CHAP mutuel.

5 6

Cliquez sur [OK] . Ranalysez l'initiateur.

Si vous modifiez les paramtres CHAP ou CHAP mutuel, ils sont appliqus aux nouvelles sessions iSCSI. Pour les sessions existantes, les nouveaux paramtres ne sont pas utiliss tant que vous ne vous dconnectez pas et que vous ne vous reconnectez pas.

Configurer les informations d'identification CHAP d'une cible


Pour les adaptateurs iSCSI matriels dpendants et iSCSI logiciels, vous pouvez configurer des donnes d'identification CHAP diffrentes pour chaque adresse de dcouvert cible statique. Quand vous configurez des paramtres CHAP, assurez-vous qu'ils concordent avec les paramtres du ct stockage. Le nom CHAP ne doit pas excder 511 et le mot de passe CHAP 255 caractres alphanumriques. Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Prrequis Avant de configurer des paramtres CHAP pour l'iSCSI logiciel et matrielle dpendante, dterminez s'il faut configurer un CHAP unilatral ou mutuel.
n

En CHAP unilatral, la cible authentifie l'initiateur.

VMware, Inc.

89

Stockage vSphere

En CHAP mutuel, la cible et l'initiateur s'authentifient rciproquement. Veillez utiliser diffrents secrets pour le CHAP et le CHAP mutuel.

Procdure 1 2 3 4 Accdez la bote de dialogue de proprits d'initiateur iSCSI. Slectionnez soit l'onglet [Dcouverte dynamique] , soit l'onglet [Dcouverte statique] . Dans la liste des cibles disponibles, slectionnez la cible configurer et cliquez sur [Paramtres] > [CHAP] . Configurez le CHAP unilatral dans la zone CHAP. a b Dcochez [Hriter du parent] . Slectionnez l'une des options suivantes :
n n n

Ne pas utiliser CHAP sauf si la cible l'exige Utiliser CHAP sauf si la cible l'interdit Utiliser CHAP. Pour pouvoir configurer le CHAP mutuel, vous devez slectionner cette option.

Indiquez le nom CHAP. Assurez-vous que le nom que vous indiquez concorde avec celui configur ct stockage.
n n

Pour dsigner comme nom CHAP le nom d'initiateur iSCSI, cochez [Utiliser nom initiateur] . Pour dsigner comme nom CHAP toute autre chose que le nom d'initiateur iSCSI, dcochez [Utiliser nom initiateur] et tapez un nom dans le champ [Nom] .

d 5

Saisissez un secret CHAP unilatral utiliser dans le cadre de l'authentification. Veillez utiliser le mme secret que celui que vous saisissez ct stockage.

Pour configurer la mthode CHAP mutuelle, configurez d'abord la mthode CHAP unidirectionnelle en suivant les instructions dans tape 4. Veillez cocher [Utiliser CHAP] comme option du CHAP unilatral. Ensuite, spcifiez les paramtres suivants dans la zone Mutual CHAP : a b c d Dcochez [Hriter du parent] . Cochez [Utiliser CHAP] . Indiquez le nom CHAP mutuel. Tapez le secret CHAP mutuel. Veillez utiliser des secrets diffrents pour le CHAP unilatral et le CHAP mutuel.

6 7

Cliquez sur [OK] . Ranalysez l'initiateur.

Si vous modifiez les paramtres CHAP ou CHAP mutuel, ils sont appliqus aux nouvelles sessions iSCSI. Pour les sessions existantes, les nouveaux paramtres ne sont appliqus qu'une fois que vous vous tes dconnect puis reconnect.

Dsactiver CHAP
Vous pouvez mettre hors tension le protocole CHAP si le systme de stockage ne le ncessite pas. Si vous dsactivez CHAP sur un systme qui exige l'authentification CHAP, les sessions iSCSI existantes demeurent actives jusqu' ce que vous redmarriez l'hte ou mettiez fin la session via la ligne de commande ou que le systme de stockage force la dconnexion. Une fois la session close, vous ne pouvez plus vous connecter aux cibles qui exigent CHAP.

90

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Procdure 1 2 3 Ouvrez la bote de dialogue d'informations d'identification CHAP. Avec les adaptateurs iSCSI logiciels et matriels dpendants, pour ne mettre hors tension que le CHAP mutuel et laisser le CHAP unilatral, cochez [Ne pas utiliser le CHAP] dans la zone CHAP mutuel. Pour mettre hors tension le CHAP unilatral, cochez [Ne pas utiliser le CHAP] dans la zone CHAP. Le CHAP mutuel, s'il est install, passe automatiquement [Ne pas utiliser le CHAP] si vous dsactivez le CHAP unilatral. 4 Cliquez sur [OK] .

Configuration des paramtres avancs iSCSI


Il se peut que vous deviez configurer des paramtres supplmentaires pour vos initiateurs iSCSI. Par exemple, certains systmes de stockage iSCSI exigent la redirection ARP (Address Resolution Protocol) pour mouvoir le trafic iSCSI dynamiquement d'un port l'autre. Dans ce cas, vous devez activer la redirection ARP sur votre hte. Le tableau suivant rpertorie les paramtres iSCSI avancs que vous pouvez configurer l'aide de vSphere Client. En outre, vous pouvez utiliser les commandes CLI vSphere pour configurer certains des paramtres avancs. Pour plus d'informations, se reporter la documentation Initiation aux interfaces de ligne de commande vSphere. Ne modifiez pas les paramtres iSCSI avancs sans collaboration avec l'quipe d'assistance de VMware ou si vous ne disposez pas des informations appropries sur les valeurs attribuer aux paramtres. Tableau 9-5. Paramtres supplmentaires des initiateurs iSCSI
Paramtre avanc Rsum d'en-tte Description Augmente l'intgrit des donnes. Si le prtraitement d'en-tte est activ, le systme effectue un total de contrle sur la partie d'en-tte de chaque unit de donnes de protocole (PDU) iSCSI et le vrifie au moyen de l'algorithme CRC32C. Augmente l'intgrit des donnes. Si le rsum de donnes est activ, le systme effectue un total de contrle sur la partie donnes de chaque unit de donnes de protocole (PDU) et le vrifie au moyen de l'algorithme CRC32C. REMARQUE Les systmes qui utilisent des processeurs Intel Nehalem dlestent les calculs de rsum iSCSI pour l'iSCSI logiciel, en rduisant ainsi l'incidence sur les performances. Dfinit le nombre d'units de donnes de protocole (PDU) prtes envoyer qui peut tre en transition avant qu'une PDU d'accus de rception ne soit reue. Configurable sur iSCSI logiciel Matriel iSCSI dpendant iSCSI logiciel Matriel iSCSI dpendant

Rsum de donnes

Maximum Outstanding R2T (Maximum d'units de donnes de protocole en suspend prtes envoyer) First Burst Length (Longueur de premire salve) Maximum Burst Length (Longueur maximum de salve)

iSCSI logiciel Matriel iSCSI dpendant

Indique la quantit maximum de donnes non sollicites qu'un initiateur iSCSI peut envoyer la cible pendant l'excution d'une commande SCSI, en octets. Charge utile de donnes maximum dans une squence iSCSI d'entre de donnes ou de sortie de donnes sollicite, en octets.

iSCSI logiciel Matriel iSCSI dpendant iSCSI logiciel Matriel iSCSI dpendant

VMware, Inc.

91

Stockage vSphere

Tableau 9-5. Paramtres supplmentaires des initiateurs iSCSI (suite)


Paramtre avanc Maximum Receive Data Segment Length (Longueur maximum de segment de donnes en rception) Session Recovery Timeout (Dlai de rcupration de session) No-Op Interval (Intervalle sans opration) Description Longueur maximum de segment de donnes, en octets, qui peut tre reu dans une PDU iSCSI. Configurable sur iSCSI logiciel Matriel iSCSI dpendant

Indique le laps de temps, en secondes, qui peut s'couler pendant que s'excute une rcupration de session. Si le dlai dpasse sa limite, l'initiateur iSCSI termine la session. Indique l'intervalle, en secondes, entre les demandes en sortie sans opration envoyes par votre initiateur iSCSI une cible iSCSI. Les demandes en sortie sans opration servent de mcanisme ping pour vrifier qu'une connexion entre l'initiateur iSCSI et la cible iSCSI est active. Indique le laps de temps, en secondes, qui peut s'couler avant que votre hte ne reoive un message d'entre sans opration (NOP-In). Le message est envoy par la cible iSCSI en rponse la demande en sortie sans opration. Ds que la limite de dlai sans opration est dpasse, l'initiateur clt la session actuelle et en dmarre une nouvelle. Permet aux systmes de stockage de mouvoir le trafic iSCSI dynamiquement d'un port l'autre. L'ARP est exig par les systmes de stockage qui appliquent le basculement bas sur baie.

iSCSI logiciel Matriel iSCSI dpendant iSCSI logiciel Matriel iSCSI dpendant

No-Op Timeout (Dlai de demande sans opration)

iSCSI logiciel Matriel iSCSI dpendant

ARP Redirect (Redirection ARP)

iSCSI logiciel Matriel iSCSI dpendant Matriel iSCSI indpendant iSCSI logiciel Matriel iSCSI dpendant

Accus de rception retard

Permet aux systmes de retarder l'accus de rception des paquets de donnes.

Configurer les paramtres avancs d'iSCSI


Les paramtres iSCSI avancs contrlent des paramtres tels que le rsum de l'en-tte et des donnes, la redirection ARP, l'accus de rception diffr, etc. Gnralement, il est inutile de modifier ces paramtres, car votre hte fonctionne avec les valeurs prdfinies, assignes. AVERTISSEMENT N'apportez aucune modification aux paramtres iSCSI avancs moins de travailler avec l'quipe d'assistance VMware ou de disposer par d'autres biais d'informations prcises sur les valeurs attribuer aux paramtres. Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Procdure 1 2 3 Accdez la bote de dialogue de proprits d'initiateur iSCSI. Pour configurer les paramtres avancs au niveau initiateur, dans l'onglet Gneral, cliquez sur [Avanc] . Passez tape 4. Configurez les paramtres avancs au niveau cible. Au niveau cible, les paramtres avancs ne peuvent tre configurs que pour les adaptateurs iSCSI logiciels et matriels dpendants. a b Slectionnez soit l'onglet [Dcouverte dynamique] , soit l'onglet [Dcouverte statique] . Dans la liste des cibles disponibles, slectionnez la cible configurer et cliquez sur [Paramtres] > [Avanc] .

92

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Saisissez toute valeur obligatoire des paramtres avancs que vous voulez modifier et cliquez sur [OK] pour enregistrer vos modifications.

Gestion des sessions iSCSI


Pour communiquer entre eux, les initiateurs iSCSI et les cibles tablissent des sessions iSCSI. Vous pouvez consulter et grer les sessions iSCSI grce vSphere CLI. Par dfaut, les initiateurs iSCSI logiciel et matriels dpendants lancent une session iSCSI entre chaque port d'initiateur et chaque port cible. Si votre initiateur ou cible iSCSI possde plus d'un seul port, votre hte peut tablir plusieurs sessions. Le nombre de sessions par dfaut pour chaque cible est gal au nombre de ports sur les adaptateurs iSCSI multipli par le nombre de ports cibles. Grce vSphere CLI, vous pouvez afficher toutes les sessions en cours afin de les analyser et les dboguer. Pour crer davantage de chemins vers les systmes de stockage, augmentez le nombre de sessions par dfaut en dupliquant les sessions existantes entre l'adaptateur iSCSI et les ports cibles. Vous pouvez aussi tablir une session avec un port cible spcifique. Une telle session peut tre utile si votre hte se connecte un systme de stockage port unique, qui prsente par dfaut un port cible unique votre initiateur, mais qui peut rediriger des sessions supplmentaires vers un port cible diffrent. L'tablissement d'une nouvelle session entre votre initiateur iSCSI et un autre port cible cre un chemin supplmentaire vers le systme de stockage. Les considrations s'appliquent la gestion des sessions iSCSI :
n

Certains systmes de stockage ne prennent pas en charge les sessions multiples partir du mme nom d'initiateur ou point terminal. Dans un tel cas, les tentatives de crer les sessions multiples vers telles cibles peuvent provoquer une instabilit de votre environnement iSCSI. Les fournisseurs de stockages peuvent fournir des gestionnaires de sessions automatiques. L'utilisation des gestionnaires de sessions automatiques pour ajouter ou supprimer des sessions, ne garantit pas des rsultats durables et peut perturber les performances du stockage.

Passer en revue les sessions iSCSI


Utilisez la commande vCLI pour afficher les sessions iSCSI entre un adaptateur iSCSI et un systme de stockage. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Pour rpertorier les sessions iSCSI, excutez la commande suivante :


esxcli --server=server_name iscsi session list

La commande accepte les options suivantes :


Option -A|--adapter=str -s|--isid=str -n|--name=str Description Le nom de l'adaptateur iSCSI, vmhba34, par exemple. L'identificateur de session iSCSI. Le nom de la cible iSCSI, iqn.X, par exemple.

VMware, Inc.

93

Stockage vSphere

Ajout de sessions iSCSI


Utilisez le vSphere CLI afin d'ajouter une session iSCSI pour une cible que vous spcifierez ou pour dupliquer une session existante. En dupliquant les sessions, vous augmentez le nombre de sessions par dfaut, et vous crez des chemins supplmentaires pour les systmes de stockage. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Pour ajouter ou dupliquer une session iSCSI, excutez la commande suivante :


esxcli --server=server_name iscsi session add

La commande accepte les options suivantes :


Option -A|--adapter=str -s|--isid=str -n|--name=str Description Le nom de l'adaptateur iSCSI, vmhba34, par exemple. Cette option est requise. L'ISID d'une session dupliquer. Vous pouvez la trouver en listant toutes les sessions. Le nom de la cible iSCSI, iqn.X, par exemple.

Suivant Scannez nouveau l'adaptateur iSCSI

Supprimer des sessions iSCSI


Utilisez la commande vCLI pour fermer une session iSCSI entre un adaptateur iSCSI et une cible. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell.

94

VMware, Inc.

Chapitre 9 Configuration des adaptateurs iSCSI et du stockage

Procdure
u

Pour supprimer une session, excutez la commande suivante :


esxcli --server=server_name iscsi session remove

La commande accepte les options suivantes :


Option -A|--adapter=str -s|--isid=str -n|--name=str Description Le nom de l'adaptateur iSCSI, vmhba34, par exemple. Cette option est requise. L'ISID d'une session supprimer. Vous pouvez la trouver en listant toutes les sessions. Le nom de la cible iSCSI, iqn.X, par exemple.

Suivant Scannez nouveau l'adaptateur iSCSI

VMware, Inc.

95

Stockage vSphere

96

VMware, Inc.

Modification des systmes de stockage iSCSI pour ESXi

10

Aprs avoir configur vos initiateurs iSCSI et votre stockage, il se peut que vous deviez modifier votre systme de stockage pour vous assurer qu'il fonctionnera correctement avec votre mise en uvre ESXi. Cette section prsente de nombreux systmes de stockage iSCSI pris en charge avec VMware ESXi. Pour chaque priphrique, elle rpertorie les problmes potentiels principaux connus, pointe vers des informations spcifiques chaque fournisseur (le cas chant) et inclut des informations provenant d'articles de la base de connaissances VMware. REMARQUE Les informations de cette section sont mises niveau uniquement chaque nouvelle version. De nouvelles informations peuvent dj tre disponibles. Par ailleurs, d'autres systmes de stockage iSCSI sont pris en charge mais ne sont pas abords dans ce chapitre. Consultez le Guide de compatibilit de stockage/SAN le plus rcent, vrifiez auprs de votre fournisseur de stockage et explorez les articles de la base de connaissances VMware. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n n n n

Test des configurations SAN de l'ESXi iSCSI , page 97 Considrations gnrales pour les systmes de stockage SAN iSCSI , page 98 Systmes de stockage EMC CLARiiON , page 98 Systmes de stockage EMC Symmetrix , page 99 Activer HP StorageWorks MSA1510i pour communiquer avec ESXi , page 99 Systmes de stockage EVA HP StorageWorks , page 100 Systmes de stockage NetApp , page 101 Systmes de stockage Dell EqualLogic , page 101 Systmes de stockage HP StorageWorks SAN/iQ , page 102 Systmes de stockage Dell PowerVault MD3000i , page 102 Cibles iSCSI dans vApp , page 102

Test des configurations SAN de l' ESXi iSCSI


ESXi prend en charge divers systmes de stockage SAN dans diffrentes configurations. En gnral, VMware teste ESXi avec les systmes de stockage pris en charge pour une connectivit de base, le basculement HBA, etc. Les priphriques de stockage ne sont pas tous certifis pour toutes les fonctionnalits et possibilits de l'ESXi et les fournisseurs peuvent avoir des positions spcifiques de prise en charge concernant l'ESXi.

VMware, Inc.

97

Stockage vSphere

En gnral, VMware teste l'ESXi avec les systmes de stockage dans les configurations suivantes : Connectivit de base Teste si ESXi peut reconnatre et fonctionner avec le systme de stockage. Cette configuration ne permet pas le chemins multiples ou tout autre type de basculement. Le serveur est quip de plusieurs HBA iSCSI ou adaptateurs rseau. Le serveur est rsistant aux pannes de HBA ou de carte rseau. Le serveur est associ plusieurs ports de stockage et est rsistant aux pannes de port de stockage et aux pannes de commutateur. L'hte dmarre avec succs partir d'un LUN configur sur le SAN iSCSI.

Basculement iSCSI Basculement de port de stockage Dmarrage partir d'un SAN

Considrations gnrales pour les systmes de stockage SAN iSCSI


Lorsque vous prparez votre systme de stockage SAN iSCSI pour qu'il fonctionne avec ESXi, vous devez suivre les conditions gnrales spcifiques qui s'appliquent tous les systmes de stockage. Pour tous les systmes de stockage, il existe les conditions gnrales suivantes :
n

Les LUN doivent tre prsents chaque HBA de chaque hte avec le mme ID de LUN. Si des numros diffrents sont utiliss, les htes ESXi ne reconnaissent pas diffrents chemins d'accs au mme LUN. tant donn que les instructions sur la configuration des ID de LUN SAN identiques sont spcifiques chaque fournisseur, consultez votre documentation de stockage pour obtenir plus d'informations. Sauf mention particulire pour des systmes de stockage individuels dcrits dans ce chapitre, dfinissez le type d'hte des LUN prsents ESXi sur Linux ou Linux Cluster, si applicable votre systme de stockage. La mthode utilise par l'ESXi pour accder au systme de stockage est la plus compatible avec un accs Linux. Toutefois, cela peut varier en fonction du systme de stockage que vous utilisez. Si vous utilisez vMotion, DRS ou HA, veillez ce que les htes source et cible des machines virtuelles puissent voir les mmes LUN avec des ID de LUN identiques. Les administrateurs SAN peuvent trouver peu intuitif que plusieurs htes voient les mmes LUN car ils peuvent alors tre concerns par la corruption des donnes. Toutefois, VMFS empche que plusieurs machines virtuelles n'crivent sur le mme fichier au mme moment. Il est donc appropri de fournir les LUN tous les systmes ESXi requis. Si l'authentification CHAP n'est pas configure sur les LUN auxquels vous accdez, vous devez galement dsactiver CHAP sur l'hte ESXi. Sinon, l'authentification du systme de stockage choue, mme si les LUN n'ont aucune exigence CHAP.

Systmes de stockage EMC CLARiiON


Les systmes de stockage EMC CLARiiON fonctionnent avec les htes ESXi dans les configurations SAN iSCSI. Gnralement, vous utilisez le logiciel EMC pour effectuer ces configurations. Il s'agit d'une baie de disques actives/passives. Par consquence, toutes les questions associes qui s'appliquent aux baies de disques actives/passives sont pertinentes. De plus, gardez ce qui suit l'esprit :
n

Pour viter la possibilit d'une annulation de chemin, la rgle de multivoie par dfaut est Rcemment utilis, et non Fixe. Le systme ESXidfinit la rgle par dfaut lorsqu'il identifie le systme de stockage. Pour dmarrer partir d'un SAN, slectionnez le processeur de stockage actif pour la cible du LUN de dmarrage dans le BIOS HBA. La prise en charge de la liaison de port sur les systmes de stockage EMC CLARiiON ncessite des initiateurs dans des sous-rseaux diffrents si le stockage utilise une version de FLARE antrieure FLARE 30. Pour plus de dtails, consultez la documentation du fournisseur.

98

VMware, Inc.

Chapitre 10 Modification des systmes de stockage iSCSI pour ESXi

Pour qu'un ESXi prenne en charge EMC CLARiiON avec ALUA, vrifiez les HCL pour vous assurer que vous utilisez bien la bonne version de microprogramme sur la baie de stockage. Pour plus d'informations, contactez votre fournisseur de stockage.

Systmes de stockage EMC Symmetrix


Pour fonctionner avec ESXi, les systmes de stockage EMC Symmetrix ncessitent certains paramtres spcifiques. Utilisez le logiciel EMC pour configurer le systme de stockage. Les paramtres suivants sont requis pour les oprations ESXi sur le systme de stockage en rseau Symmetrix :
n n n n n

Numro de srie commun (C) Auto-ngociation (EAN) active SCSI 3 (SC3) activ Nom mondial unique (UWN) L'indicateur SPC-2 (Decal) (SPC2) SPC-2 est requis

REMARQUE L'hte ESXi considre tous les LUN partir d'une baie de stockage Symmetrix avec une capacit de 50 Mo maximum comme LUN de gestion. Ces LUN sont galement appels pseudo LUN ou LUN de contrle d'accs. Ces LUN apparaissent dans l'interface de gestion EMC Symmetrix et ne doivent pas tre utiliss pour contenir des donnes.

Activer HP StorageWorks MSA1510i pour communiquer avec ESXi


Cette section dcrit les tapes d'installation et de configuration ncessaires pour permettre un systme de stockage HP StorageWorks MSA1510i de communiquer avec les htes ESXi. Procdure 1 2 Installez, connectez et allumez les priphriques rseau comme dcrit dans la documentation d'installation du fournisseur. Obtenez l'adresse IP attribue au port de gestion du contrleur MSA1510i. a b 3 4 Faites dfiler les messages sur l'cran LCD jusqu' ce que le message suivant apparaisse : 603 Port
MA0 IP address

Enregistrez l'adresse IP du port de gestion qui apparat dans [Informations de base de MSA1510i] .

partir du serveur ou d'un poste de travail sur le segment LAN du MSA1510i, ouvrez un navigateur Web et saisissez l'adresse obtenue dans tape 2. Lorsque vous y tes invit, saisissez les autorisations d'accs par dfaut.
n n

Nom d'utilisateur : root Mot de passe : root

Lorsque vous y tes invit, dfinissez un nom d'utilisateur et un mot de passe unique.

VMware, Inc.

99

Stockage vSphere

l'aide de l'assistant, effectuez les actions suivantes.


Option Configuration de stockage Configuration iSCSI (configurez un portail iSCSI) Description a b a b c Dfinissez le mode de tolrance aux pannes (mode RAID). Attribuez un disque disponible pour le niveau RAID appropri.

Slectionnez un port de donnes. Attribuez une adresse IP au port de donnes. Les VLAN sont configurs sur le commutateur et sont utiliss pour contrler l'accs au stockage. Si vous utilisez des VLAN, saisissez l'ID de VLAN utiliser (0 = non utilis). d L'assistant suggre un nom cible iSCSI et un alias cible iSCSI par dfaut. Acceptez les valeurs par dfaut ou saisissez des valeurs dfinies par l'utilisateur. REMARQUE Pour configurer les autres ports de donnes, suivez le processus de l'assistant de configuration initiale du systme, puis utilisez les tches disponibles dans l'onglet [Configurer] . Entrez les paramtres de connexion. Entrez les paramtres de gestion.

Paramtres de connexion Paramtres de gestion

Cliquez sur [Terminer] pour appliquer les paramtres de configuration.

REMARQUE Les assistants sont disponibles uniquement pour les tches de configuration de base. Utilisez les onglets [Grer] et [Configurer] pour afficher et modifier votre configuration. Suivant Aprs la configuration initiale, effectuez les tches suivantes pour terminer la configuration :
n n n n n n n n

Crez une baie. Crez un lecteur logique. Crez une cible. Crez un groupe de portail. Associez ou attribuez les portails crs l'aide de l'assistant avec le groupes de portail cr. Mappez les lecteurs logiques sur la cible. Ajoutez des initiateurs (nom IQN et alias de l'initiateur). Mettez niveau les ACL des lecteurs logiques pour fournir un accs aux initiateurs (slectionnez la liste des initiateurs pour accder au lecteur logique).

Systmes de stockage EVA HP StorageWorks


Les deux types de systmes EVA HP StorageWorks sont EVA_GL, un systme actif-passif, et EVA_XL, un systme actif-actif. Pour que les systmes puissent fonctionner avec ESXi, certains paramtres spcifiques sont requis. Dfinissez le type de connexion sur [Personnaliser] lorsque vous prsentez un LUN un hte ESXi. La valeur est l'une des suivantes :
n n

Pour HP EVAgl 3000/5000 (actif-passif), utilisez le type de mode d'hte 000000002200282E. Pour HP EVAgl firmware 4.001 (microprogramme actif-actif pour la srie GL) et versions ultrieures, utilisez le type de mode d'hte VMware. Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme antrieur 5.031, utilisez le type de mode d'hte 000000202200083E.

100

VMware, Inc.

Chapitre 10 Modification des systmes de stockage iSCSI pour ESXi

Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme 5.031 et versions ultrieures, utilisez le type de mode d'hte VMware.

Sinon, les systmes EVA ne ncessitent aucune modification spciale de la configuration pour fonctionner avec un systme ESXi.

Systmes de stockage NetApp


Pour que les systmes de stockage NetApp puissent communiquer dans un environnementESXi, vous devez effectuer des tapes de configuration spcifiques. Pour obtenir de la documentation supplmentaire sur NetApp, sur les meilleures pratiques VMware et sur les solutions SAN, consultez la page Web NetApp. Tableau 10-1. tapes de configuration
tape de configuration Dsactivez ALUA. Configurez le chemins multiples. Description Si l'un de vos initiateurs iSCSI fait partie d'un groupe d'initiateurs (igroup), dsactivez ALUA sur le filtre NetApp. Lorsque vous configurez les chemins multiples entre deux HBA iSCSI et plusieurs ports sur un systme de stockage NetApp, attribuez aux deux HBA un nom d'initiateur iSCSI diffrent. Le systme de stockage NetApp n'autorise qu'une connexion chaque cible et chaque initiateur. Toute connexion supplmentaire fait chouer la premire connexion. Par consquent, un seul HBA ne doit pas tenter de se connecter plusieurs adresses IP associes la mme cible NetApp. Dfinissez le type de LUN et le type de groupes d'initiateur appropris pour le systme de stockage : n Type de LUN : VMware (si le type VMware n'est pas disponible, utilisez Linux). n Type de groupes d'initiateur : VMware (si le type VMware n'est pas disponible, utilisez Linux). Utilisez FilerView ou CLI.

Dfinissez le type de LUN et le type de groupes d'initiateur.

Provisionnez le stockage.

Systmes de stockage Dell EqualLogic


Lors de la configuration de vos systmes de stockage EqualLogic pour qu'ils fonctionnent dans une mise en uvre ESXi, vous devez poser certaines questions spcifiques. Suivez ces conditions requises :
n

chemins multiples. Aucune configuration spciale n'est ncessaire car les systmes de stockage EqualLogic prennent en charge le basculement de processeur de stockage, transparent pour iSCSI. Plusieurs HBA iSCSI ou adaptateurs rseau peuvent se connecter la mme cible ou LUN ct stockage. EqualLogic fournit un module d'extensions de gestion multivoie qui peut tre install sur l'ESXi pour offrir d'autres possibilits. Pour plus d'informations sur les modules de configuration de gestion multivoie personnaliss, contactez Dell EqualLogic.

Cration de LUN iSCSI. partir du portail Web d'EqualLogic, cliquez avec le bouton droit sur [Volumes] , puis slectionnez [Crer un volume] . Activez la redirection ARP pour les HBA iSCSI matriels ESXi. Les systmes de stockage EqualLogic imposent une limite maximale de 1024 connexions iSCSI par pool de stockage et 2048 connexions par groupes de stockage.

n n

Pour plus d'informations sur la configuration et l'utilisation des systmes de stockage EqualLogic, consultez la documentation du fournisseur.

VMware, Inc.

101

Stockage vSphere

Systmes de stockage HP StorageWorks SAN/iQ


HP StorageWorks (autrefois LeftHand) Les SAN SAN/iQ prennent en charge les connexions iSCSI ESXi partir d'un initiateur logiciel et d'un initiateur matriel. Lors de la configuration de SAN/iQ, activez la resignature de volume automatique pour les priphriques de stockage SAN/iQ pour autoriser l'accs aux snapshots SAN/iQ et aux copies distantes. Pour plus d'informations sur la configuration du stockage HP StorageWorks pour VMware vSphere, consultez la documentation du fournisseur relative VMware. Les tapes de configuration de base incluent plusieurs tches. 1 2 3 4 5 Installez les nuds de stockage SAN/iQ. Crez des groupes de gestion et des clusters SAN/iQ. Crez des volumes. Attribuez des volumes aux groupes d'authentification et aux listes de volume. Activez la redirection ARP sur les HBA iSCSI matriels.

Il est galement prfrable de configurer l'quilibrage de charge IP virtuelle dans SAN/iQ pour tous les groupes d'authentification ESXi.

Systmes de stockage Dell PowerVault MD3000i


Lorsque vous configurez le CHAP mutuel pour les systmes de stockage iSCSI MD3000i, certaines considrations spciales s'appliquent. Lorsque vous configurez le CHAP mutuel pour la baie iSCSI MD3000i, suivez ces instructions :
n

Sur le systme de stockage MD3000i, la configuration du CHAP mutuel ncessite uniquement un secret CHAP. Sur l'hte ESXi, la configuration du CHAP mutuel ncessite la fois le nom et le secret CHAP. Lors de la configuration du CHAP mutuel sur l'hte ESXi, saisissez le nom IQN de la cible comme nom CHAP mutuel. Veillez ce que le secret CHAP corresponde celui dfini sur la baie.

Cibles iSCSI dans vApp


Si vous utilisez une cible iSCSI dans un botier virtuel, par exemple HP LeftHand P4000 VSA, l'hte doit se connecter la cible via l'adaptateur iSCSI logiciel plutt que via un adaptateur iSCSI matriel.

102

VMware, Inc.

Dmarrage partir du SAN iSCSI

11

Lorsque vous paramtrez votre hte pour qu'il dmarre depuis un SAN, l'image de dmarrage de votre hte est archive sur une ou plusieurs numros d'unit logique (LUN) du systme de stockage du SAN. Lorsque l'hte dmarre, il se lance partir de la LUN se trouvant sur le SAN et non pas partir du disque local. Vous pouvez utiliser le dmarrage partir du SAN si vous ne souhaitez pas effectuer de maintenance de l'archivage local ou si vous avez des configurations matrielles sans disques comme des systmes lame. ESXi prend en charge diffrentes mthodes de dmarrage partir du SAN iSCSI. Tableau 11-1. Prise en charge du dmarrage partir du SAN iSCSI
Matriel iSCSI indpendant Configurez le iSCSI HBA pour un dmarrage partir du SAN. Pour plus d'informations sur la configuration du HBA, consultez Configurez l'adaptateur iSCSI matriel indpendant pour le dmarrage partir du SAN , page 105 iSCSI logiciel et iSCSI matriel dpendant Utilisez l'adaptateur rseau qui prend en charge le iBFT. Pour plus d'informations, consultez Prsentation de iBFT iSCSI Boot , page 106.

Ce chapitre aborde les rubriques suivantes :


n n n n

Recommandations gnrales de dmarrage partir du SAN iSCSI , page 103 Prparation du SAN iSCSI , page 104 Configurez l'adaptateur iSCSI matriel indpendant pour le dmarrage partir du SAN , page 105 Prsentation de iBFT iSCSI Boot , page 106

Recommandations gnrales de dmarrage partir du SAN iSCSI


Si vous prvoyez de paramtrer et d'utiliser un numro d'unit logique (LUN) iSCSI en tant que priphrique de dmarrage pour votre hte, vous devez suivre certaines instructions gnrales. Les directives suivantes s'appliquent au dmarrage partir de matriels iBFT et iSCSI indpendants.
n

Consultez les recommandations de l'diteur du matriel que vous utilisez dans votre configuration de dmarrage. Pour connatre les spcifications pralables et requises d'installation, consultez Installation et Configuration vSphere. Utilisez des adresses IP statiques afin de rduire les risques de conflits DHCP. Utilisez des LUN diffrentes pour les banques de donnes VMFS et les partitions de dmarrage.

n n

VMware, Inc.

103

Stockage vSphere

Configurez correctement les ACL sur votre systme de stockage.


n

La LUN de dmarrage doit uniquement tre visible pour l'hte qui utilise la LUN. Aucun autre hte sur le SAN ne doit tre autoris voir cette LUN de dmarrage. Si une LUN est utilise pour une banque de donnes VMFS, elle peut tre partage par plusieurs htes. Les ACL sur les systmes de stockage vous permettent d'effectuer ceci.

Configurez une partition de diagnostic.


n

Vous pouvez placer la partition de diagnostic sur le LUN de dmarrage uniquement avec iSCSI matriel indpendant. Si vous configurez la partition de diagnostic dans la LUN de dmarrage, cette LUN ne peut pas tre partage sur plusieurs htes. Si un LUN spar est utilis pour la partition de diagnostic, il peut tre partag par de multiples htes. Si vous dmarrez partir de SAN en utilisant iBFT, vous ne pouvez pas configurer une partition de diagnostic sur un LUN SAN. Au lieu de cela, vous utilisez vSphere Management Assistant (vMA) pour collecter les informations de diagnostic partir de votre hte et les stocker en vue d'une analyse. Reportez-vous la section Collecte des informations de diagnostic , page 111.

Prparation du SAN iSCSI


Avant de configurer votre hte pour qu'il dmarre partir d'un LUN du logiciel iSCSI, prparez et configurez votre rseau de zone de stockage. AVERTISSEMENT Si vous utilisez une installation base sur des scripts pour installer ESXi lors du dmarrage partir d'un SAN, prenez des mesures particulires afin d'viter toutes pertes de donnes non intentionnelles. Procdure 1 2 Connectez les cbles rseau en vous rfrant au guide de cblage s'appliquant votre configuration. Vrifiez la connectivit IP entre votre systme de stockage et votre serveur. Ceci inclut la configuration correcte de tous les routeurs ou commutateurs de votre rseau de stockage. Les systmes de stockage doivent tre en mesure de vrifier la connexion aux adaptateurs iSCSI de vos htes. 3 Configurez le systme de stockage. a b Crez un volume (ou une LUN) sur le systme de stockage depuis lequel votre hte va dmarrer. Configurez le systme de stockage afin que votre hte puisse accder la LUN qui lui est assigne. Il pourrait tre ncessaire de mettre niveau les ACL avec les adresses IP, les noms des logiciels iSCSI et avec le paramtre d'authentification CHAP utilis sur l'hte. Certains systmes de stockage, en plus de devoir fournir les informations d'accs l'hte ESXi, exigent galement d'associer de manire explicite le LUN assign l'hte. c d e Assurez-vous que la LUN est prsente correctement l'hte. Assurez-vous qu'aucun autre systme n'a accs la LUN configure. Notez le nom du logiciel iSCSI et les adresses IP des cibles assigne l'hte. Vous devez avoir ces informations pour configurer vos adaptateurs iSCSI.

104

VMware, Inc.

Chapitre 11 Dmarrage partir du SAN iSCSI

Configurez l'adaptateur iSCSI matriel indpendant pour le dmarrage partir du SAN


Si votre hte ESXi utilise un adaptateur iSCSI matriel indpendant, tel que QLogic HBA, vous devez configurer l'adaptateur pour dmarrer depuis le SAN. Cette procdure vous explique comment activer le QLogic iSCSI HBA pour qu'il dmarre partir du SAN. Pour plus d'informations et plus de dtails sur les paramtres de configuration de l'adaptateur QLogic, rendezvous sur le site Web de QLogic. Prrequis tant donn que vous devez d'abord dmarrer partir du support d'installation de VMware, configurez votre hte pour qu'il dmarre partir du CD/DVD-ROM. Pour effectuer cette opration, modifiez la squence de dmarrage du systme dans votre configuration BIOS systme. Procdure 1 2 3 4 Insrez le CD/DVD d'installation dans le lecteur de CD/DVD-ROM et redmarrez partir de l'hte. Utilisez le BIOS pour paramtrer l'hte afin qu'il dmarre d'abord partir du CD/DVD-ROM. Au cours du POST du serveur, appuyez sur les touches Ctrl+q pour entrer dans le menu de configuration de QLogic iSCSI HBA. Slectionnez le port d'E/S configurer. Par dfaut, le mode Adaptateur dmarrage est paramtr sur Dsactiver. 5 Configurez le HBA. a b 6 partir du menu [Options Fast!UTIL] , slectionnez [Paramtres de configuration] > [Paramtres de l'adaptateur de l'hte] . Configurez les paramtres suivants pour l'adaptateur de votre hte : adresse IP initiatrice, masque de sous-rseau, passerelle, nom iSCSI initiateur et CHAP (si ncessaire).

Configurez les paramtres iSCSI. Reportez-vous la section Configuration des paramtres de dmarrage de iSCSI , page 105.

Enregistrez vos changements et redmarrez le systme.

Configuration des paramtres de dmarrage de iSCSI


Lors de la configuration de votre hte ESXi pour qu'il dmarre depuis iSCSI, vous devez configurer les paramtres de dmarrage iSCSI. Procdure 1 2 Depuis le menu [Options Fast!UTIL] , slectionnez [Paramtres de configuration] > [Paramtres de dmarrage iSCSI] . Avant de dfinir SendTargets, dfinissez le mode Adaptateur dmarrage sur [Manuel] .

VMware, Inc.

105

Stockage vSphere

Slectionnez [Paramtres du priphrique de dmarrage principal] . a b Saisissez la dcouverte [IP cible] et [Port cible] . Laissez les champs [Dmarrage LUN] et [Nom iSCSI] vides uniquement si une cible iSCSI et une LUN sont l'adresse de dmarrage spcifie. Autrement, spcifiez ces champs afin de vous assurer de ne pas dmarrer partir du volume d'un autre systme. Ds que le systme de stockage cible est atteint, ces champs seront remplis aprs une nouvelle recherche. Enregistrez vos changements.

c 4 5

Depuis le menu [Paramtres de dmarrage iSCSI] , slectionnez le priphrique de dmarrage principal. Une nouvelle recherche du HBA est effectue automatiquement pour retrouver de nouvelles LUN cibles. Slectionnez la cible iSCSI. REMARQUE S'il y a plusieurs LUN dans la cible, vous pouvez choisir un ID LUN spcifique en appuyant sur [Entre] aprs avoir localis le priphrique iSCSI.

Retournez dans le menu [Paramtres du priphrique de dmarrage principal] . Aprs une nouvelle recherche, les champs [Dmarrage LUN] et [Nom iSCSI] sont renseigns. Changez la valeur de [Dmarrage LUN] sur l'ID LUN de votre choix.

Prsentation de iBFT iSCSI Boot


Les htes ESXi peuvent dmarrer depuis le SAN iSCSI en utilisant l'adaptateur iSCSI logiciel ou l'adaptateur de matriel iSCSI dpendant et les adaptateurs rseau. Pour dployer ESXi et dmarrer partir du SAN iSCSI, l'hte doit avoir une carte rseau compatible iSCSI Boot qui prend en charge le format iBFT (iSCSI Boot Firmware Table). L'iBFT permet de communiquer les paramtres du priphrique iSCSI Boot au systme d'exploitation. Avant d'installer ESXi et de dmarrer partir de SAN iSCSI, configurez les paramtres rseau et de dmarrage iSCSI sur la carte rseau et activez la carte pour le dmarrage iSCSI. tant donn que la configuration de la carte rseau est propre au fournisseur, consultez la documentation correspondante pour obtenir des instructions. Lors du premier dmarrage partir de iSCSI, le microprogramme de dmarrage iSCSI de votre systme se connecte une cible iSCSI. En cas de connexion russie, le microprogramme enregistre les paramtres rseau et de dmarrage du logiciel iSCSI dans l'iBFT et stocke la table dans la mmoire du systme. Le systme utilise cette table pour configurer sa connexion et son rseau iSCSI ainsi que son dmarrage. La liste suivante dcrit la squence de iBFT iSCSI boot. 1 2 3 Une fois redmarr, le BIOS du systme dtecte le microprogramme iSCSI Boot sur la carte rseau. Le microprogramme iSCSI Boot utilise les paramtres de dmarrage prconfigurs pour se connecter la cible iSCSI spcifie. En cas de connexion russie la cible iSCSI, le microprogramme iSCSI Boot crit les paramtres rseau et de dmarrage iSCSI dans l'iBFT et stocke la table dans la mmoire du systme. REMARQUE Le systme utilise cette table pour configurer sa connexion et son rseau iSCSI ainsi que son dmarrage. 4 5 6 7 Le BIOS dmarre le priphrique de dmarrage. Le VMkernel commence le chargement et reprend l'opration de dmarrage. Le VMkernel utilise les paramtres de dmarrage depuis l'iBFT pour se connecter la cible iSCSI. Une fois la connexion iSCSI tablie, le systme dmarre.

106

VMware, Inc.

Chapitre 11 Dmarrage partir du SAN iSCSI

Considrations sur iBFT iSCSI Boot


Si vous dmarrez l'hte ESXi partir de iSCSI en utilisant les adaptateurs rseau iBFT, certaines considrations s'appliquent. iBFT iSCSI Boot ne prend pas en charge les lments suivants :
n n

IPv6 Basculement sur les adaptateurs rseau iBFT

REMARQUE Actualisez le code de dmarrage de vos adaptateurs rseau et le microprogramme iBFT en utilisant les outils du fournisseur avant d'installer et de dmarrer la version VMwareESXi. Consultez la documentation du fournisseur et le guide VMware HCL pour connatre le code de dmarrage pris en charge et les versions de microprogramme iBFT pour le dmarrage VMware ESXi iBFT. Il se peut que le code de dmarrage et le microprogramme iBFT publis par les fournisseurs avant la version ESXi 4.1 ne fonctionnent pas. Une fois votre hte configur pour qu'il dmarre depuis iBFT iSCSI, les restrictions suivantes s'appliquent :
n

Vous ne pouvez pas dsactiver l'adaptateur logiciel iSCSI. Si la configuration iBFT est prsente dans le BIOS, l'hte ractive l'adaptateur logiciel iSCSI lors de chaque redmarrage. REMARQUE Si vous n'utilisez pas l'adaptateur rseau iBFT pour le dmarrage iSCSI et ne voulez pas que l'adaptateur iSCSI logiciel soit toujours activ, supprimez la configuration iBFT de l'adaptateur rseau.

Vous ne pouvez pas supprimer la cible de iBFT iSCSI boot en utilisant vSphere Client. La cible apparat sur la liste de cibles statiques d'adaptateurs.

Configuration du dmarrage iBFT partir du SAN


Vous pouvez dmarrer depuis le SAN iSCSI en utilisant l'adaptateur iSCSI logiciel ou un adaptateur de matriel iSCSI dpendant et un adaptateur rseau. L'adaptateur rseau doit prendre en charge l'iBFT. Lorsque vous configurez votre hte pour qu'il dmarre avec iBFT, vous effectuez plusieurs tches. 1 Configuration des paramtres de dmarrage iSCSI page 108 Pour lancer un processus de dmarrage iSCSI, votre hte doit possder une carte rseau dote d'un microprogramme de dmarrage iSCSI spcialement configur. Lorsque vous configurez le microprogramme, vous spcifiez les paramtres rseau et iSCSI et activez la carte pour le dmarrage iSCSI. 2 Modification de la squence de dmarrage dans le BIOS page 108 Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, changez la squence de dmarrage pour forcer votre hte dmarrer dans l'ordre appropri. 3 Installation de ESXi sur la cible iSCSI page 108 Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, installez l'image ESXisur le LUN cible. 4 Dmarrage de ESXi partir de la cible iSCSI page 109 Aprs avoir prpar l'hte pour un dmarrage iBFT iSCSI et copi l'image ESXi sur la cible iSCSI, procdez au dmarrage.

VMware, Inc.

107

Stockage vSphere

Configuration des paramtres de dmarrage iSCSI


Pour lancer un processus de dmarrage iSCSI, votre hte doit possder une carte rseau dote d'un microprogramme de dmarrage iSCSI spcialement configur. Lorsque vous configurez le microprogramme, vous spcifiez les paramtres rseau et iSCSI et activez la carte pour le dmarrage iSCSI. La configuration sur la carte rseau peut tre dynamique ou statique. Si vous utilisez la configuration dynamique, vous indiquez que tous les paramtres de dmarrage de la cible et de l'initiateur sont acquis l'aide de DHCP. Pour la configuration statique, vous entrez manuellement les donnes, savoir l'adresse IP de votre hte et l'initiateur IQN, et les paramtres de la cible. Procdure
u

Sur la carte rseau que vous utilisez pour le dmarrage depuis iSCSI, spcifiez les paramtres rseau et iSCSI. tant donn que la configuration de la carte rseau est propre au fournisseur, consultez la documentation correspondante pour obtenir des instructions.

Modification de la squence de dmarrage dans le BIOS


Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, changez la squence de dmarrage pour forcer votre hte dmarrer dans l'ordre appropri. Changez la squence de dmarrage du BIOS selon l'ordre suivant :
n n

iSCSI DVD-ROM

La modification de la squence de dmarrage dans le BIOS tant propre au fournisseur, reportez-vous la documentation du fournisseur pour plus d'instructions. La procdure type suivante dcrit comment changer la squence de dmarrage sur un hte Dell avec une carte rseau Broadcom. Procdure 1 2 3 4 5 6 7 Mettez l'hte sous tension. Lors du POST (Power-On Self-Test), appuyez sur F2 pour entrer dans la configuration du BIOS. Dans la configuration du BIOS, slectionnez la [Squence de dmarrage] et appuyez sur Entre. Dans le menu Squence de dmarrage, ordonnez les lments de dmarrage de faon ce que iSCSI prcde le DVD-ROM. Appuyez sur chap pour quitter le menu Squence de dmarrage. Appuyez sur chap pour quitter la Configuration du BIOS. Slectionnez [Enregistrer les changements] et cliquez sur [Quitter] pour quitter le menu Configuration du BIOS.

Installation de ESXi sur la cible iSCSI


Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, installez l'image ESXisur le LUN cible. Prrequis
n

Configurez le microprogramme iSCSI Boot sur votre carte rseau de dmarrage de faon le diriger vers le LUN cible que vous souhaitez utiliser comme LUN de dmarrage. Changez la squence de dmarrage dans le BIOS afin que iSCSI prcde le DVD-ROM. Si vous utilisez des cartes Broadcom, dfinissez [Dmarrer sur la cible iSCSI] comme [Dsactiv] .

n n

108

VMware, Inc.

Chapitre 11 Dmarrage partir du SAN iSCSI

Procdure 1 2 3 Insrez le support d'installation dans le lecteur de CD/DVD-ROM et redmarrez l'hte. Lorsque le programme d'installation dmarre, suivez la procdure d'installation type. Lorsque vous y tes invit, slectionnez le LUN iSCSI comme cible d'installation. Le programme d'installation copie l'image de dmarrage ESXi sur le LUN iSCSI. 4 Suite au redmarrage du systme, retirez le DVD d'installation.

Dmarrage de ESXi partir de la cible iSCSI


Aprs avoir prpar l'hte pour un dmarrage iBFT iSCSI et copi l'image ESXi sur la cible iSCSI, procdez au dmarrage. Prrequis
n

Configurez le microprogramme iSCSI Boot sur votre carte rseau de dmarrage de faon le diriger vers le LUN de dmarrage. Changez la squence de dmarrage dans le BIOS afin que iSCSI prcde le priphrique de dmarrage. Si vous utilisez les cartes Broadcom, dfinissez [Dmarrage vers la cible iSCSI] comme [Activ]

n n

Procdure 1 Redmarrez l'hte. L'hte dmarre partir de la LUN du logiciel iSCSI l'aide des donnes iBFT. Lors du dmarrage initial, le script d'initialisation iSCSI paramtre le rseau par dfaut. La configuration du rseau ne change pas suite aux prochains redmarrages. 2 (Facultatif) Ajustez la configuration du rseau en utilisant vSphere Client.

Meilleures pratiques de mise en rseau


Pour dmarrer l'hte ESXi partir de iSCSI en utilisant iBFT, vous devez configurer correctement la mise en rseau. Pour une scurit renforce et des performances optimales, utilisez des adaptateurs rseau redondantes sur l'hte. La manire dont vous paramtrez toutes les adaptateurs rseau dpend de l'utilisation par votre environnement de rseaux partags ou isols pour le trafic iSCSI et le trafic de gestion de l'hte.

Rseaux iSCSI et de gestion partags


Configurez la mise en rseau et les paramtres iSCSI sur la premire carte rseau sur l'hte. Une fois que l'hte a dmarr, vous pouvez ajouter des adaptateurs rseau secondaires au groupes de ports par dfaut.

Rseaux iSCSI et de gestion isols


Lorsque vous configurez des rseaux iSCSI et de gestion isols, suivez ces directives pour viter des problmes de bande passante.
n n

Vos rseaux isols doivent tre dans des sous-rseaux diffrents. Si vous utilisez des VLAN pour isoler les rseaux, ceux-ci doivent avoir des sous-rseaux diffrents afin d'assurer que les tables de routage sont paramtres correctement.

VMware, Inc.

109

Stockage vSphere

VMware recommande de configurer l'adaptateur iSCSI et la cible de faon ce qu'ils se trouvent dans le mme sous-rseau. Si vous configurez l'adaptateur iSCSI et la cible afin qu'ils se trouvent dans diffrents sous-rseaux, les restrictions suivantes s'appliquent :
n n

La passerelle VMkernel par dfaut doit pouvoir acheminer le trafic iSCSI et le trafic de gestion. Une fois que l'hte a dmarr, vous pouvez utiliser l'adaptateur rseau iBFT uniquement pour iBFT. Vous ne pouvez pas utiliser l'adaptateur pour tout autre trafic iSCSI.

n n n

Utilisez la premire carte rseau physique pour le rseau de gestion. Utilisez la deuxime carte rseau physique pour le rseau iSCSI. Assurez-vous d'avoir configur l'iBFT. Une fois que l'hte a dmarr, vous pouvez ajouter des adaptateurs rseau secondaires aux rseaux de gestion et rseaux iSCSI.

Modification des paramtres iBFT iSCSI Boot


Si les paramtres, tels que le nom IQN, l'adresse IP et autres, changent sur le stockage du logiciel iSCSI ou sur votre hte, mettez niveau l'iBFT. Cette tche suppose que la LUN de dmarrage et les donnes stockes sur la LUN demeurent intactes. Procdure 1 2 3 4 Arrtez l'hte ESXi. Changez les paramtres de stockage iSCSI. Mettez niveau l'iBFT sur l'hte avec les nouveaux paramtres. Redmarrez l'hte. L'hte dmarre en utilisant les nouvelles informations stockes dans l'iBFT.

Dpannage de iBFT iSCSI Boot


Les rubriques dans cette section vous permettent d'identifier et de rsoudre les problmes que vous pourriez rencontrez lors de l'utilisation de iBFT iSCSI Boot.

La perte de passerelle du systme provoque la perte de connectivit du rseau


Vous perdez la connectivit du rseau lorsque vous supprimez un groupe de ports associ la carte rseau iBFT. Problme Une perte de connectivit se produit suite une suppression d'un groupe de ports. Cause Lorsque vous spcifiez une passerelle dans l'adaptateur rseau iBFT lors de l'installation ESXi, cette passerelle devient la passerelle par dfaut du systme. Si vous supprimez le groupe de ports associ la carte rseau, la passerelle par dfaut du systme est perdue. Cette action provoque la perte de connectivit du rseau. Solution Ne dfinissez pas une passerelle iBFT sauf si elle est requise. Si la passerelle est requise, aprs l'installation, dfinissez manuellement la passerelle par dfaut du systme celle utilise par le rseau de gestion.

110

VMware, Inc.

Chapitre 11 Dmarrage partir du SAN iSCSI

La modification des paramtres de dmarrage du systme iSCSI fait dmarrer ESXi en mode sans tat
La modification des paramtres de dmarrage iSCSI sur la carte rseau aprs le dmarrage initial ne met pas jour la configuration iSCSI et du rseau sur l'hte ESXi . Problme Si vous changez les paramtres de dmarrage iSCSI sur la carte rseau aprs le premier dmarrage de ESXi depuis iSCSI, l'hte dmarrera en mode sans tat. Cause Le microprogramme utilise la configuration de dmarrage mise jour et peut se connecter la cible iSCSI et tlcharger l'image ESXi. Toutefois, lorsque le systme est charg, il ne capte pas les nouveaux paramtres, mais continue utiliser les paramtres rseau et iSCSI persistants du dmarrage prcdent. L'hte ne peut donc pas se connecter la cible et dmarre en mode sans tat. Solution 1 2 3 Utilisez vSphere Client pour la connexion l'hte ESXi. Reconfigurez iSCSI et la mise en rseau sur l'hte de faon faire correspondre les paramtres aux paramtres iBFT. Effectuez une nouvelle analyse.

Collecte des informations de diagnostic


Si vous dmarrez partir de SAN en utilisant iBFT et si votre hte ESXi n'a pas de partition locale de diagnostic, vous devez configurer vSphere Management Assistant (vMA) pour collecter les informations de diagnostic partir de votre hte et les stocker en vue d'une analyse. Si votre hte ESXi connat de graves problmes, il cre un fichier avec les informations de diagnostic qui peuvent tre analyses ultrieurement pour dterminer la cause des problmes. Vous configurez votre hte de faon ce qu'il serve de client net dump qui transfre le fichier de diagnostic par le rseau. vMA fait office de serveur net dump qui collecte les informations de diagnostic et les enregistre dans /var/core sur le serveur. Lorsque vous configurez l'environnement net dump, suivez ces directives :
n n

N'installez pas vMA sur le mme hte physique que celui sur lequel vous configurez le client net dump. Si vous avez de multiples htes ESXi qui ncessitent la configuration net dump, configurez chaque hte sparment. Une instance vMA est suffisante pour la collecte des fichiers de vidage mmoire partir de multiples htes ESXi.

Configuration de vSphere Management Assistant


vSphere Management Assistant (vMA) est une machine virtuelle que vous configurez de faon ce qu'elle serve de serveur net dump qui collecte des informations de diagnostic de votre hte ESXi. Prrequis Dployez et configurez vMA sur un serveur physique diffrent du serveur sur lequel vous configurez le client net dump. Pour plus d'informations, consultez le Guide de l'Assistant de gestion de vSphere. Procdure 1 Connectez-vous vMA en tant qu'administrateur.

VMware, Inc.

111

Stockage vSphere

Activez le serveur net dump sur vMA.


# sudo chkconfig vmware-netdumper on

Dmarrez le serveur net dump.


# sudo/etc/init.d/vmware-netdumper start # sudo lokkit --quiet --port=6500:udp

Configuration de l'hte ESXi


Utilisez vSphere CLI pour configurer l'hte ESXide faon ce qu'il serve de client net dump qui transfre les informations de diagnostic par le rseau. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Configurez vMA en tant que serveur net dump et obtenez son adresse IP. Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure 1 Entrez l'adresse IP de l'hte ESXi.
# esxcli --server=server_name system settings advanced -s IP_address /Net/NetdumpVmkIP

Spcifiez la carte rseau utiliser.


# esxcli --server=server_name system settings advanced -s vmnic /Net/NetdumpVmkNic

Spcifiez le groupe de ports attach la carte rseau.


# esxcli --server=server_name system settings advanced -s portgroup /Net/NetdumpVmkPG

Spcifiez l'adresse IP du serveur net dump.


# esxcli --server=server_name system settings advanced s IP_address_netdump /Net/NetdumpServerIP

(Facultatif) Entrez l'adresse IP de la passerelle pour accder au serveur net dump.


# esxcli --server=server_name system settings advanced s IP_address_gateway /Net/NetdumpServerGateway

112

VMware, Inc.

Meilleures pratiques pour le stockage iSCSI

12

Lorsque vous utilisez ESXi avec le SAN iSCSI, suivez les meilleures pratiques que VMware offre pour viter des problmes. Consultez votre reprsentant de stockage pour savoir si votre systme de stockage prend en charge les fonctionnalits d'acclration matrielle API de stockage - Intgration de baie. Le cas chant, consultez la documentation du fournisseur pour plus d'informations sur le mode d'activation de la prise en charge de l'acclration matrielle du ct du systme de stockage. Pour plus d'informations, voir Chapitre 18, Acclration matrielle du stockage , page 187. Ce chapitre aborde les rubriques suivantes :
n n n n

Prvention des problmes de iSCSI SAN , page 113 Optimisation des performances du stockage SAN iSCSI , page 114 Consultation des statistiques des commutateurs Ethernet , page 118 Liste de vrification de la configuration du SAN iSCSI , page 118

Prvention des problmes de iSCSI SAN


Lorsque vous utilisez ESXi conjointement un SAN, vous devez suivre des directives spcifiques afin d'viter des problmes de SAN. Vous devriez observer ces conseils, afin d'viter des problmes dans votre configuration SAN :
n

Placez une seule banque de donnes VMFS sur chaque LUN. Avoir plusieurs banques de donnes VMFS sur un seul LUN n'est pas recommand. Ne changez pas la politique de chemin que le systme dfinit, sauf si vous comprenez les implications de tels changements. Documentez tout ce que vous faites. Incluez des informations sur la configuration, le contrle d'accs, le stockage, le commutateur, le serveur et la configuration HBA iSCSI, les versions de logiciel et microprogramme, et le plan des cbles de stockage. Plan en cas de panne :
n

Fates plusieurs copies de vos mappages topologiques. Pour chaque lment, envisagez les consquences sur votre SAN si cet lment tombe en panne. Rayez chaque lien, commutateurs, HBA et autres lments pour vrifier que vous n'avez omis aucun point de panne critique dans votre architecture.

Assurez-vous que les HBA iSCSI sont installs dans les slots corrects de l'hte ESXi selon la vitesse du slot et du bus. quilibrez la charge de bus PCI entre les divers bus du serveur.

VMware, Inc.

113

Stockage vSphere

Familiarisez-vous avec les diffrents points de contrle de votre rseau de stockage, sur tous les points de visibilit, y compris l'ESXi, les graphiques de performance, les statistiques des commutateurs FC et des performances de stockage. Soyez prudent lorsque vous modifiez les ID des LUN qui prennent en charge des banques de donnes en cours d'utilisation par votre hte. Si vous modifiez les ID, ces machines virtuelles en fonction sur les banque de donnes VMFS tomberont en panne. Si aucune machine virtuelle ne se trouve en fonction sur la banque de donnes VMFS, aprs avoir modifi l'ID du LUN vous devez ranalyser pour rinitialiser l'ID de votre hte. Pour plus d'informations sur l'utilisation de la ranalyse, consultez Ranalyse du stockage , page 134.

Si vous devez changer le nom iSCSI par dfaut de votre adaptateur iSCSI, assurez-vous que le nom que vous entrez est unique mondialement et correctement format. Pour viter des problmes d'accs de stockage, n'attribuez jamais le mme nom iSCSI diffrents adaptateurs, mme sur diffrents htes.

Optimisation des performances du stockage SAN iSCSI


Plusieurs facteurs contribuent l'optimisation d'un environnement SAN classique. Si l'environnement de rseau est correctement configur, les composants iSCSI fournissent un dbit adquat et une latence suffisamment basse pour les initiateurs et les cibles iSCSI. Si le rseau est congestionn et les liens, commutateurs et routeurs sont saturs, la performance iSCSI en souffre et risque de ne plus convenir un environnement ESXi.

Performances des systmes de stockage


Les performances des systmes de stockage sont l'un des principaux facteurs contribuant aux performances de la totalit de l'environnement iSCSI. En cas de problme de performances des systmes de stockage, consultez la documentation de votre diteur de systmes de stockage. Lors de l'attribution des LUN, souvenez-vous que chaque LUN partag est accessible par plusieurs htes et que plusieurs machines virtuelles peuvent excuter sur chaque hte. Un LUN utilis par l'hte ESXi peut servir des E/S provenant d'applications trs varies et excutes sur diffrents systmes d'exploitation. En raison de ces charges de travail trs varies, le groupe RAID contenant les LUN ESXi ne doit pas inclure de LUN utiliss par d'autres htes qui n'excutent pas ESXi pour les applications intensives. Activez le cache de lecture et le cache d'criture. L'quilibrage de charge est le processus distribution des requtes d'E/S serveur sur tous les SP disponibles et les chemins d'accs au serveur d'hte associ. Le but est d'optimiser les performances en termes de dbit (E/S par seconde, mga-octets par seconde ou temps de rponse). Les systmes de stockage SAN ncessitent des modifications et des ajustements permanents pour s'assurer que les charges d'E/S sont rparties sur tous les chemins d'accs des systmes de stockage. Pour rpondre cette exigence, rpartissez les chemins d'accs vers les LUN entre tous les SP pour assurer un quilibrage de charge optimal. Une surveillance attentive permet de savoir quand il est ncessaire de rquilibrer manuellement la rpartition des LUN. L'ajustement des systmes de stockage quilibres de manire statique implique la surveillance de statistiques de performance spcifiques (nombre d'oprations d'entre-sortie par seconde, blocs par seconde et temps de rponse) et la rpartition de la charge de travail des LUN pour rpartir la charge de travail sur tous les SP.

114

VMware, Inc.

Chapitre 12 Meilleures pratiques pour le stockage iSCSI

Performances de serveur avec iSCSI


Vous devez tenir compte de diffrents facteurs pour garantir des performances optimales des serveurs. Chaque application de serveur doit avoir accs son stockage dsign aux conditions suivantes :
n n n

Vitesse d'E/S leve (nombre d'oprations d'entre-sortie par seconde) Rendement lev (mgaoctets par seconde) Latence minimale (temps de rponse)

Comme chaque application a diffrentes exigences, ces objectifs peuvent tre remplis en choisissant un groupe RAID appropri sur le systme de stockage. Pour atteindre les objectifs de performance, effectuez les tches suivantes :
n

Placez chaque LUN sur un groupe RAID qui offre les niveaux de performance ncessaires. Faites attention aux activits et l'utilisation des ressources d'autres LUN dans le groupes RAID associ. Un groupe RAID haute performance ayant un nombre excessif d'applications effectuant des E/S risque de ne pas satisfaire aux exigences de performance requises par une application excute sur l'hte ESXi. Prvoyez un nombre suffisant des adaptateurs rseau ou des adaptateurs iSCSI matriel pour autoriser un dbit maximum pour toutes les applications hberges sur le serveur pendant la priode de pointe. Une entre/sortie rpartie sur plusieurs ports prsente un dbit suprieur et moins de latence pour chaque application. Pour assurer la redondance d'iSCSI logiciel, vrifiez que l'initiateur est connect tous les adaptateurs rseau utiliss pour la connectivit iSCSI. Lors de l'allocation de groupes LUN ou RAID aux systmes ESXi, plusieurs systmes d'exploitation utilisent et partagent cette ressource. Par consquent, les performances requises de la part de chaque LUN du sous-systme de stockage peuvent tre nettement suprieures en cas d'utilisation du systme ESXi qu'avec des machines physiques. Par exemple, si vous pensez exploiter quatre applications fortes E/S, allouez quatre fois les capacits de performance aux LUN de l'ESXi. En cas d'utilisation de plusieurs systmes ESXi avec vCenter Server, les performances requises pour le sous-systme de stockage augmentent en consquence. Le nombre d'E/S en attente requises par applications excutes sur un systme ESXi doit correspondre au nombre d'E/S pouvant tre traites par le SAN.

Performances du rseau
Gnralement, un SAN consiste en un ensemble d'ordinateurs connects un ensemble de systmes de stockage par un rseau de commutateurs. Il arrive souvent que plusieurs ordinateurs accdent au mme stockage. La connexion au stockage par lien ethernet unique montre plusieurs systmes informatiques connects un systme de stockage par un commutateur ethernet. Dans cette configuration, chaque systme est connect par un lien ethernet unique au commutateur, qui est galement connect au systme de stockage par un lien ethernet unique. Dans la plupart des configurations, avec des commutateurs modernes et un trafic classique, cela ne constitue pas un problme.

VMware, Inc.

115

Stockage vSphere

Figure 12-1. Connexion au stockage par lien ethernet unique

Lorsque les systmes lisent les donnes du stockage, la rponse maximum du stockage consiste envoyer suffisamment de donnes pour remplir le lien entre les systmes de stockage et le swicth ethernet. Il est peu probable qu'un systme ou machine virtuelle seuls exploite totalement la vitesse du rseau, mais cependant cette situation peut survenir lorsque de nombreux systmes partage un mme priphrique de stockage. Lorsqu'ils crivent des donnes sur le stockage, des systmes ou machines virtuelles multiples peuvent tenter d'exploiter totalement la vitesse de leurs liens. Comme l'illustration Paquets abandonns le montre lorsque cela survient, le commutateur entre les systmes et le systme de stockage se trouvent contraints d'abandonner des donnes. En effet, bien que sa connexion au systme de stockage soit unique, le commutateur a plus de trafic envoyer au systme de stockage qu'un seul lien peut en prend en charger. Dans ce cas, le commutateur abandonne des paquets rseau parce que la quantit de donnes qu'il peut transmettre est limite par la vitesse du lien entre lui et le systme de stockage. Figure 12-2. Paquets abandonns
1 Gbit 1 Gbit

1 Gbit paquets abandonns

La restauration de paquets rseau abandonns provoque une forte dtrioration des performances. En plus du temps pass dterminer quelles donnes ont t abandonnes, leur retransmission utilise la bande passante qui pourrait autrement servir aux transactions actuelles. Le trafic iSCSI est assur sur le rseau par le protocole de contrle de transmission TCP. TCP est un protocole de transmission fiable, qui veille ce que les paquets abandonns soient reprsents, et enfin atteignent leur destination. TCP est conu pour restaurer les paquets abandonns, et les retransmettre rapidement et sans coupure. Toutefois, lorsque le commutateur abandonne des paquets rgulirement, la performance rseau peut en souffrir nettement. Le rseau est alors congestionn par les requtes de rexpdition de donnes en plus des paquets renvoys, ce qui permet de transmettre moins de donnes que dans un rseau non congestionn. La plupart des commutateurs ethernet peuvent conserver en mmoire tampon ou stocker les donnes et attribuer chaque priphrique tentant d'envoyer des donnes une chance gale de joindre la destination. Cette capacit conserver en mmoire tampon certaines transmissions, combine avec plusieurs systmes limitant le nombre de commandes en suspend, permet de petites rafales de plusieurs systmes d'tre achemins leur tour vers un systme de stockage.

116

VMware, Inc.

Chapitre 12 Meilleures pratiques pour le stockage iSCSI

Si les transactions sont volumineuses et que de nombreux serveurs tentent d'envoyer des donnes par un port de commutation unique, la capacit de ce commutateur conserver en mmoire tampon une requte pendant qu'il en traite une autre peut se retrouver dpasse. Dans un tel cas, le swicth abandonne les donnes qu'il ne peut pas envoyer, et le systme de stockage doit demander la retransmission du paquet abandonn. Par exemple, si un commutateur ethernet peut placer en tampon 32 ko sur un port d'entre, mais que le serveur auquel il est connect pense pourvoir en envoyer 256 Ko au priphrique de stockage, certaines donnes seront abandonnes. La plupart des commutateurs administrables fournissent des informations sur les paquets abandonns, qui ressemblent ceci :
*: interface is up IHQ: pkts in input hold queue OHQ: pkts in output hold queue RXBS: rx rate (bits/sec) TXBS: tx rate (bits/sec) TRTL: throttle count IQD: pkts dropped from input queue OQD: pkts dropped from output queue RXPS: rx rate (pkts/sec) TXPS: tx rate (pkts/sec)

Tableau 12-1. Exemple d'information du commutateur


Interface * GigabitEt hernet0/1 IHQ 3 IQD 9922 OHQ 0 OQD 0 RXBS 47630300 0 RXPS 62273 TXBS 47784000 0 TXPS 63677 TRTL 0

Dans cet exemple provenant d'un commutateur Cisco, la bande passante utilise est de 476303000 bits/seconde, moins de la moiti de la bande passante physique. Et malgr cela, le port plaait en mmoire tampon des paquets arrivant et en abandonnait un nombre certain. La ligne finale de ce rsum d'interface indique dans la colonne IQD que le port a dj abandonn presque 10 000 paquets arrivants. Pour viter ce problme il est ncessaire de modifier la configuration en s'assurant que plusieurs liens ethernet arrivants ne se retrouve en goulot d'tranglement sur un seul lien sortant, provoquant une surcharge du lien trop abonn. Lorsqu'un certain nombre de liens transmettant quasi saturation sont redirigs vers un plus petit nombre de liens, le surabonnement devient possible. Gnralement, les applications ou systmes qui crivent beaucoup de donnes sur le stockage, tels que l'acquisition ou les systmes de journalisation des transactions, ne doivent pas partager le mme lien vers le priphrique de stockage. Ces types d'applications sont les plus efficaces avec des connexions multiples aux priphriques de stockage. L'illustration Multiple connexions du commutateur au stockage montre des connexions multiples du commutateur au stockage. Figure 12-3. Connexions multiples du commutateur au stockage
1 Gbit 1 Gbit 1 Gbit 1 Gbit

VMware, Inc.

117

Stockage vSphere

L'utilisation de VLANs ou de VPNs n'apporte pas de solution adquate au problme du surabonnement des liens en configurations partages. Les VLANs et autres partitionnements virtuels d'un rseau fournissent une conception logique du rseau, mais ne modifient pas les capacits physiques des liens et des transmissions entre les commutateurs. Lorsque le trafic de stockage et autres trafics rseau partagent des connexions physiques, comme dans un VPN, la possibilit de surabonnement et de paquets perdus est relle. Cela est aussi vrai pour les VLANs qui partagent des transmissions intercommutateur. La conception des performances pour un SAN doit prendre en compte les limitations physiques du rseau, pas les allocations logiques.

Consultation des statistiques des commutateurs Ethernet


Souvent les commutateurs ethernet fournissent des moyens de surveiller leur bon fonctionnement. Les commutateurs dont certains ports oprent dbit maximal souvent n'assurent pas une performance optimale. Si vous avez des ports dans votre SAN iSCSI oprant presque au maximum, rduisez leur charge. Si le port est connect un systme ESXi ou un stockage iSCSI, vous pouvez rduire sa charge par quilibrage de charge manuel. Si le port est connect entre de nombreux commutateurs ou routeurs, pensez installer des liens supplmentaires entre ces composants afin de pouvoir grer une plus grande charge. Les commutateurs ethernet fournissent aussi frquemment des informations sur les erreurs de transmission, les paquets en file d'attente, et les paquets ethernet abandonns. Si le commutateur rapporte rgulirement de telles conditions pour les ports utiliss par le trafic iSCSI, la performance du SAN iSCSI sera rduite.

Liste de vrification de la configuration du SAN iSCSI


Cette rubrique vous fournit une liste de vrification des configurations spciales requises pour l'installation sur les diffrents systmes de stockage et sur les htes ESXi. Tableau 12-2. Configuration requise pour le SAN iSCSI
Composant Tous les systmes de stockage Topologie EMC Symmetrix EMC Clariion HP MSA HP EVA Commentaires Le cache en criture doit tre dsactiv s'il n'est pas soutenu par batterie. Une dfaillance unique ne peut en aucun cas entraner le basculement de HBA et de SP, tout particulirement, avec des baies de stockage actives/passives. Activez les paramtres SPC2 et SC3. Contactez EMC pour obtenir les paramtres les plus rcents. Rglez le mode de basculement de EMC Clariion sur 1 ou 4. Contactez EMC pour les dtails. Aucune configuration spcifique requise Pour la version 4.001 et suprieure du microprogramme EVA3000/5000 et pour la version 5.031 et suprieure du microprogramme EVA4000/6000/8000, dfinissez le type d'hte sur VMware. Sinon, dfinissez le type de mode de l'hte sur Custom. La valeur est :
n n

Version 3.x du microprogramme EVA3000/5000 : 000000002200282E EVA4000/6000/8000 : 000000202200083E

NetApp Dell EqualLogic

Si un de vos initiateurs iSCSI fait partie d'un groupe d'initiateurs (igroup), dsactivez ALUA sur la baie NetApp. Assurez-vous que ARP Redirect est activ sur les adaptateurs iSCSI du matriel indpendant.

118

VMware, Inc.

Chapitre 12 Meilleures pratiques pour le stockage iSCSI

Tableau 12-2. Configuration requise pour le SAN iSCSI (suite)


Composant HP StorageWorks (autrefois LeftHand) Configuration ESXi Commentaires Assurez-vous que ARP Redirect est activ sur les adaptateurs iSCSI du matriel indpendant. Dfinissez les paramtres avancs suivants pour l'hte ESXi : n Dfinissez [Disk.UseLunReset] sur [1] n Dfinissez [Disk.UseDeviceReset] sur [0] Une rgle de gestion multivoie plus rcemment utilise (Most Recently Used) doit tre dfinie pour toutes les LUN hbergeant des disques en cluster pour les baies actives/passives. Une rgle de gestion multivoie plus rcemment utilise (Most Recently Used) ou fixe (Fixed) doit tre dfinie pour toutes les LUN sur les baies actives/passives. Autorisez la redirection ARP si le systme de stockage prend en charge le basculement transparent.

VMware, Inc.

119

Stockage vSphere

120

VMware, Inc.

Utilisation des banques de donnes

13

Les banques de donnes sont des conteneurs logiques, analogues des systmes de fichiers, qui masquent les informations de chaque priphrique de stockage et fournissent un modle uniforme pour stocker des fichiers de machine virtuelle. Les banques de donnes peuvent galement tre utilises pour le stockage d'images ISO, de modles de machine virtuelle et d'images de disquette. Utilisez vSphere Client pour accder aux diffrents types de priphriques de stockage que votre hte ESXi dcouvre, et y dployer des banques de donnes. Selon le type de stockage utilis, les banques de donnes peuvent tre sauvegardes aux formats de systme de fichier suivants :
n n

Systme de fichier de la machine virtuelle (VMFS) Systme de fichier du rseau (NFS)

Aprs avoir cr des banques de donnes, vous pouvez les organiser de diffrentes manires. Par exemple, vous pouvez les regrouper dans des dossiers en fonction des pratiques professionnelles. Cette opration permet d'affecter simultanment les mmes autorisations et alarmes sur les banques de donnes d'un groupe. Vous pouvez galement ajouter des banques de donnes des clusters de banques de donnes. Un cluster de banques de donnes est un ensemble de banques de donnes avec des ressources partages et une interface de gestion partage. Lorsque vous crez un cluster de banques de donnes, vous pouvez utiliser le DRS de stockage pour grer les ressources de stockage. Pour plus d'informations sur les clusters de banques de donnes, consultez la documentation Gestion des ressources vSphere. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n

Prsentation des banques de donnes VMFS , page 122 Banques de donnes NFS , page 137 Dmonter des banques de donnes VMFS ou NFS , page 138 Renommer les banques de donnes VMFS ou NFS , page 139 Regrouper les banques de donnes VMFS ou NFS , page 139 Gestion des dconnexions de priphrique de stockage , page 140 Crer une partition de diagnostic , page 143 Configuration de la mise en miroir des disques dynamiques , page 144

VMware, Inc.

121

Stockage vSphere

Prsentation des banques de donnes VMFS


Pour stocker les disques virtuels, ESXi utilise des banques de donnes qui sont des conteneurs logiques cachant les dtails du stockage physique aux machines virtuelles et fournissant un modle uniforme pour le stockage des fichiers de machines virtuelles. Les banques de donnes que vous dployez sur les priphriques de stockage des blocs utilisent le format vSphere VMFS, un format de systme de fichiers haute performance optimis pour le stockage des machines virtuelles. Plusieurs versions du systme de fichiers VMFS ont t publies depuis son introduction. Le tableau suivant prsente les relations des versions htes VMFS. Tableau 13-1. Accs de l'hte la version VMFS
VMFS VMFS2 VMFS3 VMFS5 n Hte ESX/ESXi 3.x RO RW N Hte ESX/ESXi 4.x RO RW N Hte ESXi 5.0 N RW RW

RW : Prise en charge complte de la lecture et de l'criture. Vous pouvez crer et mettre sous tension des machines virtuelles. RO : Prise en charge de la lecture seule. Vous ne pouvez pas crer ni mettre sous tension des machines virtuelles. N : Aucun accs. ESXi 5.0 ne prend pas en charge VMFS2. Si votre banque de donnes a t formate avec VMFS2, mettez-la niveau vers VMFS5 en suivant deux tapes. Pour plus d'informations, consultez Mise niveau des banques de donnes VMFS2 vers VMFS3 , page 130.

Utilisez vSphere Client pour configurer une banque de donnes VMFS l'avance sur un priphrique de stockage bas sur des blocs que dtecte votre hte ESXi. Une banque de donnes VMFS peut tre tendue pour englober plusieurs extensions de stockage physique, y compris les LUN du SAN et le stockage local. Cette fonction vous permet de regrouper le stockage et vous assure une grande souplesse de cration de banque de donnes ncessaires vos machines virtuelles. Vous pouvez augmenter la capacit d'une banque de donnes pendant que les machines virtuelles fonctionnent sur la banque de donnes. Ainsi, vous pouvez augmenter l'espace de vos banques de donnes VMFS si votre machine virtuelle en a besoin. VMFS est conu pour un accs simultan depuis plusieurs machines physiques et met en place les contrles d'accs sur les fichiers des machines virtuelles.

Diffrences entre VMFS5 et VMFS3


VMFS5 offre de nombreuses amliorations en termes d'volutivit et de performances par rapport la version prcdente. VMFS5 offre les amliorations suivantes :
n n n n

Prise en charge de priphriques de stockage d'une taille suprieure 2 To pour chaque extension VMFS. Augmentation des limites de ressources telles que les descripteurs de fichiers. Taille de bloc du systme de fichiers standard de 1 Mo avec prise en charge des disques virtuels de 2 To. Prise en charge de disques d'une taille suprieure 2 To pour les RDM uniquement en mode de compatibilit physique. Amliorations en termes d'volutivit sur les priphriques de stockage prenant en charge l'acclration matrielle. Pour plus d'informations, consultez Chapitre 18, Acclration matrielle du stockage , page 187.

122

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Utilisation par dfaut du verrouillage par assistance matrielle, galement appel ATS (atomic test and set), sur les priphriques de stockage prenant en charge l'acclration matrielle. Pour plus d'informations sur la dsactivation du verrouillage ATS, consultez Dsactivation du verrouillage ATS , page 136. Capacit rcuprer un espace de stockage physique sur des priphriques de stockage allocation dynamique. Pour plus d'informations, consultez Allocation dynamique des baies et banques de donnes VMFS , page 203. Processus de mise niveau sur place en ligne qui procde la mise niveau des banques de donnes existantes sans perturber les htes ou les machines virtuelles qui fonctionnent actuellement.

Formats de banques de donnes VMFS et de disque de stockage


Les priphriques de stockage que votre hte prend en charge peuvent utiliser le format MBR (Master Boot Record) ou le format GPT (GUID partition table). Avec ESXi 5.0, si vous crez une nouvelle banque de donnes VMFS5, le priphrique est format avec le format GPT. Le format GPT vous permet de crer des banques de donnes d'une taille suprieure 2 To et pouvant atteindre 64 To. Les banques de donnes VMFS3 continuent d'utiliser le format MBR pour leurs priphriques de stockage. Lorsque vous travaillez avec des banques de donnes VMFS3, tenez compte des points suivants :
n

Pour les banques de donnes VMFS3, la limite de 2 To s'applique toujours, mme lorsque le priphrique de stockage possde une capacit suprieure 2 To. Pour pouvoir utiliser l'espace de stockage total, mettez niveau une banque de donnes VMFS3 vers VMFS5. La conversion vers le format MBR survient uniquement lorsque vous agrandissez la banque de donnes. Lorsque vous mettez niveau une banque de donnes VMFS3 vers VMFS5, tous les domaines tendus sont au format GPT. Lorsque vous mettez niveau une banque de donnes VMFS3, supprimez du priphrique de stockage les partitions qu'ESXi ne reconnat pas, par exemple, les partitions qui utilisent les formats EXT2 ou EXT3. Autrement, l'hte ne peut formater le priphrique avec GPT et la mise jour est un chec. Vous ne pouvez pas agrandir une banque de donnes VMFS3 sur des priphriques qui disposent du format de partition GPT.

Banques de donnes VMFS comme rfrentiel


ESXi peut formater des priphriques de stockage SCSI tels que des banques de donnes VMFS. Les banques de donnes VMFS servent principalement de rfrentiel aux machines virtuelles. Vous pouvez stocker plusieurs machines virtuelles sur le mme volume VMFS. Chaque machine virtuelle, encapsule dans un ensemble de fichier, occupe un rpertoire unique et distinct. Pour le systme d'exploitation au sein de la machine virtuelle, VMFS conserve la smantique du systme de fichiers interne, qui garantit un comportement d'application adquat et une intgrit des donnes pour les applications s'excutant dans les machines virtuelles. Lorsque vous excutez plusieurs machines virtuelles, VMFS offre des mcanismes de verrouillage spcifiques des fichiers de machines virtuelles afin de permettre aux machines virtuelles de fonctionner en toute scurit dans un environnement SAN au sein duquel plusieurs htes ESXi partagent la mme banque de donnes VMFS. Outre les machines virtuelles, les banques de donnes VMFS peuvent stocker d'autres fichiers, tels que des modles de machine virtuelles et des images ISO.

VMware, Inc.

123

Stockage vSphere

Partager une banque de donnes VMFS entre des htes


En tant que systme de fichiers en cluster, VMFS permet plusieurs htes ESXi d'accder simultanment la mme banque de donnes VMFS. Vous pouvez connecter jusqu' 128 htes une banque de donnes VMFS. Figure 13-1. Partager une banque de donnes VMFS entre des htes
hte A hte B hte C

VM1

VM2

VM3

Volume VMFS disque 1 virtuel disque disque 2 fichiers disque 3

Pour garantir que plusieurs serveurs n'accdent pas la mme machine virtuelle simultanment, VMFS fournit un verrouillage sur disque. Le partage du mme volume VMFS entre plusieurs htes offre les avantages suivants :
n

Vous pouvez utiliser VMware Distributed Resource Scheduling (DRS) et VMware High Availability (HA). Vous pouvez distribuer des machines virtuelles travers diffrents serveurs physiques. Cela signifie que vous excutez un mlange de machines virtuelles sur chaque serveur de sorte qu'il ne reoive pas de demandes trop importantes dans la mme zone, simultanment. Si un serveur choue, vous pouvez redmarrer les machines virtuelles sur un autre serveur physique. En cas de dfaillance, le verrouillage sur disque pour chaque machine virtuelle s'active. Pour plus d'informations sur VMware DRS, consultez la documentation Gestion des ressources vSphere. Pour plus d'informations sur VMware HA, consultez la documentation Disponibilit vSphere.

Vous pouvez utiliser vMotion pour migrer des machines virtuelles en cours d'excution depuis un serveur physique vers un autre. Pour prendre en charge vMotion entre ESXi 5 et des htes de version 3.x ou 4.x, les machines virtuelles doivent se trouver sur des volumes VMFS3. Pour plus d'informations sur la migration des machines virtuelles, consultez la documentation Gestion de vCenter Server et des htes.

Mises jour des mtadonnes VMFS


Une banque de donnes VMFS contient, entre autres, les fichiers, les rpertoires, les liens symboliques, les fichiers descripteurs RDM des machines virtuelles. La banque de donnes maintient galement une vue cohrente de toutes les informations de mappage pour ces objets. Ces informations de mappage sont appeles mtadonnes. Les mtadonnes sont mises jour chaque fois que vous ralisez des oprations de gestion de banque de donnes ou de machine virtuelle Exemples d'oprations ncessitant une mise jour des mtadonnes :
n n n n

Cration, agrandissement ou verrouillage d'un fichier de la machine virtuelle Modification des attributs d'un fichier Dmarrage ou arrt d'une machine virtuelle Cration ou suppression d'une banque de donnes VMFS

124

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

n n n n

Dveloppement d'une banque de donnes VMFS Cration d'un modle Dploiement d'une machine virtuelle partir d'un modle Migration d'une machine virtuelle avec vMotion

Lorsque des modifications sont apportes aux mtadonnes dans un environnement de stockage partag, VMFS utilise des mcanismes de verrouillage spciaux pour protger ses donnes et empcher plusieurs htes d'crire simultanment sur les mtadonnes.

Mcanismes de verrouillage VMFS


Dans un environnement de stockage partag, lorsque plusieurs htes accdent la mme banque de donnes VMFS, des mcanismes de verrouillage spcifiques sont utiliss. Ces mcanismes de verrouillage empchent plusieurs htes d'crire simultanment sur les mtadonnes et vitent la corruption des donnes. VMFS prend en charge les rservations SCSI et le verrouillage ATS (atomic test and set).

Rservations SCSI
VMFS utilise les rservations SCSI sur les priphriques de stockage qui ne prennent pas en charge l'acclration matrielle. Lors de la ralisation d'une opration ncessitant une protection des mtadonnes, les rservations SCSI verrouillent l'intgralit d'un priphrique de stockage. Une fois l'opration termine, VMFS libre la rservation et les autres oprations peuvent se poursuivre. Ce verrouillage tant exclusif, les rservations SCSI excessives d'un hte peuvent provoquer une dgradation de la performance des autres htes accdant au mme VMFS. Pour plus d'informations sur la rduction des rservations SCSI, consultez la documentation Dpannage vSphere.

ATS (atomic test and set)


Pour les priphriques de stockage prenant en charge l'acclration matrielle, VMFS utilise l'algorithme ATS, galement connu sous le nom de verrouillage par assistance matrielle. Contrairement aux rservations SCSI, ATS prend en charge un verrouillage discret par secteur de disque. Pour plus d'informations sur l'acclration matrielle, consultez Chapitre 18, Acclration matrielle du stockage , page 187. Les mcanismes utiliss par VMFS pour appliquer diffrents types de verrouillage dpendent de la version VMFS. Tableau 13-2. Utilisation du verrouillage ATS sur des priphriques de stockage prenant en charge
Priphriques de stockage Extension unique Nouvelle banque de donnes VMFS5 ATS uniquement Banque de donnes VMFS5 mise niveau ATS, mais possibilit de rtablir des rservations SCSI ATS, except lors du verrouillage d'un lment non principal Banque de donnes VMFS3 ATS, mais possibilit de rtablir des rservations SCSI ATS, except lors du verrouillage d'un lment non principal

Plusieurs extensions

S'tend uniquement sur des priphriques compatibles ATS

Dans certains cas, il est possible que vous deviez dsactiver le paramtre ATS uniquement pour une nouvelle banque de donnes VMFS5. Pour plus d'informations, consultez Dsactivation du verrouillage ATS , page 136.

VMware, Inc.

125

Stockage vSphere

Cration et agrandissement des banques de donnes VMFS


Vous pouvez configurer des banques de donnes VMFS sur des priphriques de stockage SCSI que votre hte ESXi dcouvre. Grce VMFS5, vous pouvez possder jusqu' 256 banques de donnes VMFS par hte, d'une taille maximale de 64 To. La taille maximale requise pour une banque de donnes VMFS est de 1,3 Go. Cependant, la taille minimale recommande est de 2 Go. REMARQUE Ayez toujours une seule banque de donnes VMFS par LUN. Si votre banque de donnes VMFS requiert plus d'espace, vous pouvez augmenter le volume VMFS. Vous pouvez dynamiquement ajouter de nouvelles extensions une banque de donnes VMFS. Une extension est une partition sur un priphrique de stockage physique. La banque de donnes peut s'tendre sur 32 extensions maximum, la taille de chacune des extensions dpassant les 2 To. Cependant, la banque de donnes apparat en tant que volume unique. REMARQUE Les banques de donnes exclusivement ATS ne peuvent s'tendre sur des priphriques non ATS. Une autre option consiste agrandir la banque de donnes existante si le priphrique de stockage o rside votre banque de donnes dispose d'espace libre.

Crer une banque de donnes VMFS


Les banques de donnes VMFS servent de rfrentiel aux machines virtuelles. Vous pouvez configurer des banques de donnes VMFS sur tous les priphriques de stockage bass sur SCSI que l'hte dtecte, y compris Fibre Channel, iSCSI et les priphriques de stockage locaux. Prrequis Avant de crer des banques de donnes, vous devez installer et configurer toutes les cartes dont votre stockage a besoin. Ranalysez les cartes pour dtecter les priphriques de stockage nouvellement ajouts. Procdure 1 2 3 4 5 Ouvrez une session sur vSphere Client et slectionnez l'hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [banques de donnes] et cliquez sur [Ajouter stockage] . Slectionnez le type de stockage [Disque/LUN] et cliquez sur [Suivant] . Slectionnez un priphrique utiliser pour votre banque de donnes et cliquez sur [Suivant] . IMPORTANT Slectionnez le priphrique sans nom banque de donnes affich dans la colonne VMFS Label. Si un nom est prsent, le priphrique contient une copie d'une banque de donnes VMFS existante. 6 Slectionnez la [Version de systme de fichiers] et cliquez sur [Suivant] . IMPORTANT Si vous slectionnez VMFS-3, vous devez slectionner la taille de fichier maximale sous [Formatage] .

126

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Si le disque n'est pas vierge, passez en revue la disposition actuelle de disque dans le panneau suprieur de la page Disposition actuelle du disque et slectionnez une option de configuration dans le panneau infrieur.
Option Utilisez toutes les partitions disponibles Utilisez l'espace libre Description Ddie la totalit du disque une seule banque de donnes VMFS. Si vous slectionnez cette option, tous les systmes de fichiers et donnes stocks actuellement sur ce priphrique sont dtruits. Dploie une banque de donnes VMFS dans l'espace libre restant du disque.

Si le disque que vous formatez est vierge, la page [Disposition actuelle du disque] prsente la totalit de l'espace disque pour la configuration du stockage. 8 9 10 Cliquez sur [Suivant] . Dans la page [Proprits] , tapez le nom d'une banque de donnes et cliquez sur [Suivant] . Si vous jugez que l'espace dfini pour le stockage est excessif, vous pouvez ajuster les valeurs de capacit. Par dfaut, l'espace libre entier sur le priphrique de stockage est disponible. 11 12 Cliquez sur [Suivant] . Sur la page Prt Terminer, passez en revue les informations de configuration de banque de donnes et cliquez sur [Terminer] .

Une banque de donnes sur le priphrique de stockage bas sur SCSI est cre. Si vous utilisez le systme vCenter Server pour grer les htes, la nouvelle banque de donnes cre est ajoute tous les htes.

Modification des proprits de la banque de donnes VMFS


Aprs avoir cr une banque de donnes VMFS, vous pouvez modifier ses proprits en utilisant la bote de dialogue Proprits banque de donnes. Selon que votre vSphere Client est connect un systme vCenter Server ou directement un hte, vous pouvez accder la bote de dialogue Proprits banque de donnes de diffrentes manires. Tableau 13-3. Accs la bote de dialogue Proprits banque de donnes
Point de connexion vCenter Server Actions 1 2 vCenter Server ou hte ESXi 1 2 Slectionnez [Afficher] > [Inventaire] > [Banques de donnes et clusters de banques de donnes] . Slectionnez la banque de donnes dans l'inventaire et cliquez sur [Configuration] > [Proprits] . Slectionnez un hte dans l'inventaire, cliquez sur l'onglet [Configuration] puis sur [Stockage] . Dans la vue banques de donnes, slectionnez la banque de donnes modifier et cliquez sur [Proprits] .

VMware, Inc.

127

Stockage vSphere

Augmenter une banque de donnes VMFS


Lorsque vous devez crer des machines virtuelles dans une banque de donnes ou que les machines virtuelles excutes dans une banque de donnes ncessitent plus d'espace, vous pouvez augmenter dynamiquement la capacit d'une banque de donnes VMFS. Pour augmenter la capacit d'une banque de donnes VMFS, procdez de l'une des manires suivantes :
n

Ajoutez une nouvelle extension. Une extension est une partition sur un priphrique de stockage. Vous pouvez ajouter jusqu' 32 extensions du mme type de stockage dans une banque de donnes VMFS existante. La banque de donnes VMFS tendue peut utiliser n'importe laquelle de ses extensions ou toutes ses extensions tout moment. Elle ne doit pas ncessairement remplir une extension spcifique avant d'utiliser la suivante. Augmentez une extension dans une banque de donnes VMFS existante, afin qu'elle remplisse la capacit adjacente disponible. Seules les extensions avec de l'espace libre juste aprs eux sont extensibles.

REMARQUE Si une banque de donnes partage dispose de machines virtuelles sous tension et qu'elle est remplie compltement, vous pouvez augmenter la capacit de la banque de donnes uniquement partir de l'hte dans lequel les machines virtuelles sous tension sont enregistres. Prrequis Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage Procdure 1 2 3 4 5 Connectez-vous au vSphere Client et slectionnez un hte dans le panneau de l'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] . Dans la vue banques de donnes, slectionnez la banque de donnes augmenter et cliquez sur [Proprits] . Cliquez sur [Augmenter] . Slectionnez un priphrique de la liste des priphriques de stockage et cliquez sur [Suivant] .
Option Ajoutez une nouvelle extension. Pour agrandir une extension existante. Description Slectionnez le priphrique dont la colonne Extensible contient la valeur Non. Slectionnez le priphrique dont la colonne Extensible contient la valeur Oui.

6 7

Vrifiez la [Disposition actuelle du disque] pour identifier les configurations disponibles et cliquez sur [Suivant] . Slectionnez une option de configuration dans le panneau du bas. Selon la disposition actuelle du disque et vos slections prcdentes, les options que vous voyez pourraient varier.
Option Utilisez l'espace libre pour ajouter la nouvelle extension Utilisez l'espace libre pour largir l'extension existante Description Ajoute de l'espace libre sur ce disque comme nouvelle extension. Une extension existante est agrandie par rapport la capacit requise.

128

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Option Utilisez l'espace libre Utilisez toutes les partitions disponibles

Description Dploie une extension dans l'espace libre restant du disque. Cette option est disponible uniquement lorsque vous ajoutez une extension. Ddie la totalit du disque une seule extension. Cette option est disponible uniquement lorsque vous ajoutez une extension et que le disque que vous formatez n'est pas vierge. Le disque est reformat et les banques de donnes et toutes les donnes qu'elles contiennent sont effaces.

Dfinissez la capacit de l'extension. La taille d'extension minimale est 1,3 GB. Par dfaut, l'espace libre entier sur le priphrique de stockage est disponible.

9 10

Cliquez sur [Suivant] . Passez en revue la disposition propose et la nouvelle configuration de votre banque de donnes et cliquez sur [Terminer] .

Suivant Aprs avoir augment une extension dans une banque de donnes VMFS partage, actualisez la banque de donnes sur chaque hte pouvant y accder afin que vSphere Client puisse afficher la capacit correcte de la banque de donnes pour tous les htes.

Mise niveau des banques de donnes VMFS


Si vos banques de donnes ont t formates avec VMFS2 ou VMFS3, vous pouvez les mettre niveau vers VMFS5. Lorsque vous effectuez des mises niveau de banque de donnes, prenez en compte les points suivants :
n

Pour mettre niveau une banque de donnes VMFS2, vous devez suivre deux tapes qui impliquent la mise niveau de VMFS2 vers VMFS3. tant donn que les htes ESXi 5.0 ne peuvent accder aux banques de donnes VMFS2, utilisez un hte hrit, ESX/ESXi 4.x ou ultrieur, pour accder la banque de donnes VMFS2 et procdez la mise niveau de la banque de donnes VMFS2 vers VMFS3. Une fois que vous avez mis niveau la banque de donnes VMFS2 vers VMFS3, celle-ci devient disponible sur l'hte ESXi 5.0 o vous terminez le processus de mise jour vers VMFS5.

Quand vous mettez niveau votre banque de donnes, le mcanisme de verrouillage de fichier ESXi empche tout hte distant ou processus local d'accder la banque de donnes VMFS en cours de conversion. Votre hte prserve tous les fichiers sur la banque de donnes. La mise niveau de banque de donnes est un processus unilatral. Une fois la banque de donnes mise niveau, vous ne pouvez pas revenir l'ancien format VMFS.

Une banque de donnes VMFS5 mise niveau est diffrent d'une banque de donnes VMFS5 formate. Tableau 13-4. Comparaison d'une banque de donnes VMFS5 mise niveau et d'une banque de donnes VMFS5 formate
Caractristiques Taille de bloc de fichier Taille de sous-bloc Format de partition Banque de donnes VMFS5 mise niveau 1, 2, 4 et 8 Mo 64 Ko MBR. La conversion vers GPT survient uniquement lorsque vous agrandissez la banque de donnes Conserve les limites d'une banque de donnes VMFS3. Banque de donnes VMFS5 formate 1 Mo 8 Ko GPT

Limites de banque de donnes

VMware, Inc.

129

Stockage vSphere

Mise niveau des banques de donnes VMFS2 vers VMFS3


Si votre banque de donnes a t formate avec VMFS2, vous devez d'abord la mettre niveau vers VMFS3. tant donn que les htes ESXi 5.0 ne peuvent accder aux banques de donnes VMFS2, utilisez un hte hrit, ESX/ESXi 4.x ou ultrieur, pour accder la banque de donnes VMFS2 et procdez la mise niveau de la banque de donnes VMFS2 vers VMFS3. Prrequis
n

Validez ou annulez les modifications apportes aux disques virtuels de la banque de donnes VMFS2 que vous envisagez de mettre niveau. Sauvegardez la banque de donnes VMFS2. Assurez-vous qu'aucune machine virtuelle sous tension n'utilise la banque de donnes VMFS2. Vrifiez qu'aucun autre hte ESXi n'accde la banque de donnes VMFS2. Pour mettre niveau un systme de fichiers VMFS2, sa taille de bloc de fichier ne doit pas dpasser 8 Mo.

n n n n

Procdure 1 2 3 4 5 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] . Slectionnez la banque de donnes qui utilise le format VMFS2. Cliquez sur [Mettre niveau vers VMFS3] . Effectuez une nouvelle analyse de tous les htes voyant la banque de donnes.

Suivant Une fois que vous avez mis niveau la banque de donnes VMFS2 vers VMFS3, celle-ci devient disponible sur l'hte ESXi 5.0. Vous pouvez dsormais utiliser l'hte ESXi 5.0 pour terminer le processus de mise niveau vers VMFS5.

Mise niveau des banques de donnes VMFS3 vers VMFS5


VMFS5 est une nouvelle version du systme de fichiers de cluster VMware qui offre des amliorations en termes de performances et d'volutivit. Prrequis
n

Si vous utilisez une banque de donnes VMFS2, vous devez d'abord la mettre niveau vers VMFS3. Suivez les instructions indiques dans Mise niveau des banques de donnes VMFS2 vers VMFS3 , page 130. Tous les htes qui accdent la banque de donnes doivent prendre en charge VMFS5. Vrifiez que le volume qui doit tre mis niveau dispose d'au moins 2 Mo et d'un descripteur de fichier libre.

n n

Procdure 1 2 3 4 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] . Slectionnez la banque de donnes VMFS3. Cliquez sur [Mettre niveau vers VMFS5] . Un avertissement concernant le support de version hte s'affiche.

130

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Cliquez sur [OK] pour dmarrer la mise niveau. La tche Upgrade VMFS apparat dans la liste [Tches rcentes] .

Effectuez une nouvelle analyse sur tous les htes associs la banque de donnes.

Administration des banques de donnes VMFS dupliques


Lorsqu'un priphrique de stockage contient une copie de banque de donnes VMFS, vous pouvez monter la banque de donnes avec sa signature existante ou lui assigner une nouvelle signature. Chaque banque de donnes VMFS cre dans un disque de stockage a un UUID unique qui est stock dans le super-bloc de systme de fichiers. Lorsque le disque de stockage est captur ou reproduit, la copie rsultante du disque est identique, octet par octet, au disque d'origine. En consquence, si le disque de stockage d'origine contient une banque de donnes VMFS avec UUID X, la copie du disque semble contenir une banque de donnes VMFS identique ou une copie de la banque de donnes VMFS, avec exactement le mme UUID X. ESXi peut dtecter la copie de la banque de donnes VMFS et l'afficher dans le vSphere Client. Vous pouvez monter la copie de la banque de donnes VMFS avec son UUID d'origine ou changer l'UUID par une nouvelle signature de la banque de donnes. Outre la capture et la duplication de LUN, les oprations du dispositif de stockage pourraient amener l'ESXi indiquer que la banque de donnes existante sur le priphrique est une copie de la banque de donnes d'origine :
n n n

Changements d'ID de LUN Changements du type de priphrique SCSI, par exemple, de SCSI-2 SCSI-3 activation de la conformit SPC-2

Montage d'une banque de donnes VMFS avec une signature existante


Si vous n'avez pas re-signer la copie d'une banque de donnes VMFS, vous pouvez la monter sans changer sa signature. Vous pouvez conserver la signature si, par exemple, vous maintenez des copies synchronises de machines virtuelles sur un site secondaire, dans le contexte d'un plan de rcupration aprs sinistre. En cas de sinistre sur le site primaire, vous pouvez monter la copie de banque de donnes et dmarrer les machines virtuelles sur le site secondaire. IMPORTANT Vous ne pouvez monter une copie banque de donnes VMFS que si elle ne se heurte pas une banque de donnes VMFS dj monte avec la mme UUID. Pour monter la copie, la banque de donnes VMFS d'origine doit tre hors-ligne. Lorsque vous montez la banque de donnes VMFS, ESXi autorise un accs la fois en criture et en lecture la banque de donnes rsidant sur la copie de LUN. La copie de LUN doit tre autorise en criture. Les montages de banques de donnes sont persistants et restent valides aprs le redmarrage du systme. Prrequis Avant de monter une banque de donnes, effectuez une ranalyse de stockage de votre hte pour qu'il mette niveau son affichage des LUN qui lui sont prsents. Procdure 1 2 3 4 Connectez-vous vSphere Client et slectionnez le serveur dans le panneau de l'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [Ajouter stockage] . Slectionnez le type de stockage [Disque/LUN] et cliquez sur [Suivant] .

VMware, Inc.

131

Stockage vSphere

Dans la liste des LUN, slectionnez le LUN dont le nom de banque de donnes est affich dans la colonne tiquette VMFS et cliquez sur [Suivant] . Le nom prsent dans la colonne tiquette VMFS indique que le LUN contient une copie d'une banque de donnes VMFS existante.

6 7

Dans Options de montage, slectionnez [Garder signature existante] . Sur la page Prt terminer, passez en revue les informations de configuration de banque de donnes et cliquez sur [Terminer] .

Suivant Si vous voulez re-signer la banque de donnes monte plus tard, vous devrez d'abord la dmonter.

Re-signer la copie d'une banque de donnes VMFS


Utilisez la re-signature de banque de donnes si vous voulez conserver les donnes stockes dans la copie de banque de donnes VMFS. Lors d'une re-signature de copie VMFS, ESXi assigne une nouvelle UUID et une nouvelle tiquette la copie, et la monte en tant que banque de donnes distincte de l'original. Le format par dfaut de la nouvelle tiquette assigne la banque de donnes et snap-snapID-oldLabel, o snapID est un nombre entier et oldLabel est l'tiquette de la banque de donnes d'origine. Lorsque vous effectuez une re-signature de banque de donnes, prenez en compte les points suivants :
n n

La re-signature d'une banque de donnes est irrversible. La copie de LUN qui contient la banque de donnes VMFS pour la re-signature ne sera plus traite comme copie de LUN. Une banque de donnes parpille ne peut tre re-signe que si toutes ses parties sont en ligne. Le processus de re-signature est tolrant aux pannes et aux incidents. Si le processus est interrompu, vous pourrez le reprendre plus tard. Vous pouvez monter la nouvelle banque de donnes VMFS sans risque de collision de son UUID avec l'UUID de toute autre banque de donnes, comme un parent ou enfant dans une hirarchie de snapshots LUN.

n n

Prrequis Pour re-signer la copie d'une banque de donnes monte, vous devez d'abord le dmonter. Avant de re-signer une banque de donnes, VMFS, effectuez une ranalyse de stockage de votre hte pour qu'il mette niveau son affichage des LUN qui lui sont prsents et dcouvre les copies de LUN. Procdure 1 2 3 4 5 Connectez-vous vSphere Client et slectionnez le serveur dans le panneau de l'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [Ajouter stockage] . Slectionnez le type de stockage [Disque/LUN] et cliquez sur [Suivant] . De la liste des LUN, slectionnez le LUN qui a un nom de banque de donnes affich dans la colonne tiquette VMFS et cliquez sur [Suivant] . Le nom prsent dans la colonne tiquette VMFS indique que le LUN contient une copie d'une banque de donnes VMFS existante. 6 Dans Options de montage, slectionnez [Affecter nouvelle signature] et cliquez sur [Suivant] .

132

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Sur la page Prt Terminer, passez en revue les informations de configuration de banque de donnes et cliquez sur [Terminer] .

Suivant Aprs avoir re-sign, vous devrez faire ce qui suit :


n

Si la banque de donnes re-signe contient des machines virtuelles, mettez niveau les rfrences sur la banque de donnes VMFS initiale dans les fichiers de la machine virtuelle, y compris les fichiers .vmx, .vmdk, .vmsd et .vmsn. Pour mettre sous tension des machines virtuelles, enregistrez-les avec vCenter Server.

Suppression des banques de donnes VMFS


Vous pouvez supprimer n'importe quel type de banque de donnes VMFS, y compris les copies que vous avez montes sans nouvelle signature. Quand vous supprimez une banque de donnes, elle est dtruite et disparat de tous les htes qui y ont accs. REMARQUE L'opration de suppression de la banque de donnes supprime dfinitivement tous les fichiers associs aux machines virtuelles de la banque de donnes. Prrequis
n n

Supprimez toutes les machines virtuelles de la banque de donnes. Vrifiez qu'aucun autre hte n'accde la banque de donnes.

Procdure 1 2 3 Affichez les banques de donnes. Cliquez avec le bouton droit sur la banque de donnes supprimer et slectionnez [Supprimer] . Confirmez que vous voulez supprimer la banque de donnes.

Oprations d'actualisation et de ranalyse du stockage


L'opration d'actualisation des banques de donnes et des adaptateurs de stockage met jour les listes et les informations de stockage affiches dans vSphere Client. Par exemple, elle met jour des informations telles que la capacit des banques de donnes. Lorsque vous effectuez des tches de gestion des banques de donnes ou que vous modifiez la configuration SAN, il se peut que vous deviez ranalyser le stockage. Lorsque vous effectuez des oprations de gestion de la banque de donnes VMFS, comme la cration d'une banque de donnes VMFS ou d'un RDM, l'ajout d'une extension et l'augmentation ou la suppression d'une banque de donnes VMFS, votre hte ou le vCenter Server ranalyse automatiquement le stockage et le met niveau. Vous pouvez mettre hors tension la fonction de ranalyse automatique en dsactivant le filtre de ranalyse de l'hte. Reportez-vous la section Dsactivation des filtres de stockage , page 135. Dans certains cas, vous devez effectuer une ranalyse manuel. Vous pouvez ranalyser tous les stockages disponibles sur votre hte ou, si vous utilisez le vCenter Server, sur tous les htes d'un dossier, d'un cluster et d'un centre de donnes. Si les modifications que vous apportez ne concernent que le stockage connect un adaptateur spcifique, effectuez une ranalyse pour cette carte. Effectuez la ranalyse manuelle chaque fois que vous apportez les modifications suivantes.
n n n

Zonage d'une nouvelle baie de disques sur un SAN. Crer de nouveaux LUN sur un SAN Modification du masquage de chemin sur un hte.

VMware, Inc.

133

Stockage vSphere

n n n n

Reconnecter un cble Modification des paramtres CHAP (iSCSI uniquement). Ajout ou suppression de la dtection ou des adresses statiques (iSCSI uniquement). Ajout d'un seul hte dans le vCenter Server aprs la modification ou la suppression du vCenter Server d'une banque de donnes partage par les htes du vCenter Server et un seul hte.

IMPORTANT Si vous ranalysez quand un chemin n'est pas disponible, l'hte le supprime de la liste de chemins sur le priphrique. Ce chemin rapparat dans la liste ds qu'il devient disponible et recommence fonctionner.

Ranalyse du stockage
Lorsque vous apportez des modifications la configuration de votre SAN, il est possible que vous deviez ranalyser le stockage. Vous pouvez ranalyser tout le stockage disponible de votre hte. Si les modifications que vous apportez ne concernent que le stockage accessible par un adaptateur spcifique, effectuez une ranalyse seulement pour cet adaptateur. Appliquez cette procdure si vous voulez limiter la ranalyse au stockage disponible pour un hte particulier ou un hte auquel on accde par un adaptateur particulier. Si vous voulez ranalyser le stockage disponible tous les htes grs par votre systme vCenter Server, vous pouvez le faire en cliquant avec le bouton droit sur un centre de donnes, un cluster ou un dossier qui contient les htes et en slectionnant [ranalyse banques de donnes] . Procdure 1 2 Dans vSphere Client, slectionnez un hte et cliquez sur l'onglet [Configuration] . Slectionnez une option de ranalyse.
Option Stockage Adaptateurs de stockage Description Dans le panneau Matriel, cliquez sur [Stockage] , puis sur [Ranalyser tout] au-dessus du panneau Banques de donnes ou Priphriques. Dans le panneau Matriel, cliquez sur [Adaptateurs de stockage] , puis sur [Ranalyser tout] au-dessus du panneau Adaptateurs de stockage. REMARQUE Vous pouvez galement faire un clic droit sur un adaptateur individuel et cliquer sur [Ranalyser] pour ne ranalyser que cet adaptateur.

Spcifiez l'tendue de la ranalyse.


Option Analyser les nouveaux priphriques de stockage Analyser les nouveaux volumes VMFS Description Ranalyse de tous les adaptateurs pour dcouvrir de nouveaux priphriques de stockage. Si de nouveaux priphriques sont dcouverts, ils apparaissent dans la liste des priphriques. Ranalyse de tous les priphriques de stockage pour dcouvrir les nouvelles banques de donnes qui ont t ajoutes depuis la dernire analyse. Si de nouvelles banques de donnes sont dcouvertes, elles apparaissent dans la liste des banques de donnes.

Modification du nombre de LUN analyss


Par dfaut, VMkernel analyse pour chaque cible les LUN allant de LUN 0 LUN 255 (soit un total de 256 LUN). Vous pouvez modifier le paramtre [Disk.MaxLUN] pour acclrer la dtection de LUN. IMPORTANT Vous ne pouvez pas effectuer de reconnaissance de LUN avec un nombre d'ID de LUN suprieur 255.

134

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Si vous diminuez cette valeur, cela permet de raccourcir la dure de ranalyse et d'amorage. Toutefois, la dure de ranalyse de LUN peut dpendre de plusieurs facteurs (type de baie de stockage, prise en charge ou non des LUN clairsems). Procdure 1 2 3 4 Dans le panneau d'inventaire de vSphere Client, slectionnez l'hte, cliquez sur l'onglet [Configuration] , puis sur [Paramtres avancs] sous Software. Slectionnez [Disque] . Recherchez [Disk.MaxLUN] . Modifiez sa valeur selon vos besoins, puis cliquez sur [OK] . La valeur que vous spcifiez est celle du LUN suivant le dernier LUN reconnatre. Par exemple, pour effectuer la reconnaissance des LUN 0 31, affectez [Disk.MaxLUN] la valeur 32.

Dsactivation des filtres de stockage


Lorsque vous effectuez des oprations de gestion de banque de donnes VMFS, vCenter Server utilise des filtres de protection par dfaut. Les filtres vous aident viter une corruption du stockage en extrayant uniquement les priphriques de stockage pouvant tre utiliss pour une opration particulire. Les priphriques non conformes ne sont pas affichs pour la slection. Vous pouvez dsactiver les filtres pour afficher tous les priphriques. Avant d'apporter des modifications aux filtres des priphriques, contactez l'quipe de support de VMware. Vous pouvez dsactiver les filtres uniquement si vous avez d'autres moyens d'empcher une corruption des LUN. Procdure 1 2 3 Dans vSphere Client, slectionnez [Administration] > [Paramtres vCenter Server] . Dans la liste des paramtres, slectionnez [Paramtres avancs] . Dans la zone de texte [Touche] , entrez une cl.
Touche config.vpxd.filter.vmfsFilter config.vpxd.filter.rdmFilter config.vpxd.filter.SameHostAndTra nsportsFilter config.vpxd.filter.hostRescanFilter Nom du filtre Filtre VMFS Filtre RDM Filtre d'hte identique et de transports Filtre de ranalyse d'hte REMARQUE Si vous dsactivez le filtre de ranalyse de l'hte, vos htes continuent d'excuter une ranalyse chaque fois que vous prsentez un nouveau LUN un hte ou un cluster.

4 5 6

Dans la zone de texte [Valeur] , tapez False pour la cl spcifie. Cliquez sur [Ajouter] . Cliquez sur [OK] . Vous n'avez pas besoin de redmarrer le systme vCenter Server.

VMware, Inc.

135

Stockage vSphere

Filtres de stockage
vCenter Server fournit des filtres de stockage pour vous aider viter la corruption des priphriques de stockage ou les dgradations de performances pouvant tre provoques par une utilisation non prise en charge des priphriques LUN. Ces filtres sont disponibles par dfaut. Tableau 13-5. Filtres de stockage
Nom du filtre Filtre VMFS Description limine les priphriques de stockage, ou LUN, qui sont dj utiliss par une banque de donnes VMFS ou un hte gr par vCenter Server. Les LUN ne s'affichent pas comme des candidats au formatage avec une autre banque de donnes VMFS ou pour une utilisation en tant que RDM. limine les LUN dj rfrencs par un RDM sur un hte gr par vCenter Server. Les LUN ne s'affichent pas comme des candidats au formatage avec VMFS ou pour une utilisation par un RDM diffrent. Si vos machines virtuelles doivent accder au mme LUN, celles-ci doivent partager le mme fichier de mappage RDM. Pour plus d'informations sur ce type de configuration, consultez la documentation Gestion des ressources vSphere. limine les LUN inligibles pour une utilisation comme extensions de banque de donnes VMFS en raison d'incompatibilit d'hte ou de stockage. Vous empche d'ajouter les LUN suivants comme extensions : n LUN non exposs tous les htes qui partagent la banque de donnes VMFS d'origine. n LUN utilisant un type de stockage diffrent de celui utilis par la banque de donnes d'origine. Par exemple, vous ne pouvez pas ajouter une extension Fibre Channel une banque de donnes VMFS sur un priphrique de stockage local. Ranalyse automatiquement et met niveau les banques de donnes VMFS aprs que vous avez effectu des oprations de gestion de banque de donnes. Ce filtre aide fournir une vue cohrente de toutes les banques de donnes VMFS sur tous les htes grs par vCenter Server. REMARQUE Si vous prsentez un nouveau LUN un hte ou un cluster, les htes excutent automatiquement une ranalyse que le filtre de ranalyse d'hte soit activ ou non. Touche config.vpxd.filter.vmfsFilter

Filtre RDM

config.vpxd.filter.rdmFilter

Filtre d'hte identique et de transports

config.vpxd.filter.SameHostAndTransportsFilter

Filtre de ranalyse d'hte

config.vpxd.filter.hostRescanFilter

Dsactivation du verrouillage ATS


Lorsque vous crez une banque de donnes VMFS5 sur un priphrique qui prend en charge le verrouillage ATS (atomic test and set), la banque de donnes est configure sur le mode exclusivement ATS. Dans certaines circonstances, il est possible que vous deviez dsactiver le paramtre du mode ATS. Dsactivez le paramtre ATS, lorsque, par exemple, votre priphrique de stockage passe une version prcdente ou lorsque les mises jour du microprogramme chouent et que le priphrique ne prend plus en charge l'acclration matrielle. L'option que vous utilisez pour dsactiver le paramtre ATS est uniquement disponible via le shell ESXi. Pour plus d'informations, consultez Initiation aux interfaces de ligne de commande vSphere.

136

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Procdure
u

Pour dsactiver le paramtre ATS, excutez la commande suivante.


vmkfstools --configATSOnly 0 device

Le paramtre device est le chemin vers le priphrique de domaine principal sur lequel VMFS5 a t dploy. Utilisez le format suivant :
/vmfs/devices/disks/disk_ID:P

Banques de donnes NFS


ESXi peut accder un volume NFS ddi, situ sur un serveur NAS, monter le volume et l'utiliser pour des besoins de stockage. Vous pouvez utiliser des volumes NFS pour stocker et dmarrer des machines virtuelles de la mme manire que vous utilisez des banques de donnes VMFS. ESXi prend en charge les capacits de stockage partag suivantes sur des volumes NFS :
n n n n

vMotion VMware DRS et VMware HA Images ISO, prsentes en tant que CD-ROM aux machines virtuelles Snapshots instantanes de machine virtuelle

Lorsque vous travaillez avec le stockage NFS, les considrations suivantes s'appliquent :
n

La taille maximale des banques de donnes NFS dpend de la prise en charge assure par le serveur NFS. ESXi n'impose aucune limite la taille de la banque de donnes NFS. Si vous utilisez des caractres non-ASCII pour nommer des banques de donnes et des machines virtuelles, veillez ce que le serveur NFS sous-jacent offre une prise en charge de l'internationalisation. Si le serveur ne prend pas en charge les caractres internationaux, utilisez uniquement les caractres ASCII, sinon des dfaillances imprvisibles pourraient se produire.

Banques de donnes NFS comme rfrentiels des fichiers couramment utiliss


En plus du stockage des disques virtuels sur des banques de donnes NFS, vous pouvez employer NFS comme rfrentiel central pour les images ISO, les modles de machine virtuelle, etc. Pour utiliser NFS comme rfrentiel partag, vous crez un rpertoire sur le serveur NFS et le montez comme banque de donnes sur tous les htes. Si vous utilisez la banque de donnes pour les images ISO, vous pouvez connecter le priphrique CD-ROM de la machine virtuelle un fichier ISO sur la banque de donnes, et installer un systme d'exploitation invit depuis le fichier ISO. REMARQUE Si le volume NFS sous-jacent sur lequel sont stocks les fichiers est en lecture seule, assurez-vous que le volume est export en tant que partage en lecture seule par le serveur NFS, ou configurez-le en tant que banque de donnes en lecture seule sur l'hte ESXi. Sinon, l'hte considre que la banque de donnes est en Lecture/criture et risque de ne pas pouvoir ouvrir les fichiers.

Crer des banques de donnes NFS


Vous pouvez employer l'assistant Ajouter stockage pour monter un volume NFS et l'employer comme s'il s'agissait d'une banque de donnes VMFS. Prrequis Puisque NFS impose que la connectivit rseau accde aux donnes stockes sur les serveurs distants, avant de configurer NFS, vous devez d'abord configurer la mise en rseau VMkernel.

VMware, Inc.

137

Stockage vSphere

Procdure 1 2 3 4 5 Ouvrez une session sur vSphere Client et slectionnez l'hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [banques de donnes] et cliquez sur [Ajouter stockage] . Slectionnez [Systme de fichiers rseau] comme le type de stockage et cliquez sur [Suivant] . Entrez le nom du serveur, le nom de dossier du point de montage et le nom de la banque de donnes. Pour le nom du serveur, vous pouvez entrer une adresse IP, un nom DNS ou un UUID NFS. REMARQUE Quand vous montez le mme volume NFS sur plusieurs htes, assurez-vous que les noms de serveur et de dossier sont identiques sur les htes. Si les noms ne sont pas identiques, les htes considrent le mme volume NFS comme deux banques de donnes diffrentes. Il peut s'ensuivre une dfaillance de certaines fonctions comme vMotion. Par exemple, ce type de diffrence peut se produire si vous nommez le serveur filer sur un hte et filer.domain.com sur l'autre. 6 7 8 (Facultatif) Slectionnez [Montage NFS lecture seule] si le volume est export en Lecture seule par le serveur NFS. Cliquez sur [Suivant] . Dans la page Rsum de systme de fichiers rseau, passez en revue les options de configuration et cliquez sur [Terminer] .

Dmonter des banques de donnes VMFS ou NFS


Quand vous dmontez une banque de donnes, elle reste intacte, mais ne peut tre vue par les htes que vous spcifiez. La banque de donnes continue d'apparatre sur les autres htes, o elle reste monte. N'excutez aucune opration de configuration qui puisse gnrer des E/S vers la banque de donnes lorsque le dmontage est en cours. REMARQUE Le signal de pulsation vSphere HA ne vous empche pas de dmonter la banque de donnes. Si une banque de donnes est utilise pour le signal de pulsation, le dmontage peut provoquer la dfaillance de l'hte et redmarrer n'importe quelle machine virtuelle active. Si la vrification du signal de pulsation choue, vSphere Client affiche un avertissement. Prrequis Pour toutes les banques de donnes VMFS, veillez ce que les conditions requises suivantes soient remplies :
n n n n n

Aucune machine virtuelle ne doit se trouver dans la banque de donnes. La banque de donnes ne doit pas faire partie d'un cluster de banques de donnes. La banque de donnes n'est pas gre par le DRS de stockage. Le contrle E/S du stockage doit tre dsactiv pour la banque de donnes. La banque de donnes n'est pas utilise pour le signal de pulsation vSphere HA.

Procdure 1 2 Affichez les banques de donnes. Cliquez avec le bouton droit sur la banque de donnes dmonter et slectionnez [Dmonter] .

138

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Si la banque de donnes est partage, spcifiez quels htes ne devraient plus accder la banque de donnes. a Dslectionnez les htes sur lesquels vous souhaitez laisser la banque de donnes monte. Par dfaut, tous les htes sont slectionns. b c Cliquez sur [Suivant] . Passez en revue la liste des htes sur lesquels vous voulez dmonter votre banque de donnes, et cliquez sur [Terminer] .

Confirmez que vous voulez dmonter la banque de donnes.

Lorsque vous avez dmont une banque de donnes VMFS, la banque de donnes devient inactive et est grise dans la liste des banques de donnes de l'hte. Une banque de donnes NFS n'apparat plus dans la liste. REMARQUE La banque de donnes qui est dmonte sur des htes et monte sur d'autres apparat comme tant active dans la vue Banques de donnes et clusters de banques de donnes.

Renommer les banques de donnes VMFS ou NFS


Vous pouvez modifier le nom d'une banque de donnes existante. Procdure 1 2 3 Affichez les banques de donnes. Cliquez avec le bouton droit sur la banque de donnes renommer et slectionnez [Renommer] . Entrez un nouveau nom de banque de donnes.

Si vous utilisez le systme vCenter Server pour grer vos htes, le nouveau nom s'affiche sur tous les htes qui ont accs la banque de donnes.

Regrouper les banques de donnes VMFS ou NFS


Si vous utilisez le systme vCenter Server pour grer vos htes, regroupez les banques de donnes en dossiers. Cette opration permet d'organiser vos banques de donnes en fonction des pratiques professionnelles et d'affecter des autorisations et des alarmes sur les banques de donnes d'un groupe simultanment. Procdure 1 2 3 4 5 6 7 Connectez-vous au vSphere Client. Au besoin, affichez les banques de donnes. Dans le panneau d'inventaire, choisissez [banques de donnes] . Slectionnez le centre de donnes contenant les banques de donnes regrouper. Dans le menu de raccourcis, cliquez sur l'icne [Nouveau dossier] . Donnez un nom descriptif au dossier. Cliquez sur chaque banque de donnes et faites-la glisser dans le dossier.

VMware, Inc.

139

Stockage vSphere

Gestion des dconnexions de priphrique de stockage


ESXi prend en charge le retrait de priphrique prvu et la dtection des pertes de priphrique imprvues. Votre hte peut dterminer si une dconnexion de priphrique est un vnement temporaire, un vnement all-paths-down ou si une dconnexion de priphrique dfinitive s'est produite. Le retrait de priphrique prvu est la dconnexion intentionnelle d'un priphrique de stockage qui utilise la capacit de dmontage des banques de donnes VMFS. Vous pouvez raliser une reconfiguration de stockage dans laquelle vous dconnectez une banque de donnes puis la reconnectez plus tard. Si votre hte dtecte une perte de priphrique imprvue, ESXi marque le priphrique de stockage comme dfinitivement indisponible pour conserver les ressources et la mmoire.
n

Retrait de priphrique prvu page 140 Le retrait de priphrique prvu est une dconnexion de priphrique dtectable par un hte ESXi. Vous pouvez retirer et reconnecter un priphrique de stockage dans les rgles de l'art.

Perte imprvue de priphrique page 142 Une perte imprvue de priphrique est une condition qui survient lorsque votre hte ESXi perd dfinitivement la connexion un priphrique de stockage.

Retrait de priphrique prvu


Le retrait de priphrique prvu est une dconnexion de priphrique dtectable par un hte ESXi. Vous pouvez retirer et reconnecter un priphrique de stockage dans les rgles de l'art. Le retrait de priphrique prvu est la dconnexion intentionnelle d'un priphrique de stockage. Vous pourriez prvoir de retirer un priphrique pour de nombreuses raisons, par exemple, pour mettre niveau votre matriel ou reconfigurer vos priphriques de stockage. Pour retirer et reconnecter un priphrique de stockage dans les rgles de l'art, procdez de la manire suivante : 1 Migrez les machines virtuelles du priphrique que vous prvoyez de dconnecter. Consultez la documentation Gestion de vCenter Server et des htes. 2 Dmontez la banque de donnes dploye sur le priphrique. Reportez-vous la section Dmonter des banques de donnes VMFS ou NFS , page 138. 3 Dconnectez le priphrique de stockage. Reportez-vous Dconnexion des priphriques de stockage , page 140. Vous pouvez dsormais procder la reconfiguration du priphrique de stockage l'aide de la console de baie. 4 Reconnectez le priphrique de stockage. Reportez-vous Joindre des priphriques de stockage , page 141. 5 Montez la banque de donnes et redmarrez les machines virtuelles.
n

Pour monter une banque de donnes partage, consultez Monter des banques de donnes VMFS partages , page 141. Pour monter une banque de donnes non partage, consultez Monter des banques de donnes VMFS non partages , page 142.

Dconnexion des priphriques de stockage


Utilisez vSphere Client pour dconnecter en toute scurit un priphrique de stockage de votre hte. Il se peut que vous deviez dconnecter le priphrique pour le rendre inaccessible votre hte, lorsque, par exemple, vous effectuez une mise niveau du matriel ct stockage.

140

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Prrequis
n n n

Le priphrique ne contient pas de banques de donnes. Aucune machine virtuelle n'utilise le priphrique en tant que disque RDM. Le priphrique ne contient pas de partition de diagnostic.

Procdure 1 2 Dans vSphere Client, affichez les priphriques de stockage. Faites un clic droit sur le priphrique dconnecter et slectionnez [Dtacher] .

Le nom du priphrique est gris dans vSphere Client et devient inaccessible. L'tat oprationnel du priphrique devient Dmont. Suivant Si plusieurs htes partagent le priphrique, dconnectez le priphrique de chaque hte.

Joindre des priphriques de stockage


Utilisez vSphere Client pour reconnecter un priphrique de stockage que vous avez prcdemment dtach. Procdure 1 2 Dans vSphere Client, affichez les priphriques de stockage. Faites un clic droit sur le priphrique de stockage dtach et slectionnez [Joindre] .

Le priphrique devient accessible.

Monter des banques de donnes VMFS partages


Vous montez une banque de donnes VMFS dmonte en utilisant le menu contextuel. Utilisez le menu contextuel pour monter une banque de donnes aprs l'avoir dmonte d'un hte. Si la banque de donnes tait accessible depuis plusieurs htes avant d'tre dmonte, vous pouvez utiliser l'assistant Monter une banque de donnes pour slectionner les htes sur lesquels la banque de donnes sera monte. Procdure 1 2 Slectionner [Page d'accueil] > [Inventaire] > [Banques de donnes et cluster de banques de donnes] . Cliquez avec le bouton droit sur la banque de donnes dmonte et slectionnez [Monter] . REMARQUE La banque de donnes qui est dmonte sur des htes et monte sur d'autres apparat comme tant active dans la vue Banques de donnes et clusters de banques de donnes. 3 Spcifiez les htes qui doivent accder la banque de donnes dans l'assistant Monter une banque de donnes. Par dfaut, tous les htes sont slectionns. a b c Dslectionnez les htes sur lesquels la banque de donnes doit rester dmonte. Cliquez sur [Suivant] . Vrifiez la liste des htes sur lesquels vous montez la banque de donnes et cliquez sur [Terminer] .

VMware, Inc.

141

Stockage vSphere

Monter des banques de donnes VMFS non partages


Utilisez cette procdure pour monter une banque de donnes prcdemment dmonte sur un seul hte. Procdure 1 Ouvrez une session sur vSphere Client et slectionnez l'hte sur lequel monter la banque de donnes dmonte. REMARQUE Si la banque de donnes est partage, elle sera uniquement monte sur l'hte que vous slectionnez. Elle sera toujours dmonte sur les autres htes non spcifis lors de cette procdure. 2 3 Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Faites un clic droit sur la banque de donnes et slectionnez [Monter] . REMARQUE La banque de donnes qui est monte sur des htes et monte sur d'autres apparat comme active dans la vue Banques de donnes et clusters de banques de donnes de vCenter Server.

Perte imprvue de priphrique


Une perte imprvue de priphrique est une condition qui survient lorsque votre hte ESXi perd dfinitivement la connexion un priphrique de stockage. Problme Bien que l'hte ESXi ne puisse dterminer la raison d'une perte de priphrique, l'hte prend en charge la dtection des pertes. Lorsque le priphrique devient dfinitivement indisponible, ESXi reoit des codes de dtection des baies de stockage et reconnat que le priphrique est dfinitivement perdu, et pas seulement temporairement indisponible. ESXi marque le priphrique comme tant non connect et un avertissement indiquant que le priphrique est dfinitivement indisponible apparat dans le fichier journal VMkernel. Cause Gnralement, la perte imprvue de priphrique est involontaire et survient lorsqu'un priphrique de stockage est non mapp, retir ou lorsque son ID unique change, ou lorsqu'une erreur matrielle irrcuprable survient. Solution Si vous rencontrez une condition de perte imprvue de priphrique, vous devez dmonter toutes les banques de donnes concernes et effectuez une nouvelle analyse du stockage pour supprimer les informations persistantes associes au priphrique. Consultez les rubriques suivantes :
n

Pour vrifier l'tat du priphrique consultez Vrification de l'tat de la connexion d'un priphrique de stockage , page 142. Pour dmonter une banque de donnes, consultez Dmonter des banques de donnes VMFS ou NFS , page 138. Pour effectuer une nouvelle analyse, consultez Ranalyse du stockage , page 134.

Vrification de l'tat de la connexion d'un priphrique de stockage


Utilisez la commande esxcli pour vrifier l'tat de la connexion d'un priphrique de stockage particulier. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere.

142

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Excutez la commande esxcli --server=server_name storage core device list -d=device_ID . L'exemple de sortie montre que le priphrique n'est pas connect.
# esxcli --server=server_name storage core device list -d naa.XXXXXXXXXXXX4c naa.XXXXXXXXXXXX4c Nom d'affichage : XXXX Fibre Channel Disk(naa.XXXXXXXXXXXX4c) Taille : 20480 Type de priphrique : accs direct Multipath Plugin : NMP XXXXXXXXXXXXXXXX tat : non connect XXXXXXXXXXXXXXXX

Crer une partition de diagnostic


Pour s'excuter correctement, votre hte ncessite une partition de diagnostic ou une partition de dcharge pour stocker les vidages mmoire destins au dbogage et au support technique. En gnral, une partition de diagnostic locale est cre lors de l'installation d'ESXi. Vous pouvez remplacer ce comportement par dfaut. Par exemple, vous pouvez utiliser des priphriques de stockage partags au lieu d'un stockage local. Pour viter le formatage de disque automatique, dtachez les priphriques de stockage locaux de l'hte avant d'installer ESXi et mettez l'hte sous tension pour la premire fois Vous pouvez ensuite crer une partition de diagnostic sur un disque local ou sur un LUN de rseau de stockage SAN priv ou partag en utilisant vSphere Client. Les considrations suivantes s'appliquent :
n

Une partition de diagnostic ne peut pas tre situe sur un LUN iSCSI accessible par le logiciel iSCSI ou un adaptateur de matriel iSCSI dpendant. Pour plus d'informations sur les partitions de diagnostic avec iSCSI, consultez Recommandations gnrales de dmarrage partir du SAN iSCSI , page 103. Sauf si vous utilisez des serveurs sans disques, crez une partition de diagnostic sur un stockage local. Chaque hte doit avoir une partition de diagnostic de 110 Mo. Si plusieurs htes partagent une partition de diagnostic sur un LUN de rseau de stockage SAN, la partition doit tre suffisamment importante pour contenir les vidages de mmoire de tous les htes. Si un hte utilisant une partition de diagnostic partage choue, redmarrez l'hte et procdez l'extraction des fichiers journaux immdiatement aprs l'chec. Autrement, il est possible que le deuxime hte qui choue avant que vous n'ayez pu collecter les donnes de diagnostic du premier hte, ne parvienne pas enregistrer le vidage mmoire.

n n

Pour grer la partition de diagnostic, utilisez les commandes vCLI. Consultez Concepts et exemples de l'interface de ligne de commande vSphere.

Crer une partition de diagnostic


Vous pouvez crer une partition de diagnostic pour votre hte. Procdure 1 Ouvrez une session sur vSphere Client et slectionnez l'hte dans le panneau d'inventaire.

VMware, Inc.

143

Stockage vSphere

2 3 4

Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [banques de donnes] et cliquez sur [Ajouter stockage] . Slectionnez [Diagnostic] et cliquez sur [Suivant] . Si [Diagnostic] n'apparat pas comme option, l'hte a dj une partition de diagnostic.

Spcifiez le type de partition de diagnostic.


Option Locale prive Stockage SAN priv Description Cre la partition de diagnostic sur un disque local. Cette partition stocke les informations de dfaillance uniquement pour votre hte. Cre la partition de diagnostic sur un LUN de rseau de stockage SAN non partag. Cette partition stocke les informations de dfaillance uniquement pour votre hte. Cre la partition de diagnostic sur un LUN de SAN partag. Cette partition est accessible par plusieurs htes et peut stocker des information de dfaillance pour plus d'un hte.

Stockage SAN partag

6 7 8

Cliquez sur [Suivant] . Slectionnez le priphrique utiliser pour la partition de diagnostic et cliquez sur [Suivant] . Passez en revue les informations de configuration de la partition et cliquez sur [Terminer] .

Configuration de la mise en miroir des disques dynamiques


En gnral, vous ne pouvez pas utiliser de logiciel de gestion de volumes logiques sur des machines virtuelles pour mettre en miroir des disques virtuels. Cependant, si vos machines virtuelles Microsoft Windows prennent en charge les disques dynamiques, vous pouvez protger les machines virtuelles d'une perte de priphrique de stockage imprvue en mettant en miroir les disques virtuels sur deux LUN SAN. Prrequis
n n

Utilisez une machine virtuelle Windows qui prend en charge les disques dynamiques. Privilge ncessaire : Avanc

Procdure 1 Cration d'une machine virtuelle disposant de deux disques virtuels. Veillez placer les disques sur des banques de donnes diffrentes. 2 Connectez-vous votre machine virtuelle et configurez les disques en tant que disques dynamiques mis en miroir. Consultez la documentation de Microsoft. 3 4 Aprs la synchronisation des disques, mettez la machine virtuelle hors tension. Modifiez les paramtres de la machine virtuelle pour autoriser l'utilisation de la mise en miroir des disques dynamiques. a b c Cliquez avec le bouton droit sur la machine virtuelle et slectionnez [Modifier les paramtres] . Cliquez sur l'onglet [Options] et, sous [Avanc] , slectionnez [Gnral] . Cliquez sur [Paramtres de configuration] .

144

VMware, Inc.

Chapitre 13 Utilisation des banques de donnes

Cliquez sur [Ajouter ligne] et ajoutez les paramtres suivants :


Nom scsi#.returnNoConnectDuringAPD scsi#.returnBusyOnNoConnectStatus Valeur Vrai Faux

Cliquez sur [OK] .

VMware, Inc.

145

Stockage vSphere

146

VMware, Inc.

Mappage de priphrique brut

14

Le mappage de priphrique brut (RDM) fournit un mcanisme permettant une machine virtuelle d'accder directement un LUN sur le sous-systme de stockage physique (Fibre Channel ou iSCSI uniquement). Les rubriques suivantes contiennent des informations sur les RDM et fournissent des instructions sur la manire de crer et de grer des RDM. Ce chapitre aborde les rubriques suivantes :
n n n n

propos du mappage de priphrique brut , page 147 Caractristiques du mappage de priphrique brut , page 151 Cration de machines virtuelles avec des RDM , page 153 Gestion des chemins pour un LUN brut mapp , page 154

propos du mappage de priphrique brut


Un RDM est un fichier de mappage dans un volume VMFS spar qui se comporte comme un proxy pour un priphrique physique brut. Le RDM permet une machine virtuelle d'accder directement au priphrique de stockage et de l'utiliser. Le RDM contient des mtadonnes pour la gestion et la redirection de l'accs au disque vers le priphrique physique. Le fichier vous donne certains des avantages de l'accs direct au priphrique physique tout en conservant les avantages du disque virtuel dans VMFS. En consquence, il associe la capacit de gestion de VMFS l'accs au priphrique brut. Les RDM peuvent tre dcrits comme le mappage d'un priphrique brut dans une banque de donnes, le mappage d'un LUN systme ou le mappage d'un fichier du disque vers un volume de disque physique. Tous ces termes se rapportent au RDM. Figure 14-1. Mappage de priphrique brut
Virtuel machine

ouvre Volume VMFS fichier de mappage adresse rsolution

lit, crit

priphrique mapp

VMware, Inc.

147

Stockage vSphere

Bien que VMware recommande d'utiliser les banques de donnes VMFS pour la plus grande partie du stockage sur disque virtuel, dans certains cas, vous pouvez utiliser des LUN bruts ou des disques logiques situs sur un SAN. Par exemple, vous pouvez utiliser des LUN bruts avec des RDM dans les situations suivantes :
n

Lorsque le snapshot du SAN ou d'autres applications en couche sont excuts dans la machine virtuelle. Le RDM permet des systmes de dchargement volutifs l'aide de fonctions inhrentes au SAN. Dans tout scnario de mise en clusters MSCS qui parcourt les htes physiques (clusters virtuel virtuel ainsi que clusters physique virtuel). Dans ce cas, les donnes du cluster et les disques quorum doivent tre configurs comme des RDM plutt que comme des disques virtuels sur un VMFS partag.

Considrez un RDM comme un lien symbolique d'un volume VMFS vers un LUN brut. Le mappage fait apparatre les LUN comme des fichiers dans un volume VMFS. LE RDM, et non le LUN brut, est rfrenc dans la configuration de la machine virtuelle. Le RDM contient une rfrence au LUN brut. En utilisant le RDM, vous pouvez :
n n n

Utiliser vMotion pour migrer des machines virtuelles l'aide de LUN bruts. Ajouter des LUN bruts aux machines virtuelles l'aide de vSphere Client. Utiliser les fonctions du systme de fichiers telles que le verrouillage des fichiers distribus, les autorisations et les noms.

Deux modes de compatibilit sont disponibles pour les RDM :


n

Le mode de compatibilit virtuelle permet un RDM d'agir exactement comme un fichier de disque virtuel, y compris l'utilisation des snapshots. Le mode de compatibilit physique permet un accs direct au priphrique SCSI pour les applications ayant besoin d'un niveau de contrle infrieur.

Avantages du mappage de priphrique brut


Un RDM fournit un certain nombre d'avantages, mais il ne doit pas tre utilis dans tous les cas. Gnralement, les fichiers de disque virtuel sont prfrables la capacit de gestion du RDM. Cependant, si vous avez besoin de priphriques bruts, vous devez utiliser le RDM. Le RDM offre plusieurs avantages. Noms persistants conviviaux Fournit un nom convivial pour un priphrique mapp. Lorsque vous utilisez un RDM, il est inutile de se rapporter au priphrique par son nom de priphrique. Vous l'appelez par le nom du fichier de mappage, par exemple :
/vmfs/volumes/monVolume/monRpertoireVM/myonDisqueBrut.vmdk

Rsolution dynamique de nom

Stocke des informations uniques d'identification pour chaque priphrique mapp. VMFS associe chaque RDM son priphrique SCSI actuel, quelles que soient les modifications dans la configuration physique du serveur, en raison des modifications matrielles de l'adaptateur, des modifications de chemin, de la relocalisation du priphrique, etc. Permet d'utiliser le verrouillage distribu VMFS pour les priphriques SCSI bruts. Le verrouillage distribu sur un RDM permet d'utiliser en toute scurit un LUN brut partag sans perdre de donnes lorsque deux machines virtuelles sur des serveurs diffrents essaient d'accder au mme LUN. Permet les autorisations de fichier. Les autorisations de fichier de mappage sont appliques au moment de l'ouverture du fichier pour protger le volume mapp.

Verrouillage des fichiers distribus

Autorisations de fichier

148

VMware, Inc.

Chapitre 14 Mappage de priphrique brut

Oprations du systme de fichiers

Permet d'utiliser les utilitaires du systme de fichiers pour travailler avec un volume mapp l'aide du fichier de mappage comme proxy. La plupart des oprations valides pour un fichier ordinaire peuvent tre appliques au fichier de mappage et sont rediriges pour fonctionner sur un priphrique mapp. Permet d'utiliser les snapshots de machine virtuelle sur un volume mapp. Les snapshots ne sont pas disponibles lorsque le RDM est utilis en mode de compatibilit physique. Permet de migrer une machine virtuelle avec vMotion. Le fichier de mappage agit comme un proxy pour permettre vCenter Server de migrer la machine virtuelle l'aide du mme mcanisme que celui qui existe pour la migration des fichiers du disque. Figure 14-2. vMotion pour une machine virtuelle utilisant le mappage de priphrique brut

Snapshots

vMotion

Hte 1

Hte 2

vMotion VM1 VM2

Volume VMFS fichier de mappage

adresse rsolution

priphrique mapp

VMware, Inc.

149

Stockage vSphere

Agents de gestion du SAN

Permet d'excuter certains agents de gestion du SAN l'intrieur d'une machine virtuelle. De mme, tout logiciel ayant besoin d'accder un priphrique l'aide de commandes SCSI spcifiques au matriel peut tre excut dans une machine virtuelle. Ce type de logiciel est appel logiciel bas sur cible SCSI. Lorsque vous utilisez les agents de gestion du SAN, slectionnez un mode de compatibilit physique pour le RDM. Permet d'utiliser la technologie NPIV qui autorise un port unique Fibre Channel HBA s'enregistrer sur l'ensemble Fibre Channel l'aide de plusieurs noms de port mondiaux (WWPN). Ainsi, le port HBA a la forme de ports virtuels multiples, chacun ayant son propre ID et un nom de port virtuel. Les machines virtuelles peuvent ensuite appeler chacun de ces ports virtuels et les utiliser pour tout le trafic RDM. REMARQUE Vous ne pouvez utiliser le NPIV qu'avec les machines virtuelles dotes de disques RDM.

Virtualisation d'ID de port N (NPIV)

VMware travaille avec les fournisseurs de logiciel de gestion de stockage pour garantir que leur logiciel fonctionne correctement dans des environnements incluant ESXi. Certaines applications de ce type sont :
n n n n

Logiciel de gestion du SAN Logiciel de gestion des ressources de stockage (SRM) Logiciel de snapshot Logiciel de rplication

De tels logiciels utilisent un mode de compatibilit physique pour les RDM afin que le logiciel puisse accder aux priphriques directement. Divers produits de gestion s'excutent mieux de manire centralise (non pas sur la machine ESXi, tandis que d'autres s'excutent bien sur les machines virtuelles. VMware ne certifie pas ces applications, ni ne fournit de matrice de compatibilit. Pour savoir si une application de gestion du SAN est prise en charge dans un environnement ESXi, contactez le fournisseur du logiciel de gestion du SAN.

Limitations du mappage de priphrique brut


Certaines limitations existent lorsque vous utilisez les RDM.
n

Le RDM n'est pas disponible pour les priphriques de traitement par blocs ou certains priphriques RAID connexion directe. Le RDM utilise un numro srie SCSI permettant d'identifier le priphrique mapp. Comme les priphriques de traitement par blocs et certains priphriques RAID connexion directe n'exportent pas de numros de srie, ils ne peuvent pas tre utiliss avec les RDM. Si vous utilisez le RDM en mode de compatibilit physique, vous ne pouvez pas utiliser un snapshot avec le disque. Le mode de compatibilit physique permet la machine virtuelle de grer son propre snapshot ou de mettre en miroir des oprations. Les snapshots de machine virtuelle sont disponibles pour les RDM avec le mode de compatibilit virtuel.

Vous ne pouvez pas mapper sur une partition de disque. Les RDM exigent que le priphrique mapp soit un LUN entier.

150

VMware, Inc.

Chapitre 14 Mappage de priphrique brut

Caractristiques du mappage de priphrique brut


Un RDM est un fichier de mappage spcial dans un volume VMFS qui gre les mtadonnes pour son priphrique mapp. Le fichier de mappage est prsent au logiciel de gestion comme un fichier de disque ordinaire, disponible pour les oprations fichier-systme habituelles. Pour la machine virtuelle, la couche de visualisation du stockage prsente le priphrique mapp comme un priphrique SCSI. Le contenu cl des mtadonnes du fichier de mappage comprend l'emplacement du priphrique mapp (rsolution de nom), l'tat de verrouillage du priphrique mapp, les autorisations, etc.

Modes de compatibilit physique et virtuel du RDM


Vous pouvez utiliser les RDM en mode de compatibilit virtuelle ou en mode de compatibilit physique. Le mode virtuel spcifie la virtualisation totale du priphrique mapp. Le mode physique spcifie une virtualisation SCSI minimale du priphrique mapp, permettant une plus grande flexibilit pour le logiciel de gestion du rseau SAN. En mode virtuel, VMkernel envoie uniquement READ et WRITE au priphrique mapp. Le priphrique mapp apparat pour le systme d'exploitation invit exactement comme un fichier de disque virtuel dans un volume VMFS. Les caractristiques relles du matriel sont masques. Si vous utilisez un disque brut en mode virtuel, vous pouvez vous rendre compte des avantages du VMFS tels que le verrouillage avanc du fichier pour la protection des donnes et les snapshots pour la rationalisation des processus de dveloppement. Le mode virtuel est galement plus compatible au sein du matriel de stockage que le mode physique et prsente le mme comportement qu'un fichier de disque virtuel. En mode physique, VMkernel transmet toutes les commandes SCSI au priphrique, sans aucune exception : la commande REPORT LUN est virtualise afin que VMkernel puisse isoler le LUN pour la machine virtuelle propritaire. Sinon, toutes les caractristiques physiques du matriel sous-jacent sont exposes. Le mode physique est utilis pour excuter les agents de gestion du SAN et d'autres logiciels bass sur cible SCSI dans la machine virtuelle. Le mode physique permet galement une mise en cluster virtuel physique pour une disponibilit rentable. VMFS5 prend en charge une taille de disque suprieure 2 To pour les RDM uniquement en mode compatibilit physique. Les restrictions suivantes s'appliquent :
n

Vous ne pouvez pas dplacer des RDM d'une taille suprieure 2 To vers les banques de donnes l'exception de VMFS5. Vous ne pouvez pas convertir des RDM d'une taille suprieure 2 To en disques virtuels ou effectuer d'autres oprations qui ncessitent la conversion d'un RDM en disque virtuel. Ces oprations incluent Storage vMotion, la migration et le clonage.

Rsolution dynamique de nom


Le fichier RDM prend en charge la rsolution dynamique de nom lorsqu'un chemin vers un priphrique brut change. VMFS identifie de manire unique tous les priphriques de stockage mapps, et l'identification est stocke dans ses structures de donnes internes. Toute modification au chemin vers un priphrique brut, telle qu'une dfaillance de commutateur Fibre Channel ou l'ajout d'un nouvel HBA, peut modifier le nom du priphrique. La rsolution dynamique de nom rsout ces modifications et associe automatiquement le priphrique d'origine son nouveau nom.

VMware, Inc.

151

Stockage vSphere

Mappage de priphrique brut sur des clusters de machine virtuelle


Utilisez un RDM avec les clusters de machine virtuelle qui doivent accder au mme LUN brut pour les scnarios de reprise. La configuration est identique celle d'un cluster de machine virtuelle accdant au mme fichier de disque virtuel, mais un RDM remplace le fichier de disque virtuel. Figure 14-3. Accs partir des machines virtuelles en clusters

Hte 3

Hte 4

VM3 accs partag

VM4

fichier de mappage Volume VMFS

adresse rsolution

mapp priphrique

Comparaison des modes d'accs disponibles du priphrique SCSI


Les mthodes d'accs un priphrique de stockage SCSI comprennent un fichier de disque virtuel sur une banque de donnes VMFS, un RDM de mode virtuel et un RDM de mode physique. Pour vous aider choisir parmi les modes d'accs disponibles pour les priphriques SCSI, la table suivante donne une brve comparaison des fonctions disponibles avec les diffrents modes. Tableau 14-1. Fonctions disponibles dans les disques virtuels et les mappages de priphrique brut
Fonctions ESXi Commandes SCSI transmises Fichier de disque virtuel Non RDM mode virtuel Non RDM mode physique Oui REPORT LUN n'est pas transmis Oui Non Oui Cluster physique virtuel cluster entre botes Oui

Prise en charge vCenter Server Snapshots Verrouillage distribu Mettre en cluster Logiciel bas sur cible SCSI

Oui Oui Oui Cluster dans une bote uniquement Non

Oui Oui Oui Cluster dans une bote cluster entre botes Non

VMware recommande d'utiliser des fichiers de disque virtuel pour le type cluster dans une bote de mise en cluster. Si vous envisagez de reconfigurer vos clusters cluster dans une bote en clusters cluster-accross-thebox, utilisez les RDM de mode virtuel pour les clusters cluster dans une bote.

152

VMware, Inc.

Chapitre 14 Mappage de priphrique brut

Cration de machines virtuelles avec des RDM


Quand vous donnez votre machine virtuelle un accs direct un LUN de rseau SAN brut, vous crez un fichier de mappage (RDM) qui rside sur une banque de donnes VMFS et pointe vers le LUN. Bien que le fichier de mappage possde l'extension.vmdk comme un fichier de disque virtuel standard, le fichier RDM contient seulement les informations de mappage. Les donnes relles de disque virtuel sont stockes directement sur le LUN. Vous pouvez crer le RDM comme un disque initial pour une nouvelle machine virtuelle ou l'ajouter une machine virtuelle existante. Lors de la cration du RDM, vous spcifiez le LUN mapper et la banque de donnes sur laquelle mettre le RDM. Procdure 1 2 3 4 Suivez toutes les tapes requises pour crer une machine virtuelle personnalis. Dans la page Choisir disque, slectionnez [Mappage de priphriques bruts] , puis cliquez sur [Suivant] . Dans la liste des disques du SAN ou des LUN, slectionnez un LUN auquel votre machine virtuelle accde directement. Slectionnez une banque de donnes pour le fichier de mappage RDM. Vous pouvez placer le fichier RDM sur la banque de donnes o rside votre fichier de configuration de machine virtuelle ou en slection une autre. REMARQUE Pour utiliser vMotion pour les machines virtuelles avec NPIV activ, assurez-vous que les fichiers RDM des machines virtuelles sont situs dans la mme banque de donnes. Vous ne pouvez pas effectuer des oprations Storage vMotion lorsque NPIV est activ. 5 Slectionnez un mode de compatibilit.
Option Physique Description Permet au systme d'exploitation client d'accder directement au matriel. La compatibilit physique est utile si vous utilisez des applications prenant en charge les SAN sur la machine virtuelle. Cependant, les machines virtuelles sous tension utilisant des RDM et configures pour la compatibilit physique ne peuvent pas tre migres si la migration suppose de copier le disque. Ces machines virtuelles ne peuvent pas tre clones, ni clones en modle. Permet au RDM de se comporter comme s'il tait un disque virtuel, afin que vous puissiez utiliser des fonctions telles que la prise de snapshots, le clonage, etc.

Virtuel

6 7

Slectionnez un nud de priphrique virtuel. Si vous slectionnez le mode Indpendant, choisissez l'une des options suivantes.
Option Persistent (Persistant) Non permanent Description Les changements sont immdiatement et dfinitivement crits sur le disque. Les modifications apportes au disque sont ignores la mise hors tension ou au rtablissement du snapshot.

8 9 10

Cliquez sur [Suivant] . Dans la page Prt terminer Nouvelle machine virtuelle, vrifiez vos slections. Cliquez sur [Terminer] pour terminer votre machine virtuelle.

VMware, Inc.

153

Stockage vSphere

Gestion des chemins pour un LUN brut mapp


Vous pouvez grer les chemins pour les LUN bruts mapps. Procdure 1 2 3 4 5 Connectez-vous en tant qu'administrateur ou en tant que propritaire de la machine virtuelle laquelle le disque mapp appartient. Slectionnez la machine virtuelle dans le panneau d'inventaire. Cliquez sur l'onglet [Rsum] et cliquez sur [Modifier les paramtres] . Dans l'onglet [Matriel] , slectionnez [Disque dur] , puis cliquez sur [Grer les chemins] . Utilisez la bote de dialogue Grer les chemins pour activer ou mettre hors tension vos chemins, dfinir la rgle de chemins multiples et indiquer le chemin prfr. Pour plus d'informations sur la gestion des chemins, voir Chapitre 17, Prsentation de la gestion gestion multivoie et du basculement , page 165.

154

VMware, Inc.

Activation des disques l'tat solide

15

Outre les disques durs ordinaires, ESXi prend en charge les disques l'tat solide (SSD). la diffrence des disques durs ordinaires qui sont des dispositifs lectromcaniques contenant des pices mobiles, les SSD utilisent des semiconducteurs comme support de stockage et ne comportent pas de pice mobile. Sur plusieurs baies de stockage, l'hte ESXi peut diffrencier automatiquement les SSD des disques durs traditionnels. Vous pouvez utiliser les rgles de rclamation PSA SATP pour marquer les priphriques SSD qui ne peuvent pas tre dtects automatiquement. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n

Avantage de l'activation des SSD , page 155 Auto-Dtection des priphriques SSD , page 156 Marquer les priphriques comme SSD , page 156 Supprimer un priphrique SSD , page 157 Supprimer un priphrique SSD dtect automatiquement , page 158 Marquer les priphriques comme local , page 159 Identifier les priphriques SSD , page 160 Identification d'un priphrique SSD virtuel , page 160

Avantage de l'activation des SSD


Les SSD sont trs rsilients et permettent d'accder plus rapidement aux donnes. L'activation des SSD offre plusieurs avantages :
n

Elle permet d'utiliser les SSD comme espace d'change pour amliorer la performance du systme. Pour plus d'informations sur l'utilisation des banques de donnes SSD pour allouer de l'espace au cache de l'hte, consultez la documentation Gestion des ressources vSphere. Elle augmente le taux de consolidation des machines virtuelles tant donn que les SSD peuvent fournir un dbit E/S trs lev. Elle prend en charge l'identification du priphrique SSD virtuel par le systme d'exploitation de l'hte.

VMware, Inc.

155

Stockage vSphere

Auto-Dtection des priphriques SSD


ESXi permet l'auto- dtection des priphriques SSD en utilisant un mcanisme de requte bas sur les normes T10. ESXi permet la dtection des priphriques SSD sur plusieurs baies de stockage. Consultez le fournisseur pour savoir si votre baie de stockage prend en charge la dtection des priphriques SSD ESXi. Vous pouvez utiliser les rgles de rclamation PSA SATP pour marquer les priphriques qui ne peuvent pas tre auto-dtects.

Marquer les priphriques comme SSD


Vous pouvez utiliser des rgles de rclamation PSA SATP pour marquer des priphriques SSD qui ne sont pas dtects automatiquement. Seuls les priphriques qui sont consomms par le plugin NMP (Native Multipathing) PSA peuvent tre marqus. Si vous avez besoin d'autres informations sur les commandes rpertories dans cette rubrique, consultez la documentation Initiation aux interfaces de ligne de commande vSphere et Concepts et exemples de l'interface de ligne de commande vSphere. Procdure 1 Identifiez le priphrique marquer et son SATP.
esxcli storage nmp device list

La commande donne l'information suivante.


naa.6006016015301d00167ce6e2ddb3de11 Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11) Type baie stockage : VMW_SATP_CX Config. du priphrique de type de baie de stockage : {navireg ipfilter} Rgle de slection de chemin : VMW_PSP_MRU Config. du priphrique pour la rgle de slection de chemin : Current Path=vmhba4:C0:T0:L25 Chemins actifs : vmhba4:C0:T0:L25

2 3

Noter le SATP associ au priphrique. Ajoutez une rgle de rclamation PSA pour marquer le priphrique comme SSD.
u

Vous pouvez ajouter une rgle de rclamation en spcifiant le nom du priphrique.


esxcli storage nmp satp rule add -s SATP --device device_name --option=enable_ssd

Vous pouvez ajouter une rgle de rclamation en spcifiant le nom du fournisseur et le nom du modle.
esxcli storage nmp satp rule add -s SATP -V vendor_name -M model_name --option=enable_ssd

Vous pouvez ajouter une rgle de rclamation base sur le protocole de transport.
esxcli storage nmp satp rule add -s SATP option=enable_ssd --transport transport_protocol --

Vous pouvez ajouter une rgle de rclamation base sur le nom du pilote.
esxcli storage nmp satp rule add -s SATP --driver driver_name --option=enable_ssd

156

VMware, Inc.

Chapitre 15 Activation des disques l'tat solide

Supprimer le priphrique.
u

Vous pouvez faire une non rclamation du priphrique en spcifiant le nom du priphrique.
esxcli storage core claiming unclaim --type device --device device_name

Vous pouvez faire une non rclamation du priphrique en spcifiant le nom du fournisseur et le nom du modle.
esxcli storage core claiming unclaim --type device -V vendor_name -M model_name

Vous pouvez faire une non rclamation base sur le protocole de transport.
esxcli storage core claiming unclaim --type device --transport transport_protocol

Vous pouvez faire une non rclamation base sur le nom du pilote.
esxcli storage core claiming unclaim --type device --driver driver_name

Rclamer le priphrique en excutant les commandes suivantes.


esxcli storage core claimrule load esxcli storage core claimrule run

Vrifiez si les priphriques sont marqus comme SSD.


esxcli storage core device list -d device_name

Le rsultat de la commande indique si un priphrique rpertori est marqu comme SSD.


Is SSD: true

Suivant Si le priphrique SSD que vous voulez marquer est partag entre de multiples htes, vrifiez si vous marquez le priphrique depuis tous les htes qui partagent le priphrique.

Supprimer un priphrique SSD


Vous pouvez supprimer un priphrique marqu comme SSD si ncessaire. Cette rubrique rpertorie les commandes dont vous avez besoin pour supprimer un priphrique SSD. Pour plus d'informations sur ces commandes, consultez la documentation Initiation aux interfaces de ligne de commande vSphere et Concepts et exemples de l'interface de ligne de commande vSphere. Procdure 1 Identifiez le priphrique que vous voulez supprimer.
esxcli storage nmp device list

La commande donne l'information suivante.


naa.6006016015301d00167ce6e2ddb3de11 Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11) Type baie stockage : VMW_SATP_CX Config. du priphrique de type de baie de stockage : {navireg ipfilter} Rgle de slection de chemin : VMW_PSP_MRU Config. du priphrique pour la rgle de slection de chemin : Current Path=vmhba4:C0:T0:L25 Chemins actifs : vmhba4:C0:T0:L25

Noter le SATP associ au priphrique.

VMware, Inc.

157

Stockage vSphere

Supprimer la rgle de rclamation qui tait utilise pour marquer le priphrique.


esxcli storage nmp satp rule remove -s SATP --device device_name

Par exemple,
esxcli storage nmp satp rule remove -s VMW_SATP_CX --device naa.

6006016042fa19010a12d9b16d6ade11

Supprimer le priphrique.
esxcli storage core claiming unclaim --type device --device naa. 6006016042fa19010a12d9b16d6ade11

Rclamer le priphrique en excutant les commandes suivantes :


esxcli storage core claimrule load esxcli storage core claimrule run

Vrifier le statut du priphrique en excutant la commande suivante.


esxcli storage core device list -d device_name

Le rsultat de la commande indique si le disque est supprim.


Is SSD: false

Supprimer un priphrique SSD dtect automatiquement


Vous pouvez marquer un priphrique SSD dtect automatiquement comme priphrique non SSD. Procdure 1 Identifiez le priphrique que vous voulez supprimer.
esxcli storage nmp device list

La commande donne l'information suivante.


naa.6006016015301d00167ce6e2ddb3de11 Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11) Type baie stockage : VMW_SATP_CX Config. du priphrique de type de baie de stockage : {navireg ipfilter} Rgle de slection de chemin : VMW_PSP_MRU Config. du priphrique pour la rgle de slection de chemin : Current Path=vmhba4:C0:T0:L25 Chemins actifs : vmhba4:C0:T0:L25

2 3

Noter le SATP associ au priphrique. Ajouter une rgle de rclamation avec l'option disable_ssd.
esxcli storage nmp satp rule add -s SATP --device device_name --option disable_ssd

Par exemple,
esxcli storage nmp satp rule add -s VMW_SATP_CX --device naa.6006016042fa19010a12d9b16d6ade11 --option disable_ssd

Supprimer le priphrique.
esxcli storage core claiming unclaim --type device --device naa. 6006016042fa19010a12d9b16d6ade11

Rclamer le priphrique en excutant les commandes suivantes :


esxcli storage core claimrule load esxcli storage core claimrule run

158

VMware, Inc.

Chapitre 15 Activation des disques l'tat solide

Vrifier le statut du priphrique en excutant la commande suivante.


esxcli storage core device list -d device_name

Le rsultat de la commande indique si le disque est supprim.


Is SSD: false

Marquer les priphriques comme local


ESXi vous permet de marquer des priphriques comme local. C'est utile dans des cas o vous ne pouvez pas dterminer si certains contrleurs SAS sont locaux ou distance. Cette possibilit de marquer les priphriques peut tre galement utilise dans les configurations du systme ESXi sans tat pour autoformater les priphriques locaux. Pour plus d'informations sur les commandes rpertories dans cette rubrique, consultez la documentation Initiation aux interfaces de ligne de commande vSphere et Concepts et exemples de l'interface de ligne de commande vSphere. Prrequis Vrifiez si le priphrique est rclam par VMW_SATP_LOCAL. Procdure 1 Identifiez le priphrique marquer et son SATP.
esxcli storage nmp device list

La commande donne l'information suivante.


naa.6006016015301d00167ce6e2ddb3de11 Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11) Type baie stockage : VMW_SATP_CX Config. du priphrique de type de baie de stockage : {navireg ipfilter} Rgle de slection de chemin : VMW_PSP_MRU Config. du priphrique pour la rgle de slection de chemin : Current Path=vmhba4:C0:T0:L25 Chemins actifs : vmhba4:C0:T0:L25

2 3

Noter le SATP associ au priphrique. Ajouter une rgle de rclamation de PSA.


esxcli storage nmp satp rule add -s SATP --device device_name option="enable_local"

Par exemple,
esxcli storage nmp satp rule add -s VMW_SATP_LOCAL --device naa. 6006016042fa19010a12d9b16d6ade11 option="enable_local"

Supprimer le priphrique.
esxcli storage core claiming unclaim --type device --device naa. 6006016042fa19010a12d9b16d6ade11

Rclamer le priphrique en excutant les commandes suivantes.


esxcli storage core claimrule load esxcli storage core claimrule run

Vrifiez le statut en excutant la commande suivante.


esxcli storage core device list -d device_name

Le rsultat de la commande indique si le disque est distance ou local.

VMware, Inc.

159

Stockage vSphere

Identifier les priphriques SSD


Vous pouvez identifier les priphriques SSD dans votre rseau de stockage. Prrequis Avant d'identifier un priphrique SSD, assurez-vous que le priphrique est marqu en tant que SSD. Procdure 1 Rpertoriez les priphriques.
esxcli storage core device list

Le rsultat de la commande inclut les informations suivantes sur le priphrique rpertori.


Is SSD: true

Vrifiez si la valeur de l'indicateur Is SSD est true.

Identification d'un priphrique SSD virtuel


ESXi permet aux systmes d'exploitation d'auto-dtecter les VMDK rsidant sur les banques de donnes SSD comme priphriques SSD. Pour vrifier si cette fonctionnalit est active, les systmes d'exploitation invits peuvent utiliser des commandes de requte standards telles que SCSI VPD Page (B1h) pour les priphriques SCSI et ATA IDENTIFY DEVICE (Word 217) pour les priphriques IDE. Pour les clones relis, les captures natives et les disques delta, les commandes de requtes signalent le statut SSD virtuel du disque de base. Les systmes d'exploitation peuvent auto-dtecter un VMDK comme SSD dans les conditions suivantes :
n n n

La dtection de SSD virtuels est prise en charge sur 5 htes ESXi et Virtual Hardware version 8. La dtection des SSD virtuels est prise en charge uniquement sur VMFS5 ou une version ultrieure. Si les VMDK se trouvent sur des banques de donnes VMFS partages avec des extensions de priphrique SSD, le priphrique doit tre marqu comme SSD sur tous les htes. Pour qu'un VMDK soit dtect comme SSD virtuel, toutes les extensions physiques sous-jacentes doivent tre SSD.

160

VMware, Inc.

VMkernel et Stockage

16

Le VMkernel est un systme d'exploitation hautes performances qui s'excute directement sur l'hte ESXi. VMkernel gre la plupart des ressources physiques sur le matriel, y compris la mmoire, les processeurs physiques, le stockage et les contrleurs de rseau. Pour grer le stockage, VMkernel comporte un sous-systme de stockage qui prend en charge plusieurs HBA (Host Bus Adapters) y compris SCSI parallle, SAS, Fibre Channel, FCoE et iSCSI. Ces HBA permettent de connecter une grande diversit de baies de stockage actives-actives, actives-passives et ALUA qui sont certifies pour une utilisation avec le VMkernel. Consultez le vSphere Compatibility Guide pour obtenir la liste des HBA pris en charge et des baies de stockage. Le systme de fichiers principal que VMkernel utilise est le VMFS (Virtual Machine File System) de VMware. VMFS est un systme de fichiers cluster conu et optimis pour prendre en charge des fichiers volumineux tels que les disques virtuels et les fichiers d'change. Le VMkernel prend galement en charge le stockage des disques virtuels sur les systmes de fichiers NFS. Le chemin E/S de stockage permet aux machines virtuelles d'accder aux priphriques de stockage par l'mulation de priphriques. Cette mulation de priphriques permet une machine virtuelle d'accder aux fichiers sur un systme de fichiers VMFS ou NFS comme s'ils taient des priphriques SCSI. Le VMkernel offre des fonctions de virtualisation de stockage telles que la planification des requtes E/S depuis de multiples machines virtuelles et le gestion multivoie. En outre, VMkernel offre plusieurs API de stockage qui permettent aux partenaires de stockage d'intgrer et d'optimiser leurs produits pour vSphere. Le graphique suivant illustre les bases du noyau VMkernel, avec une attention particulire la pile de stockage. Les modules de stockage rsident entre le planificateur E/S du priphrique logique et les couches du planificateur E/S de l'adaptateur.

VMware, Inc.

161

Stockage vSphere

Figure 16-1. VMkernel et Stockage


machine virtuelle SE invit mulation SCSI HBA machine virtuelle SE invit mulation SCSI HBA

VMkernel brut disque physique compatibilit mode RDM mulation de commande SCSI mode virtuel RDM rgulier VMDK

snapshot

commutateur de systme de fichiers NFS configuration VMFS

priphriques de traitement par blocs disque LVM

planificateur E/S du priphrique logique API de stockage statistiques analyse API de stockage pour intgration de baie Stockage API pour gestion des chemins multiples (architecture de stockage enfichable)

planificateur E/S de l'adaptateur

mulation Linux

pilote FC

pilote FCoE

pilote iSCSI pilote iSCSI

Pilote iSCSI pilote SCSI

pilote de blocs pilote iSCSI iSCSI pilote IDE

API de stockage
Les API de stockage reprsentent une famille d'API utilise par des fournisseurs tiers de matriels, de logiciels et de stockage pour dvelopper des composants qui amliorent plusieurs fonctionnalits et solutions de vSphere. Cette publication dcrit les ensembles suivants d'API de stockage et explique comment ils participent votre environnement de stockage. Pour plus d'informations sur les autres API de cette famille, y compris les API de stockage - API de protection des donnes et de stockage - Gestionnaire de rcupration de site, consultez le site Web de VMware.
n

API de stockage - Gestion multivoie, connu galement sous le nom de PSA (Pluggable Storage Architecture). PSA est un ensemble d'API de VMkernel qui permet aux partenaires de stockage d'activer leurs baies et de certifier qu'elles sont asynchrones aux planifications de sortie ESXi, tout en fournissant des comportements d'quilibre de charge et gestion multivoie amliorant les performances qui sont optimises pour chaque baie. Pour plus d'informations, voir Gestion des chemins multiples , page 170.

162

VMware, Inc.

Chapitre 16 VMkernel et Stockage

Les API de stockage - Intgration de baie, connue autrefois sous le nom de VAAI, incluent les API suivantes :
n

API d'acclration matrielle. Permet aux baies de s'intgrer vSphere pour dcharger de manire transparente certaines oprations de stockage la baie. Cette intgration rduit considrablement la surcharge de l'UC sur l'hte. Reportez-vous la section Chapitre 18, Acclration matrielle du stockage , page 187. API provisionnement dynamique de la baie. Permet de surveiller l'utilisation de l'espace sur les baies de stockage provisionnement dynamique pour empcher des conditions de manque d'espace et pour effectuer une rclamation d'espace. Reportez-vous la section Allocation dynamique des baies et banques de donnes VMFS , page 203.

API de stockage - Storage Awareness. Ces API bases sur serveur de vCenter permettent aux baies de stockage d'informer le vCenter Server de leurs configurations, de leurs capacits, ainsi que du bon fonctionnement du stockage et des vnements. Reportez-vous la section Chapitre 20, Utilisation des fournisseurs de distributeur de stockage , page 207.

VMware, Inc.

163

Stockage vSphere

164

VMware, Inc.

Prsentation de la gestion gestion multivoie et du basculement

17

Pour assurer une connexion constante entre un hte et son stockage, ESXiprend en charge le chemins multiples. Le chemins multiples est une technique permettant d'utiliser plusieurs chemins d'accs physique pour transfrer des donnes entre l'hte et un priphrique de stockage externe. En cas de dfaillance d'un lment sur le rseau SAN, tel qu'un adaptateur, un commutateur ou un cble, ESXi peut basculer vers un autre chemin d'accs physique, qui n'utilise pas le composant dfaillant. Ce processus de basculement du chemin afin d'viter des composants dfaillants est connu sous le nom de basculement de chemin. En plus du basculement de chemin, le chemins multiples permet d'quilibrer les charges. L'quilibrage de charge est le procd qui consiste distribuer les charges E/S sur diffrents chemins d'accs physiques. L'quilibrage de charge rduit, voire supprime, les goulots d'tranglement potentiels. REMARQUE Les E/S d'une machine virtuelle peuvent tre retards de soixante secondes maximum lors du basculement de chemin. Ces dlais permettent au SAN de stabiliser sa configuration aprs les modifications de topologie. En gnral, les dlais d'E/S peuvent s'avrer plus longs sur les baies actives/passives et plus courts sur les baies actives/actives. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n

Basculement avec Fibre Channel , page 166 Basculement bas sur hte avec iSCSI , page 166 Basculement base de baie avec iSCSI , page 168 Basculement de chemin et machines virtuelles , page 169 Gestion des chemins multiples , page 170 Module de gestion multivoie de VMware , page 171 Scan et rclamation des chemins , page 173 Gestion des chemins de stockage et des plug-ins gestion multivoie , page 176

VMware, Inc.

165

Stockage vSphere

Basculement avec Fibre Channel


Afin de prendre en charger le gestion multivoie, de faon classique votre hte dispose de deux ou plusieurs HBA disponibles. Cette configuration complte la configuration gestion multivoie SAN, qui fournit gnralement un ou plusieurs commutateurs dans la production SAN et un ou plusieurs processeurs de stockage sur la baie de stockage elle-mme. Dans l'illustration suivante, les chemins multiples physiques connectent chaque serveur au priphrique de stockage. Par exemple, si HBA1 ou le lien entre HBA1 et le commutateur FC tombe en panne, HBA2 reprend la fonction et fournit la connexion entre le serveur et le commutateur. Le processus de reprise par un HBA pour un autre est appel basculement HBA. Figure 17-1. Gestion multivoie et basculement avec Fibre Channel
Hte 1 Hte 2

HBA2

HBA1

HBA3

HBA4

commutateur

commutateur

SP1

SP2

baie de stockage

De mme, si SP1 tombe en panne ou que les liens entre SP1 et les commutateurs sont briss, SP2 reprend la fonction et fournit la connexion entre le commutateur et le priphrique de stockage. Ce processus est appel basculement SP. VMware ESXi prend en charge les basculements HBA et SP, grce ses capacits de gestion multivoie.

Basculement bas sur hte avec iSCSI


Lors de la configuration de votre hte ESXi pour la gestion de chemins multiples et le basculement, vous pouvez utiliser de multiples HBA iSCSI ou de multiples cartes NIC en fonction du type d'adaptateurs iSCSI sur votre hte. Pour plus d'informations sur diffrents types d'adaptateurs iSCSI, consultez Initiateurs iSCSI , page 65. Lorsque vous utilisez la gestion de chemins multiples, certaines considrations spcifiques s'appliquent.
n

ESXi ne prend pas en charge la gestion de chemins multiples lorsque vous combinez des adaptateurs de matriel indpendant des adaptateurs logiciels ou de matriel dpendant dans le mme hte. La gestion des chemins multiples entre les adaptateurs logiciels et dpendants dans le mme hte est prise en charge. Vous pouvez mlanger les adaptateurs dpendants et indpendants, sur diffrents htes.

166

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

L'illustration suivante montre les configurations chemins multiples possibles avec diffrents types d'initiateurs iSCSI. Figure 17-2. Basculement de chemin bas sur hte
matriel iSCSI hte 1 logiciel carte HBA2 HBA1 NIC2 NIC1 logiciel iSCSI hte 2

rseau IP

SP

Stockage iSCSI

Basculement avec iSCSI matriel


Avec le iSCSI matriel, l'hte a gnralement plusieurs adaptateurs iSCSI matriels disponibles partir desquels le systme de stockage est accessible l'aide d'un ou plusieurs commutateurs. La configuration peut galement inclure un adaptateur et deux processeurs de stockage afin que l'adaptateur utilise un chemin diffrent pour atteindre le systme de stockage. Sur l'illustration du basculement de chemin bas sur hte, Host1 possde deux adaptateurs iSCSI matriels, HBA1 et HBA2, qui fournissent deux chemins physiques vers le systme de stockage. Les plug-ins de chemins multiples sur votre hte, qu'il s'agisse d'un NMP VMkernel ou de MPP tiers, ont accs aux chemins par dfaut et peuvent surveiller la sant de chaque chemin physique. Si, par exemple, le HBA1 ou la liaison entre le HBA1 et le rseau choue, les plug-ins de chemins multiples peuvent basculer le chemin sur le HBA2.

Basculement avec iSCSI logiciel


Avec le iSCSI logiciel, comme indiqu sur Hte 2 du basculement de chemin bas sur hte, vous pouvez utiliser plusieurs cartes NIC qui fournissent des fonctions de basculement et d'quilibrage de charge pour les connexions iSCSI entre votre hte et les systmes de stockage. Pour cette configuration, tant donn que les plug-in de chemins multiples n'ont pas un accs direct aux adaptateurs rseau physiques de votre hte, vous devez tout d'abord connecter chaque carte rseau physique un port VMkernel distinct. Vous associez ensuite tous les ports VMkernel l'initiateur iSCSI logiciel l'aide d'une technique de liaison de port. En consquence, chaque port VMkernel connect un adaptateur d'interface rseau spare devient un chemin diffrent que la pile de stockage iSCSI et ses plug-ins de chemins multiples prenant en charge le stockage peuvent utiliser. Pour plus d'informations sur la configuration de chemins multiples pour l'iSCSI logiciel, consultez Paramtrage du rseau iSCSI , page 78.

VMware, Inc.

167

Stockage vSphere

Basculement base de baie avec iSCSI


Certains systmes de stockage iSCSI grent l'utilisation des chemins de leurs ports de manire automatique et transparente vers ESXi. Lorsque vous utilisez l'un de ces systmes de stockage, votre hte ne voit pas plusieurs ports sur le stockage et ne peut pas choisir le port de stockage auquel se connecter. Ces systmes disposent d'une seule adresse de port virtuel que votre hte utilise au dpart pour communiquer. Pendant cette communication initiale, le systme de stockage peut rediriger l'hte pour qu'il communique avec un autre port sur le systme de stockage. Les initiateurs iSCSI dans l'hte obissent cette demande de reconnexion et se connectent un autre port sur le systme. Le systme de stockage utilise cette technique pour rpartir la charge sur les diffrents ports disponibles. Si l'hte ESXi perd sa connexion l'un de ces ports, il tente automatiquement de se reconnecter au port virtuel du systme de stockage et doit tre redirig vers un port utilisable actif. Cette reconnexion et redirection se produit rapidement et n'interrompt gnralement pas l'excution des machines virtuelles. Ces systmes de stockage peuvent galement demander que les initiateurs iSCSI se reconnectent au systme pour modifier le port de stockage auquel ils sont connects. Cela permet une utilisation plus efficace des diffrents ports. L'illustration Redirection de port montre un exemple de redirection de port. L'hte tente de se connecter au port virtuel 10.0.0.1. Le systme de stockage redirige cette demande vers 10.0.0.2. L'hte se connecte 10.0.0.2 et utilise ce port pour la communication E/S. REMARQUE Le systme de stockage ne redirige pas toujours les connexions. Le port 10.0.0.1 peut galement tre utilis pour le trafic. Figure 17-3. Redirection de port
"Se connecter au stockage 10.0.0.1" Hte 1 10.0.0.1 "Se reconnecter 10.0.0.2" 10.0.0.2 stockage

Trafic de stockage iSCSI Hte 2 10.0.0.1 10.0.0.2 stockage

Si le port du systme de stockage qui agit en tant que port virtuel devient indisponible, le systme de stockage rattribue l'adresse du port virtuel un autre port du systme. L'illustration Rattribution de port montre un exemple de ce type de rattribution de port. Dans ce cas, le port virtuel 10.0.0.1 devient indisponible et le systme de stockage rattribue l'adresse IP du port virtuel un autre port. Le second port rpond aux deux adresses.

168

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

Figure 17-4. Rattribution de port


10.0.0.1 10.0.0.2 stockage

10.0.0.1 10.0.0.1 10.0.0.2 stockage

Avec cette forme de basculement bas sur baie, vous pouvez avoir plusieurs chemins d'accs au stockage uniquement si vous utilisez plusieurs ports sur l'hte ESXi. Ces chemins sont actifs-actifs. Pour plus d'informations, consultez Gestion des sessions iSCSI , page 93.

Basculement de chemin et machines virtuelles


Les basculements de chemin se produisent lorsque le chemin actif vers un LUN est remplac par un autre chemin, habituellement cause d'une panne d'un composant SAN sur le chemin en cours. En cas de dfaillance d'un chemin, l'E/S de stockage peut s'interrompre pendant 30 60 secondes jusqu' ce que votre hte dtermine que ce lien est indisponible et ralise le basculement. Si vous essayez d'afficher l'hte, ses priphriques de stockage ou ses adaptateurs, le fonctionnement peut apparatre fig. Les machines virtuelles avec leurs disques installs sur le stockage SAN peuvent apparatre comme ne rpondant plus. Lorsque le basculement est termin, l'E/S reprend normalement et les machines virtuelles continuent fonctionner. Toutefois, lorsque des basculements prennent beaucoup de temps, une machine virtuelle Windows pourrait interrompre l'E/S et finir par tomber en panne. Pour viter la panne, dfinissez le dlai du disque pour la machine virtuelle Windows au moins 60 secondes.

Dfinir le dlai d'expiration du SE invit Windows


Augmentez la valeur standard de dlai d'expiration de disque pour viter des interruptions du systme d'exploitation Windows invit pendant le basculement d'un chemin. Cette procdure explique comment changer le dlai d'expiration en utilisant le registre de Windows. Prrequis Sauvegarde du registre Windows. Procdure 1 2 3 4 Slectionnez [Dmarrer] > [Excuter] . Tapez regedit.exe, et cliquez sur [OK] . Dans la vue hirarchique du volet de gauche, faites un double clic d'abord sur [HKEY_LOCAL_MACHINE] > [System] > [CurrentControlSet] > [Services] > [Disk] . Faites un double clic sur [TimeOutValue] .

VMware, Inc.

169

Stockage vSphere

Dfinissez la valeur sur 0x3c (hexadcimal) ou 60 (dcimal) et cliquez sur [OK] . Aprs avoir effectu cette modification, Windows attend au moins 60 secondes pour que les oprations de disque puissent se terminer avant de gnrer des erreurs.

Redmarrez le SE invit pour appliquer la modification.

Gestion des chemins multiples


Pour grer la gestion des chemins multiples, l'ESXi utilise un ensemble d'API de stockage, appel galement PSA (Pluggable Storage Architecture). Le PSA est une structure modulaire ouverte qui coordonne les oprations simultanes de plusieurs plug-ins gestion multivoie (MPP). Le PSA permet aux programmateurs de logiciels tiers de concevoir leurs propres techniques d'quilibrage et mcanismes de basculement pour une baie de stockage particulire et d'insrer leur code directement dans le chemin E/S de stockage ESXi. Les rubriques abordant la gestion des chemins emploient les acronymes suivants. Tableau 17-1. Acronymes relatifs la gestion des chemins
Acronyme PSA NMP PSP Dfinition Architecture de stockage enfichable Native Multipathing Plug-In. Module de gestion multivoie VMware gnrique. Path Selection Plug-In, galement appel rgle de slection de chemin. Gre la slection de chemin d'un priphrique donn. Storage Array Type Plug-In, galement appel rgle de type de baie de stockage. Gre le basculement de chemin d'une baie de stockage donne.

SATP

Le plug-in gestion multivoie VMkernel que l'ESXi fournit par dfaut est le NMP (Native Multipathing PlugIn) VMware . Le NMP est un module extensible qui gre les sous plug-ins. Il existe deux types de sous plugins NMP : Storage Array Type Plug-Ins (SATP) et Path Selection Plug-Ins (PSP). SATP et PSP peuvent tre intgrs et fournis par VMware ou par un tiers. Si davantage de fonctionnalits de gestion multivoie sont ncessaires, un tiers peut galement fournir un MPP excuter en complment ou en remplacement du NMP par dfaut. Lors de la coordination du VMware NMP et de tous les MPP tiers installs, la PSA effectue les tches suivantes :
n n n

Chargement et dchargement des plug-ins gestion multivoie. Dissimulation des informations dtailles sur la machine virtuelle un plug-in particulier. Routage des demandes d'E/S pour un priphrique logique spcifique vers le MPP qui gre ce priphrique. Traitement des files d'attente d'E/S vers les priphriques logiques. Mise en place du partage de la bande passante du priphrique logique entre les machines virtuelles. Traitement des files d'attente d'E/S vers les HBA de stockage physiques. Traitement de la dtection et de la suppression des chemins physiques. Mise disposition des statistiques d'E/S du priphrique logique et du chemin physique.

n n n n n

Comme l'illustration de l'Architecture de stockage enfichable le montre, de multiples MPP tiers peuvent s'excuter paralllement au NMP VMware. Lorsqu'ils sont installs, les MPP tiers remplacent le comportement du NMP et prennent le contrle total du basculement de chemin et des oprations d'quilibrage de charge pour les priphriques de stockage spcifis.

170

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

Figure 17-5. Architecture de stockage enfichable


VMkernel architecture de stockage enfichable
tiers MPP tiers MPP VMware NMP VMware SATP VMware SATP VMware SATP SATP tiers PSP tiers VMware PSP VMware PSP

Les modules de gestion multivoie effectuent les oprations suivantes :


n n n n n

Gestion des rclamations et des non rclamations de chemins physiques. Gestion de la cration, de l'enregistrement et de l'annulation d'enregistrement des priphriques logiques. Association des chemins physiques avec les priphriques logiques. Prise en charge de la dtection et de la correction des pannes de chemin. Traitement des demandes d'E/S vers les priphriques logiques :
n n

Slection d'un chemin physique optimal pour la demande. Excution, selon le priphrique de stockage, d'actions spcifiques ncessaires au traitement des dfaillances de chemins et des nouvelles tentatives de commande d'E/S.

Prise en charge des tches de gestion, telles que la rinitialisation des priphriques logiques.

Module de gestion multivoie de VMware


Par dfaut, ESXi offre un module gestion multivoie extensible appel le NMP (Native Multipathing Plug-In). De manire gnrale, le VMware NMP prend en charge toutes les baies de stockage rpertories sur la liste de compatibilit matrielle (HCL) de stockage de VMware et fournit un algorithme de slection de chemin par dfaut reposant sur le type de baie. Le NMP associe une srie de chemins physiques un priphrique de stockage spcifique ou une LUN. Les dtails spcifiques du traitement du basculement de chemin pour une baie de stockage spcifique sont dlgus au Storage Array Type Plugin (SATP). Les dtails spcifiques de dtermination du chemin physique utilis pour mettre une demande d'E/S un priphrique de stockage sont traits par un Path Selection Plugin (PSP). Les SATP et les PSP sont des sous plug-ins dans le module NMP. Avec ESXi, le SATP appropri la baie que vous utilisez sera install automatiquement. Il n'est pas ncessaire d'obtenir ou de tlcharger de SATP.

SATP de VMware
Les Storage Array Type Plug-Ins (SATP) s'excutent avec VMware NMP et sont responsables des oprations spcifiques aux baies. ESXi offre un SATP pour chaque type de baie pris en charge par VMware. Il fournit galement les SATP par dfaut qui prennent en charge les baies de stockage non-spcifiques actives/actives et ALUA et le SATP local pour les priphriques directement relis. Chaque SATP contient des caractristiques spciales d'une certaine classe de baies de stockage et effectue les oprations spcifiques la baie ncessaires pour dtecter l'tat du chemin et pour activer un chemin inactif. Par consquent, le module NMP peut fonctionner avec de nombreuses baies de stockage sans avoir connatre les informations dtailles du priphrique de stockage.

VMware, Inc.

171

Stockage vSphere

Ds que le NMP dtermine le SATP utiliser pour un priphrique de stockage spcifique et qu'il associe le SATP aux chemins physiques de ce priphrique de stockage, le SATP met en uvre les tches suivantes :
n n n

Surveillance du bon fonctionnement de chaque chemin physique. Rapports sur les modifications d'tat de chaque chemin physique. Excution d'actions spcifiques la baie ncessaires pour le basculement du stockage. Par exemple, pour les priphriques actifs-passifs, il peut activer les chemins passifs.

PSP de VMware
Les PSP (Path Selection Plug-Ins) sont des sous plug-ins du NMP de VMware et sont chargs de choisir un chemin physique pour les requtes E/S. VMware NMP affecte un PSP par dfaut pour chaque priphrique logique selon le SATP associ aux chemins physiques de ce priphrique. Vous pouvez remplacer le PSP par dfaut. Pour plus d'informations, consultez Modification de la rgle de slection de chemin d'accs , page 176. Par dfaut, le VMware NMP prend en charge les PSP suivants : VMW_PSP_MRU L'hte slectionne le chemin qui est utilis le plus rcemment. Quand le chemin d'accs devient non disponible, l'hte slectionne un autre chemin d'accs. L'hte ne retourne pas au chemin d'accs d'origine quand ce chemin d'accs devient de nouveau disponible. Il n'y a aucun paramtre de chemin d'accs prfr avec la rgle MRU. MRU est la rgle par dfaut pour la plupart des priphriques de stockage actifs-passifs. Affich dans le vSphere Client comme rgle de slection de chemin d'accs Most Recently Used (VMware). VMW_PSP_FIXED L'hte utilise le chemin favori dsign s'il a t configur. Sinon, il utilise le premier chemin oprationnel dtect au moment du dmarrage du systme. Si vous voulez que l'hte utilise un chemin favori particulier, spcifiez-le par le vSphere Client. Fixe est la rgle par dfaut pour les baies actives/actives. Affich dans le vSphere Client comme rgle de slection de chemin d'accs fixe (VMware). VMW_PSP_RR L'hte utilise un algorithme de slection automatique de chemin d'accs qui effectue une permutation circulaire sur tous les chemins d'accs actifs lors de la connexion des baies actives/passives ou sur tous les chemins d'accs disponibles lors de la connexion des baies actives/actives. RR est la valeur par dfaut pour plusieurs baies et peut tre utilise avec les baies actives-actives et actives-passives pour mettre en uvre l'quilibrage de charge sur les chemins pour diffrents LUN. Affich dans le vSphere Client comme rgle de slection de chemin d'accs Round Robin (VMware).

Flux d'E/S de VMware NMP


Lorsqu'une machine virtuelle envoie une demande d'E/S un priphrique de stockage gr par le NMP, le processus suivant a lieu : 1 2 3 4 Le NMP appelle le PSP assign ce priphrique de stockage. Le PSP slectionne le chemin physique appropri sur lequel il peut envoyer l'E/S. Le NMP envoie la requte d'E/S sur le chemin slectionn par le PSP. Si l'opration d'E/S russie, le NMP signale qu'elle est termine.

172

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

5 6 7

Si l'opration d'E/S choue, le NMP appelle le SATP appropri. Le SATP interprte les erreurs de commande d'E/S et, si ncessaire, active les chemins inactifs. Le PSP est appel et slectionne un nouveau chemin sur lequel il peut envoyer l'E/S.

Scan et rclamation des chemins


Lorsque vous dmarrez votre hte ESXi ou ranalysez votre adaptateur de stockage, l'hte dcouvre tous les chemins physiques vers les priphriques de stockage disponibles sur l'hte. En se basant sur un ensemble de rgles de rclamation, l'hte dtermine le plug-in gestion multivoie (MPP) qui doit rclamer les chemins vers un priphrique particulier et devenir responsable de la gestion de cette prise en charge gestion multivoie pour ce priphrique. Par dfaut, l'hte effectue une valuation priodique des chemins toutes les 5 minutes, faisant rclamer par le PPP appropri tous les chemins non rclams. Les rgles de rclamation sont numrotes. Pour chaque chemin physique, l'hte parcourt les rgles de rclamation en commenant par le plus petit nombre. Les attributs du chemin physique sont compars la spcification de chemin dans la rgle de rclamation. S'il trouve une correspondance, l'hte assigne le MPP spcifi dans la rgle de rclamation pour l'administration du chemin physique. Ce processus continue jusqu' ce que tous les chemins physiques soient rclams par les MPP correspondants, soit des plug-ins gestion multivoie tiers, soit le plug-in gestion multivoie natif (NMP). Pour les chemins administrs par le module NMP, un second ensemble de rgles s'applique. Ces rgles dterminent quel Storage Array Type Plug-In (SATP) doit tre utilis pour grer les chemins pour un type spcifique de baie et quel Path Selection Plug-In (PSP) doit tre utilis pour chaque priphrique de stockage. Utilisez le vSphere Client pour afficher le SATP et le PSP que l'hte utilise pour un priphrique de stockage spcifique et le statut de tous les chemins disponibles pour ce priphrique de stockage. Au besoin, vous pouvez modifier le PSP VMware par dfaut grce au vSphere Client. Pour modifier le SATP par dfaut, vous devez diter les rgles de rclamation dans vSphere CLI. Vous pourrez trouver des informations sur la modification des rgles de rclamation dans Gestion des chemins de stockage et des plug-ins gestion multivoie , page 176. Pour plus d'informations sur les commandes disponibles pour grer PSA, consultez Initiation aux interfaces de ligne de commande vSphere. Pour une liste complte des baies de stockage et des SATP et PSP correspondants, consultez la section Rfrence du modle de baie SAN du vSphere Compatibility Guide.

VMware, Inc.

173

Stockage vSphere

Affichage des informations sur les chemins


Utilisez le vSphere Client pour afficher le SATP et le PSP que l'hte ESXi utilise pour un support de stockage spcifique et le statut de tous les chemins disponibles pour ce priphrique de stockage. Vous pouvez accder aux informations sur les chemins la fois depuis les vues Banques de donnes et Priphriques. Pour les banques de donnes, vous consultez les chemins connects au priphrique hbergeant la banque de donnes. Les informations du chemin comprennent le SATP assign pour administrer le priphrique, la politique de slection de chemins (PSP), une liste de chemins et le statut de chaque chemin. Les informations de statut du chemin suivantes peuvent s'afficher : Active Les chemins disponibles pour E/S avec un LUN. Un ou plusieurs chemins actifs en cours d'utilisation pour le transfert de donnes sont marqus comme Actifs (E/S). REMARQUE Pour les htes excutant ESX/ESXi version 3.5 ou antrieure, le terme Actif dsigne le chemin unique que l'hte utilise pour dlivrer l'E/S un LUN. Veille Dsactiv Mort Le chemin peut tre rapidement oprationnel et utilis pour l'E/S si les chemins actifs tombent en panne. Le chemin est dsactiv et aucune donne ne peut tre transfre. Le logiciel ne peut joindre le disque par ce chemin.

Si vous utilisez la politique de chemin [Fixe] , vous pouvez voir quel est le chemin prfr. Le chemin prfr est marqu par une astrisque (*) dans la colonne Prfr. Vous pouvez galement afficher le nom du chemin pour chaque chemin. Le nom inclut des paramtres qui dcrivent le chemin : ID de l'adaptateur, ID de la cible, et ID du priphrique. En gnral, le nom du chemin a un format similaire au format suivant :
fc.adapterID-fc.targetID-naa.deviceID

REMARQUE Lorsque vous utilisez l'diteur de profils d'hte pour diter les chemins, vous devez spcifier les trois paramtres qui dcrivent un chemin ; ID de l'adaptateur, ID de la cible et ID du priphrique.

Affichage des chemins d'accs aux banques de donnes


Utilisez vSphere Client pour examiner les chemins qui connectent les banques de donnes aux priphriques de stockage qui y sont dploys. Procdure 1 2 3 4 5 6 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [banques de donnes] dans Vue. Dans la liste des banques de donnes configures, slectionnez le banque de donnes dont vous voulez afficher les chemins et cliquez sur [Proprits] . Sous Extensions, slectionnez le priphrique de stockage dont vous voulez afficher les chemins et cliquez sur [Grer les chemins] . Dans le panneau Chemins, slectionnez le chemin afficher. Le panneau au-dessous affiche le nom du chemin. Le nom inclut des paramtres dcrivant le chemin : ID de l'adaptateur, ID de la cible et ID du priphrique.

174

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

(Facultatif) Pour extraire les paramtres du chemin, faites un clic droit et slectionnez [Copie du chemin sur le bloc-notes] .

Affichage des chemins d'accs aux priphriques de stockage


Utilisez vSphere Client pour afficher quel SATP et PSP est utilis par l'hte pour un priphrique de stockage spcifique, et l'tat de tous les chemins disponibles pour ce priphrique de stockage. Procdure 1 2 3 4 5 Ouvrez une session sur vSphere Client et slectionnez un serveur dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [Priphriques] dans Vue. Slectionnez le priphrique de stockage dont vous voulez afficher les chemins et cliquez sur [Grer les chemins] . Dans le panneau Chemins, slectionnez le chemin afficher. Le panneau au-dessous affiche le nom du chemin. Le nom inclut des paramtres dcrivant le chemin : ID de l'adaptateur, ID de la cible et ID du priphrique. 6 (Facultatif) Pour extraire les paramtres du chemin, faites un clic droit et slectionnez [Copie du chemin sur le bloc-notes] .

Dfinition d'une rgle de slection de chemin


Pour chaque priphrique de stockage, l'hte ESXi dfinit la rgle de slection du chemin bas sur les rgles de rclamation. Par dfaut, VMware prend en charge les rgles de slection de chemin d'accs suivantes. Si un PSP tiers est install sur votre hte, sa rgle figure aussi dans la liste. Fixe (VMware) L'hte utilise le chemin favori dsign s'il a t configur. Sinon, il utilise le premier chemin oprationnel dtect au moment du dmarrage du systme. Si vous voulez que l'hte utilise un chemin favori particulier, spcifiez-le par le vSphere Client. Fixe est la rgle par dfaut pour les baies actives/actives. L'hte slectionne le chemin qui est utilis le plus rcemment. Quand le chemin d'accs devient non disponible, l'hte slectionne un autre chemin d'accs. L'hte ne retourne pas au chemin d'accs d'origine quand ce chemin d'accs devient de nouveau disponible. Il n'y a aucun paramtre de chemin d'accs prfr avec la rgle MRU. MRU est la rgle par dfaut pour la plupart des priphriques de stockage actifs-passifs. L'hte utilise un algorithme de slection automatique de chemin d'accs qui effectue une permutation circulaire sur tous les chemins d'accs actifs lors de la connexion des baies actives/passives ou sur tous les chemins d'accs disponibles lors de la connexion des baies actives/actives. RR est la valeur par dfaut pour plusieurs baies et peut tre utilise avec les baies actives-actives et actives-passives pour mettre en uvre l'quilibrage de charge sur les chemins pour diffrents LUN.

Dernire utilisation (VMware)

Rptition alterne (VMware)

VMware, Inc.

175

Stockage vSphere

Modification de la rgle de slection de chemin d'accs


Gnralement, vous ne devez pas changer les paramtres multivoie par dfaut que votre hte utilise pour un priphrique de stockage spcifique. Cependant, si vous voulez faire des modifications, vous pouvez utiliser la bote de dialogue Grer Chemins d'accs pour modifier une rgle de slection de chemin d'accs et spcifier le chemin par dfaut comme rgle Fixe. Procdure 1 2 Ouvrez la bote de dialogue Grer les chemins depuis la vue banques de donnes ou Priphriques. Slectionnez une rgle de slection de chemin d'accs. Par dfaut, VMware prend en charge les rgles de slection de chemin d'accs suivantes. Si un PSP tiers est install sur votre hte, sa rgle figure aussi dans la liste.
n n n

Fixe (VMware) Dernire utilisation (VMware) Rptition alterne (VMware)

3 4

Pour la rgle fixe, spcifiez un chemin d'accs en cliquant avec le bouton droit de la souris sur le chemin considrer comme votre chemin prfr, et slectionnez [Prfr] . Cliquez sur [OK] pour sauvegarder vos paramtres et quitter la bote de dialogue.

Dsactiver des chemins


Vous pouvez mettre hors tension temporairement certains chemins d'accs, pour des raisons de maintenance notamment. Pour cela, vous pouvez utiliser vSphere Client. Procdure 1 2 3 Ouvrez la bote de dialogue Grer les chemins depuis la vue banques de donnes ou Priphriques. Dans le panneau Paths, cliquez avec le bouton droit sur le chemin d'accs mettre hors tension, puis slectionnez [Dsactiver] . Cliquez sur [OK] pour sauvegarder vos paramtres et quitter la bote de dialogue.

Vous pouvez galement dsactiver un chemin depuis la vue Chemins de l'adaptateur ; dans la liste, cliquez sur le chemin l'aide du bouton droit de la souris, puis slectionnez [Dsactiver] .

Gestion des chemins de stockage et des plug-ins gestion multivoie


Utilisez les commandes esxcli pour grer les plug-ins gestion multivoie PSA et les chemins de stockage qui leur sont affects. Vous pouvez afficher tous les plug-ins gestion multivoie disponibles sur votre hte. Vous pouvez rpertorier tous les MPP tiers ainsi que le NMP et les SATP de votre hte et passer en revue les chemins qu'ils rclament. Vous pouvez aussi dfinir de nouveaux chemins et spcifier quel plug-in gestion multivoie doit rclamer les chemins. Pour plus d'informations sur les commandes disponibles pour grer le PSA, consultez la section Initiation aux interfaces de ligne de commande vSphere.

176

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

Considrations concernant le gestion multivoie


Des considrations spcifiques s'appliquent lorsque vous grez des plug-ins gestion multivoie de stockage et des rgles de rclamation. Les considrations suivantes sont destines vous aider utiliser le gestion multivoie :
n

Si les rgles de rclamation n'ont pas allou de SATP au priphrique, le SATP par dfaut pour iSCSI ou pour les priphriques FC est VMW_SATP_DEFAULT_AA. Le PSP par dfaut est VMW_PSP_FIXED. Lorsque le systme recherche les rgles SATP pour localiser un SATP pour un priphrique donn, il recherche les rgles du pilote en premier. En cas de non correspondance, les rgles du fournisseur/modle sont recherches, et pour finir, les rgles de transport sont recherches. En cas de non correspondance, NMP slectionne un SATP par dfaut pour le priphrique. Si VMW_SATP_ALUA est affect un priphrique de stockage spcifique mais le priphrique ne prend pas en charge ALUA, il n'y a aucune correspondance la rgle de rclamation pour ce priphrique. Le priphrique est rclam par le SATP par dfaut selon le type de transport du priphrique. Le PSP par dfaut de tous les priphriques rclams par VMW_SATP_ALUA est VMW_PSP_MRU. VMW_PSP_MRU slectionne un chemin actif/optimis que lui a indiqu VMW_SATP_ALUA, ou un chemin actif/non optimis s'il n'y a pas de chemin actif/optimis. Ce chemin est utilis jusqu' ce qu'un meilleur chemin soit disponible (MRU). Par exemple, si VMW_PSP_MRU utilise un chemin actif/non optimis et qu'un chemin actif/optimis est disponible, VMW_PSP_MRU change de chemin pour utiliser le chemin actif/optimis. Si vous activez VMW_PSP_FIXED avec VMW_SATP_ALUA, l'hte fait initialement une slection arbitraire du chemin prfr, indpendamment de l'tat ALUA signal comme tant optimis ou non optimis. Par consquent, VMware ne recommande par d'activer VMW_PSP_FIXED lorsque VMW_SATP_ALUA est utilis pour une baie de stockage conforme ALUA. L'exception est lorsque vous affectez le chemin prfr l'un des nuds (SP) de processeur de stockage redondant dans une baie de stockage active-active. L'tat ALUA n'est pas pertinent.

Par dfaut, la rgle de rclamation 101 du PSA masque les priphriques pseudo de baie Dell. Ne supprimez pas cette rgle sauf si vous voulez afficher ces priphriques.

Liste de rgles de rclamation de gestion multivoie pour l'hte


Utilisez la commande esxcli pour rpertorier les rgles de rclamation de gestion multivoie disponibles. Les rgles de rclamation indiquent quel plug-in gestion multivoie, NMP ou tout autre MPP tiers gre un chemin physique donn. Chaque rgles de rclamation identifie une srie de chemins selon les paramtres suivants :
n n n n

Chanes d'diteur/modle Transport tel que SATA, IDE, Fibre Channel et bien d'autres encore Adaptateur, cible ou emplacement de la LUN Pilote du priphrique, par exemple, Mega-RAID

Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere.

VMware, Inc.

177

Stockage vSphere

Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Excutez la commande

esxcli --server=server_name storage core claimrule list --claimrule-class=MP pour rpertorier les

rgles de rclamation de gestion multivoie.

Exemple : Exemple de rsultat de la commande esxcli storage core claimrule list


Rule Class MP MP MP MP MP MP MP MP MP MP MP MP MP MP Rule 0 1 2 3 4 101 101 200 200 201 201 202 202 65535 Class runtime runtime runtime runtime runtime runtime file runtime file runtime file runtime file runtime Type transport transport transport transport transport vendor vendor vendor vendor location location driver driver vendor Plugin NMP NMP NMP NMP NMP MASK_PATH MASK_PATH MPP_1 MPP_1 MPP_2 MPP_2 MPP_3 MPP_3 NMP Matches transport=usb transport=sata transport=ide transport=block transport=unknown vendor=DELL model=Universal Xport vendor=DELL model=Universal Xport vendor=NewVend model=* vendor=NewVend model=* adapter=vmhba41 channel=* target=* lun=* adapter=vmhba41 channel=* target=* lun=* driver=megaraid driver=megaraid vendor=* model=*

Cet exemple indique :


n

Le NMP rclame tous les chemins connects aux priphriques de stockage qui utilisent le transport USB, SATA, IDE et Block SCSI. Vous pouvez utiliser le module MASK_PATH pour masquer les priphriques inutiliss de votre hte. Par dfaut, la rgle de rclamation 101 du PSA masque les priphriques pseudo de baie Dell avec une chane de fournisseur DELL et une chane de modle Universal Xport. Le module MPP_1 rclame tous les chemins connects tout modle de baie de stockage NewVend. Le module MPP_3 rclame les chemins vers les priphriques de stockage contrls par le pilote du priphrique Mega-RAID. Tous les chemins non dcrits dans les rgles prcdentes sont rclams par le NMP. La colonne Classe de rgles dans la sortie dcrit la catgorie de rgle de rclamation. Elle peut tre MP (plug-in gestion multivoie), Filtre ou VAAI. La colonne Classe montre les rgles qui sont dfinies et celles qui sont charges. Le paramtre file dans la colonne Class indique que la rgle est dfinie. Le paramtre runtime indique que la rgle a t charge sur votre systme. Pour activer une rgle de rclamation dfinie par l'utilisateur, il faut que deux lignes ayant le mme nombre de rgles soient prsentes. Une ligne pour la rgle avec la paramtre file et une autre ligne avec le paramtre runtime. Plusieurs rgles de basse numrotation ont une seule ligne avec la classe runtime. Ce sont des rgles de rclamation dfinies par le systme qui ne peuvent pas tre modifies.

n n

n n

178

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

Affichage des modules de gestion multivoie


Utilisez la commande esxcli pour rpertorier tous les modules de gestion multivoie chargs sur le systme. Les modules de gestion multivoie grent les chemins physiques qui connectent votre hte au stockage. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Pour afficher les modules de gestion multivoie, excutez la commande suivante :


esxcli --server=server_name storage core plugin list --plugin-class=MP

Cette commande montre typiquement le NMP et le module MASK_PATH, s'il est charg. Si des MPP tiers ont t chargs, ils sont galement rpertoris.

Affichage des SATP pour l'hte


Utilisez la commande esxcli pour rpertorier les SATP NMP de VMware chargs sur le systme. Affichez les informations sur les SATP. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Pour rpertorier les SATP de VMware, excutez la commande suivante :


esxcli --server=server_name storage nmp satp list

Pour chaque SATP, la commande affiche les informations concernant le type de baie de stockage ou de systme pris en charge par SATP ainsi que le PSP par dfaut de toutes les LUN utilisant ce SATP. Espace rserv (plugin pas charg) dans la colonne Description indique que le SATP n'est pas charg.

Affichage des priphriques de stockage NMP


Utilisez la commande esxcli pour rpertorier tous les priphriques de stockage contrls par le VMware NMP et afficher les informations sur le SATP et le PSP correspondant chaque priphrique. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere.

VMware, Inc.

179

Stockage vSphere

Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Pour rpertorier tous les priphriques de stockage, excutez la commande suivante :


esxcli --server=server_name storage nmp device list

Utilisez l'option --device | -d=device_ID pour filtrer le rsultat de cette commande et afficher un seul priphrique.

Ajout de rgles de rclamation de gestion multivoie


Utilisez les commandes esxcli pour ajouter une rgle de rclamation de gestion multivoie PSA l'ensemble de rgles de rclamation sur le systme. Pour activer la nouvelle rgle de rclamation, dfinissez d'abord la rgle puis chargez-la sur votre systme. Ajoutez une nouvelle rgle de rclamation PSA lorsque, par exemple, vous chargez un nouveau plug-in de gestion multivoie (MPP) et devez dfinir les chemins que ce module doit rclamer. Il se peut que vous deviez crer une rgle de rclamation si vous ajoutez de nouveaux chemins et souhaitez que le MPP existant les rclame. AVERTISSEMENT Lors de la cration des nouvelles rgles de rclamation, prenez soin d'viter toutes situations o les diffrents chemins physiques sur la mme LUN sont rclams par diffrents MPP. Sauf dans le cas o le MPP correspond MASK_PATH MPP, cette configuration entrane des problmes de performances. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure 1 Pour dfinir une nouvelle rgle de rclamation, excutez la commande suivante :
esxcli --server=server_name storage core claimrule add

La commande accepte les options suivantes :


Option -A|--adapter=<str> -u|--autoassign -C|--channel=<long> -c|--claimrule-class=<str> -d|--device=<str> -D|--driver=<str> -f|--force Description Indiquez l'adaptateur des chemins utiliser pour cette opration. Le systme affecte automatiquement un ID de rgle. Indiquez le canal des chemins utiliser pour cette opration. Indiquez la classe des rgles de rclamation utiliser pour cette opration. Les valeurs valides sont : MP, Filtre, VAAI. Indiquez l'Uid du priphrique utiliser pour cette opration. Indiquez le pilote des chemins utiliser pour cette opration. Forcez les rgles de rclamation ignorer les vrifications de validit et installer la rgle.

180

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

Option --if-unset=<str> -i|--iqn=<str> -L|--lun=<long> -M|--model=<str> -P|--plugin=<str> -r|--rule=<long> -T|--target=<long> -R|--transport=<str>

Description Excutez cette commande si cette variable d'utilisateur avanc n'est pas dfinie sur la valeur 1. Indiquez le Nom Qualifi iSCSI pour la cible utiliser dans cette opration. Indiquez la LUN des chemins utiliser pour cette opration. Indiquez le modle des chemins utiliser pour cette opration. Indiquez le plugin PSA utiliser pour cette opration. (requis) Indiquez l'ID de la rgle utiliser pour cette opration. Indiquez la cible des chemins utiliser pour cette opration. Indiquez le transport des chemins utiliser pour cette opration. Les valeurs valides sont : block, fc, iscsi, iscsivendor, ide, sas, sata, usb, parallel, unknown. Indiquez le type de correspondances utilis pour la rclamation/non rclamation ou pour claimrule. Les valeurs valides sont : fournisseur, emplacement, pilote, transport, priphrique, cible. (requis) Indiquez le fournisseur des chemins utiliser dans cette opration. Indiquez le numro de nud WWNN pour la cible utiliser dans cette opration. Indiquez le numro de port WWPN pour la cible utiliser dans cette opration.

-t|--type=<str>

-V|--vendor=<str> --wwnn=<str> --wwpn=<str>

Pour charger la nouvelle rgle de rclamation sur votre systme, excutez la commande suivante :
esxcli --server=server_name storage core claimrule load

Cette commande charge toutes les nouvelles rgles de rclamation gestion multivoie partir du fichier de configuration de votre systme.

Exemple : Dfinition des rgles de rclamation de gestion multivoie


Dans l'exemple suivante, vous ajoutez et chargez la rgle N500 pour rclamer tous les chemins comportant la chane du modle NewMod et la chane du fournisseur NewVend pour le plug-in NMP.
# esxcli --server=server_name storage core claimrule add -r 500 -t vendor -V NewVend -M NewMod -P NMP # esxcli --server=server_name storage core claimrule load

Aprs avoir excut la commande esxcli --server=server_name storage core claimrule list, vous pouvez voir apparatre la nouvelle liste de rclamations sur la liste. REMARQUE Les deux lignes de la rgle de rclamation (celle de la classe runtime et celle de la classe file) indiquent que la nouvelle rgle de rclamation a t charge sur le systme et qu'elle est active.
Rule Class MP MP MP MP MP MP MP MP MP Rule 0 1 2 3 4 101 101 500 500 Class runtime runtime runtime runtime runtime runtime file runtime file Type transport transport transport transport transport vendor vendor vendor vendor Plugin NMP NMP NMP NMP NMP MASK_PATH MASK_PATH NMP NMP Matches transport=usb transport=sata transport=ide transport=block transport=unknown vendor=DELL model=Universal Xport vendor=DELL model=Universal Xport vendor=NewVend model=NewMod vendor=NewVend model=NewMod

VMware, Inc.

181

Stockage vSphere

Suppression de rgles de rclamation de gestion multivoie


Utilisez les commandes esxcli pour supprimer une rgle de rclamation PSA de gestion multivoie de la srie de rgles de rclamation sur le systme. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure 1 Supprimez une rgle de rclamation d'une srie de rgles de rclamation.
esxcli --server=server_name storage core claimrule remove

REMARQUE Par dfaut, la rgle de rclamation 101 du PSA masque les priphriques pseudo de baie Dell. Ne supprimez pas cette rgle sauf si vous voulez afficher ces priphriques. La commande accepte les options suivantes :
Option -c|--claimrule-class=<str> -P|--plugin=<str> -r|--rule=<long> Description Indiquez la classe des rgles de rclamation utiliser pour cette opration. (MP, Filtre, VAAI). Indiquez le plug-in utiliser pour cette opration. Indiquez l'ID de la rgle utiliser pour cette opration.

Cette tape supprime la rgle de rclamation de la classe de fichiers. 2 Supprimez la rgle de rclamation du systme.
esxcli --server=server_name storage core claimrule load

Cette tape supprime la rgle de rclamation de la classe Runtime.

Masquage des chemins


Vous pouvez empcher l'hte d'accder aux priphriques de stockage ou aux LUN, ou encore l'empcher d'utiliser certains chemins d'accs un LUN. Pour masquer les chemins d'accs, utilisez les commandes esxcli. Lorsque vous masquez des chemins d'accs, vous crez des rgles de rclamation qui affectent le plugin MASK_PATH aux chemins spcifis. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell.

182

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

Procdure 1 Vrifiez l'ID de rgle disponible suivant


esxcli --server=server_name storage core claimrule list

Les ID de rgle de rclamation utiliss pour masquer les chemins d'accs doivent tre compris dans la plage 101 200. Si cette commande indique que les rgles 101 et 102 existent dj, vous pouvez spcifier 103 en tant qu'ID de rgle ajouter. 2 Affectez le plug-in MASK_PATH un chemin d'accs : pour cela, crez une nouvelle rgle de rclamation associer au plug-in.
esxcli --server=server_name storage core claimrule add -P MASK_PATH

Chargez la rgle de rclamation du plug-in MASK_PATH dans votre systme.


esxcli --server=server_name storage core claimrule load

Vrifiez que cette rgle a bien t ajoute.


esxcli --server=server_name storage core claimrule list

Si une rgle de rclamation existe dj pour le chemin d'accs masqu, supprimez-la.


esxcli --server=server_name storage core claiming unclaim

Excutez les rgles de rclamation de chemin d'accs.


esxcli --server=server_name storage core claimrule run

Une fois que vous avez affect le plug-in MASK_PATH un chemin d'accs, l'tat de l'tat de ce dernier devient non pertinent et n'est plus gr par l'hte. Par consquent, les commandes qui affichent les informations de chemin masqu peuvent indiquer que ce chemin est mort.

Exemple : Masquage d'un LUN


Dans cet exemple, vous masquez le LUN 20 pour les cibles T1 et T2, dont l'accs s'effectue via les adaptateurs de stockage vmhba2 et vmhba3. 1 2
#esxcli --server=server_name storage core claimrule list #esxcli --server=server_name vmhba2 -C 0 -T 1 -L 20 #esxcli --server=server_name vmhba3 -C 0 -T 1 -L 20 #esxcli --server=server_name vmhba2 -C 0 -T 2 -L 20 #esxcli --server=server_name vmhba3 -C 0 -T 2 -L 20 storage core claimrule add -P MASK_PATH -r 109 -t location -A storage core claimrule add -P MASK_PATH -r 110 -t location -A storage core claimrule add -P MASK_PATH -r 111 -t location -A storage core claimrule add -P MASK_PATH -r 112 -t location -A

3 4 5 6

#esxcli --server=server_name storage core claimrule load #esxcli --server=server_name storage core claimrule list #esxcli --server=server_name storage core claiming unclaim -t location -A vmhba2 #esxcli --server=server_name storage core claiming unclaim -t location -A vmhba3 #esxcli --server=server_name storage core claimrule run

VMware, Inc.

183

Stockage vSphere

Dmasquage des chemins


Si vous souhaitez que l'hte accde au priphrique de stockage masqu, dmasquez les chemins menant ce priphrique. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure 1 Supprimez la rgle de rclamation MASK_PATH.
esxcli --server=server_name storage core claimrule remove -r rule#

Vrifiez que la rgle de rclamation a t supprime correctement.


esxcli --server=server_name storage core claimrule list

Rechargez les rgles de rclamation du chemin partir du fichier de configuration dans le VMkernel.
esxcli --server=server_name storage core claimrule load

Excutez la commande esxcli --server=server_name storage core claiming unclaim pour chaque chemin vers le priphrique de stockage masqu. Par exemple :
esxcli --server=server_name storage core claiming unclaim -t location -A vmhba0 -C 0 -T 0 -L 149

Excutez les rgles de rclamation de chemin d'accs.


esxcli --server=server_name storage core claimrule run

Votre hte peut dsormais accder au priphrique de stockage qui a t masqu.

Dfinition des rgles SATP de NMP


Les rgles de rclamation NMP SATP spcifient le SATP qui doit grer un priphrique de stockage particulier. De manire gnrale, il n'est pas ncessaire de modifier les rgles NMP SATP. En cas de besoin, utilisez les commandes esxcli pour ajouter une rgle la liste de rgles de rclamation pour le SATP spcifi. Vous pourriez avoir besoin de crer une rgle SATP lors de l'installation d'un SATP tiers pour une baie de stockage spcifique. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell.

184

VMware, Inc.

Chapitre 17 Prsentation de la gestion gestion multivoie et du basculement

Procdure 1 Pour ajouter une rgle de rclamation un SATP spcifique, excutez la commande esxcli --server=server_name storage nmp satp rule add. La commande accepte les options suivantes.
Option -b|--boot -c|--claim-option=string -e|--description=string -d|--device=string Description C'est une rgle par dfaut du systme ajoute au moment du dmarrage. Ne modifiez pas esx.conf ou ne l'ajoutez pas au profil de l'hte. Dfinissez la chane d'option de rclamation lors de l'ajout d'une rgle de rclamation SATP. Dfinissez la description de la rgle de rclamation lors de l'ajout d'une rgle de rclamation SATP. Dfinissez le priphrique lors de l'ajout de rgles de rclamation SATP. Les rgles de priphrique sont mutuellement exclusives aux rgles d'diteur/modle et de pilote. Dfinissez la chane de pilote lors de l'ajout d'une rgle de rclamation SATP. Les rgles de pilote sont mutuellement exclusives aux rgles d'diteur/modle. Forcez les rgles de rclamation ignorer les vrifications de validit et installer la rgle. Affichez le message d'aide. Dfinissez la chane de modle lors de l'ajout d'une rgle de rclamation SATP. Les rgles d'diteur/modle sont mutuellement exclusives aux rgles de pilote. Dfinissez la chane d'option lors de l'ajout d'une rgle de rclamation SATP. Dfinissez le PSP par dfaut pour la rgle de rclamation SATP. Dfinissez les options du PSP pour la rgle de rclamation SATP. Le SATP pour lequel une nouvelle rgle sera ajoute. Dfinissez la chane du type de transport lors de l'ajout d'une rgle de rclamation SATP. Dfinissez le type de chane lors de l'ajout d'une rgle de rclamation. Dfinissez la chane d'diteur lors de l'ajout de rgles de rclamation SATP. Les rgles d'diteur/modle sont mutuellement exclusives aux rgles de pilote.

-D|--driver=string

-f|--force -h|--help -M|--model=string

-o|--option=string -P|--psp=string -O|--psp-option=string -s|--satp=string -R|--transport=string -t|--type=string -V|--vendor=string

REMARQUE Lors de la recherche de rgles SATP pour localiser le SATP d'un priphrique donn, le NMP commence par rechercher les rgles de pilote. Si aucune correspondance n'est trouve, les rgles d'diteur/modle sont recherches et finalement les rgles de transport. Si aucune correspondance n'est trouve cette fois encore, le NMP slectionne un SATP par dfaut pour le priphrique. 2 Redmarrez l'hte.

Exemple : Dfinition d'une rgle NMP SATP


L'exemple de commande suivant affecte le plug-in VMW_SATP_INV la gestion des baies de stockage avec une chane d'diteur NewVend et une chane de modle NewMod.
# esxcli --server=server_name storage nmp satp rule add -V NewVend -M NewMod -s VMW_SATP_INV

Si vous excutez la commande esxcli --server=server_name storage nmp satp list -s VMW_SATP_INV, vous pouvez voir la nouvelle rgle ajoute la liste de rgles VMW_SATP_INV.

VMware, Inc.

185

Stockage vSphere

186

VMware, Inc.

Acclration matrielle du stockage

18

La fonctionnalit d'acclration matrielle permet l'hte ESXi de s'intgrer des baies de stockage conformes et de dcharger des oprations spcifiques de gestion de stockage et de VM sur du matriel de stockage. Avec l'assistance matrielle du stockage, votre hte effectue les oprations plus rapidement et consomme moins de CPU, de mmoire et de bande passante de stockage. L'acclration matrielle est prise en charge par les priphriques de stockage des blocs, Fibre Channel et iSCSI, et les priphriques NAS. Ce chapitre aborde les rubriques suivantes :
n n n n n n

Avantages de l'acclration matrielle , page 187 Conditions requises pour l'acclration matrielle , page 188 tat de la prise en charge de l'acclration matrielle , page 188 Acclration pour les priphriques de stockage de blocs , page 188 Acclration matrielle sur les priphriques NAS , page 194 Considrations sur l'acclration matrielle , page 196

Avantages de l'acclration matrielle


Lorsque la fonctionnalit de l'acclration matrielle est prise en charge, l'hte peut obtenir une assistance matrielle et effectuer les tches plus rapidement et plus efficacement. L'hte obtient une assistance pour les activits suivante
n n n n n n n

Migration des machines virtuelles avec Storage vMotion Dploiement des machines virtuelles depuis les modles Clonage des machines virtuelles ou des modles Verrouillage en cluster VMFS et oprations de mtadonnes pour les fichiers des machines virtuelles criture vers des disques virtuels allocation dynamique et lourds Cration des machines virtuelles tolrant les pannes Cration et clonage des disques dynamiques sur les banques de donnes NFS

VMware, Inc.

187

Stockage vSphere

Conditions requises pour l'acclration matrielle


La fonctionnalit d'acclration matrielle fonctionne uniquement si vous utilisez une association hte/baie de stockage approprie. Tableau 18-1. Conditions requises de stockage pour l'acclration matrielle
ESXi ESX/ESXi version 4.1 Priphriques de stockage des blocs Prend en charge les plug-ins de stockage des blocs pour l'intgration de la baie (VAAI) Prend en charge la norme SCSI T10 ou les plug-ins de stockage des blocs pour l'intgration de la baie (VAAI) Priphriques NAS Non pris en charge

ESXi version 5.0

Prend en charge les plug-ins NAS pour l'intgration de la baie

REMARQUE Si votre structure de stockage SAN ou NAS utilise un dispositif intermdiaire devant un systme de stockage qui prend en charge l'acclration matrielle, le dispositif intermdiaire doit galement prendre en charge l'acclration matrielle et tre certifi correctement. Le dispositif intermdiaire pourrait tre un dispositif de virtualisation du stockage, un dispositif d'acclration E/S, un dispositif de chiffrement, etc.

tat de la prise en charge de l'acclration matrielle


Pour chaque priphrique de stockage et banque de donnes, vSphere Client affiche l'tat de prise en charge de l'acclration matrielle dans la colonne Acclration matrielle de la vue Priphriques et de la vue banques de donnes. Les valeurs d'tat sont Inconnu, Pris en charge et Non pris en charge. La valeur initiale est Inconnu. Pour les priphriques de traitement par blocs, le statut passe Pris en charge aprs l'opration de dchargement russie par l'hte. Si l'opration de dchargement choue, l'tat passe Non pris en charge. Le statut reste Inconnu si le priphrique assure une prise en charge partielle de l'acclration. Avec NAS, le statut devient Pris en charge lorsque le stockage peut effectuer au moins une opration de dchargement matriel. Lorsque les priphriques de stockage ne prennent pas en charge ou assurent une prise en charge partielle des oprations de l'hte, votre hte reprend ses mthodes natives pour effectuer des oprations non prises en charge.

Acclration pour les priphriques de stockage de blocs


Avec l'acclration matrielle, votre hte peut s'intgrer aux priphriques de stockage des blocs, Fibre Channel ou iSCSI, et utiliser certaines oprations de baie de stockage. L'acclration matrielle ESXi prend en charge les oprations de baie suivantes :
n

Copie intgrale, appele galement blocs de clone ou dchargements de copie. Permet aux baies de stockage de faire des copies intgrales de donnes l'intrieur de la baie sans que l'hte ne lise et n'crive les donnes. Cette opration permet de rduire le temps et la charge de rseau lors du clonage de machines virtuelles, assurant ainsi le provisionnement depuis un modle, ou la migration avec vMotion. Mise zro des blocs (Block zeroing), galement appele commande write same. Permet aux baies de stockage de mettre zro un grand nombre de blocs de faon fournir un nouveau stockage allou, exempt de donnes crites antrieurement. Cette opration permet de rduire le temps et la charge du rseau lors de la cration de machines virtuelles et du formatage des disques virtuels.

188

VMware, Inc.

Chapitre 18 Acclration matrielle du stockage

Verrouillage assist par le matriel, galement appel ATS (atomic test and set). Prend en charge le verrouillage de la machine virtuelle discrte sans utiliser les rservations SCSI. Cette opration permet le verrouillage de disque par secteur, au lieu de tout le LUN comme pour les rservations SCSI.

Consultez votre fournisseur concernant la prise en charge de l'acclration matrielle. Certaines baies de stockage exigent que vous activiez la prise en charge du ct stockage. Sur votre hte, l'acclration matrielle est active par dfaut. Si votre stockage ne prend pas en charge l'acclration matrielle, vous pouvez la dsactiver en utilisant le vSphere Client. Outre la prise en charge de l'acclration matrielle, ESXi inclut la prise en charge du provisionnement dynamique de baie. Pour plus d'informations, consultez Allocation dynamique des baies et banques de donnes VMFS , page 203.

Dsactiver l'acclration matrielle pour les priphriques de stockage des blocs


Sur votre hte, l'acclration matrielle pour les priphriques de stockage des blocs est active par dfaut. Vous pouvez utiliser les paramtres avancs de vSphere Client pour dsactiver les oprations d'acclration matrielle. Comme pour tous les paramtres avancs, avant de dsactiver l'acclration matrielle, contactez l'quipe de support technique de VMware. Procdure 1 2 3 Dans le panneau d'inventaire de vSphere Client, slectionnez l'hte. Dans l'onglet [Configuration] , cliquez sur [Paramtres avancs] sous [Logiciel] . Changez la valeur de l'une des options 0 (dsactive) :
n n n

VMFS3.HardwareAcceleratedLocking DataMover.HardwareAcceleratedMove DataMover.HardwareAcceleratedInit

Gestion de l'acclration matrielle sur les priphriques de stockage des blocs


Pour s'intgrer aux baies de stockage des blocs et pour bnficier des oprations matrielles de la baie, vSphere utilise les extensions ESXi dsignes sous le nom d'API de stockage - Intgration de baie, autrefois appeles VAAI. Dans la version vSphere 5.0, ces extensions sont mises en uvre par les commandes bases sur la norme SCSI T10. Ainsi, avec les priphriques qui prennent en charge la norme SCSI T10, votre hte ESXi peut communiquer directement et ne ncessite pas de plug-ins VAAI. Si le priphrique ne prend pas en charge la norme SCSI T10 ou assure une prise en charge partielle, l'ESXi reprend l'utilisation des plug-ins VAAI, installs sur votre hte ou utilise une combinaison de commandes SCSI T10 et de plug-ins. Les plug-ins VAAI sont spcifiques au fournisseur et peuvent tre dvelopps par VMware ou un partenaire. Pour grer le priphrique VAAI, votre hte connecte le filtre VAAI et le plug-in VAAI spcifique au fournisseur au priphrique. Pour plus d'informations sur la manire de dterminer si votre stockage ncessite les plug-in VAAI ou prend en charge l'acclration matrielle par les commandes SCSI T10, consultez le Guide de compatibilit vSphere ou vrifiez auprs de votre fournisseur de stockage. Vous pouvez utiliser plusieurs commandes esxcli pour interroger des priphriques de stockage pour obtenir davantage d'informations sur la prise en charge de l'acclration matrielle. Pour les priphriques qui ncessitent les plug-ins VAAI, les commandes de rgle de rclamation sont galement disponibles. Pour plus d'informations sur les commandes esxcli, consultez Initiation aux interfaces de ligne de commande vSphere.

VMware, Inc.

189

Stockage vSphere

Afficher les plug-ins d'acclration matrielle et le filtre


Pour communiquer avec les priphriques ne prenant pas en charge la norme SCSI T10, votre hte utilise la combinaison d'un filtre VAAI unique et d'un plug-in VAAI spcifique au fournisseur. Utilisez la commande esxcli pour visualiser le filtre d'acclration matrielle et les plug-ins chargs actuellement sur votre systme. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Excutez la commande

esxcli --server=server_name storage core plugin list --plugin-class=value.

Pour valeur, entrez l'une des options suivantes :


n

Tapez VAAI pour afficher les plug-ins. Le rsultat de cette commande est semblable ce qui suit :
#esxcli --server=server_name storage core plugin list --plugin-class=VAAI Plugin name Plugin class VMW_VAAIP_EQL VAAI VMW_VAAIP_NETAPP VAAI VMW_VAAIP_CX VAAI

Tapez Filtre pour afficher le filtre. Le rsultat de cette commande est semblable ce qui suit :
esxcli --server=server_name storage core plugin list --plugin-class=Filter Plugin name Plugin class VAAI_FILTER Filter

Vrification de l'tat de prise en charge de l'acclration matrielle


Utilisez la commande esxcli pour vrifier le statut de prise en charge de l'acclration matrielle d'un priphrique de stockage particulier. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell.

190

VMware, Inc.

Chapitre 18 Acclration matrielle du stockage

Procdure
u

Excutez la commande esxcli --server=server_name storage core device list -d=device_ID. La sortie indique le statut de l'acclration matrielle, ou VAAI, lequel peut tre inconnu, pris en charge ou non pris en charge.
# esxcli --server=server_name storage core device list -d naa.XXXXXXXXXXXX4c naa.XXXXXXXXXXXX4c Display Name: XXXX Fibre Channel Disk(naa.XXXXXXXXXXXX4c) Size: 20480 Type de priphrique : Direct-Access Multipath Plugin: NMP XXXXXXXXXXXXXXXX Attached Filters: VAAI_FILTER VAAI Status: pris en charge XXXXXXXXXXXXXXXX

Vrification des dtails de prise en charge de l'acclration matrielle


Utilisez la commande esxcli pour interroger le priphrique de stockage des blocs sur la prise en charge de l'acclration matrielle fournies par le priphrique. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Excutez la commande

esxcli --server=server_name storage core device vaai status get -d=device_ID.

Si le priphrique est gr par un plug-in VAAI, le rsultat indique le nom du plug-in connect au priphrique. Le rsultat indique galement le statut de prise en charge pour chaque primitive base sur la norme SCSI T10, si disponible. Le rsultat apparat dans l'exemple suivant :
# esxcli --server=server_name storage core device vaai status get -d naa.XXXXXXXXXXXX4c naa.XXXXXXXXXXXX4c VAAI Plugin Name: VMW_VAAIP_SYMM Statut ATS : pris en charge Statut Clone : pris en charge Statut Zro : pris en charge Statut Suppression : non pris en charge

VMware, Inc.

191

Stockage vSphere

Liste de rgles de rclamation d'acclration matrielle


Chaque priphrique de stockage des blocs gr par un plug-in VAAI ncessite deux rgles de rclamation : une qui spcifie le filtre d'acclration matrielle et une autre qui spcifie le plug-in d'acclration matrielle pour le priphrique. Vous pouvez utiliser les commandes esxcli pour rpertorier le filtre d'acclration matrielle et les rgles de rclamation du plug-in. Procdure 1 Pour rpertorier les rgles de rclamation du filtre, excutez la commande
esxcli --server=server_name storage core claimrule list --claimrule-class=Filter.

Dans cet exemple, les rgles de rclamation du filtre spcifient les priphriques qui doivent tre rclams par le filtre VAAI_FILTER.
Rule Class Filter Filter Filter Filter # esxcli --server=server_name storage core claimrule list Rule Class Type Plugin Matches 65430 runtime vendor VAAI_FILTER vendor=EMC 65430 file vendor VAAI_FILTER vendor=EMC 65431 runtime vendor VAAI_FILTER vendor=DGC 65431 file vendor VAAI_FILTER vendor=DGC --claimrule-class=Filter model=SYMMETRIX model=SYMMETRIX model=* model=*

Pour rpertorier les rgles de rclamation du plug-in VAAI, excutez la commande

esxcli --server=server_name storage core claimrule list --claimrule-class=VAAI.

Dans cet exemple, les rgles de rclamation VAAI spcifient les priphriques qui doivent tre rclams par un plug-in VAAI particulier.
esxcli --server=server_name Rule Class Rule Class VAAI 65430 runtime VAAI 65430 file VAAI 65431 runtime VAAI 65431 file storage Type diteur vendor vendor vendor core claimrule list --claimrule-class=VAAI Plugin Matches VMW_VAAIP_SYMM vendor=EMC model=SYMMETRIX VMW_VAAIP_SYMM vendor=EMC model=SYMMETRIX VMW_VAAIP_CX vendor=DGC model=* VMW_VAAIP_CX vendor=DGC model=*

Ajout de rgles de rclamation d'acclration matrielle


Pour configurer l'acclration matrielle d'une nouvelle baie, vous devez ajouter deux rgles de rclamation (une pour le filtre VAAI et une autre pour le plug-in VAAI). Pour activer les nouvelles rgles de rclamation, dfinissez d'abord les rgles puis chargez-les dans votre systme. Cette procdure concerne ces priphriques de stockage des blocs qui ne prennent pas en charge les commandes T10 SCSI et qui utilisent les plug-ins VAAI la place. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure 1 Dfinissez une nouvelle rgle de rclamation pour le filtre VAAI en excutant la commande
esxcli --server=server_name storage core claimrule add --claimrule-class=Filter -plugin=VAAI_FILTER.

192

VMware, Inc.

Chapitre 18 Acclration matrielle du stockage

2 3

Dfinissez une nouvelle rgle de rclamation pour le plug-in VAAI en excutant la commande esxcli --server=server_name storage core claimrule add --claimrule-class=VAAI. Chargez les deux rgles de rclamation en excutant les commandes suivantes :
esxcli --server=server_name storage core claimrule load --claimrule-class=Filter esxcli --server=server_name storage core claimrule load --claimrule-class=VAAI

Excutez la rgle de rclamation du filtre VAAI en excutant la commande

esxcli --server=server_name storage core claimrule run --claimrule-class=Filter.

REMARQUE Seules les rgles de classe de filtre doivent tre excutes. Lorsque le filtre VAAI rclame un priphrique, il trouve automatiquement le bon plug-in VAAI auquel se relier. Exemple : Dfinition des rgles de rclamation d'acclration matrielle Cet exemple montre comment configurer l'acclration matrielle pour les baies IBM en utilisant le plug-in VMW_VAAIP_T10. Utilisez la squence suivante de commandes. Pour plus d'informations sur les options utilises par cette commande, consultez Ajout de rgles de rclamation de gestion multivoie , page 180.
# esxcli --server=server_name storage core claimrule add --claimrule-class=Filter -plugin=VAAI_FILTER --type=vendor --vendor=IBM --autoassign # esxcli --server=server_name storage core claimrule add --claimrule-class=VAAI -plugin=VMW_VAAIP_T10 --type=vendor --vendor=IBM --autoassign # esxcli --server=server_name storage core claimrule load --claimrule-class=Filter # esxcli --server=server_name storage core claimrule load --claimrule-class=VAAI # esxcli --server=server_name storage core claimrule run --claimrule-class=Filter

Suppression de rgles de rclamation d'acclration matrielle


Utilisez la commande esxcli pour supprimer les rgles de rclamation d'acclration matrielle existantes. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Excutez les commandes suivantes :


esxcli --server=server_name storage core claimrule remove -r claimrule_ID --claimruleclass=Filter esxcli --server=server_name storage core claimrule remove -r claimrule_ID --claimruleclass=VAAI

VMware, Inc.

193

Stockage vSphere

Acclration matrielle sur les priphriques NAS


L'acclration matrielle permet votre hte de s'intgrer aux priphriques NAS et d'utiliser plusieurs oprations matrielles que le stockage NAS fournit. La liste suivante indique les oprations NAS prises en charge :
n

Clonage de fichiers. Cette opration est similaire au clonage de blocs VMFS except que les priphriques NAS clonent des fichiers entiers au lieu de segments de fichiers. Espace de rserve. Permet aux baies de stockage d'allouer de l'espace pour un fichier de disque virtuel dans le format dynamique. En gnral, lorsque vous crez un disque virtuel sur une banque de donnes NFS, le serveur NAS dtermine la politique d'allocation. La politique d'allocation par dfaut sur la plupart des serveurs NAS est dynamique et ne garantit pas le stockage de sauvegarde du fichier. Toutefois, l'opration d'espace de rserve peut demander au priphrique NAS d'utiliser les mcanismes spcifiques au fournisseur pour rserver un espace pour un disque virtuel de taille logique diffrente de zro.

Statistiques du fichier tendu. Permet aux baies de stockage de signaler avec prcision l'utilisation d'espace pour les machines virtuelles.

Avec les priphriques de stockage NAS, l'intgration de l'acclration matrielle est mise en uvre par le biais de plug-ins NAS spcifiques au fournisseur. Ces plug-ins sont gnralement crs par les fournisseurs et sont distribus en tant que modules VIB par le biais d'une page Web. Aucune rgle de rclamation n'est requise pour le fonctionnement des plug-ins. Plusieurs outils sont disponibles pour l'installation et la mise niveau. Modules VIB. Ils incluent les commandes esxcli et vSphere Update Manager. Pour plus d'informations, consultez la documentation Mise niveau vSphere et Installation et administration de VMware vSphere Update Manager.

Installation du plug-In NAS


Installez, sur votre hte, les plug-ins NAS d'acclration matrielle distribus par le fournisseur. Cette rubrique fournit un exemple d'installation du module VIB en utilisant la commande esxcli. Pour plus d'informations, consultez la documentation Mise niveau vSphere. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure 1 2 Placez votre hte en mode maintenance. Dfinissez le niveau d'acceptation de l'hte :
esxcli --server=server_name software acceptance set --level=value

La commande contrle le module VIB qui est autoris sur l'hte. La valeur peut tre l'une des valeurs suivantes :
n n

VMwareCertified VMwareAccepted

194

VMware, Inc.

Chapitre 18 Acclration matrielle du stockage

n n

PartnerSupported CommunitySupported

Installez le module VIB :


esxcli --server=server_name software vib install -v|--viburl=URL

L'URL spcifie l'URL vers le module VIB installer. http:, https:, ftp:, et le fichier : sont pris en charge. 4 Vrifiez si le plug-in est install :
esxcli --server=server_name software vib list

Redmarrez votre hte afin que l'installation s'excute.

Dsinstallation des plug-ins NAS


Pour dsinstaller un plug-in NAS, supprimez le module VIB de votre hte. Cette rubrique explique comment dsinstaller un module VIB en utilisant la commande esxcli. Pour plus d'informations, consultez la documentation Mise niveau vSphere. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure 1 Dsinstallez le plug-in :
esxcli --server=server_name software vib remove -n|--vibname=name

Le name est le nom du module VIB supprimer. 2 Vrifiez si le plug-in est supprim :
esxcli --server=server_name software vib list

Redmarrez votre hte pour appliquer la modification.

Mise jour des plug-ins NAS


Mettez niveau les plug-ins NAS d'acclration matrielle sur votre hte lorsqu'un fournisseur de stockage publie une nouvelle version de plug-in. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Cette rubrique explique comment mettre niveau un module VIB en utilisant la commande esxcli. Pour plus d'informations, consultez la documentation Mise niveau vSphere.

VMware, Inc.

195

Stockage vSphere

Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure 1 Mettez niveau vers la nouvelle version de plug-in :
esxcli --server=server_name software vib update -v|--viburl=URL

L'URL spcifie l'URL vers le module VIB mettre niveau. http:, https:, ftp:, et le fichier : sont pris en charge. 2 Vrifiez si la bonne version est installe :
esxcli --server=server_name software vib list

Redmarrez l'hte.

Vrification de l'tat de l'acclration matrielle pour NAS


Outre le vSphere Client, vous pouvez utiliser la commande esxcli pour vrifier le statut d'acclration matrielle du priphrique NAS. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Excutez la commande esxcli --server=server_name storage nfs list. La colonne Acclration matrielle dans le rsultat indique le statut.

Considrations sur l'acclration matrielle


Lorsque vous utilisez la fonctionnalit d'acclration matrielle, certaines considrations s'appliquent. Plusieurs raisons pourraient provoquer l'chec d'une opration acclre par le matriel. Pour toute primitive que la baie ne met pas en uvre, la baie renvoie une erreur. L'erreur dclenche l'hte ESXi pour tenter de raliser l'opration en utilisant ses mthodes natives. Le systme de dplacement des donnes VMFS n'exploite pas les dchargements matriels et utilise plutt un dplacement de donnes logicielles dans l'un des cas suivants :
n n n n n

Les banques de donnes VMFS source et destination ont diffrentes tailles de bloc. Le type de fichier source est RDM et le type de fichier de destination est non RDM (fichier ordinaire). Le type de VMDK source est eagerzeroedthick et le type de VMDK destination est dynamique. Le VMDK source ou destination est dans le format fragment ou hberg. La machine virtuelle source a un snapshot.

196

VMware, Inc.

Chapitre 18 Acclration matrielle du stockage

L'adresse logique et la longueur de transfert dans l'opration demande ne sont pas alignes selon l'alignement minimum requis par le priphrique de stockage. Toutes les banques de donnes cres avec le vSphere Client sont alignes automatiquement. Le VMFS a de multiples LUN ou extensions, et ces derniers sont sur diffrentes baies.

Le clonage matriel entre les baies, mme dans la mme banque de donnes VMFS, ne fonctionne pas.

VMware, Inc.

197

Stockage vSphere

198

VMware, Inc.

Provisionnement dynamique du stockage

19

Avec l'ESXi, vous pouvez utiliser deux modles de provisionnement dynamique, au niveau de la baie et au niveau du disque virtuel. Le provisionnement dynamique est une mthode qui optimise l'utilisation du stockage en allouant un espace de stockage de manire flexible, la demande. Le provisionnement dynamique s'oppose au modle traditionnel, appel provisionnement statique. Avec le provisionnement statique, une quantit importante d'espace de stockage est prvue l'avance en prvision des futurs besoins de stockage. Toutefois, l'espace pourrait rester inutilis et entraner une sous-utilisation de la capacit de stockage. Les fonctionnalits de provisionnement dynamique de VMware vous permettent d'liminer les problmes de sous-utilisation de stockage au niveau de la banque de donnes et au niveau de la baie de stockage. Ce chapitre aborde les rubriques suivantes :
n n n

Sur-abonnement de stockage , page 199 Provisionnement dynamique du disque virtuel , page 199 Allocation dynamique des baies et banques de donnes VMFS , page 203

Sur-abonnement de stockage
Le provisionnement dynamique vous permet de signaler un espace de stockage virtuel plus important que la capacit physique relle. Cet cart peut entraner un sur-abonnement de stockage, galement appel surprovisionnement. Lorsque vous utilisez le provisionnement dynamique, vous devez surveiller l'utilisation actuelle du stockage pour viter des conditions lorsque vous manquez d'espace de stockage physique.

Provisionnement dynamique du disque virtuel


Lorsque vous crez une machine virtuelle, une certaine quantit d'espace de stockage sur une banque de donnes est alloue aux fichiers du disque virtuel. Par dfaut, ESXi offre une mthode de provisionnement classique d'espace de stockage pour les machines virtuelles. Cette mthode vous permet d'estimer la quantit de stockage dont la machine virtuelle aura besoin pour tout son cycle de vie. Vous allouez ensuite une quantit fixe d'espace de stockage son disque virtuel l'avance, par exemple, 40 Go, et vous avez tout l'espace allou au disque virtuel. Un disque virtuel qui occupe immdiatement tout l'espace allou est appel un disque statique.

VMware, Inc.

199

Stockage vSphere

ESXi prend en charge le provisionnement dynamique pour les disques virtuels. La fonctionnalit de provisionnement dynamique au niveau du disque vous permet de crer des disques virtuels dans un format dynamique. Pour un disque virtuel dynamique, ESXi alloue tout l'espace requis pour les activits actuelles et futures du disque, par exemple 40 Go. Toutefois, le disque dynamique alloue uniquement l'espace de stockage ncessaire aux oprations initiales du disque. Dans cet exemple, le disque provisionnement dynamique occupe uniquement 20 Go de stockage. Alors que le disque a besoin de plus d'espace, il peut s'tendre et occuper son espace allou de 40 Go. Figure 19-1. Disques virtuels statiques et dynamiques
VM 1 VM 2

STATIQUE 80 Go 40 Go 40 Go utilis capacit

DYNAMIQUE

40 Go provisionn capacit

20 Go

disques virtuels

banque de donnes

20 Go 40 Go

Cration de disques virtuels allous dynamiquement


Lorsque vous devez conomiser l'espace de stockage, vous pouvez crer un disque virtuel au format allou dynamiquement. Le disque virtuel allou dynamiquement dmarre avec une petite taille et grandit au fur et mesure que de l'espace disque est ncessaire. Cette procdure suppose que vous criez une machine virtuelle personnalis ou classique l'aide de l'assistant Nouvelle machine virtuelle. Prrequis Vous pouvez crer des disques allous dynamiquement uniquement sur les banques de donnes prenant en charge l'allocation dynamique au niveau du disque. Procdure
u

Dans la bote de dialogue Crer un disque, slectionnez [Allocation dynamique] .

Un disque virtuel au format allou dynamiquement est cr. Suivant Si vous avez cr un disque virtuel au format allou dynamiquement, vous pouvez l'agrandir sa taille totale ultrieurement.

200

VMware, Inc.

Chapitre 19 Provisionnement dynamique du stockage

propos des rgles de provisionnement des disques virtuels


Quand vous excutez certaines oprations de gestion de machine virtuelle, par exemple la cration d'un disque virtuel, le clonage d'une machine virtuelle dans un modle ou la migration d'une machine virtuelle, vous pouvez dsigner une rgle de provisionnement pour le fichier de disque virtuel. Les banques de donnes NFS avec l'acclration matrielle et les banques de donnes VMFS prennent en charge les rgles de provisionnement de disque suivantes. Dans les banques de donnes NFS qui ne prennent pas en charge l'acclration matrielle, seul le format dynamique est disponible. Vous pouvez utiliser Storage vMotion pour convertir les disques virtuels d'un format dans un autre. Provisionnement statique mis zro en diffr Cre un disque virtuel au format pais par dfaut. L'espace ncessaire pour le disque virtuel est allou lorsque le disque virtuel est cr. Les donnes qui demeurent sur le priphrique physique ne sont pas effaces pendant la cration, mais sont mises zro plus tard sur demande la premire criture sur la machine virtuelle. L'utilisation du format de disque virtuel plat par dfaut ne met pas zero ou n'empche pas de restaurer les fichiers supprims ou les anciennes donnes qui pourraient tre prsentes dans cet espace allou. Vous ne pouvez pas convertir un disque plat en disque dynamique. Provisionnement statique immdiatement mis zro Un type de disque virtuel statique qui prend en charge des fonctions telles que Tolrance aux pannes. L'espace ncessaire au disque virtuel est allou lors de la cration. Contrairement au format plat, les donnes qui restent sur le priphrique physique sont mises zro lors de la cration du disque virtuel. La cration de disques ce format peut tre plus longue que pour d'autres types de disques. Employez ce format pour conomiser de l'espace de stockage. Pour le disque dynamique, vous fournissez autant d'espace de banque de donnes que le disque en exigerait d'aprs la valeur que vous saisissez comme taille de disque. Toutefois, le disque dynamique dmarre avec un petit espace et il utilise au dbut uniquement l'espace de banque de donnes dont il a besoin pour ses oprations initiales. REMARQUE Si un disque virtuel est compatible avec des solutions de mise en cluster, telles que Fault Tolrance, ne crez pas un disque fin. Si le disque approvisionnement en allg ncessite plus d'espace par la suite, il peut grandir jusqu' sa capacit maximale et occuper l'intgralit de l'espace de banque de donnes qui lui a t affect. En outre, vous pouvez convertir manuellement le disque dynamique en disque statique.

Provisionnement fin

Affichage des ressources de stockage des machines virtuelles


Vous pouvez consulter comment l'espace de stockage est allou pour vos machines virtuelles. Procdure 1 2 Slectionnez la machine virtuelle dans l'inventaire. Cliquez sur l'onglet [Rsum] .

VMware, Inc.

201

Stockage vSphere

Vrifiez les informations d'allocation d'espace dans la section Ressources.


n

Stockage provisionn : affiche l'espace de la banque de donnes garanti la machine virtuelle. Tout l'espace ne peut pas tre utilis par la machine virtuelle si elle a des disques au format allocation dynamique. D'autres machines virtuelles peuvent occuper l'espace non utilis. Stockage non partag : affiche l'espace de banque de donnes occup par la machine virtuelle et non partag avec d'autres machines virtuelles. Stockage utilis : affiche l'espace de banque de donnes rellement occup par les fichiers de la machine virtuelle, y compris les fichiers de configuration et journaux, les snapshots, les disques virtuels, etc. Lorsque la machine virtuelle est en fonctionnement, l'espace de stockage utilis comprend galement les fichiers d'change.

Dterminer le format de disque d'une machine virtuelle


Vous pouvez dterminer si votre disque virtuel est au format dynamique ou pais. Procdure 1 2 3 Slectionnez la machine virtuelle dans l'inventaire. Cliquez sur [Modifier les paramtres] pour afficher la bote de dialogue Proprits de machine virtuelle. Cliquez sur l'onglet [Matriel] et slectionnez le disque dur appropri dans la liste de matriel. La section Provisionnement de disque sur la droite indique le type du disque virtuel. 4 Cliquez sur [OK] .

Suivant Si votre disque virtuel est au format dynamique, vous pouvez le gonfler la taille normale.

Gonfler les disques virtuels dynamiques


Si vous crez un disque virtuel dans le format de provisionnement dynamique, vous pouvez le gonfler jusqu' ce qu'il atteigne sa taille maximale. Cette procdure permet de convertir un disque dynamique en un disque virtuel dans le format de provisionnement statique. Procdure 1 2 3 4 Slectionnez la machine virtuelle dans l'inventaire. Cliquez sur l'onglet [Rsum] et, sous Ressources, double-cliquez sur la banque de donnes pour que la machine virtuelle ouvre la bote de dialogue Navigateur de banque de donnes. Cliquez sur le dossier de machine virtuelle pour trouver le fichier de disque virtuel que vous voulez convertir. Le fichier porte l'extension .vmdk. Cliquez avec le bouton droit sur le fichier de disque virtuel et slectionnez [Gonfler] .

Le disque virtuel gonfl occupe la totalit de l'espace de banque de donnes qui lui a t affect l'origine.

202

VMware, Inc.

Chapitre 19 Provisionnement dynamique du stockage

Traitement du sur-abonnement de banque de donnes


Comme l'espace allou pour les disques lgers peut tre suprieur l'espace valid, un sur-abonnement de la banque de donnes peut survenir, ce qui fait que l'espace total allou pour les disques de la machine virtuelle sur la banque de donnes est suprieur la capacit relle. Le sur-abonnement peut tre possible, car toutes les machines virtuelles disques lgers n'ont gnralement pas besoin de tout l'espace de banque de donnes allou en mme temps. Cependant, si vous souhaitez viter le sur-abonnement la banque de donnes, vous pouvez configurer une alarme qui vous avertit lorsque l'espace allou atteint un certain seuil. Pour plus d'informations sur le rglage des alarmes, consultez la documentation Gestion de vCenter Server et des htes. Si vos machines virtuelles ncessitent plus d'espace, l'espace de la banque de donnes est allou sur la base du premier arriv, premier servi. Lorsque la banque de donnes manque d'espace, vous pouvez ajouter plus de stockage physique et augmenter la banque de donnes. Reportez-vous la section Augmentation des banques de donnes VMFS.

Allocation dynamique des baies et banques de donnes VMFS


Vous pouvez utiliser des baies de stockage allocation dynamique avec ESXi. Les LUN traditionnelles que les baies prsentent l'hte ESXi, sont allocation dynamique. Tout l'espace physique ncessaire pour sauvegarder chaque LUN est allou l'avance. ESXi prend galement en charge les LUN allocation dynamique. Lorsqu'une LUN est allocation dynamique, la baie de stockage indique la taille logique de la LUN, qui pourrait tre plus grande que la vritable capacit physique de sauvegarde de cette LUN. Une banque de donnes VMFS que vous dployez sur la LUN allocation dynamique ne peut dtecter que la taille logique de la LUN. Par exemple, si la baie indique 2 To de stockage alors qu'en ralit, la baie ne fournit que 1TB, la banque de donnes considre que 2 To est la taille de la LUN. Au fur et mesure que la banque de donnes se dveloppe, elle ne peut pas dterminer si la quantit relle d'espace physique est toujours suffisante pour ses besoins. Toutefois, lorsque vous utilisez les API de stockage - Intgration des baies, l'hte peut s'intgrer au stockage physique et prendre connaissance des LUN allocation dynamique sous-jacentes et de leur utilisation de l'espace. Votre hte peut effectuer les tches suivantes en utilisant l'intgration allocation dynamique :
n

Surveillez l'utilisation de l'espace sur les LUN allocation dynamique pour viter de manquer d'espace physique. Au fur et mesure que votre banque de donnes se dveloppe ou si vous utilisez Storage vMotion pour migrer des machines virtuelles vers une LUN allocation dynamique, l'hte communique avec la LUN et vous signale des violations de l'espace physique et les conditions de manque d'espace. Informez la baie sur l'espace de la banque de donnes qui est libr lorsque des fichiers sont supprims ou retirs de la banque de donnes par Storage vMotion. La baie peut alors rclamer les blocs d'espace librs.

REMARQUE ESXi ne prend pas en charge l'activation et la dsactivation de l'allocation dynamique d'un priphrique de stockage.

VMware, Inc.

203

Stockage vSphere

Spcifications
Pour utiliser la fonction de signalement, votre hte et votre baie de stockage doivent rpondre aux conditions suivantes :
n n

ESXi version 5.0 ou version ultrieure. La baie de stockage a le microprogramme appropri qui prend en charge les API de stockage bases sur les normes T10 - Intgration de baie (Allocation dynamique). Pour plus d'informations, contactez le fournisseur de stockage et vrifiez l'HCL.

Surveillance de l'utilisation d'espace


La fonctionnalit de l'intgration de provisionnement dynamique vous permet de surveiller l'utilisation d'espace sur les LUN provisionnement dynamique et d'viter de manquer d'espace. L'exemple de flux suivant dmontre l'interaction de l'hte ESXi et de la baie de stockage qui interagissent pour gnrer des avertissements de rupture d'espace et de manque d'espace pour une banque de donnes avec une LUN sous-jacente provisionnement dynamique. Le mme mcanisme s'applique lorsque vous utilisez Storage vMotion pour migrer des machines virtuelles la LUN sous-jacente provisionnement dynamique. 1 Grce aux outils spcifiques de stockage, votre administrateur de stockage assure le provisionnement d'un LUN dynamique et dfinit un seuil logiciel qui, lorsqu'il est atteint, dclenche une alerte. Cette tape est spcifique au fournisseur. Le vSphere Client vous permet de crer une banque de donnes VMFS sur le LUN provisionnement dynamique. La banque de donnes s'tend sur toute la taille logique signale par le LUN. tant donn que l'espace utilis par la banque de donnes augmente et atteint le seuil logiciel spcifi, les actions suivantes ont lieu : a b La baie de stockage signale la rupture votre hte. Votre hte dclenche une alarme d'avertissement pour la banque de donnes. Vous pouvez contacter l'administrateur de stockage pour demander plusieurs espaces physiques ou utiliser Storage vMotion pour vacuer vos machines virtuelles avant que le LUN ne manque de capacit. 4 S'il ne reste plus d'espace pour l'allocation au LUN provisionnement dynamique, les actions suivantes ont lieu : a b La baie de stockage signale un tat de manque d'espace votre hte. L'hte interrompt les machines virtuelles et gnre une alarme de manque d'espace. Vous pouvez rsoudre l'tat de manque d'espace permanent en demandant plus d'espace physique l'administrateur de stockage.

2 3

Identifier les priphriques de stockage provisionnement dynamique


Utilisez la commande esxcli pour vrifier si un priphrique de stockage particulier est provisionnement dynamique. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere.

204

VMware, Inc.

Chapitre 19 Provisionnement dynamique du stockage

Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Excutez la commande esxcli --server=server_name storage core device list -d=device_ID .

Le statut de provisionnement dynamique suivant indique que le priphrique est provisionnement dynamique.
# esxcli --server=server_name storage core device list -d naa.XXXXXXXXXXXX4c naa.XXXXXXXXXXXX4c Display Name: XXXX Fibre Channel Disk(naa.XXXXXXXXXXXX4c) Size: 20480 Type de priphrique : Direct-Access Multipath Plugin: NMP --------------------Statut provisionnement dynamique : oui Attached Filters: VAAI_FILTER VAAI Status: pris en charge ---------------------

Un statut inconnu indique qu'un priphrique de stockage est statique. REMARQUE Certains systmes de stockage prsentent tous les priphriques comme tant provisionnement dynamique que les priphriques soient dynamiques ou statiques. Leur statut de provisionnement dynamique est toujours oui. Pour plus d'informations, consultez votre fournisseur de stockage.

Dsactiver la rcupration d'espace


Utilisez la commande esxcli pour dsactiver la rcupration d'espace sur un LUN allocation dynamique. Lorsque vous supprimez des fichiers de machine virtuelle depuis une banque de donnes VMFS, ou les faites migrer par Storage vMotion, la banque de donnes libre des blocs d'espace et informe la baie de stockage, pour que les blocs puissent tre rcuprs. Si vous n'avez pas besoin de LUN allocation dynamique pour rcuprer l'espace libr, vous pouvez dsactiver la rcupration d'espace sur l'hte. REMARQUE Comme pour les paramtres avancs, avant la dsactivation de la rcupration d'espace, consultez l'quipe de support technique VMware. Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de configuration ou de session, sont prises en charge. Pour obtenir une liste des options de connexion, reportez-vous Initiation aux interfaces de ligne de commande vSphere. Prrequis Installez vCLI ou dployez la machine virtuelle de vSphere Management Assistant (vMA). Reportez-vous la section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes esxcli dans ESXi Shell. Procdure
u

Excutez la commande suivante :


esxcli --server=server_name system settings advanced set --int-value 0 -option /VMFS3/EnableBlockDelete.

VMware, Inc.

205

Stockage vSphere

Rclamer l'espace de stockage accumul


Si vous avez utilis un priphrique de stockage provisionnement dynamique avec un hte ESX/ESXi hrits (version antrieure 5.0), vous pouvez rclamer rtroactivement l'espace libre accumul pour le priphrique. Prrequis
n n

Mise niveau de votre hte ESXi 5.0. Mettez niveau une banque de donnes dploye sur le priphrique provisionnement dynamique VMFS5.

Procdure 1 2 Passez au rpertoire de la banque de donnes en utilisant la commande cd /vmfs/volumes/datastore_name. Rclamez un pourcentage spcifi de capacit libre sur la banque de donnes VMFS5 pour le priphrique provisionnement dynamique en excutant vmkfstools -y %. % est une valeur comprise entre 1 et 99. La valeur reprsente un pourcentage de la capacit libre VMFS rclamer. La valeur recommande est 60.

206

VMware, Inc.

Utilisation des fournisseurs de distributeur de stockage

20

Lorsque vous utilisez des composants des fournisseur de distributeur, vCenter Server peut s'intgrer au stockage externe, au stockage des blocs et de NFS, afin que vous puissiez mieux contrler les ressources et obtenir des donnes compltes et significatives des donnes de stockage. Le fournisseur de distributeur est un plug-in logiciel dvelopp par un tiers via les API de stockage - Storage Awareness. Le composant de fournisseur de distributeur est gnralement install dans la baie de stockage et fait office de serveur dans l'environnement vSphere. vCenter Server utilise les fournisseurs de distributeur pour extraire des informations sur la topologie, les capacits et l'tat. Pour plus d'informations sur la manire de dterminer si votre stockage prend en charge les plug-ins de fournisseur de distributeur, contactez le fournisseur de stockage. Si votre stockage prend en charge les fournisseur de distributeur, utilisez l'option de menu [Fournsiseurs de stockage] dans vSphere Client pour enregistrer et grer chaque composant de fournisseur de distributeur. Ce chapitre aborde les rubriques suivantes :
n n n n n n n

Fournisseurs de distributeur et Reprsentation des donnes de stockage , page 207 Considrations et conditions du fournisseur de distributeur , page 208 Rapport de l'tat de stockage , page 209 Enregistrer les fournisseurs des distributeurs , page 209 Afficher les informations des fournisseurs de fabricants , page 210 Annuler l'enregistrement des fournisseurs de distributeur , page 210 mettre niveau les fournisseurs de distributeur , page 211

Fournisseurs de distributeur et Reprsentation des donnes de stockage


Le vCenter Server communique avec le distributeur du fournisseur pour obtenir des informations que le distributeur du fournisseur collecte depuis les priphriques de stockage disponibles. Le vCenter Server peut alors afficher les donnes de stockage dans le vSphere Client. Les informations fournies par le distributeur du fournisseur peuvent tre classes dans les catgories suivantes :
n

Topologie de stockage Les informations sur les lments de stockage physique apparaissent sur l'onglet Vues du stockage. Elles incluent des donnes telles que celles des baies de stockage, les ID de baie, etc. Ce type d'information peut tre utile lorsque vous devez suivre la configuration et les relations machine virtuelle--stockage, ou identifier les modifications de la configuration du stockage physique. Pour plus informations, consultez la documentation Surveillance et performances vSphere.

VMware, Inc.

207

Stockage vSphere

Capacits de stockage. Le distributeur du fournisseur collecte et communique les informations sur les capacits physiques et les services offerts par le stockage sous-jacent. Ces informations peuvent tre utiles lorsque, par exemple, vous devez agrger correctement le stockage en niveaux, ou slectionner le bon stockage, en termes d'espace et de performances, pour une machine virtuelle particulire. Les capacits apparaissent sur la liste des capacits de stockage dfinies par le systme. Pour plus de dtails, consultez Prise de connaissance des capacits de stockage , page 213.

tat du stockage. Cette catgorie inclut la gnration de rapport sur l'tat des diverses entits de stockage. Elle inclut galement les alarmes et les vnements de notification des modifications de configuration. Ce type d'information peut vous permettre de dpanner des problmes de connectivit et de performance de stockage. Par ailleurs, il peut vous aider mettre en corrlation des alarmes et des vnements gnrs par une baie aux changements correspondants de performance et de charge sur la baie.

Considrations et conditions du fournisseur de distributeur


Lorsque vous utilisez la fonctionnalit Distributeur du fournisseur, certaines considrations et conditions s'appliquent. La fonctionnalit Distributeur du fournisseur est mise en uvre comme extension du SMS (VMware vCenter Storage Monitoring Service). tant donn que le SMS fait partie du vCenter Server, la fonctionnalit Distributeur du fournisseur ne ncessite aucune installation ou activation spciale du ct vCenter Server. Pour utiliser les distributeurs du fournisseur, respectez les conditions suivantes :
n n n

vCenter Server version 5.0 ou ultrieure. Htes ESX/ESXi version 4.0 ou ultrieure. Baies de stockage prenant en charge les plug-ins API de stockage - Storage Awareness. Le composant du distributeur du fournisseur doit tre install du ct stockage. Consultez le Guide de compatibilit vSphere ou vrifiez auprs de votre fournisseur de stockage.

REMARQUE Fibre Channel over Ethernet (FCoE) ne prend pas en charge les distributeurs de fournisseur. Les considrations suivantes existent lorsque vous utilisez les distributeurs de fournisseur :
n

Les priphriques de stockage du systme de fichiers et de stockage des blocs peuvent utiliser les distributeurs de fournisseur. Les distributeurs de fournisseur peuvent s'excuter partout, l'exception du vCenter Server. De multiples vCenter Servers peuvent se connecter simultanment une seule instance de distributeur de fournisseur. Un seul vCenter Server peut se connecter simultanment de multiples et diffrents distributeurs de fournisseur. Il est possible d'avoir un distributeur de fournisseur diffrent pour chaque type de priphrique de stockage physique disponible votre hte.

n n

208

VMware, Inc.

Chapitre 20 Utilisation des fournisseurs de distributeur de stockage

Rapport de l'tat de stockage


Si vous utilisez des fournisseurs de distributeur, le vCenter Server peut collecter des caractristiques de l'tat des priphriques de stockage physiques et afficher ces informations dans le vSphere Client. Les informations de l'tat incluent les vnements et les alarmes.
n

Les vnements indiquent d'importants changements de configuration du stockage. Ces changements pourraient inclure la cration et la suppression d'un LUN, ou l'inaccessibilit d'un LUN en raison du masquage de LUN. Pour un hte autonome, le vSphere Client affiche les vnements de stockage dans l'onglet vnements. Pour les htes grs, les informations s'affichent dans l'onglet Tches et vnements.

Les alarmes indiquent un changement de disponibilit du systme de stockage. Par exemple, lorsque vous utilisez la gestion du stockage bas sur un profil, vous pouvez spcifier les conditions requises de stockage de la machine virtuelle. Lorsque des changements du stockage se produisent et pourraient violer les conditions requises de stockage de la machine virtuelle, une alarme se dclenche.

Pour plus d'informations sur les vnements et les alarmes, consultez la documentation Surveillance et performances vSphere. Des conditions spciales de rapport sont imposes sur les LUN provisionnement dynamique. Pour plus d'informations sur la surveillance d'espace sur les LUN provisionnement dynamique, consultez Allocation dynamique des baies et banques de donnes VMFS , page 203.

Enregistrer les fournisseurs des distributeurs


Pour tablir une connexion entre vCenter Server et un fournisseur de distributeur, vous devez enregistrer le fournisseur de distributeur. Prrequis Vrifiez que le composant de fournisseur de distributeur est install sur le ct stockage et obtenez ses informations d'identifications auprs de l'administrateur de stockage. Utilisez vSphere Client pour connecter au systme vCenter Server. Procdure 1 2 3 4 Slectionnez [Affichage] > [Administration] > [Fournisseurs de stockage] . Cliquez sur [Ajouter] . Dans la bote de dialogue [Ajouter un fournisseur de distributeur] , tapez les informations de connexion du fournisseur de distributeur, y compris le nom, l'URL et les informations d'identification. (Facultatif) Pour diriger le serveur vCenter Server vers le certificat du fournisseur de distributeur, slectionnez l'option [Utiliser le certificat du fournisseur de distributeur] et dfinissez l'emplacement du certificat. Si vous ne slectionnez pas cette option, vSphere Client affiche une empreinte du certificat. Vous pouvez vrifier l'empreinte et la valider. 5 Cliquez sur [OK] pour terminer l'enregistrement.

vCenter Server a enregistr le fournisseur de distributeur et tabli une connexion SSL scurise avec lui.

VMware, Inc.

209

Stockage vSphere

Scurisationde la communication avec les fournisseurs de distributeur


Pour communiquer un fournisseur de distributeur, le vCenter Server utilise une connexion SSL scurise. Le mcanisme authentification SSL exige que les deux parties, le vCenter Server et le fournisseur de distributeur, changent les certificats SSL et les ajoutent leurs magasins d'approbations. Le vCenter Server peut ajouter le certificat du fournisseur de distributeur son magasin d'approbations dans le cadre de l'installation du fournisseur de distributeur. Si le certificat n'est pas ajout durant l'installation, utilisez l'une des mthodes suivantes pour l'ajouter lors de l'enregistrement du fournisseur de distributeur :
n

Dirigez le vCenter Server vers le certificat du fournisseur de distributeur. Dans la bote de dialogue [Ajouter un fournisseur de distributeur] , slectionnez l'option [Utiliser le certificat du fournisseur de distributeur] et spcifiez l'emplacement du certificat. Utilisez une empreinte du certificat du fournisseur de distributeur. Si vous ne dirigez pas le vCenter Server pour utiliser le certificat du fournisseur, le vSphere Client affiche l'empreinte du certificat. Vous pouvez vrifier l'empreinte et la valider. Le vCenter Server ajoute le certificat au magasin d'approbations et procde la connexion.

Le fournisseur de distributeur permet d'ajouter le certificat vCenter Server son magasin d'approbations lorsque le vCenter Server se connecte au fournisseur.

Afficher les informations des fournisseurs de fabricants


Aprs avoir enregistr un composant de fournisseur de distributeur avec vCenter Server, le fournisseur de distributeur apparat dans la liste des fournisseur de distributeurs dans vSphere Client. Affichez les informations gnrales de fournisseur de distributeur et les informations de chaque composant de fabricant. Procdure 1 2 Slectionnez [Affichage] > [Administration] > [Fournisseurs de stockage] . Dans la listes des fournisseur de distributeurs, affichez les composants de fournisseur de distributeur enregistrs dans vCenter Server. La liste affiche les informations de distributeur gnrales, notamment le nom, l'URL et l'heure de la dernire actualisation de la vue. 3 Pour afficher des informations supplmentaires, slectionnez un fournisseur de distributeur dans la liste. Les informations contiennent les fabricants de baies de stockage et les modles de baies que le fournisseur de distributeur prend en charge. REMARQUE Un fournisseur de distributeur peut prendre en charge les baies de stockage de plusieurs distributeurs diffrents.

Annuler l'enregistrement des fournisseurs de distributeur


Annulez l'enregistrement des fournisseurs de distributeur dont vous n'avez plus besoin. Procdure 1 2 Slectionnez [Affichage] > [Administration] > [Fournisseurs de stockage] . Dans la liste des fournisseurs de distributeur, slectionnez celui que vous voulez annuler et cliquez sur [Supprimer] .

vCenter Server met fin la connexion et supprime le fournisseur de distributeur de sa configuration.

210

VMware, Inc.

Chapitre 20 Utilisation des fournisseurs de distributeur de stockage

mettre niveau les fournisseurs de distributeur


vCenter Server met jour rgulirement les donnes de stockage dans sa base de donnes. Les mises jour sont partielles et refltent uniquement les modifications de stockage que les fournisseurs de stockage communiquent vCenter Server. Lorsque cela est ncessaire, vous pouvez excuter une synchronisation de base de donnes complte pour le fournisseur de stockage slectionn. Procdure 1 2 Slectionnez [Affichage] > [Administration] > [Fournisseurs de stockage] . Dans la liste, slectionnez le fournisseur de distributeur synchroniser et cliquez sur [Sync] .

vSphere Client met jour les donnes de stockage du fournisseur.

VMware, Inc.

211

Stockage vSphere

212

VMware, Inc.

Profils de stockage de machine virtuelle

21

Avec le stockage bas sur un profil, vous pouvez utiliser les capacits de stockage et les profils de stockage de machine virtuelle pour que les machines virtuelles utilisent un stockage qui garantisse un certain niveau de capacit, de performance, de disponibilit, de redondance, etc. REMARQUE Le stockage bas sur un profil ne prend pas en charge les RDM. Pour grer le placement du stockage en utilisant des profils de stockage de machine virtuelle, vous devez excuter les tches suivantes : 1 Vrifiez que les capacits de stockage dfinies par le systme figurent dans la bote de dialogue Grer les capacits de stockage si le systme de stockage prend en charge les API - vStorage Awareness. Pour plus d'informations sur les API vStorage - Storage Awareness, voir Chapitre 20, Utilisation des fournisseurs de distributeur de stockage , page 207. 2 3 4 5 6 7 Crez des capacits de stockage dfinies par l'utilisateur. Associez des capacits de stockage dfinies par l'utilisateur des banques de donnes. Activez des profils de stockage de machine virtuelle pour un hte ou cluster. Crez des profils de stockage de machine virtuelle en dfinissant les capacits de stockage dont a besoin une application active sur une machine virtuelle. Associez un profil de stockage de machine virtuelle aux fichiers de machine virtuelle ou disques virtuels. Vrifiez que les machines virtuelles et les disques virtuels utilisent des banques de donnes conformes leur profil de stockage de machine virtuelle associ.

Ce chapitre aborde les rubriques suivantes :


n n

Prise de connaissance des capacits de stockage , page 213 Description des profils de stockage de machine virtuelle , page 217

Prise de connaissance des capacits de stockage


Une capacit de stockage dfinit la qualit de service d'un systme de stockage. Elle garantit que le systme de stockage peut fournir un ensemble de caractristiques spcifiques de capacit, de performance, de disponibilit, de redondance, etc. Si un systme de stockage utilise des API de stockage : Storage Awareness, il indique vCenter Server qu'il peut garantir un ensemble de fonctions de stockage donn en les prsentant comme capacit de stockage. vCenter Server reconnat la capacit et l'ajoute la liste des capacits de stockage dans la bote de dialogue Grer les capacits de stockage. Ces capacits de stockage sont dfinies par le systme. vCenter Server affecte la capacit de stockage dfinie par le systme chaque banque de donnes que vous crez depuis le systme de stockage.

VMware, Inc.

213

Stockage vSphere

Vous pouvez crer des capacits de stockage dfinies par l'utilisateur et les affecter des banques de donnes. Vous devez associer la mme capacit dfinie par l'utilisateur aux banques de donnes qui garantissent le mme niveau de capacits de stockage. Vous pouvez affecter une capacit dfinie par l'utilisateur une banque de donnes ayant dj une capacit dfinie par le systme. Une banque de donnes ne peut disposer que d'une seule capacit de stockage dfinie par l'utilisateur et que d'une seule capacit de stockage dfinie par le systme la fois. Pour plus d'informations sur les API vStorage - Storage Awareness, voir Chapitre 20, Utilisation des fournisseurs de distributeur de stockage , page 207. Vous pouvez dfinir des conditions de stockage pour les machines virtuelles et les disques virtuels en ajoutant des capacits de stockage des profils de stockage de machine virtuelle.

Afficher les capacits de stockage existantes


Avant d'afficher les capacits de stockage, vous pouvez afficher les capacit de stockage que dfinit par le systme de stockage. Pour pouvoir afficher les capacits de stockage dfinies par le systme, le systme de stockage doit utiliser les API Storage - Storage Awareness. Procdure 1 2 Dans vSphere Client, slectionnez [Affichage] > [Gestion] > [Profils de stockage VM] . Dans la vue Profils de stockage VM de vSphere Client, cliquez sur [Grer les capacits de stockage] . La bote de dialogue Grer les capacits de stockage s'affiche. 3 4 Affichez les noms et les descriptions des capacits de stockage dans la colonne Nom et Description. Affichez les types des capacits de stockage existantes dfinis par le systme et par l'utilisateur. a b c Suivant Modifiez la liste des capacits de stockage existantes dfinies par l'utilisateur en utilisant les boutons [Ajouter] , [Supprimer] ou [Modifier] . Cliquez sur la colonne [Type] pour trier les capacits de stockage par type. Affichez les capacits de stockage de type Systme. Affichez les capacits de stockage dfinies par l'utilisateur.

Ajouter une capacit de stockage dfinie par l'utilisateur


Vous pouvez crer une capacit de stockage et l'affecter une banque de donnes pour indiquer les capacits de la banque de donnes. Procdure 1 Dans la vue Profils de stockage VM de vSphere Client, cliquez sur [Grer les capacits de stockage] . La bote de dialogue Grer les capacits de stockage s'affiche. 2 3 Cliquez sur [Ajouter] . Entrez le nom et la description de la capacit de stockage.
Proprit de la capacit de stockage Nom Description Exemple Tolrance aux pannes Stockage d'une capacit de plus de 2 To et tolrante aux pannes.

214

VMware, Inc.

Chapitre 21 Profils de stockage de machine virtuelle

Cliquez sur [OK] .

La capacit de stockage figure dans la liste et apparat comme tant dfinie par l'utilisateur dans la colonne Type. Suivant Affectez les capacits de stockage dfinies par l'utilisateur aux banques de donnes ayant cette capacit.

Modifier la description d'une capacit de stockage dfinie par l'utilisateur


Vous pouvez modifier une capacit de stockage dfinie par l'utilisateur pour que sa description indique la qualit de service que la capacit de stockage garantie. Vous ne pouvez pas modifier les capacits de stockage dfinies par le systme. Procdure 1 Dans la vue Profils de stockage VM de vSphere Client, cliquez sur [Grer les capacits de stockage] . La bote de dialogue Grer les capacits de stockage s'affiche. 2 3 Dans la bote de dialogue Grer les capacits de stockage, slectionnez une capacit de stockage dfinie par l'utilisateur et cliquez sur [Modifier] . Dcrivez plus en dtail la capacit de stockage et cliquez sur [OK] . Vous ne pouvez pas changer le nom d'une capacit de stockage dfinie par l'utilisateur. La nouvelle description figure dans la colonne Description de la bote de dialogue Grer les capacits de stockage.

Associer une capacit de stockage dfinie par l'utilisateur une banque de donnes
Aprs avoir cr des capacits de stockage dfinies par l'utilisateur, vous pouvez les associer des banques de donnes. Vous pouvez affecter une capacit de stockage dfinie par l'utilisateur une banque de donnes, qu'elle ait ou non une capacit de stockage dfinie par l'utilisateur. Une banque de donnes ne peut disposer que d'une seule capacit de stockage dfinie par l'utilisateur et que d'une seule capacit de stockage dfinie par le systme la fois. Vous ne pouvez pas affecter une capacit de stockage dfinie par l'utilisateur un cluster de banques de donnes. Toutefois, un cluster de banques de donnes hrite des capacits de stockage dfinies par le systme ou par l'utilisateur lorsque toutes ses banques de donnes ont la mme capacit de stockage dfinie par le systme ou par l'utilisateur. Prrequis Ajoutez une capacit de stockage dfinie par l'utilisateur la liste des capacits de stockage. Procdure 1 2 Dans vSphere Client, slectionnez [Affichage] > [Inventaire] > [Banques de donnes et clusters de banques de donnes] . Cliquez avec le bouton droit de la souris sur une banque de donnes dans l'inventaire et slectionnez [Attribuer la capacit de stockage dfinie par l'utilisateur] .

VMware, Inc.

215

Stockage vSphere

Slectionnez une capacit de stockage dans la liste des capacits de stockage et cliquez sur [OK] .
Option Crer et affecter une nouvelle capacit de stockage dfinie par l'utilisateur Slectionner une capacit de stockage existante Description a b c Cliquez sur [Nouveau] . Entrez un nom et une description. Cliquez sur [OK] .

Slectionnez une capacit de stockage dfinie par l'utilisateur dans le menu droulant [Nom] et cliquez sur [OK] .

La capacit de stockage dfinie par l'utilisateur apparat dans le volet Capacits de stockage de l'onglet [Rsum] de la banque de donnes ou de son cluster de banques de donnes.

Associer une capacit de stockage dfinie par l'utilisateur plusieurs banques de donnes
Vous pouvez slectionner plusieurs banques de donnes et les associer une capacit de stockage dfinie par l'utilisateur. Procdure 1 Ouvrez une liste de banques de donnes dans vSphere Client.
Option Afficher les banques de donnes dans un centre de donnes Action a b Afficher les banques de donnes montes sur un hte a b la vue Banques de donnes et clusters de banques de donnes, slectionnez un centre de donnes. Slectionnez l'onglet [Banques de donnes et cluster de banques de donnes] . Dans la vue Htes et clusters, slectionnez un hte. Cliquez sur l'onglet [Configuration] et sur [Stockage] .

2 3 4

Appuyez sur la touche Ctrl et slectionnez plusieurs banques de donnes. Cliquez avec le bouton droit de la souris sur une banque de donnes slectionne et slectionnez [Affecter capacit de stockage dfinie par l'utilisateur] . Slectionnez une capacit de stockage dans la liste des capacits de stockage et cliquez sur [OK] .
Option Crer et affecter une nouvelle capacit de stockage dfinie par l'utilisateur Slectionner une capacit de stockage existante Description a b c Cliquez sur [Nouveau] . Entrez un nom et une description. Cliquez sur [OK] .

Slectionnez une capacit de stockage dfinie par l'utilisateur dans le menu droulant [Nom] et cliquez sur [OK] .

La capacit de stockage est maintenance associe aux banques de donnes slectionnes.

Supprimer une capacit de stockage


Vous pouvez supprimer une capacit de stockage dfinie par l'utilisateur existante si vous ne l'utilisez pas. Vous pouvez supprimer uniquement les capacits de stockage dfinies par l'utilisateur. Vous ne pouvez pas supprimer une capacit de stockage dfinie par le systme. AVERTISSEMENT Si vous supprimez une capacit de stockage qui figure dans un profil de stockage de machine virtuelle, vous rompez la conformit du profil de stockage de la machine virtuelle et des disques virtuels qui l'utilisent.

216

VMware, Inc.

Chapitre 21 Profils de stockage de machine virtuelle

Procdure 1 Dans la vue Profils de stockage VM de vSphere Client, cliquez sur [Grer les capacits de stockage] . La bote de dialogue Grer les capacits de stockage s'affiche. 2 3 Slectionnez une capacit de stockage inutilise et cliquez sur [Supprimer] . Cliquez sur [Oui] dans la bote de dialogue de confirmation.

La capacit de stockage est supprime de la liste.

Description des profils de stockage de machine virtuelle


Les profils de stockage des machines virtuelles listent les capacits de stockage dont ont besoin les fichiers de base et les disques virtuels de machine virtuelle pour excuter les applications sur la machine virtuelle. Vous pouvez crer une liste de profils de stockage de machine virtuelle pour dfinir diffrents niveaux de conditions de stockage. Les fichiers de base de machine virtuelle (.vmx, .vmsd, .nvram, .log, etc.) et les disques virtuels (.vmdk) peuvent avoir des profils de stockage de machine virtuelle distinct, comme indiqu dans le tableau suivant. Tableau 21-1. Exemples de profils de stockage d'une machine virtuelle
Exemples de fichiers de machine virtuelle Exemple de profil de stockage VM Exemple de banque de donnes conforme au profil de stockage VM

windows_2008r2_test.vmx windows_2008r2_test.vmxf windows_2008r2_test.log windows_2008r2_test.nvram windows_2008r2_test.vmem windows_2008r2_test.vmsd windows_2008r2_test.vmdk windows_2008r2_test_1.vmdk


Profil de stockage 3 Profil de stockage 5 datastore05 datastore10 Profil de stockage 2 datastore02

Lorsque vous crez, clonez ou migrez une machine virtuelle, vous pouvez l'associer un profil de stockage de machine virtuelle. Lorsque vous slectionnez un profil de stockage de machine virtuelle, vSphere Client indique les banques de donnes compatibles avec le profil des capacits. Vous pouvez slectionner une banque de donnes ou un cluster de banque de donnes. Si vous slectionnez une banque de donnes qui ne correspond pas au profil de stockage de machine virtuelle, vSphere Client indique que la machine virtuelle utilise un stockage non conforme.

Activer les profils de stockage de machine virtuelle sur un hte ou un cluster


Pour pouvoir utiliser des profils de stockage de machine virtuelle, vous devez les activer sur un hte ou dans un cluster. Prrequis Vrifiez que l'hte ou tous les htes du cluster pour lequel vous voulez activer des profils de stockage de machine virtuelle ont une cl de licence vSphere Enterprise Plus.

VMware, Inc.

217

Stockage vSphere

Procdure 1 Dans la vue Profils de stockage VM de vSphere Client, cliquez sur [Activer les profils de stockage VM] . La fentre Activer les profils de stockage VM s'affiche. La fentre affiche tous les clusters et htes, leur tat de licence et indique si les profils de stockage de machine virtuelle sont activs ou dsactivs pour l'hte ou le cluster. 2 Pour activer les profils de stockage de machine virtuelle, slectionnez un hte ou un cluster dont l'tat est Dsactiv ou Inconnu et cliquez sur [Activer] .

L'tat de l'hte ou du cluster devient Activ dans la colonne tat du profil de stockage VM. Suivant Vous pouvez utiliser des profils de stockage de machine virtuelle pour les machines virtuelles qui s'excutent sur l'hte ou dans le cluster activ.

Crer un profil de stockage de machine virtuelle


Vous pouvez crer un profil de stockage de machine virtuelle pour dfinir les conditions de stockage d'une machine virtuelle et de ses disques virtuels en listant les capacits de stockage dans le profil de stockage de machine virtuelle. Prrequis Vrifiez que vous disposez d'au moins une capacit de stockage en cliquant sur [Grer les capacits de stockage] et en affichant la liste des capacits de stockage. Procdure 1 Dans la vue Profils de stockage VM de vSphere Client, cliquez sur [Crer un profil de stockage VM] . L'assistant Crer un profil de stockage VM s'affiche. 2 3 Dans la page Proprits du profil, tapez le nom et la description du profil de stockage de machine virtuelle et cliquez sur [Suivant] . Dans la page Slectionner les capacits de stockage, dfinissez les conditions de stockage du profil de stockage de machine virtuelle en slectionnant une ou plusieurs capacits dans la liste, puis cliquez sur [Suivant] Une banque de donnes disposant des capacits de stockage slectionnes est conforme au profil de stockage de machine virtuelle. 4 Dans la page Prt terminer, vrifiez les paramtres du profil de stockage de machine virtuelle et cliquez sur [Terminer] .

Le nouveau profil de stockage de machine virtuelle apparat un niveau en dessous du dossier Profils de stockage VM dans l'inventaire. Suivant Appliquez ce profil une machine virtuelle et ses disques virtuels.

218

VMware, Inc.

Chapitre 21 Profils de stockage de machine virtuelle

Modifier un profil de stockage de machine virtuelle


Vous pouvez changer les conditions de stockage des machines virtuelles et des disques virtuels en modifiant la liste des capacits de stockage associes un profil de stockage de machine virtuelle. Procdure 1 Dans la vue Rgles de stockage VM de vSphere Client, slectionnez le profil de stockage de machine virtuelle existant dans l'inventaire et cliquez sur [Modifier un profil de stockage VM] . La bote de dialogue Modifier un profil de stockage VM s'ouvre. 2 Modifiez le profil de stockage de machine virtuelle et cliquez sur [OK] .
n n n

Modifiez le nom. Modifiez la description. Slectionnez les nouvelles capacits de stockage inclure dans le profil de stockage de machine virtuelle. Dslectionnez les capacits de stockage exclure du profil de stockage de machine virtuelle. IMPORTANT L'exclusion d'une capacit de stockage peut rendre non conforme le profil de stockage d'une machine virtuelle si cette dernire ou ses disques utilisent des banques de donnes ayant cette capacit.

Le profil de stockage de la machine virtuelle a t modifi.

Supprimer un profil de stockage de machine virtuelle


Vous pouvez supprimer un profil de stockage de machine virtuelle si vous ne l'utilisez pas avec les machines virtuelles ou les disques virtuels. Procdure 1 2 Dans la vue Profils de stockage VM de vSphere Client, slectionnez le profil de stockage de machine virtuelle que vous n'utilisez pas et cliquez sur [Supprimer profil de stockage VM] . Cliquez sur [Oui] dans la bote de dialogue de confirmation.

Le profil de stockage de machine virtuelle est supprim de l'inventaire.

Associer un profil de stockage de machine virtuelle une machine virtuelle et ses disques virtuels
Vous pouvez associer un profil de stockage d'une machine virtuelle une machine virtuelle pour dfinir les capacits de stockage ncessaires aux applications excutes sur la machine virtuelle. Vous pouvez associer un profil de stockage de machine virtuelle une machine virtuelle hors tension et sous tension.

VMware, Inc.

219

Stockage vSphere

Procdure 1 Ouvrez l'onglet [Profils] d'une machine virtuelle.


Option Modifier les paramtres de la machine virtuelle Description a b Utilisation du menu contextuel de machine virtuelle Cliquez avec le bouton droit de la souris dans l'inventaire et slectionnez [Modifier les paramtres] . Dans la fentre Proprits de machine virtuelle, slectionnez l'onglet [Profils] .

Cliquez avec le bouton droit de la souris sur une machine virtuelle dans l'inventaire et slectionnez [Profil de stockage VM] > [Gestion des profils] .

Associez les fichiers de base de la machine virtuelle un profil de stockage de machine virtuelle dans le menu droulant [Profil de stockage VM de base] . REMARQUE Les fichiers de base de machine virtuelle incluent les types de fichiers .vmx, .vmsd, .nvram, etc.

3 4 5

(Facultatif) Cliquez sur [Propager aux disquues] pour associer tous les disques virtuels au mme profil de stockage de machine virtuelle. Sous les profils de stockage VM des disques virtuels, associez chaque disque virtuel un profil de stockage de machine virtuelle diffrent depuis le menu droulant [Profil de stockage VM] . Cliquez sur [OK] .

Le nom du profil de stockage de machine virtuelle apparat dans le volet Profils de stockage VM de l'onglet [Rsum] de la machine virtuelle. REMARQUE Si vous ajoutez un nouveau disque virtuel et l'associez un profil de stockage de machine virtuelle simultanment, VMware vSphere Profile-Driven Storage Service peut ncessiter un certain temps pour associer le profil de stockage de machine virtuelle au nouveau disque.

Vrifier la conformit du stockage avec un profil de stockage de machine virtuelle


Lorsque vous associez un profil de stockage de machine virtuelle des machines virtuelles et des disques virtuels et slectionnez les banques de donnes sur lesquelles les machines virtuelles et les disques virtuels s'excutent, vous pouvez dterminer si les machines virtuelles et les disques virtuels utilisent des banques de donnes conformes la rgle de stockage. Si vous vrifiez la conformit d'une machine virtuelle dont les profils de stockage de machine virtuelle de l'hte ou du cluster sont dsactivs, le rsultats de la vrification n'est pas conforme, car la fonction est dsactive. Prrequis Pour pouvoir excuter une vrification de conformit pour un profil de stockage de machine virtuelle, vous devez associer le profil de stockage de machine virtuelle au moins une machine virtuelle ou un disque virtuel. Procdure 1 2 3 Dans vSphere Client, slectionnez [Affichage] > [Gestion] > [Profils de stockage VM] . Slectionnez un profil de stockage de machine virtuelle dans l'inventaire. Slectionnez l'onglet [Machines virtuelles] . L'onglet [Machines virtuelles] affiche la liste des machines virtuelles et des disques virtuels qui utilisent le profil de stockage de machine virtuelle slectionn. 4 Cliquez sur [Vrifier la conformit maintenant] .

220

VMware, Inc.

Chapitre 21 Profils de stockage de machine virtuelle

La colonne tat de conformit indique si les fichiers de machine virtuelle ou les disque virtuels utilisent des banques de donnes conformes ou non conformes au profil de stockage de machine virtuelle slectionn.
tat de conformit Conforme Non conforme Description La banque de donnes qu'utilise la machine virtuelle ou le disque virtuel dispose des capacits de stockage ncessaires au profil de stockage de machine virtuelle. La banque de donnes qu'utilise la machine virtuelle ou le disque virtuel ne dispose pas de capacits de stockage ncessaires au profil de stockage de machine virtuelle. Vous pouvez migrer les fichiers de la machine virtuelle et ses disques virtuels vers des banques de donnes conformes.

Suivant Si une machine virtuelle ou un disque virtuel utilise une banque de donnes qui n'est plus conforme au profil de stockage de machine virtuelle, vous pouvez la migrer vers une banque de donnes conforme.

Vrifier la conformit de stockage d'une machine virtuelle


Vous pouvez vrifier qu'une machine virtuelle utilise un stockage conforme tous les profils de stockage de machine virtuelle qui lui sont associs. Prrequis Avant de vrifier la conformit du profil d'une machine virtuelle, vrifiez qu'un profil de stockage est associ la machine virtuelle. Procdure 1 2 3 Dans l'inventaire de vSphere Client, cliquez avec le bouton droit sur la machine virtuelle et slectionnez [Profil de stockage VM] > [Vrifier la conformit des profils] . Cliquez sur l'onglet [Rsum] . Affichez la conformit dans le volet Profils de stockage de VM ct de la zone de texte Conformit des profils.

La zone de texte Conformit des profils dans le volet Profils de stockage VM indique si les fichiers de la machine virtuelle ou ses disques virtuels sont conformes leur profil de stockage de machine virtuelle associ.
tat de conformit Conforme Non conforme Description Les banques de donnes utilises par les fichiers de machine virtuelle ou les disques virtuels disposent des capacits de stockage ncessaires au profil de stockage de machine virtuelle respectif. Les banques de donnes utilises par la machine virtuelle ou les disques virtuels ne disposent de capacits de stockage ncessaires au profil de stockage de machine virtuelle respectif. Vous pouvez migrer les fichiers de la machine virtuelle et ses disques virtuels vers une banque de donnes conforme.

Suivant Si l'tat n'est pas conforme, consultez Vrifier la conformit du stockage avec un profil de stockage de machine virtuelle , page 220 pour dterminer si les fichiers de machine virtuelle ou les disques virtuels utilisent un stockage non conforme. Vous pouvez alors migrer les fichiers ou les disques virtuels vers une banque de donnes conforme.

VMware, Inc.

221

Stockage vSphere

222

VMware, Inc.

Utilisation de vmkfstools

22

vmkfstools est l'une des commandes ESXi Shell de gestion des volumes VMFS et des disques virtuels. Vous

pouvez effectuer de nombreuses oprations de stockage en utilisant la commande vmkfstools. Par exemple, vous pouvez crer et grer les banques de donnes VMFS sur une partition physique ou manipuler des fichiers de disque virtuel, stocks sur des banques de donnes VMFS ou NFS. REMARQUE Aprs une modification l'aide de la commande vmkfstools, le vSphere Client peut ne pas tre mis jour immdiatement. Vous devez effectuer une opration d'actualisation ou de ranalyse depuis le vSphere Client. Pour plus d'informations sur ESXi Shell, consultez Initiation aux interfaces de ligne de commande vSphere. Ce chapitre aborde les rubriques suivantes :
n n

Syntaxe des commandes vmkfstools , page 223 Options vmkfstools , page 224

Syntaxe des commandes vmkfstools


En rgle gnrale, vous n'avez pas besoin de vous connecter en tant qu'utilisateur racine pour pouvoir excuter les commandes vmkfstools. Toutefois, certaines commandes (telles que les commandes de systme de fichiers) peuvent ncessiter une connexion d'utilisateur racine. La commande vmkfstools prend en charge la syntaxe de la commande suivante :
vmkfstools conn_options options target.

La cible spcifie une partition, un dispositif ou un chemin pour y appliquer l'option de commande. Tableau 22-1. Arguments de commande vmkfstools
Argument options Description Une ou plusieurs options de ligne de commande et arguments associs, utiliss pour spcifier l'activit de vmkfstools : choix du format de disque lors de la cration d'un disque virtuel, par exemple. Aprs avoir entr cette option, vous devez spcifier une cible sur laquelle l'opration sera effectue. La cible peut indiquer une partition, un priphrique ou un chemin. Spcifie les partitions de disque. Cet argument utilise un format disk_ID:P, o disk_ID correspond l'ID de priphrique renvoy par la baie de stockage et P correspond un nombre entier reprsentant le numro de partition. Le numro de partition doit tre suprieur zro (0) et correspondre une partition VMFS valide.

partition

VMware, Inc.

223

Stockage vSphere

Tableau 22-1. Arguments de commande vmkfstools (suite)


Argument priphrique Description Spcifie les priphriques ou les volumes logiques. Cet argument utilise un nom de chemin du systme de fichiers du priphrique ESXi. Il commence par /vmfs/devices, ce qui correspond au point de montage du systme de fichier du priphrique. Lorsque vous spcifiez diffrents types de priphriques, utilisez les formats suivants : n /vmfs/devices/disks pour les disques locaux ou SAN.
n n

/vmfs/devices/lvm pour les volumes logiques ESXi. /vmfs/devices/generic pour les priphriques SCSI gnriques.

chemin

Spcifie un fichier ou un systme de fichiers VMFS. Cet argument est un chemin absolu ou relatif dsignant un lien symbolique d'accs un rpertoire, un mappage de priphrique brut ou un fichier situ sous /vmfs.
n

Pour spcifier un systme de fichiers VMFS, utilisez le format suivant : /vmfs/volumes/file_system_UUID ou /vmfs/volumes/file_system_label

Pour spcifier un fichier sur une banque de donnes VMFS, utilisez ce format : /vmfs/volumes/file_system_label| file_system_UUID/[dir]/myDisk.vmdk Il est inutile d'entrer le chemin d'accs complet si l'inventaire de travail en cours d'utilisation est l'inventaire parent de myDisk.vmdk.

Options vmkfstools
La commande vmkfstools se compose de diffrentes options. Certaines d'entre elles s'adressent uniquement aux utilisateurs avancs. Vous pouvez spcifier le format long ou le format lettre unique, au choix. Par exemple, les commandes suivantes sont identiques :
vmkfstools --createfs vmfs5 --blocksize 1m disk_ID:P vmkfstools -C vmfs5 -b 1m disk_ID:P

Sous-option -v
La sous-option -v indique le niveau de verbosit du rsultat de la commande. Le format de cette sous-option est le suivant :
-v --verbose number

Pour spcifier la valeur number, utilisez un nombre entier compris entre 1 et 10. Vous pouvez spcifier la valeur de la sous-option -v via l'option vmkfstools de votre choix. Si le rsultat de l'option n'est pas utilisable avec la sous-option -v, vmkfstools ignore -v. REMARQUE Puisque vous pouvez inclure la sous-option -v dans toute ligne de commande vmkfstools, -v n'est pas mentionne dans les descriptions d'options.

224

VMware, Inc.

Chapitre 22 Utilisation de vmkfstools

Options de systme de fichiers


Les options de systme de fichier permettent de crer un systme de fichiers VMFS. Ces options ne s'appliquent pas NFS. Vous pouvez excuter un grand nombre de ces tches via vSphere Client.

Liste d'attributs d'un volume VMFS


Pour rpertorier les attributs applicables un volume VMFS, utilisez la commande vmkfstools.
-P --queryfs -h --human-readable

Lorsque vous utilisez cette option pour un fichier ou rpertoire de volume VMFS, l'option rpertorie les attributs du volume spcifi. Les attributs rpertoris incluent l'tiquette du systme de fichiers, le nombre d'extensions comprenant le volume VMFS spcifi, l'tiquette de volume (le cas chant), l'UUID et la liste des noms de priphriques sur lesquels rside chaque extension. REMARQUE Si l'un des priphriques hbergeant le systme de fichiers VMFS est mis hors tension, le nombre d'extension et l'espace disponible sont modifis en consquence. Vous pouvez spcifier la valeur de la sous-option -h via l'option -P. Dans ce cas, vmkfstools indique la capacit du volume sous une forme plus lisible (par exemple 5k, 12.1M, ou 2.1G).

Cration d'un systme de fichier VMFS


Utilisez la commande vmkfstools pour crer une banque de donne VMFS.
-C --createfs [vmfs3|vmfs5] -b --blocksize block_sizekK|mM -S --setfsname datastore

Cette option permet de crer un VMFS3 ou une banque de donnes VMFS5 sur la partition SCSI spcifie, comme par exemple disk_ID:P. Cette partition devient alors la partition principale du systme de fichiers. REMARQUE Utilisez l'option VMFS3 lorsque les htes hrits doivent accder la banque de donnes. Vous pouvez spcifier les sous-options suivantes avec l'option -C :
n -b --blocksize Dfinissez la taille du bloc pour la banque de donnes VMFS.

Pour VMFS5, la taille du seul bloc disponible est 1 Mo. Pour VMFS3, la taille de bloc par dfaut est de 1 Mo. La taille du bloc peut tre de 1 Mo, 2 Mo, 4 Mo et de 8 Mo, en fonction de vos besoins. Lorsque vous entrez la taille, indiquez le type d'unit en ajoutant un suffixe, tel qu'un m ou un M. Le type d'unit ne respecte pas la casse.
n -S --setfsname Dfinissez l'tiquette d'un volume de la banque de donnes VMFS que vous tes en train

de crer. Vous ne devez utiliser cette sous-option qu'avec l'option -C. L'tiquette spcifie peut comporter au maximum 128 caractres ; elle ne doit pas contenir d'espaces au dbut ou la fin. Une fois que vous avez dfini une tiquette de volume, vous pouvez l'utiliser lorsque vous spcifiez la banque de donnes VMFS pour la commande vmkfstools. L'tiquette de volume apparat dans les listes gnres pour la commande ls -l et sous forme de lien symbolique d'accs au volume VMFS dans l'inventaire /vmfs/volumes. Pour modifier l'tiquette de volume VMFS, utilisez la commande ln -sf. En voici un exemple :
ln -sf /vmfs/volumes/UUID /vmfs/volumes/datastore

VMware, Inc.

225

Stockage vSphere

datastore correspond la nouvelle tiquette de volume utiliser pour le VMFS UUID. REMARQUE Si votre hte est enregistr auprs du vCenter Server, tous les changements apports l'tiquette de volume VMFS sont crass par le vCenter Server. C'est une garantie que l'tiquette VMFS est cohrente pour tous les htes vCenter Server.

Exemple de cration d'un systme de fichiers VMFS


Cet exemple illustre la cration d'une nouvelle banque de donnes VMFS nomme my_vmfs sur la partition naa.ID:1. La taille de bloc de ce systme de fichiers est gale 1 Mo.
vmkfstools -C vmfs5 -b 1m -S my_vmfs /vmfs/devices/disks/naa.ID:1

Extension d'un Volume existant VMFS


Pour ajouter une extension un volume VMFS, utilisez la commande vmkfstools.
-Z --spanfs span_partition head_partition

Cette option permet d'ajouter une extension au systme de fichiers VMFS en l'tendant sur la partition principale spcifie grce span_partition. Vous devez spcifier le chemin complet, par exemple /vmfs/devices/disks/disk_ID:1. Chaque fois que vous utilisez cette option, vous ajoutez une extension un volume VMFS, qui s'tend alors sur plusieurs partitions. AVERTISSEMENT Lorsque vous utilisez cette option, vous perdez les donnes prsentes sur le priphrique SCSI spcifi dans span_partition .

Exemple d'extension d'un Volume VMFS


Cet exemple illustre l'extension du systme de fichiers logiques sur une nouvelle partition.
vmkfstools -Z /vmfs/devices/disks/naa.disk_ID_2:1 /vmfs/devices/disks/naa.disk_ID_1:1

Le systme de fichiers s'tend dsormais sur deux partitionsnaa.disk_ID_1:1 et naa.disk_ID_2:1. Dans cet exemple, naa.disk_ID_1:1 correspond au nom de la partition principale.

Agrandissement d'une extension existante


Au lieu d'ajouter une nouvelle extension une banque de donnes VMFS, vous pouvez agrandir une extension existante en utilisant la commande vmkfstools -G. Utilisez l'option suivante pour augmenter la taille d'une banque de donnes VMFS aprs l'augmentation de la capacit du stockage sous-jacent.
-G --growfs device device

Cette option permet d'agrandir une banque de donnes VMFS existante ou son extension. Par exemple,
vmkfstools --growfs /vmfs/devices/disks/disk_ID:1 /vmfs/devices/disks/disk_ID:1

Mettre niveau une Banque de donnes VMFS


Vous pouvez mettre niveau une banque de donnes VMFS3 vers VMFS5. AVERTISSEMENT La mise niveau est un processus unilatral. Aprs avoir converti une banque de donnes VMFS3 en VMFS5, vous ne pouvez pas revenir en arrire.

226

VMware, Inc.

Chapitre 22 Utilisation de vmkfstools

Lors de la mise niveau de la banque de donnes, utilisez la commande suivante : vmkfstools T /vmfs/volumes/UUID REMARQUE Tous les htes accdant la banque de donnes doivent prendre en charge VMFS5 . Si un hte ESX/ESXi version 4.x ou antrieure utilise la banque de donnes VMFS3, la mise niveau choue et l'adresse mac de l'hte s'affiche, avec les dtails de l'adresse Mac de l'hte qui utilise activement la Banque de donnes

Options de disque virtuel


Les options de disque virtuel permettent de configurer, migrer et grer les disques virtuels stocks dans les systmes de fichiers VMFS et NFS. Vous pouvez galement excuter un grand nombre de ces tches via vSphere Client.

Formats de disque pris en charge


Lorsque vous crez ou clonez un disque virtuel, vous pouvez utiliser la sous-option -d --diskformat pour spcifier le format du disque. Vous avez le choix entre les formats suivants :
n zeroedthick (valeur par dfaut) L'espace requis pour le disque virtuel est allou au cours de la cration.

Toutes les donnes qui demeurent sur le priphrique physique ne sont pas mises zro pendant la cration, mais sont mises zro sur demande la premire criture sur la machine virtuelle. La machine virtuelle ne lit pas les donnes caduques du disque.
n eagerzeroedthick L'espace requis pour le disque virtuel est allou pendant la cration. Contrairement

au format zeroedthick, les donnes qui demeurent sur le priphrique physique sont mises zro pendant la cration. La cration de disques ce format peut tre plus longue que pour d'autres types de disques.
n thin Disque virtuel lger. Contrairement au format thick, l'espace requis pour le disque virtuel n'est pas

allou pendant la cration, mais il est fourni ultrieurement, sur demande.


n n n rdm:device Mappage du disque brut en mode compatibilit virtuelle. rdmp:device Mappage du disque brut en mode compatibilit physique (mulation). 2gbsparse Disque clairsem possdant une taille d'extension maximale de 2 Go. Vous pouvez utiliser des disques dans ce format avec des produits VMware hbergs, tels que VMware Fusion, Player, Server ou Workstation. Toutefois, vous ne pouvez pas utiliser un disque clairsem sur un hte ESXi, sauf si vous avez pralablement rimport le disque l'aide de vmkfstools en utilisant un format compatible tel que statique ou dynamique.

Reportez-vous la section Migrer les machines virtuelles entre diffrents produits VMware , page 229. Formats de disque NFS Les seuls formats de disque pouvant tre utiliss pour NFS sont les suivants : dynamique, statique, zeroedthick et 2gbsparse. Les formats statique, zeroedthick et dynamique se comportent gnralement de la mme manire parce que le serveur NFS et non pas l'hte ESXi dtermine la rgle d'allocation. Sur la plupart des serveurs NFS, la rgle d'allocation par dfaut est thin. Toutefois, sur les serveurs NFS qui prennent en charge les API de stockage Intgration de baie, vous pouvez crer des disques virtuels dans le format zeroedthick. L'opration d'espace de rserve permet aux serveurs NFS d'allouer et de garantir de l'espace. Pour plus d'informations sur les API d'intgration de baie, consultez Chapitre 18, Acclration matrielle du stockage , page 187.

VMware, Inc.

227

Stockage vSphere

Cration d'un disque virtuel


Pour crer un disque virtuel, utilisez la commande vmkfstools.
-c --createvirtualdisk size[kK|mM|gG] -a --adaptertype [buslogic|lsilogic|ide] srcfile -d --diskformat [thin|zeroedthick|eagerzeroedthick]

Cette option permet de crer un disque virtuel l'emplacement spcifi d'une banque de donnes Spcifiez la taille du disque virtuel. Lorsque vous entrez la valeur du paramtre size, vous pouvez indiquer le type d'unit via l'ajout d'un suffixe k (kilo-octets), m (mga-octets) ou g (giga-octets). Le type d'unit ne respecte pas la casse. vmkfstools considre que k et K signifient kilo-octets. Si vous ne spcifiez aucun type d'unit, vmkfstools utilise les octets par dfaut. Vous pouvez spcifier les sous-options suivantes avec l'option -c.
n -a spcifie le pilote de priphrique utilis pour communiquer avec les disques virtuels. Vous avez le choix

entre des pilotes BusLogic, LSI Logic ou IDE.


n -d permet de spcifier les formats de disque.

Exemple de cration de disque virtuel


Cet exemple illustre la cration d'un fichier de disque virtuel (d'une taille de deux giga-octets) appel rh6.2.vmdk sur le systme de fichiers VMFS myVMFS. Ce fichier reprsente un disque virtuel vide auquel les machines virtuelles peuvent accder.
vmkfstools -c 2048m /vmfs/volumes/myVMFS/rh6.2.vmdk

Initialisation d'un disque virtuel


Pour initialiser un disque virtuel, utilisez la commande vmkfstools.
-w --writezeros

Cette option permet de nettoyer le disque virtuel en inscrivant des zros sur toutes les donnes qu'il contient. En fonction de la taille de votre disque virtuel et de la bande passante d'E/S utilise pour le priphrique hbergeant le disque virtuel, l'excution de cette commande peut tre plus ou moins longue. AVERTISSEMENT Lorsque vous utilisez cette commande, vous perdez les donnes prsentes sur le disque virtuel.

Gonflage d'un disque virtuel lger


Pour gonfler un disque virtuel lger, utilisez la commande vmkfstools.
-j --inflatedisk

Cette option permet de convertir un disque virtuel lger (thin) en disque eagerzeroedthick, tout en prservant la totalit des donnes existantes. Cette option permet d'allouer les blocs qui ne l'ont pas encore t et de les mettre zro.

Suppression de blocs mis zro


Pour convertir des disques virtuels lgers zeroedthick ou eagerzeroedthick en disques lgers avec suppression des blocs mis zro, utilisez la commande vmkfstools.
-K --punchzero

Cette option permet de supprimer l'allocation de tous les blocs mis zro, en conservant uniquement ceux qui ont t allous prcdemment et qui contiennent des donnes. Le format du disque virtuel ainsi obtenu est le format de disque lger.

228

VMware, Inc.

Chapitre 22 Utilisation de vmkfstools

Conversion d'un disque virtuel Zeroedthick en disque Eagerzeroedthick


Pour convertir un disque virtuel zeroedthick en disque eagerzeroedthick, utilisez la commande vmkfstools.
-k --eagerzero

Outre la conversion, cette option permet de prserver les donnes prsentes sur le disque virtuel.

Suppression d'un disque virtuel


Cette option supprime un fichier de disque virtuel l'emplacement spcifi du volume VMFS.
-U --deletevirtualdisk

Affectation d'un nouveau nom un disque virtuel


Cette option permet de renommer un disque virtuel l'emplacement spcifi d'un volume VMFS. Vous devez spcifier le nom de fichier ou le chemin d'origine (oldName) et le nouveau nom de fichier ou le nouveau chemin (newName).
-E --renamevirtualdisk oldName newName

Clonage d'un disque virtuel ou d'un RDM


Cette option permet de crer la copie d'un disque virtuel ou d'un disque brut spcifi.
-i --clonevirtualdisk srcfile -d --diskformat [rdm:device|rdmp:device|thin|2gbsparse]

Vous pouvez utiliser la sous-option -dpour l'option -i. Cette sous-option permet de spcifier le format de disque utiliser pour la copie cre. Les utilisateurs autres que racine ne sont pas autoriss effectuer le clonage de disques virtuels ou de RDM.

Exemple de clonage de disque virtuel


Cet exemple illustre le clonage du contenu d'un disque virtuel matre du rfrentiel templates vers un fichier de disque virtuel nomm myOS.vmdk, situ sur le systme de fichiers myVMFS.
vmkfstools -i /vmfs/volumes/myVMFS/templates/gold-master.vmdk /vmfs/volumes/myVMFS/myOS.vmdk

Vous pouvez configurer une machine virtuelle en vue de l'utilisation de ce disque : pour cela, ajoutez les lignes correspondantes au fichier de configuration de la machine virtuelle, comme indiqu dans l'exemple suivant :
scsi0:0.present = TRUE scsi0:0.fileName = /vmfs/volumes/myVMFS/myOS.vmdk

Migrer les machines virtuelles entre diffrents produitsVMware


En gnral, vous utilisez VMware Converter pour migrer les machines virtuelles d'autres produits VMware vers votre systme ESXi. Toutefois, vous pouvez utiliser la commande vmkfstools -i pour importer des disques virtuels au format 2gbsparse dans l'ESXi puis connecter ce disque une nouvelle VM que vous crez dans ESXi. Vous devez commencer par importer le disque virtuel, car vous ne pouvez pas utiliser les disques exports au format 2gbsparse sur un hte ESXi. Procdure 1 Importez un disque au format 2gbsparse dans l'hte ESXi en excutant la commande suivante. Veillez slectionner le format de disque compatible avec ESXi.
vmkfstools -i <input> <output> -d <format>

VMware, Inc.

229

Stockage vSphere

2 3

Dans vSphere Client, crez une nouvelle machine virtuelle l'aide de l'option de configuration [Personnalis] . Lorsque vous configurez un disque, slectionnez [Utiliser un disque virtuel existant] et connectez le disque que vous avez import.

Extension d'un disque virtuel


Aprs la cration d'une machine virtuelle, cette option permet d'en augmenter la taille.
-X --extendvirtualdisk newSize[kK|mM|gG]

Avant d'entrer cette commande, vous devez mettre hors tension la machine virtuelle qui utilise ce fichier de disque. Vous devrez peut-tre mettre niveau le systme de fichiers du disque, afin que le systme d'exploitation invit puisse reconnatre et utiliser la nouvelle taille de disque (et donc l'espace disponible supplmentaire). Vous pouvez spcifier la valeur du paramtre newSize en kilo-octets, en mga-octets ou en giga-octets : pour cela, ajoutez un suffixe k (kilo-octets), m (mga-octets) ou g (giga-octets). Le type d'unit ne respecte pas la casse. vmkfstools considre que k et K signifient kilo-octets. Si vous ne spcifiez aucun type d'unit, vmkfstools utilise par dfaut les kilo-octets. Le paramtre newSize dfinit la nouvelle taille totale (et pas uniquement l'incrment ajout au disque). Par exemple, pour tendre un disque virtuel de 4 Go d'1 Go, entrez : vmkfstools -X 5g disk name. Vous pouvez tendre le disque virtuel au format eagerzeroedthick en utilisant l'option -d eagerzeroedthick. REMARQUE N'tendez pas le disque de base d'une machine virtuelle associe des snapshots. En effet, cela vous empcherait de valider les snapshots ou de restaurer la taille d'origine du disque de base.

Mise niveau des disques virtuels


Cette option permet de convertir le fichier de disque virtuel spcifi au format ESX Server 2 en format ESXi.
-M --migratevirtualdisk

Cration d'un mappage de priphrique brut en mode de compatibilit virtuelle


Cette option permet de crer un fichier de mappage de priphrique brut (RDM) sur un volume et de mapper un LUN brut sur ce fichier. Une fois ce mappage tabli, vous pouvez accder au LUN comme vous le feriez pour un disque virtuel VMFS classique. La longueur du fichier objet du mappage est quivalente la taille du LUN brut dsign.
-r --createrdm device

Lorsque vous spcifiez la valeur du paramtre device, respectez le format suivant :


/vmfs/devices/disks/disk_ID:P

Exemple de cration d'un fichier RDM en mode de compatibilit virtuelle


Dans cet exemple, vous crez un fichier RDM nomm my_rdm.vmdk et vous mappez le disque brut disk_ID sur ce fichier.
vmkfstools -r /vmfs/devices/disks/disk_ID my_rdm.vmdk

Vous pouvez configurer une machine virtuelle en vue de l'utilisation du fichier de mappage my_rdm.vmdk ; pour cela, ajoutez les lignes suivantes au fichier de configuration de la machine virtuelle :
scsi0:0.present = TRUE scsi0:0.fileName = /vmfs/volumes/myVMFS/my_rdm.vmdk

230

VMware, Inc.

Chapitre 22 Utilisation de vmkfstools

Cration d'un mappage de priphrique brut en mode de compatibilit physique


Cette option permet de mapper un priphrique brut d'mulation sur un fichier de volume VMFS. Ce mappage permet une machine virtuelle d'ignorer le filtrage de commandes SCSI ESXi lors de l'accs au disque virtuel. Ce type de mappage est trs utile lorsque la machine virtuelle doit envoyer des commandes SCSI prioritaires (par exemple, lorsqu'un logiciel compatible SAN est excut sur la machine virtuelle.
-z --createrdmpassthru device

Une fois ce type de mappage tabli, vous pouvez l'utiliser pour l'accs au disque brut, comme vous le feriez pour les autres disques virtuels VMFS. Lorsque vous spcifiez la valeur du paramtre device, respectez le format suivant :
/vmfs/devices/disks/disk_ID

Liste des attributs d'un RDM


Cette option permet de rpertorier les attributs d'un mappage de disque brut.
-q --queryrdm

Cette option imprime le nom du RDM du disque brut. Elle imprime galement d'autres informations d'identification (ID de disque du disque brut, par exemple).

Affichage de la gomtrie de disque virtuel


Cette option permet d'obtenir des informations sur la gomtrie d'un disque virtuel.
-g --geometry

Le rsultat se prsente comme suit : Geometry information C/H/S, o C reprsente le nombre de cylindres, H reprsente le nombre de ttes et S reprsente le nombre de secteurs. REMARQUE Lorsque vous importez des disques virtuels depuis les produits VMware hbergs vers l'hte ESXi, un message d'erreur de divergence de gomtrie pourrait apparatre. Les divergences de gomtrie de disque peuvent galement tre l'origine de problmes de chargement d'un systme d'exploitation invit ou d'excution d'une machine virtuelle cre.

Vrification et rparation des disques virtuels


Utilisez cette option pour vrifier ou rparer un disque virtuel en cas d'arrt anormal.
-x , --fix [check|repair]

Vrification de la cohrence de la chane de disques


Cette option vous permet de vrifier toute la chane de disques. Vous pouvez dterminer si l'un des maillons de la chane est corrompu ou si une relation parent-enfant non valide existe.
-e --chainConsistent

VMware, Inc.

231

Stockage vSphere

Options de priphrique de stockage


Les options de priphrique vous permettent d'excuter des tches administratives pour les priphriques de stockage physiques.

Gestion des rservations SCSI de LUN


L'option -L vous permet de rserver un LUN SCSI des fins d'utilisation exclusive par l'hte ESXi, de librer une rservation pour que d'autres htes puissent accder au LUN, ou encore de rtablir une rservation forant la libration de toutes les rservations de la cible.
-L --lock [reserve|release|lunreset|targetreset|busreset]device

AVERTISSEMENT L'utilisation de l'option -L peut interrompre les oprations des autres serveurs d'un SAN. Veillez utiliser l'option -L uniquement pour le dpannage de configurations de clusters. Sauf recommandation contraire de VMware, n'utilisez jamais cette option sur un volume LUN hbergeant un volume VMFS. Vous pouvez spcifier l'option -L de diffrentes faons :
n -L reserve Permet de rserver le LUN spcifi. Une fois la rservation effectue, seul le serveur ayant

rserv ce LUN peut y accder. Si d'autres serveurs tentent d'accder ce LUN, un message d'erreur de rservation s'affiche.
n -L release Permet de librer la rservation du LUN spcifi. Dans ce cas, les autres serveurs peuvent

de nouveau y accder.
n -L lunreset Permet de restaurer le LUN spcifi via la suppression des rservations associes ; le LUN

redevient disponible pour tous les autres serveurs. Cette restauration n'affecte pas les autres LUN du priphrique. Si l'un d'entre eux est rserv, il le reste.
n -L targetreset Permet de restaurer la cible complte. Cette opration supprime les rservations de tous

les LUN associs cette cible ; ces LUN redeviennent disponibles pour tous les serveurs.
n -L busreset Permet de restaurer toutes les cibles accessibles sur le bus. Cette opration supprime les

rservations de tous les LUN accessibles via le bus, et les rend de nouveau disponibles pour tous les serveurs. Lorsque vous entrez la valeur du paramtre device, respectez le format suivant :
/vmfs/devices/disks/disk_ID:P

Rupture des verrous d'un priphrique


L'option -B vous permet de forcer le verrou d'un priphrique sur une partition particulire.
-B --breaklock device

Lorsque vous entrez la valeur du paramtre device, respectez le format suivant :


/vmfs/devices/disks/disk_ID:P

Vous pouvez utiliser cette commande en cas d'chec d'un hte au milieu d'une opration de banque de donnes, telle que l'agrandissement d'une extension, l'ajout d'une extension ou la resignature. Lorsque vous lancez cette commande, vrifiez qu'aucun autre hte ne dtient le verrou.

232

VMware, Inc.

Index

Symboles
* chemin le plus proche 174

A
acclration matrielle propos 187 activation 189 avantages 187 dtails de prise en charge 191 tat 188 exigences 188 NAS 194 statut NAS 196 stockage des blocs 188 suppression des rgles de rclamation 193 accs au stockage 21 activation des SSD, avantages 155 adaptateur logiciel iSCSI configuration 77 dsactivation 78 adaptateurs de dmarrage 55 adaptateurs de stockage propos 74 affichage 10 consulter dans vSphere Client 10 copier des noms 11 ranalyser 134 adaptateurs FCoE 37 adaptateurs iSCSI propos 71 logiciel 65 matriel 65 paramtres avancs 91 adaptateurs iSCSI matriels dpendant 65 indpendant 65 adaptateurs iSCSI matriels indpendants changer l'adresse IP 74 changer le nom 74 adaptateurs rseau, configuration de iBFT iSCSI boot 108 adresse IP 64 adresses de dcouverte dynamique 86 adresses de dcouverte statique 86 ADT, , voir transfert automatique de disque affecter une capacit de stockage 215, 216

afficher les capacits de stockage 214 ajout, stockage NFS 137 ajouter une capacit de stockage 214 alarmes 209 alias iSCSI 64 allocation dynamique, sur-abonnement 199 allocations, LUN 36 allocations, LUN 72 annulation de chemin 47, 98 API de stockage, Storage Awareness 207 applications, par couches 27 applications de gestion tierces 28 applications par couches 27 Architecture de stockage enfichable 170 astrisque chemin le plus proche 174 ATS (atomic test and set) 136 authentification 67, 87 authentification CHAP 67, 87 auto-dtection,priphriques SSD 156 AVT, , voir transfert automatique de volume

B
baies de disques actives/actives 36, 72, 175 actives/passives 36, 72, 175 baies de disques actives/actives 32, 36, 50, 66, 72, 100, 175 baies de disques actives/passives, dmarrage partir du SAN 54 baies de disques passives 36, 72, 175 baies de stockage bases sur LSI 51 configuration 45 performances 60 balise, priphriques SSD 156 banque de donnes, capacit de stockage 215, 216 banques de donnes actualisation 133 administration des duplications 131 affichage 19 ajout des domaines 128 augmentation de capacit 128 chemins 174 configuration sur des volumes NFS 137 consulter les proprits 20

VMware, Inc.

233

Stockage vSphere

dmontage 138 montage 131 NFS 121 regroupement 139 renommer 139 sur-abonnement du stockage 203 VMFS 121 banques de donnes NFS dmontage 138 et les caractres non ASCII 137 rfrentiels 137 taille maximale 137 banques de donnes VMFS ajout des domaines 128 augmentation de capacit 128 cration 126 cration sur le stockage Fibre Channel 126 cration sur le stockage iSCSI 126 cration sur un disque SCSI 126 cration sur un priphrique de stockage 126 dmontage 138 formats de disque 123 mise niveau 129 modification des proprits 127 modifier des signatures 132 montage 141, 142 partage 124 ranalyser 134 suppression 133 banques de donnes VMFS2, mise niveau 130 basculement dlai E/S 168 transparent 32, 66 basculement de chemin bas sur baie 168 bas sur hte 166 et machines virtuelles 169 basculement sur l'hte 166 BIOS, activation pour BFS 56 BIOS HBA Qlogic, activation pour BFS 57

C
capacit de stockage affecter plusieurs banques de donnes 216 affecter une banque de donnes 215 afficher 214 ajouter 214 dfinie par l'utilisateur 214 dfinie par le systme 214 dfinition 213 modification 215 supprimer 216

capacit de stockage dfinie par l'utilisateur 214 capacit de stockage dfinie par le systme 214 capacits de stockage 207 cas d'utilisation 24 chane de disques, cohrence 231 CHAP dsactivation 90 mutuel 87 pour des initiateurs iSCSI 88 pour les cibles de dcouverte 89 pour les cibles statiques 89 unilatral 87 CHAP mutuel 87 CHAP unilatral 87 chemin prfr 174 chemins dmasquage 184 dsactivation 176 masquage 182 prfrs 174 chemins de basculement, tat 174 cibles 15, 66 cibles / LUN 66 classement par ordre de priorit des machines virtuelles 26 Cluster Linux, type d'hte 46 commande -C vmkfstools 225 commande -P vmkfstools 225 commande -v vmkfstools 224 commande -Z vmkfstools 226 commande vmkfstools -G 226 commutateurs standard 82 configuration dcouverte dynamique 86 dcouverte statique 87 Configuration de l'hte, paramtres avancs 60 configuration FC HBA 36 conformit de stockage par machine virtuelle 221 par profil de stockage de machine virtuelle 220 connectivit de base 46 connexion directe 46 connexions rseau, crer 80 considrations sur l'acclration matrielle 196 contrle d'accs 67 contrleurs SCSI 9

234

VMware, Inc.

Index

D
dcisions de LUN schma adaptatif 26 schma prdictif 25 dcouverte adresse 86 dynamique 86 statique 87 dcouverte dynamique, configuration 86 dcouverte statique, configuration 87 dlai d'expiration de disque 169 dlai d'expiration du SE invit Windows 169 dlai E/S 72, 168 dmarrage partir du DVD-ROM 55 dmarrage partir du SAN avantages 53 conditions requises de l'hte 54 conditions requises HBA 54 configuration des HBA Emulex 56 configuration des HBA Qlogic 57 configuration du stockage 55 considrations LUN de dmarrage 54 exigences 54 prparation de l'installation 54 prsentation 53 dmarrage partir du SAN iSCSI configuration des HBA 105 configuration des paramtres iSCSI 105 directives 103 iBFT 106 iSCSI logiciel 106 iSCSI matriel 105 prparation du SAN 104 dmarrage iSCSI, iBFT 106 dpannage modification des paramtres de dmarrage iSCSI 111 perte de connexion rseau 110 dsactivation de chemins d'accs 176 Disk.EnableNaviReg 60 Disk.MaxLUN 134 disque virtuel, rparation 231 disques format 202 gonfler 202 disques allous dynamiquement, cration 200 disques dynamiques 144 disques virtuels extension 230 formats 201 formats pris en charge 227 distributeur du fournisseur, exigences 208 DVD-ROM, dmarrage partir du 55

E
EMC CLARiiON 47, 98 EMC CLARiiON AX100 connect directement 47 et RDM 47 EMC Symmetrix, pseudo LUN 48, 99 emplacements des machines virtuelles 26 enregistrement automatique de l'hte, dsactivation 60 enregistrement de l'hte, dsactivation 60 EqualLogic, systmes de stockage 101 quilibrage de charge 24, 36 espace de stockage 199 ESXi, configuration pour net dump 112 tapes de configuration 37 tat actuel du multivoie 174 tat du multivoie 174 tat du stockage 207 EUI 64 EVA (HP StorageWorks) 50, 100 vnement all-paths-down 140 vnements 209 exemples commande -C vmkfstools 226 commande -Z vmkfstools 226 exemples vmkfstools clonage de disques 229 cration de disques virtuels 228 cration de RDM 230 exigences, dmarrage partir du SAN 54 extensions agrandissement 128 ajouter la banque de donnes 128

F
Fabric SAN 31 FC SAN accs 33 spcifications matrielles 35 FCoE, meilleures pratiques 38 FCoE logiciel et VMkernel 38 activation des adaptateurs 39 Fibre Channel concepts 31 liste de vrification de la configuration 62 filtre VAAI, affichage 190 filtres de stockage dsactivation 135 hte identique et transports 136 RDM 136 ranalyse de l'hte 136 VMFS 136 FIP 38

VMware, Inc.

235

Stockage vSphere

formats de disque approvisionn pais 201 provisionnement fin 201 fournisseurs de distributeur annulation de l'enregistrement 210 connexion SSL 210 inscription 209 mise jour 211 fournisseurs de fabricants, affichage 210

G
gestion des chemins 165 gestion multivoie afficher l'tat actuel du 174 chamins casss 174 chemins actifs 174 chemins dsactivs 174 chemins inactifs 174 considrations 177 GPT 16

H
HBA configuration 36 quilibrage de charge statique 36 profondeur de file d'attente 35 htes, et SAN Fibre Channel 31 HP LeftHand P4000 VSA 102 HP StorageWorks EVA 50, 100 MSA 99 XP 51

initiateurs iSCSI logiciels, configurer des adresses de dcouverte 86 initiateurs iSCSI matriels affichage 74 configuration 73 configurer des adresses de dcouverte 86 installation 74 installation tapes 37 prparation du dmarrage partir du SAN 54 intgration de baie, allocation dynamique 203 interfaces VMkernel 82 invite BIOS de dmarrage, activation pour BFS 56 IQN 64 iSCSI 12 iSCSI Boot Firmware Table, , voir iBFT iSCSI dpendant, mise en rseau 78 iSCSI logiciel et basculement 166 mise en rseau 78 partition de diagnostic 143 iSCSI matriel, et basculement 166 ISL 48

L
liaison de port 166 liaison inter-commutateur 48 limitations 36 Linux, type d'hte 46 liste de vrification 118 Logiciel de gestion du SAN 28 LUN accs par NPIV 40 allocations 36, 72 dcisions 25 dfinir la rgle de multivoie 175 et banques de donnes VMFS 35 masquage 182 modification du nombre de LUN analyss 134 modifications et ranalyse 133 rgle de multivoie 175 un volume VMFS par 72 LUN allocation dynamique, rcupration d'espace 205 LUN provisionnement dynamique identifier 204 rapports 204 LUN analyss, modification du nombre 134

I
iBFT 106 iBFT iSCSI Boot changement de squence de dmarrage 108 dfinition d'ESXi 107 dmarrage d'un hte ESXi 109 dpannage 110 installation d'un hte ESXi 108 limitations 107 meilleures pratiques de mise en rseau 109 IBM ESS800 50 IBM FAStT 48 IBM Systems Storage 8000 50 IDE 11 initiateur logiciel iSCSI, activation 77 initiateurs iSCSI configurer CHAP 88 configurer les paramtres avancs 92 configurer les paramtres CHAP 87 matriel 73

M
machines virtuelles accs un SAN iSCSI 68 accs au FC SAN 33

236

VMware, Inc.

Index

affectation de WWN 41 avec RDM 153 classement par ordre de priorit 26 dlai E/S 168 emplacements 26 maintenance 24 mappage de priphrique brut, voir RDM 147 mappages de partitions 150 marquer les priphriques 159 masquage de LUN 31, 182 matriel iSCSI dpendant considrations 75 et cartes rseau associes 76 workflow de configuration 75 MBR 16 meilleures pratiques, FCoE 38 mtadonnes, RDM 151 mthodes d'authentification CHAP 87 mettre en cluster 46 microcode, stockage Hitachi Data Systems 51 Microsoft Cluster Service 46 mise en miroir de disque 144 mise en rseau, configuration 73 mises niveau des mtadonnes 124 mode d'hte Netware 51 modes de compatibilit physique 151 virtuel 151 module de sauvegarde tiers 29 montage de banques de donnes VMFS 141, 142 MPP affichage 179 Voir aussi plug-ins gestion multivoie MSA (HP StorageWorks) 99 MSCS 46

nouvelle signature 131 nouvelle signature VMFS 131 NPIV propos 40 affectation des WWN 41 exigences 40 limitations 41 modification des WWN 42

O
options des commandes vmkfstools 224

P
Paramtre TimeoutValue 35, 72 paramtres avancs Disk.EnableNaviReg 60 Disk.MaxLUN 134 paramtres de dmarrage iSCSI, configuration 108 partages de disque 26 partition de diagnostic, configuration 143 partitions de dcharge 35, 72 partitions de diagnostic 35, 72 Path Selection Plug-Ins 172 performance du stockage SAN, optimisation 60, 114 performances Consultation des statistiques des commutateurs Ethernet 118 Mise en rseau 115 optimisation 60, 114 systme de stockage 114 performances des serveurs 61, 115 performances du rseau 115 priphrique de stockage, tat de la connexion 142 priphrique SSD virtuel 160 priphriques de bande 36 priphriques de stockage affichage 16, 179 affichage pour un adaptateur 18 affichage pour un hte 18 chemins 175 dconnexion 140 dconnexions 140 tat de l'acclration matrielle 190 identificateurs 19 joindre 141 nommer 17 ranalyser 134 priphriques de traitement par blocs 150 priphriques pris en charge 46 priphriques RAID 150

N
NAA 64 NAS 12 Native Multipathing Plug-In 170, 171 net dump configuration d'ESXi 112 configuration de vMA 111 NIC, mappage vers VMkernel 82 NMP flux d'E/S 172 rclamation de chemin 173 Voir aussi Native Multipathing Plug-In Noms de port mondiaux, , voir WWPN noms iSCSI, conventions 64 Noms mondiaux, , voir WWN

VMware, Inc.

237

Stockage vSphere

priphriques SSD auto-dtection 156 balise 156 perte de connexion rseau, dpannage 110 perte de priphrique, imprvue 142 perte dfinitive de priphrique 140 perte imprvue de priphrique 142 plug-ins gestion multivoie, rclamation de chemin 173 plug-ins NAS dsinstallation 195 installation 194 mise niveau 195 plug-ins VAAI, affichage 190 Port_ID 32 ports iSCSI 64 ports virtuels (VPORTS) 40 prise en charge de la formation 7 processeurs de stockage configuration des donnes de dtection 49 donnes de dtection 49 profil de stockage de machine virtuelle activation 217 associer des disques virtuels 219 associer une machine virtuelle 219 conformit 216, 220, 221 crer 218 dfinition 217 modification 219 supprimer 219 profondeur de file d'attente 72 PSA, , voir Architecture de stockage enfichable PSP, , voir Path Selection Plug-Ins PSP de VMware, , voir Path Selection Plug-Ins

R
RDM avantages 148 avec mise en cluster 152 et fichiers de disque virtuel 152 et snapshots 150 gestion des chemins 154 mode de compatibilit physique 151 mode de compatibilit virtuelle 151 prsentation 147 rsolution dynamique de nom 151 ranalyser adaptateurs de stockage 134 banques de donnes 134 cration de LUN 133 lorsque le chemin est hors service 133 masquage de chemin 133 priphriques de stockage 134

ranalyser l'chec de chemin 133 rclamation d'espace 206 rclamation de chemin 173 rcupration d'urgence 24 redirection de port 168 rgle de chemin d'accs Fixe 172, 175 rgle de chemin d'accs Most Recently Used 172, 175 rgle de chemin d'accs MRU 175 rgle de chemin d'accs Round Robin 172, 175 rgle de multivoie 175 rgles de chemin d'accs Fixe 168, 172, 175 modification des valeurs par dfaut 176 MRU 175 Plus frquemment utilis 172, 175 Round Robin 172, 175 rgles de rclamation 173 rgles de rclamation de gestion multivoie ajout 180 suppression 182 rgles de rclamation VAAI dfinition 192 filtre VAAI 192 plug-in VAAI 192 suppression 193 rseau de zone de stockage 63 rseau iSCSI cration d'une interface VMkernel 81 dpannage 84 gestion 84 liaison d'adaptateurs 83 modification de rgle 83 Restrictions du SAN iSCSI 72 rsums d'en-tte 68 rsums de donnes 68 retrait de priphrique prvu 140

S
SAN avantages 23 basculement du matriel 48 considrations de sauvegarde 29 exigences 35 informations dtailles 24 SAN Fibre Channel meilleures pratiques 59 prvention de problmes 59 SAN iSCSI accs 68 concepts 63 dmarrage 103

238

VMware, Inc.

Index

meilleures pratiques 113 prvention de problmes 113 SAS 11 SATA 11 SATP affichage 179 ajout de rgles 184 Voir aussi Storage Array Type Plug-Ins SATP de VMware, , voir Storage Array Type PlugIns sauvegardes considrations 29 module de sauvegarde tiers 29 schma adaptatif 26 schma prdictif 25 SCSI, vmkfstools 223 sessions iSCSI affichage 93 ajouter pour une cible 94 gestion 93 suppression 94 solution base de baie 27 solution base sur les fichiers (VMFS) 28 SSD 155 stockage accs pour les machines virtuelles 21 adaptateurs 10 en rseau 12 fonctions vSphere pris en charge 21 introduction 9 local 11 non partag 201 provisionn 201 provisionnement 199 types 11 utilis par les machines virtuelles 201 stockage bas sur un profil 213 stockage de qualit basse 26 stockage de qualit haute 26 stockage de qualit moyenne 26 stockage Hitachi Data Systems, microcode 51 stockage HP StorageWorks SAN/iQ 102 stockage Network Appliance 51 stockage NFS, ajout 137 stockage, et VMkernel 161 Storage Array Type Plug-Ins 171 STP 38 support technique 7 supprimer 157, 158 supprimer une capacit de stockage 216 Systme de stockage IBM DS4800, configuration du basculement 48

systme de stockage NetApp 101 systmes de fichiers, mise niveau 122 systmes de stockage Dell PowerVault MD3000i 102 EMC CLARiiON 47, 98 EMC Symmetrix 48, 99 EqualLogic 101 Hitachi 51 HP StorageWorks 50, 99 HP StorageWorks SAN/iQ 102 NetApp 101 Network Appliance 51 performances 114 types 32, 66 systmes de stockage Dell PowerVault MD3000i 102 systmes de stockage iSCSI 97

T
test, systmes de stockage 97 topologie de stockage 207 Trames jumbo activation de l'iSCSI logiciel 85 activation de l'iSCSI matriel dpendant 85 utilisation avec iSCSI 85 transfert automatique de disque 49 transfert automatique de volume 49 type d'hte 46, 98 type d'hte en cluster Linux 98 type d'hte Linux 98

U
USB 11

V
verrouillage ATS 136 verrous de priphrique, rupture 232 Virtualisation d'identification N-Port, , voir NPIV virtualisation de stockage 9 vMA, collecte de net dump 111 vMA, configuration pour net dump 111 VMFS conversion 226 nouvelle signature 131 un volume par LUN 72 verrouillage 125 vmkfstools 223 VMFS3, mise niveau 130 VMFS5, amliorations par rapport VMFS3 122 VMFS5 et VMFS3, diffrences 122 vmkfstools affectation de nouveaux noms aux disques virtuels 229

VMware, Inc.

239

Stockage vSphere

attributs RDM 231 chane de disques 231 clonage de disques 229 conversion de disques virtuels 229 cration de disques virtuels 228 cration de RDM 230, 231 extension de disques virtuels 230 gomtrie 231 gonflage de disques lgers 228 initialisation de disques virtuels 228 migration de disques virtuels 229 mise niveau de disques virtuels 230 options de disque virtuel 227 options de priphrique 232 options de systme de fichiers 225 prsentation 223 rservations SCSI 232 rupture de verrous 232 suppression de blocs mis zro 228 suppression de disques virtuels 229 syntaxe 223 vMotion 23, 24, 36, 72, 98 vmware, type d'hte 46 VMware DRS, avec vMotion 72 VMware HA 23, 98 VMware NMP flux d'E/S 172 Voir aussi Native Multipathing Plug-In

W
WWN affectation des machines virtuelles 41 modification 42 WWNN 41 WWPN 32, 41

X
XP (HP StorageWorks) 51

Z
zonage 31, 33

240

VMware, Inc.

You might also like