Exporter (0) Imprimer
Développer tout
Cet article a fait l'objet d'une traduction manuelle. Déplacez votre pointeur sur les phrases de l'article pour voir la version originale de ce texte. Informations supplémentaires.
Traduction
Source

Planification de votre lab

Lorsque vous préparez l'utilisation généralisée de Lab Management dans votre laboratoire de test, plusieurs questions peuvent vous venir à l'esprit :

  • De combien de serveurs physiques ai-je besoin ?

  • Quels genres de serveurs dois-je acheter ?

  • De quelle capacité de stockage ai-je besoin ?

  • Puis-je utiliser un réseau SAN pour le stockage ?

  • Puis-je tout installer sur un seul ordinateur puissant ?

  • Comment faire pour configurer un laboratoire isolé ?

Cette rubrique fournit des recommandations générales pour l'estimation du nombre et des types de serveurs physiques, d'ordinateurs virtuels et de contrôleurs nécessaires pour Visual Studio Lab Management. En règle générale, le nombre de serveurs n'est pas aussi important que la capacité de chacun d'entre eux. Par exemple, un serveur qui utilise un processeur double cœur ou quadruple cœur peut prendre en charge davantage d'ordinateurs virtuels qu'un serveur qui utilise un processeur simple cœur. De la même façon, un serveur qui a 32 Go de RAM peut héberger davantage d'ordinateurs virtuels qu'un serveur qui n'a que 8 Go de RAM.

Les sections suivantes contiennent des recommandations qui vous aideront à fournir la capacité nécessaire à votre laboratoire de test virtuel. Ces recommandations sont exprimées sous forme de pratiques à suivre (À faire) ou à ne pas suivre (À ne pas faire) lors de l'acquisition ou de la configuration du matériel, ou lors de l'installation et de la configuration des logiciels requis.

Ff756575.collapse_all(fr-fr,VS.120).gifPlanification de Team Foundation Server

À ne pas faire

  • Tout installer sur un ordinateur unique. À moins que vous n'utilisiez un seul ordinateur à des fins de démonstration ou de preuve de concept uniquement, vous ne devez pas installer tous les composants sur un seul ordinateur.

  • Utiliser le compte NetworkService comme compte de service pour Team Foundation Server si votre instance de Team Foundation Server utilise plusieurs serveurs afin d'exécuter la couche Application logique, et si vous envisagez d'utiliser la fonctionnalité Lab Management de Visual Studio. L'utilisation du compte NetworkService requiert davantage de manipulations ultérieures pour la maintenance des ordinateurs hôtes physiques des environnements virtuels. Ce travail supplémentaire est nécessaire, car le compte NetworkService de chaque nouvel ordinateur de la couche Application doit être ajouté au groupe Administrateur local sur chaque ordinateur hôte physique. Par exemple, si vous exécutez un laboratoire virtuel avec 20 hôtes physiques, et si vous ajoutez ou remplacez un ordinateur de la couche Application, vous devez mettre à jour chacun des 20 ordinateurs hôtes à partir du nom du nouvel ordinateur de la couche Application, et affecter des autorisations. Au lieu d'utiliser le compte NetworkService, utilisez un compte d'utilisateur de domaine standard et un mot de passe correspondant pour le compte TFSservice. Ainsi, le compte d'utilisateur de domaine est ajouté une seule fois à la configuration initiale de l'hôte physique et chaque nouvel ordinateur de la couche Application utilise le même compte. Pour plus d'informations sur les limitations du compte NetworkService, consultez la page relative au Compte NetworkService.

Ff756575.collapse_all(fr-fr,VS.120).gifPlanification de System Center Virtual Machine Manager

À ne pas faire

  • Installer SCVMM sur un ordinateur virtuel. L'installation de SCVMM (System Center Virtual Machine Manager) sur un ordinateur virtuel rend plus difficile l'administration de l'hôte physique sur lequel l'ordinateur virtuel s'exécute ; en outre, cela ralentit les performances de la bibliothèque si vous installez cette dernière sur le même ordinateur virtuel.

  • Utiliser le clustering avec les serveurs de bibliothèque SCVMM 2008 R2. Lab Management prend uniquement en charge le clustering dans des environnements SCVMM lorsque vous utilisez SCVMM 2012, non SCVMM 2008 R2.

  • Définir des ID de réseau local virtuel pour les cartes réseau. Lab Management ne prend en charge ni la définition ni l'utilisation d'un ID de réseau local virtuel dans System Center Virtual Machine Manager. Si vous définissez manuellement l'ID de réseau local virtuel sur une carte réseau pour un ordinateur virtuel, puis que vous stockez l'ordinateur virtuel dans la bibliothèque SCVMM, l'ID de réseau local virtuel est supprimé lors du déploiement de l'ordinateur virtuel. Pour plus d'informations sur l'utilisation des ID de réseau local virtuel, consultez Configuration de réseaux virtuels dans VMM.

À faire

  • Fournir à l'ordinateur SCVMM suffisamment de ressources. Si vous vous attendez à avoir moins de 50 ordinateurs virtuels dans votre laboratoire, l'ordinateur qui exécute SCVMM doit disposer au minimum des éléments suivants :

    • Processeur 64 bits

    • 4 Go de mémoire

    • Disque dur de 300 Go

    • Système d'exploitation Windows Server 2008 R2

    Si vous vous attendez à avoir plus de 50 ordinateurs virtuels, augmentez ces ressources. Si vous projetez d'installer SCVMM avec d'autres logiciels sur le même ordinateur, fournissez au serveur SCVMM l'équivalent des ressources décrites précédemment dans cette rubrique. Toutefois, veillez à évaluer correctement les ressources nécessaires en tenant compte de la consommation des ressources par l'autre logiciel. Par exemple, si vous voulez installer SCVMM sur l'ordinateur qui exécute Team Foundation Server, ajoutez la configuration requise à celle de Team Foundation Server, puis vérifiez que l'ordinateur dispose d'une capacité suffisante.

  • Fournir au serveur qui exécute la bibliothèque au moins 200 Go d'espace libre sur le disque dur. Dans l'installation par défaut, vérifiez que le lecteur utilisé par le partage de bibliothèque a plus de 200 Go d'espace libre.

  • Créer le partage de bibliothèque par défaut sur D: et non sur C:. Par défaut, SCVMM crée le partage de bibliothèque sur l'ordinateur où il se trouve et crée la bibliothèque sur le lecteur C:. Le remplacement du lecteur de partage de bibliothèque par défaut par D: simplifie la mise à niveau ultérieure de l'ordinateur.

  • Utiliser un disque dur doté d'une vitesse suffisante pour la bibliothèque. Si vous projetez d'utiliser la bibliothèque de manière très modérée, un disque dur doté d'une vitesse suffisante convient. Si vous projetez d'utiliser la bibliothèque de manière modérée, choisissez une configuration de disque RAID 5 avec 6 à 12 disques pour un meilleur débit. Si vous projetez d'utiliser la bibliothèque de manière intensive, optez pour plusieurs serveurs de bibliothèque. Vous pouvez utiliser un stockage direct ou de type SAN. Lorsque vous utilisez un réseau SAN, créez un numéro d'unité logique dont l'usage est réservé à l'ordinateur de bibliothèque.

  • Exécuter Team Foundation Server via un compte d'utilisateur de domaine ordinaire au lieu du compte Service réseau. Cela est obligatoire si vous placez Team Foundation Server et SCVMM sur le même ordinateur.

  • Si SCVMM est installé sur un hôte Hyper-V, stocker les ordinateurs virtuels hébergés sous Hyper-V sur un autre disque dur que celui de la bibliothèque SCVMM. Par exemple, utilisez le lecteur C: d'un disque pour la bibliothèque, et le lecteur D: d'un autre disque pour les ordinateurs virtuels Hyper-V. Le serveur SCVMM, dans le cas présent, s'exécute sur le système d'exploitation principal dans Hyper-V. Cela permet de garantir que lorsque le système d'exploitation principal est chargé, tous les systèmes d'exploitation invités (ordinateurs virtuels déployés dans Hyper-V) sont affectés. Pour réduire cet impact, configurez les réserves de ressources de l'ordinateur hôte pour cet ordinateur en ajoutant les réserves de ressources de l'ordinateur hôte Hyper-V (décrites ci-dessous) à la configuration requise indiquée précédemment pour l'ordinateur SCVMM. Vous pouvez configurer les réserves de ressources de l'ordinateur hôte à l'aide de la console Administrateur SCVMM.

  • Fournir un routage réseau à visibilité directe entre SCVMM et Team Foundation Server, les hôtes, ainsi que les autres serveurs de bibliothèque.

  • Mettre à jour l'ordinateur SCVMM à l'aide de toutes les mises à jour Windows les plus récentes et vérifier l'application automatique de ces mises à jour. Si cela n'est pas faisable, vous devez effectuer le suivi des mises à jour de Windows et de SCVMM, afin de les appliquer manuellement lorsqu'elles sont disponibles.

Ff756575.collapse_all(fr-fr,VS.120).gifPlanification des hôtes Hyper-V

À ne pas faire

  • Installer un logiciel supplémentaire tel que Team Foundation Server sur l'ordinateur hôte physique. Si vous disposez d'hôtes suffisamment puissants (d'une puissance supérieure aux besoins agrégés des ordinateurs virtuels et de l'hyperviseur), vous pouvez colocaliser SCVMM ou le serveur de bibliothèque sur l'hôte, à condition de tenir compte également des contraintes de ces serveurs en matière de ressources. Par exemple, si vous voulez installer SCVMM sur un ordinateur hôte Hyper-V, ajoutez les configurations requises par l'hôte, par les ordinateurs virtuels et par SCVMM, puis vérifiez que l'ordinateur dispose d'une capacité suffisante.

  • Utiliser le clustering avec des serveurs hôtes Hyper-V. Lab Management prend en charge le regroupement dans des environnements SCVMM.

  • Planifier des dizaines de déploiements d'ordinateurs virtuels simultanément. Limitez le nombre de déploiements d'environnements simultanés sur les hôtes.

  • Utiliser des hôtes physiques qui ne sont pas situés aux mêmes emplacements géographiques que les serveurs de bibliothèque. Si vous devez utiliser des hôtes qui ne sont pas situés aux mêmes emplacements géographiques que les serveurs de bibliothèque SCVMM, la vitesse réseau entre SCVMM et les hôtes doit être au minimum de 100 Mbits/s et doit être exempte de latences importances.

  • Créez plusieurs cartes réseau sur un ordinateur virtuel qui se connecte à un réseau spécifique. Lab Management substitue cette configuration et crée deux cartes. L'une se connecte au réseau de lab et l'autre gère la communication interne entre les ordinateurs virtuels.

  • Configurez l'adresse MAC sur une carte réseau utilisée dans un environnement isolé du réseau. Lab Management efface l'adresse MAC lors de la création de l'environnement isolé du réseau.

À faire

  • Fournir suffisamment de ressources aux ordinateurs hôtes et les configurer correctement. Le nombre d'hôtes Hyper-V et la capacité de chaque hôte dépend du nombre d'ordinateurs virtuels que vous hébergez dans votre laboratoire. Si vous décidez de configurer un laboratoire de taille modeste, installez le rôle Hyper-V sur des ordinateurs ayant la configuration suivante :

    • Deux processeurs double cœur, 64 bits, compatibles Hyper-V

    • 16 Go de mémoire

    • 300 Go d'espace disque disponible

    • Système d'exploitation Windows Server 2008 R2

    • Mises à jour les plus récentes du système d'exploitation Windows.

    Si vous disposez d'un nombre relativement important d'ordinateurs virtuels, et si vous décidez de configurer quelques hôtes puissants, procédez comme suit pour chaque hôte :

    • Deux processeurs quadruple cœur, 64 bits, compatibles Hyper-V

    • 64 Go de mémoire

    • 1 To d'espace disque disponible

    • Système d'exploitation Windows Server 2008 R2

    • Mises à jour les plus récentes du système d'exploitation Windows.

  • Réserver suffisamment de RAM sur l'hôte. Outre la configuration requise ci-dessus pour l'hôte, vous devez réserver également les ressources suivantes pour un bon fonctionnement de l'hyperviseur. Pour un hôte avec 16 Go de mémoire, réservez 20 % de ressources pour le processeur et 2 Go pour la mémoire. Pour un hôte avec 64 Go de mémoire, réservez 30 % de ressources pour le processeur et 4 Go pour la mémoire. Ces réserves de ressources de l'ordinateur hôte doivent être configurées dans le volet des propriétés de l'hôte via la console Administrateur SCVMM. Seules les ressources restantes sur l'hôte après déduction des réserves de ressources de l'ordinateur hôte peuvent être utilisées pour les ordinateurs virtuels.

  • Fournir suffisamment d'espace de stockage pour les ordinateurs virtuels. Vous devez utiliser une partition de disque pour le stockage de l'ordinateur virtuel, qui se distingue de la partition principale du serveur Hyper-V. Par exemple, utilisez D: pour le stockage de l'ordinateur virtuel et C: pour la partition principale de l'hyperviseur. Après avoir choisi l'emplacement de stockage de l'ordinateur virtuel, configurez cet emplacement dans le Gestionnaire Hyper-V ou utilisez la console Administrateur SCVMM. Dans le Gestionnaire Hyper-V, modifiez le dossier Disques durs virtuels et le dossier Ordinateurs virtuels. Dans la console Administrateur SCVMM, modifiez le chemin d'accès d'emplacement sous les propriétés de l'hôte.

  • Fournir des disques durs rapides aux hôtes et les configurer correctement. Types de disques pour les hôtes : un disque doté d'une vitesse suffisamment élevée est nécessaire. Les disques configurés en RAID 5 sont fortement recommandés. Le stockage des hôtes peut provenir d'un stockage direct ou d'un réseau SAN. Toutefois, si vous voulez que le disque de votre hôte provienne d'un lecteur SAN pour des raisons d'espace et de fiabilité, vous devez disposer de numéros d'unités logiques distincts pour chaque hôte. Même si les numéros d'unités logiques sont gérés par le même contrôleur, dans la mesure où Visual Studio Lab Management ne tire pas parti des fonctionnalités de réseau SAN, la copie du service de transfert intelligent en arrière-plan (BITS, Background Intelligent Transfer Service) pendant un déploiement d'ordinateur virtuel a lieu de la bibliothèque à l'hôte via votre réseau local.

  • Pour permettre l'installation de SCVMM sur un hôte Hyper-V, il est fortement recommandé que le disque dur utilisé pour le stockage des ordinateurs virtuels hébergés sous Hyper-V soit différent du disque utilisé pour la bibliothèque. Le serveur SCVMM, dans le cas présent, s'exécute sur le système d'exploitation principal dans Hyper-V. Par conséquent, lorsque le système d'exploitation principal est chargé, tous les systèmes d'exploitation invités (ordinateurs virtuels déployés dans Hyper-V) sont affectés en termes de performances. Pour réduire cet impact, configurez les réserves de ressources de l'ordinateur hôte pour cet ordinateur en ajoutant les réserves de ressources de l'ordinateur hôte Hyper-V à la configuration requise indiquée précédemment pour l'ordinateur SCVMM. Vous pouvez configurer les réserves de ressources de l'ordinateur hôte à l'aide de la console Administrateur SCVMM.

  • Pour qu'un hôte Hyper-V puisse être utilisé également en tant que serveur de bibliothèque, l'ordinateur doit comporter plusieurs disques. Vous devez utiliser des disques durs distincts sur l'hôte pour les ordinateurs virtuels et pour le stockage de la bibliothèque.

  • Fournir à l'hôte Hyper-V un réseau à visibilité directe vers Team Foundation Server, SCVMM et les autres serveurs de bibliothèque.

  • Si les hôtes Hyper-V se trouvent à des emplacements géographiques différents, vous devez disposer également d'un serveur de bibliothèque local pour chaque emplacement.

  • Mettre à jour les hôtes régulièrement. Les hôtes Hyper-V doivent se trouver sur un réseau à partir duquel les mises à jour du système d'exploitation peuvent être appliquées automatiquement. Si cela n'est pas faisable, vous devez effectuer le suivi des mises à jour de Windows et de SCVMM, afin de les appliquer manuellement lorsqu'elles sont disponibles.

Ff756575.collapse_all(fr-fr,VS.120).gifPlanification des contrôleurs et des agents

À ne pas faire

  • Installer un contrôleur de test dans un environnement. Seuls l'agent de build, l'agent de test et l'agent lab doivent être installés sur les ordinateurs virtuels dans un environnement.

À faire

  • Utiliser plusieurs contrôleurs de build lors de la génération et du déploiement d'une application à des fins de test. Le premier contrôleur est utilisé par le processus de génération et n'est pas utilisé de manière intensive. Le deuxième contrôleur est utilisé pour déployer la build sur les ordinateurs virtuels et exécuter les tests ; par conséquent, il peut être utilisé de manière intensive s'il existe un grand nombre d'ordinateurs virtuels dans votre laboratoire. Le deuxième contrôleur est également utilisé pour prendre des instantanés de l'environnement.

  • Utiliser des contrôleurs de test dans le même domaine que Team Foundation Server. Si Team Foundation Server et un contrôleur de test se trouvent dans un groupe de travail ou un domaine non approuvé, créez un compte d'utilisateur local avec le même nom d'utilisateur et mot de passe que sur les deux ordinateurs, ajoutez cet utilisateur Team Foundation Server au groupe de sécurité "[Collection de projets]\Project Collection Test Service Accounts", puis inscrivez le contrôleur de test auprès de la collection de projets d'équipe via ce compte local.

À faire

  • Utiliser un réseau gigabit pour connecter le serveur où SCVMM est installé aux serveurs de bibliothèque et aux hôtes Hyper-V.

  • Établir une relation d'approbation bidirectionnelle complète parmi les domaines où s'exécutent Team Foundation Server, le contrôleur de test, le contrôleur de build, SCVMM et l'hôte physique des ordinateurs virtuels.

Il existe plusieurs topologies que vous pouvez utiliser lors de la configuration de Lab Management pour le test de votre application. La topologie la plus simple pour l'utilisation de Lab Management requiert uniquement deux serveurs : installez tous les composants de Team Foundation Server sur le même serveur, puis installez tous les composants de SCVMM 2008 sur un serveur supplémentaire. Vous pouvez disposer d'exigences complexes en matière de topologie réseau qui restreignent les réseaux dans lesquels peuvent se trouver Team Foundation Server, SCVMM, les hôtes Hyper-V et les ordinateurs virtuels exécutant l'application à tester. Vous pouvez également configurer l'équilibrage de la charge réseau pour votre serveur Team Foundation Server. La liste suivante suggère plusieurs dimensions possibles pour votre topologie et les variantes dans chaque dimension.

Réseau

  • DNS

  • Pare-feu

  • Threat Management Gateway

Domaine

  • Approbation à sens unique

  • Approbation bidirectionnelle

  • Aucune approbation

Couche Application logique de Team Foundation Server

  • Serveur unique

  • Plusieurs serveurs sans équilibrage de la charge réseau

  • Plusieurs serveurs avec équilibrage de la charge réseau

Couche Données logique de Team Foundation Server

  • Serveur unique

  • Plusieurs serveurs sans clustering

  • Plusieurs serveurs avec clustering

Tests

  • Au sein de l'environnement

  • Hors de l'environnement

Les quatre exemples de topologies suivants illustrent la façon dont vous pouvez configurer des combinaisons relatives aux dimensions ci-dessus en fonction de vos besoins en matière de tests.

Ff756575.collapse_all(fr-fr,VS.120).gifExemple de topologie 1

La couche Application logique de Team Foundation Server est exécutée sur plusieurs serveurs et ces derniers sont contrôlés par un système d'équilibrage de charge réseau. Il existe également un réseau de test distinct avec des paramètres de pare-feu pour contrôler le trafic relatif aux tests à destination et en provenance du réseau de domaine. Le schéma suivant illustre la topologie 1.

Tous les ordinateurs joints au réseau d'entreprise

Pour obtenir les instructions relatives à la configuration de cette topologie, consultez l'entrée de blog Configuration de plusieurs topologies de test avec Visual Studio Lab Management – Partie 1.

Ff756575.collapse_all(fr-fr,VS.120).gifExemple de topologie 2

Les couches Application et Données logiques de Team Foundation Server sont exécutées sur plusieurs serveurs mais ces derniers ne sont pas contrôlés par un système d'équilibrage de charge. Il existe également un réseau de test distinct avec un hôte et une bibliothèque SAN. Le schéma suivant illustre la topologie 2.

Ordinateurs sans système d'équilibrage de charge, mais avec SAN

Pour obtenir les instructions relatives à la configuration de cette topologie, consultez l'entrée de blog Configuration de plusieurs topologies de test avec Visual Studio Lab Management – Partie 2.

Ff756575.collapse_all(fr-fr,VS.120).gifExemple de topologie 3

La couche Application logique de Team Foundation Server est exécutée sur plusieurs serveurs et ces derniers sont contrôlés par un système d'équilibrage de charge réseau. Il existe également un réseau de test distinct. Les applications testées appellent une base de données située à l'extérieur de l'environnement virtuel. Le schéma suivant illustre la topologie 3.

Ordinateurs avec base de données en dehors de l'environnement

Pour obtenir les instructions relatives à la configuration de cette topologie, consultez l'entrée de blog Configuration de plusieurs topologies de test avec Visual Studio Lab Management – Partie 3.

Ff756575.collapse_all(fr-fr,VS.120).gifExemple de topologie 4

Les couches Application et Données logiques de Team Foundation Server sont exécutées sur plusieurs serveurs et ces derniers sont contrôlés par un système d'équilibrage de charge réseau. Les environnements et le réseau de test sont dans un domaine distinct. Le schéma suivant illustre la topologie 4.

Ordinateurs dans deux domaines

Pour obtenir les instructions relatives à la configuration de cette topologie, consultez l'entrée de blog Configuration de plusieurs topologies de test avec Visual Studio Lab Management – Partie 4.

Ajouts de la communauté

AJOUTER
Afficher:
© 2015 Microsoft