Natixis supervise les performances de ses 500 serveurs virtuels

le 05/05/2009, par Thierry Lévy-Abégnoli, Infrastructure, 593 mots

Natixis s'est appuyé sur un outil de gestion des performances déjà déployé depuis dix ans pour préparer sa migration vers un environnement virtualisé. Complété par de nouveaux agents, cet outil a été conservé pour superviser l'infrastructure cible.

Natixis supervise les performances de ses 500 serveurs virtuels

Fin 2006, Natixis a souhaité d'emblée virtualiser une part importante des serveurs x86 de son datacenter principal, soit plus de 200 sur un total de 600. Aujourd'hui, ce nombre est monté à 525 serveurs, répartis sur une quarantaine de machines physiques. Seules quelques applications, telles qu'Exchange ou SQL-Server, demeurent sur des plates-formes physiques dédiées. Faute de véritable concurrence à l'époque, le choix de l'hyperviseur s'est porté sur VMware ESX. L'une des principales difficultés de la migration résidait dans le dimensionnement des machines virtuelles et des nouvelles machines physiques qui devaient les recevoir. Pour cela, Natixis s'est appuyé sur un outil de gestion des performances d'origine Sysload déjà déployé depuis une dizaine d'années sur l'ensemble de ses serveurs x86. Des ressources physiques largement sous-exploitées « Nous avons ainsi commencé par consulter l'historique de la consommation des ressources physiques durant les semaines précédentes », précise Marco Andias, ingénieur système, expert en virtualisation chez Natixis. Cette phase a permis de constater que sur 90 % des serveurs, moins de 10 % des ressources physiques étaient consommées. Grâce à ces informations, la migration n'a guère réservé de surprises, excepté pour des serveurs déjà livrés mais qui n'étaient pas encore montés en charge sur la période correspondante à l'historique. Des agents dans les machines virtuelles, d'autres sous l'hyperviseur Une fois la migration réalisée, la question de la gestion des performances s'est posée pratiquement dans les mêmes termes qu'auparavant. « Afin d'éviter d'avoir à former nos administrateurs, nous avons préféré conserver le même outil qui, de surcroît, fournit des graphes d'historisation plus complets que ceux de VMware Virtual Center, avec en particulier une granularité de cinq minutes sur une durée dépassant un an », détaille Marco Andias. L'agent autrefois installé sur des serveurs physiques a ainsi été déployé, tel quel, sur les centaines de serveurs virtuels. Toutefois, un agent spécifique est installé sur les serveurs physiques sous l'hyperviseur. « Il donne une vision consolidée de l'infrastructure matérielle », explique Marco Andias. Par simple paramétrage, deux types de consoles ont été déployés, soit un total d'une vingtaine. - Les premières, orientées supervision en temps réel, délivrent des informations basiques, essentiellement sur la consommation mémoire et processeur. - Les secondes affichent sous forme de graphes des historiques à froid, beaucoup plus complets et correspondant à plusieurs semaines ou mois d'activité. Par rapport aux consoles temps réel, les informations supplémentaires incluent notamment les entrées/sorties réseau et disques. « En réalité, la métrique sur laquelle nous nous basons généralement pour déclencher l'achat de serveurs se limite à l'espace mémoire, car la puissance CPU des serveurs modernes n'est plus un facteur limitatif », commente Marco Andias. Parallèlement, Natixis a mis en oeuvre les fonctionnalités de migration à chaud des machines virtuelles, telles que VMware DRS (équilibrage de charge dynamique) et HA (haute disponibilité). Le déclenchement de ces opérations est réalisé par VMware Virtual Center. « Les mesures que ce produit effectue sont suffisamment précises pour cette fonction, tandis que le rôle de Sysload consiste essentiellement à présenter de façon lisible, des données qui sont en réalité disponibles sous une forme brute, sous Virtual Center », explique Marco Andias. Il n'y a aucune connexion entre Virtual Center et Sysload. Un portail interne pour les utilisateurs Parallèlement, Sysload alimente un portail destiné aux clients internes ayant exprimé le souhait de surveiller l'activité de leurs serveurs. Ce portail affiche ainsi des historiques complétés par des commentaires explicatifs sur la nature des métriques et des seuils.

Kneron vise l'ermbarqué avec sa puce KL730 taillée pour l'IA

Axée sur l'image, la puce d'intelligence artificielle KL730 de Kneron devrait permettre de nombreuses améliorations dans les domaines de l'edge computing, de la sécurité et de l'automobile. Dénommée KL730,...

le 22/08/2023, par Jon Gold / Network World (adaptation Jean Elyan), 533 mots

Volumez repense le stockage cloud en misant sur la performance...

Fondé par des vétérans dans l'industrie du stockage, Volumez promeut un logiciel d'orchestration du stockage qui exploite des ressources Linux pour exécuter des charges de travail exigeantes en utilisant une...

le 23/06/2023, par Serge LEBLAL, 939 mots

Des serveurs Lenovo edge pour l'IA et le traitement des données

Les serveurs Lenovo ThinkEdge offriront une plus grande capacité de traitement là où les données sont générées et permettront aux entreprises d'effectuer de l'inférence en temps réel à la périphérie. Au cours...

le 20/06/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 565 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...