Virtualisation : 4 conseils pour gérer les machines virtuelles

le 14/10/2008, par reseaux-telecoms.net avec IDG News Service, Infrastructure, 635 mots

Quand il s'agit de la gestion des serveurs virtuels, deux camps ont vu le jour. Un côté fait valoir que les machines virtuelles exigent le même soin que leurs homologues physiques, le tout multiplié par 100 car les VM (Virtual Machines) prolifèrent à un rythme plus rapide. L'autre camp soutient que les VM créent de nouveaux défis jamais vu auparavant dans le domaine physique. Le fournisseur de services administrés Glasshouse Technologies, pour sa part, a récemment détaillé dans un livre blanc les quatre étapes clés qui, selon lui, devraient être suivies par les responsables informatiques afin de gérer correctement des environnements virtuels. Voici 4 points que le prestataire détaille dans son Livre blanc. 1. Mettre en oeuvre un modèle de coût efficace A la différence des machines physiques, les machines virtuelles peuvent dévorer rapidement les ressources sans que personne ne le remarque. Pour lutter contre un assèchement des capacités, ou la dissémination de VM sous utilisées, la société Glashouse affirme la nécessité de définir un modèle de coût pour les VM et établir une politique de refacturation en interne. « Dans le cas où l'on travaille sur les modèles de coût ou de refacturation des VM, la réussite a tendance à être au rendez-vous, très rapidement » cite le livre blanc. « A l'inverse, ceux qui ne mettent pas en oeuvre ce genre de système, ont tendance à rencontrer des problèmes de capacité ou à trop dépenser très vite en capacité, et à rater leur retour sur investissement ». 2. Avoir de la visibilité Suivre un environnement informatique nécessite du personnel pour être en mesure de recueillir des mesures sur les composants de l'infrastructure. Parce que certains composants exigent l'installation d'un agent logiciel pour être gérés, les produits traditionnels de gestion de l'informatique n'ont pas tous une image claire des environnements virtuels. Difficile de découvrir les dépendances ... ... applicatives entre les serveurs physiques et les serveurs virtuels. Or, "Afin d'assurer la réussite d'un environnement virtualisé, il faut rechercher les problèmes potentiels de façon proactive et intervenir avant la panne. " rappelle Glasshouse. "De nombreux projets de virtualisation ont été mis en veilleuse en raison de problèmes de performances qui auraient du être trouvés au préalable." 3. Intégrer l'infrastructure virtuelle dans les procédures de gestion des configurations et des changements : Dans les processus de gestion arrivés à maturité, on doit faire en sorte que les modifications soient d'abord demandées puis approuvées. Mais dans un environnement aussi dynamique qu'un centre informatique rassemblant des machines virtuelles, de nombreux responsables informatiques sont curieux de savoir combien de modifications sur les VM, ils peuvent faire réaliser via ce processus encadré et parfois lourd de gestion des changements. "Il ya un certain nombre de nouvelles modifications et de nouvelles procédures introduites dans un tel environnement. Chacune devrait être prise en compte dans les procédures de contrôle et des niveaux d'approbation devraient être développés dès le début afin de ne pas causer de problèmes aux précurseurs de cette technologie ». 4. Élaborer des plans de maintenance programmée En dépit de leur nature dynamique, les serveurs virtuels peuvent être laissés en sommeil, consommant des ressources de calcul et de stockage. Glasshouse recommande aux services informatiques d'établir des plans de maintenance afin de détecter si des VM gâchent des ressources précieuses. "Les plans de maintenance après un déploiement sont critiques en matière de performance et de stabilité. Il faut s'assurer que les systèmes ne sont pas configurés et laissés tels quels durant des mois. Les correctifs doivent être installés. Le nettoyage des serveurs et l'examen des logs devraient être effectués. Enfin, les performances et la stabilité doivent être maintenues ». Reste à savoir ce que font réellement les responsables informatiques : ont-ils maintenu sur les machines virtuelles les processus qui étaient appliqués aux serveurs physiques ? Ou bien ont-ils développé de nouvelles méthodes grâce à de nouveaux outils ? Quelle est alors la principale différence entre administrer les deux mondes ?

Kneron vise l'ermbarqué avec sa puce KL730 taillée pour l'IA

Axée sur l'image, la puce d'intelligence artificielle KL730 de Kneron devrait permettre de nombreuses améliorations dans les domaines de l'edge computing, de la sécurité et de l'automobile. Dénommée KL730,...

le 22/08/2023, par Jon Gold / Network World (adaptation Jean Elyan), 533 mots

Volumez repense le stockage cloud en misant sur la performance...

Fondé par des vétérans dans l'industrie du stockage, Volumez promeut un logiciel d'orchestration du stockage qui exploite des ressources Linux pour exécuter des charges de travail exigeantes en utilisant une...

le 23/06/2023, par Serge LEBLAL, 939 mots

Des serveurs Lenovo edge pour l'IA et le traitement des données

Les serveurs Lenovo ThinkEdge offriront une plus grande capacité de traitement là où les données sont générées et permettront aux entreprises d'effectuer de l'inférence en temps réel à la périphérie. Au cours...

le 20/06/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 565 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...