Selon Gartner, la virtualisation est question d'architecture et d'organisation

le 18/06/2009, par François Lambel, Infrastructure, 502 mots

Pour que la virtualisation engendre des économies, il faut savoir investir dans l'architecture et l'organisation explique Philip Dawson du Gartner Group.

Pour Philip Dawson, vice-président recherche au Gartner Group et spécialiste de la virtualisation, les grands utilisateurs, y compris les Français, sont passés de la phase d'interrogation à celle de l'action vis-à-vis de cette technologie. « 60% de nos clients, qui sont des grands comptes, ont déjà appliqué la virtualisation, sous une forme ou sous une autre. » Pour les PME, la problématique diffère. Leur taille ne leur permet pas de réaliser beaucoup d'économie d'échelle et leurs orientations technologiques dépendent plus des choix de leurs fournisseurs que de la technique elle-même. La consolidation ne se résume pas à la réduction du nombre de serveurs De passage à Paris, Philip Dawson a insisté sur la dimension architecturale et organisationnelle des changements qu'engendre la virtualisation. « C'est plus une affaire de management que de technique. » Pour lui, l'adoption de cette technologie se déroule en trois phases. La première, baptisée consolidation, ne consiste pas seulement à concentrer les serveurs sous-utilisés par le biais de machines virtuelles regroupées sur un nombre réduit de machines. Elle doit s'accompagner d'une remise à plat et d'une profonde réorganisation. « Regrouper une douzaine d'applications annexes sur une seule machine revient à rendre celle-ci critique pour le système d'information. De plus, aucun fournisseur ne vous dira qu'il faut en profiter pour se débarrasser des applications inutiles ». Faire disparaître quelque 20% de la charge de traitement est aussi un facteur important dans l'optimisation qu'entraîne la virtualisation. La phase de consolidation est aussi le moment de repenser toutes les composantes du système d'information, en particulier le stockage. Au cours de cette période, les DSI doivent aussi commencer à développer une forme de "méta administration", à la fois requise et permise par la virtualisation. Il faut sans tarder mettre en place des outils de mesure, de contrôle de SLA (Service level agreement, niveau de service) et de gestion de la haute disponibilité. Cette reprise en main de l'architecture ouvre l'accès à la deuxième phase, celle de "l'agility", un anglicisme qui englobe à la fois les idées d'agilité et de souplesse. La possibilité de migrer à chaud des applications ouvre en effet des perspectives immenses en terme d'optimisation des ressources. La virtualisation est aussi affaire d'investissement Une fois les deux premières phases achevées, la DSI peut s'intéresser à l'informatique en cloud. Celle-ci dispose de tous les paramètres clés pour faire appel à des ressources ou à des services externes sans risque de pertes de contrôle. « Sous-traiter une partie de l'infrastructure ne doit surtout pas se traduire par une perte d'autonomie au niveau de l'architecture », précise Philip Dawson. Ne penser la virtualisation que comme une source d'économies est une erreur. « A chaque phase, il faut investir, insiste Philippe Dawson. Il faut bien comprendre que pour économiser au niveau des immobilisations, il faut consentir à investir une partie de ces économies dans l'exploitation. » Sauf à vouloir se retrouver dans la situation antérieure à celle de la virtualisation du SI. En plus inextricable.

Kneron vise l'ermbarqué avec sa puce KL730 taillée pour l'IA

Axée sur l'image, la puce d'intelligence artificielle KL730 de Kneron devrait permettre de nombreuses améliorations dans les domaines de l'edge computing, de la sécurité et de l'automobile. Dénommée KL730,...

le 22/08/2023, par Jon Gold / Network World (adaptation Jean Elyan), 533 mots

Volumez repense le stockage cloud en misant sur la performance...

Fondé par des vétérans dans l'industrie du stockage, Volumez promeut un logiciel d'orchestration du stockage qui exploite des ressources Linux pour exécuter des charges de travail exigeantes en utilisant une...

le 23/06/2023, par Serge LEBLAL, 939 mots

Des serveurs Lenovo edge pour l'IA et le traitement des données

Les serveurs Lenovo ThinkEdge offriront une plus grande capacité de traitement là où les données sont générées et permettront aux entreprises d'effectuer de l'inférence en temps réel à la périphérie. Au cours...

le 20/06/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 565 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...