Un cluster de 132 noeuds pour modéliser l'après Big Bang

le 16/01/2009, par Emmanuelle Delsol, Infrastructure, 492 mots

L'Institut d'Astrophysique de Paris (IAP) s'est doté d'un tout nouveau centre de calcul pour le projet Planck. Le satellite, qui a pris le nom du célèbre mathématicien, a pour vocation d'observer la lumière émise par l'univers tel qu'il était il y a plus de 13 milliards d'années, soit 380 000 ans après sa naissance. C'est la masse de données issue de ces observations (500 milliards de données brutes) qui devra être stockée et traitée par le biais des serveurs de l'IAP. Le satellite Planck HP, SGI et Sun ont répondu à l'appel d'offre, mais c'est IBM et son partenaire Serviware qui l'ont emporté. Si en termes techniques, les configurations se sont révélées assez proches les unes des autres, l'IAP, qui pilote pour le projet pour le compte de l'Agence spatiale européenne, a opté pour la prestation de service de Big Blue. Sur des pièces vitales comme le commutateur Voltaire (qui assure l'interconnexion des noeuds du cluster), Serviware s'engage à résoudre le problème dans la journée. Sur des éléments moins cruciaux, il intervient au pire le lendemain (J+1). Il faut dire que la moindre panne sur la machine revient à gâcher le temps de fonctionnement d'un satellite dernier cri... Les chercheurs voulaient un système économe, intégré et avec un système de fichiers fiable Pour la troisième mouture de leur centre de calcul, les chercheurs ont listé trois exigences principales. Pour commencer, il fallait un système clé en main sur lequel les chercheurs n'auraient pas à intervenir avec le niveau de service idoine. Ensuite, la configuration choisie devait entrer dans une enveloppe thermique et énergétique finie, puisque la salle machine de l'Institut n'est en aucun cas extensible. Selon Philippe Parnaudeau, le système IBM installé devrait dépenser 50 kW à plein régime sachant qu'il fonctionnera plutôt entre 60 et 70% de ses capacités. Enfin, dernière exigence, le système de fichiers devait être capable de gérer les masses de données issues du satellite de la façon la plus fiable possible. Le précédent calculateur s'appuyait sur le système Open Source Lustre. Mais Philippe Parnaudeau, chargé du cahier des charges et de l'infrastructure, précise que ce dernier « n'était pas assez mature lorsque [nous] l'avons testé ». Pour ces raisons, l'institut lui a donc préféré GPFS, le système de fichiers parallèle d'IBM. Un cluster de 132 noeuds, avec 128 To de stockage rapide Le système est un cluster iDataplex de 132 noeuds à base de quadri-coeurs Xeon E5472 à 3 GHz d'Intel (12Gflops par coeur, un cache de niveau 2 de 12 Mo, moins de 80W par processeur). Cette offre d'IBM, qui promet une puissance de plus de 12 Tflops, est destinée en particulier à réduire la consommation électrique et la dissipation de chaleur. C'est un commutateur Infiniband qui assure à la fois le passage de messages dans le cluster (MPI) et les échanges de données. Il assure une bande passante de 11,52 Tbps avec une latence de 420 ns. Le système de stockage rapide DCS 9900 d'IBM compte 160 disques pour une capacité utile de 128 To. Une configuration de stockage lente NFS lui ajoute 220 To.

Kneron vise l'ermbarqué avec sa puce KL730 taillée pour l'IA

Axée sur l'image, la puce d'intelligence artificielle KL730 de Kneron devrait permettre de nombreuses améliorations dans les domaines de l'edge computing, de la sécurité et de l'automobile. Dénommée KL730,...

le 22/08/2023, par Jon Gold / Network World (adaptation Jean Elyan), 533 mots

Volumez repense le stockage cloud en misant sur la performance...

Fondé par des vétérans dans l'industrie du stockage, Volumez promeut un logiciel d'orchestration du stockage qui exploite des ressources Linux pour exécuter des charges de travail exigeantes en utilisant une...

le 23/06/2023, par Serge LEBLAL, 939 mots

Des serveurs Lenovo edge pour l'IA et le traitement des données

Les serveurs Lenovo ThinkEdge offriront une plus grande capacité de traitement là où les données sont générées et permettront aux entreprises d'effectuer de l'inférence en temps réel à la périphérie. Au cours...

le 20/06/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 565 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...