La législation européenne freine le projet cloud du CERN
Les chercheurs du Centre européen pour la recherche nucléaire (CERN) basé à Genève sont dans l'expectative. Ils aimeraient pouvoir recourir au cloud computing dans des proportions significatives. Mais l'Europe tarde à définir un cadre réglementaire pour la protection des données.
Lors du 4èmeForum mondial sur le Cloud Computing qui s'est tenu à Londres (12-13 juin) la semaine dernière, Bob Jones, directeur de l'Openlab du CERN, a déclaré que l'incapacité de la Commission européenne à avancer clairement sur la question de la protection des données dans le cloud a entravé son adoption au sein de la communauté scientifique « Nous travaillons avec des entreprises high-tech, des industries et des agences européennes, et le problème du cadre réglementaire est un véritable obstacle », a déclaré Bob Jones.
Au CERN, les avantages que pourraient apporter le cloud computing ne sont pas négligeables. Les datacenters de l'organisation européenne gèrent actuellement jusqu'à 15 pétaoctets de données par an, lesquelles se répartissent sur plus de 100 000 processeurs.
Mais cela ne représente que 20% de l'ensemble des données générées par son accélérateur de particules LHC (Large Hadron Collider ou Grand collisionneur de hadrons). « En réalité, les quatre grandes expériences menées avec le LHC - Atlas, LHCb, ALICE (A Large Ion Collider Experiments) et Compact Muon Solenoid - générent environ un pétaoctet de données brutes par seconde, mais seulement 1% d'entre elles environ sont stockées », a déclaré le directeur du CERN Openlab, lors d'une conférence donnée pendant le Forum.
Le CERN voudrait explorer la façon dont le cloud pourrait l'aider à faire face à son problème de Big Data, d'où son implication dans le projet de cloud pour le monde scientifique au niveau européen « Helix Nebulae - The Science Cloud », lancé plus tôt cette année.
Helix Nebulae, du nom de la nébuleuse planétaire (Helix, nommée aussi d'Oeil de Dieu) permettra au CERN de disposer de plus de puissance informatique pour traiter les données issues de l'expérience Atlas. Celle-ci consiste à observer des phénomènes impliquant des particules massives qui pourraient aider à comprendre les prochaines théories de la physique des particules. « La capacité de calcul du CERN doit évoluer au rythme des données provenant du Grand collisionneur de hadrons, et Helix Nebulae - The Cloud Science est un excellent moyen de travailler avec les industries IT pour relever ce défi », avait déclaré au mois de mars Frédéric Hemmer, chef des services IT du CERN.
Photo : Datacenter de l'Openlab du CERN (D.R)
Vers un écosystème de clouds hybrides
Selon Bob Jones, le CERN envisage désormais de se lancer dans une phase pilote, dont la durée est étalée sur deux ans. Cette étape implique le déplacement de données entre les cloud privés hébergés dans des centres de calcul et ses propres centres de calcul financés par l'organisme public. Celui-ci indique que le CERN n'a pas l'intention de renoncer à ses systèmes existants, mais que l'organisation veut créer un écosystème de cloud hybride associant les deux environnements.
« La phase pilote sera consacrée au déploiement des projets phares, afin d'analyser la fonctionnalité et la performance ». Selon Bob Jones, le centre consomme actuellement 150 000 processeurs en continu et simultanément. Aussi, il n'est pas certain que le Cloud soit en mesure de s'adapter à ces besoins.
Egalement présente à la conférence, Megan Richards, directrice générale adjointe, de l'unité Société de l'information et des médias de la Commission européenne, a déclaré que la prochaine réglementation concernant la protection des données était actuellement en discussion au Parlement européen.
Selon elle, les propositions de règlement devraient être finalisées d'ici à l'année prochaine pour une mise en oeuvre dans les deux, ou deux ans et demi.