Une carte FPGA Xiling Alveo U55C pour accélérer les calculs
La carte FPGA Alveo U55C de Xilinx est plus petite, comporte plus de mémoire et consomme moins d'énergie que la version précédente, ce qui la rend plus intéressant pour le calcul haute performance.
Le dernier accélérateur FPGA Alveo U55C de Xilinx, le plus puissant à ce jour selon l'entreprise, doit beaucoup à sa configuration mémoire. Si l'Alveo U55C, est similaire à l'Alveo U280 précédent, ce dernier ne possédait que 8 Go de mémoire HBM2 et 16 Go de DRAM DDR4, contre 16 Go de mémoire HBM2, et aucune DDR4 pour l'U55C. La mémoire HBM2 est considérablement plus rapide et plus chère que la mémoire DDR4. Le fait de passer toute la mémoire en HBM2 et de supprimer la DDR4 permet à Xilinx d'augmenter les performances et de réduire considérablement la consommation énergétique et la taille. La carte Alveo U55C est un facteur de forme à un seul slot, pleine hauteur et demi-longueur (Full Height Half Length, FHHL), alors que la carte U280 est pleine hauteur, pleine longueur et double largeur. L'accélérateur U55C consomme également beaucoup moins d'énergie que le U280 : 150W contre 215W.
Le facteur de forme, plus petit, offre une plus grande densité de calcul dans le même espace, ce qui convient pour les designs de clusters denses basés sur l'accélérateur Alveo. Il est conçu pour les données en streaming à haute densité, les calculs E/S intenses et les applications à grande échelle comme l'analyse de données volumineuses et l'IA. « Cet accélérateur change le positionnement d'Alveo dans le datacenter », a déclaré Nathan Chang, chef de produit HPC chez Xilinx. « Il ne s'agit plus seulement d'architectures de niche ou de problèmes de données très spécifiques. L'objectif est de créer des clusters Alveo plus denses, capables d'une mise à l'échelle qui réponde aux besoins des charges de travail HPC. C'est pour cette raison que nous avons développé cette carte », a-t-il ajouté.
La carte Alveo U55C travaille avec les frameworks du marché
L'U55C prend en charge le protocole réseau RDMA over Converged Ethernet (RoCE) v2 et l'intégration de la norme de passage de messages entre ordinateurs distants Message Passing Interface (MPI). Les développeurs d'applications HPC peuvent utiliser la plate-forme logicielle Vitis de Xilinx pour créer des applications évolutives exécutables sur plusieurs cartes Alveo, quelles que soient les plates-formes de serveurs et l'infrastructure réseau utilisées. Selon Xilinx, le protocole RoCE v2, la bande passante de 200 Gb/s et le clustering piloté par l'API de Vitis permettent à un réseau Alveo de rivaliser avec l'InfiniBand en termes de performances et de latence, sans lock-in du fournisseur du réseau. Avec la plateforme et les outils Vitis, le matériel est plus accessible aux développeurs de logiciels et aux scientifiques des données sans expertise matérielle. Vitis prend en charge les principaux frameworks d'IA comme Pytorch et Tensorflow, ainsi que les langages de programmation de haut niveau comme C, C++ et Python.
Lors de cette présentation, M. Chang a évoqué le cas d'usage du HPC par son client, l'organisme gouvernemental australien pour la recherche scientifique (Commonwealth Scientific and Industrial Research Organisation, CSIRO), et l'observatoire Square Kilometre Array (SKA) de 131 000 antennes radio qu'il construit. Un cluster de 420 cartes Alveo U55C effectue le traitement des signaux en temps réel des données recueillies par les antennes, avec un débit global de 15 To. Selon Xilinx, grâce à la mise à l'échelle sur plusieurs cartes Alveo U55C, les performances des outils du SKA ont été multipliées par cinq par rapport aux CPU x86, en réduisant le nombre de serveurs de moitié et la consommation d'énergie de plus de la moitié par rapport aux GPU standards.
Disponible en mode FPGA-as-a-Service
L'Alveo U55C de Xilinx est disponible sur le site web l'entreprise américaine de semi-conducteurs, à l'origine de l'invention du FPGA, ou auprès des distributeurs agréés de Xilinx. La carte sera également disponible via des fournisseurs de FPGA-as-a-service basés sur le cloud public pour une évaluation à distance, ainsi qu'auprès de datacenters en colocation sélectionnés pour des avant-premières privées. La disponibilité générale n'est pas prévue avant le second trimestre de l'année prochaine.