+CISM


Logo



Rapport d'activité 2012

de la plate-forme technologique CISM


illustration2012

Rédigé par Damien François, Luc Sindic, Bernard Van Renterghem et Thomas Keutgen (responsable)
version www disponible à l'adresse http://www.cism.ucl.ac.be/Administration/Rapports/rapport2012/index.html


Le CISM en quelques chiffres...

Le CISM est une plateforme technologique rattachée au Secteur des Sciences et Technologies (SST), qui fournit aux chercheurs de l'Université un service de calcul intensif et de stockage de masse.

Un outil indispensable à la recherche

Les outils de calcul intensif sont utilisés dans les recherches demandant des nombreux calculs ne pouvant être pris en charge par un simple ordinateur de bureau; simulation numérique en mécanique et physique nucléaire, modèles climatiques, optimisation de processus pour l'ingénierie mathématique, etc.
Le stockage de masse est un service qui permet aux chercheurs de stocker, de manière sécurisée, des volumes de données cruciales pour leur recherches qui dépassent de loin ce que l'ordinateur de bureau peut accueillir.
En 2012, les infrastructures du CISM ont permis à 242 utilisateurs réguliers, dont 169 de l'UCL, de produire plus de 18M heures de calcul informatique, et de stocker et/ou partager plus de 170 TB de données. Cette activité a conduit à la parution d'une cinquantaine de publications scientifiques..

Une expertise reconnue

Le CISM regroupe 4 gestionnaires spécialisés entretenant un savoir-faire de pointe en calcul scientifique et en gestion de parc informatique (la valeur totale des équipements CISM est évaluée à plus de 1,5 M€). Cette expertise est reconnue au sein des services de l'Université où le CISM intervient dans les projets de plusieurs entités: hébergement de machines de calcul statistique pour SMCS, étude d'une nouvelle salle machine avec SIPR, etc. Cette expertise est également reconnue au sein de la Fédération Wallonie-Bruxelles: les formations organisées par l'équipe du CISM ont attiré en 2012 plus de 50 chercheurs issus de chacune des universités wallonnes et bruxelloises.

Une année 2012 de confirmation au sein du CÉCI

L'année 2012 a vu se confirmer le démarrage du projet FNRS 'CÉCI' avec la mise en production de la seconde machine partagée avec les différents centres de calcul intensif en Fédération Wallonie-Bruxelles, et l'organisation d'un symposium scientifique rassemblant une centaine de chercheurs des universités francophones.


Introduction


Le présent rapport a pour but de fournir un résumé des activités de la plate-forme technologique Calcul Intensif et Stockage de Masse (CISM) et de l'équipe qui en gère les équipements, pour l'année 2011. Le lecteur disposant de la version imprimée est invité à consulter la version électronique où les hyperliens donnent accès aux références de ce rapport. Il fait suite aux rapports annuels d'activités du CISM depuis 2004 et à ceux du Comité du Calcul Intensif (CCI) qui était en place avant l'existence du CISM. Les faits saillants de l'année 2011 y sont extraits d'une masse brute de procès-verbaux et de statistiques.
Pour rappel, l'équipe de gestion assure la maintenance quotidienne des équipements ainsi que le support aux utilisateurs, sous la responsabilité du Responsable du CISM. Le Conseil de gestion du CISM, composé des représentants de tous les utilisateurs, de l'équipe de gestion et présidé par un académique nommé pour 4 ans, se réunit régulièrement pour définir les stratégies à moyen et long terme, préparer les éventuels projets et évaluer le fonctionnement de la plate-forme. Les procès-verbaux de ces réunions sont disponibles pour les membres de la communauté universitaire.

1. L'année 2012 en bref


En ce qui concerne le calcul intensif, l'installation et la mise en production d'une nouvelle grappe de calcul « massivement parallèle », appelée Lemaitre2, a été finalisée. Cette infrastructure est devenue la seconde grappe de calcul partagée avec tous les chercheurs membres du Consortium des Équipements de Calcul Intensif en Fédération Wallonie-Bruxelles (CÉCI). Pour le stockage de masse, vu les besoins toujours croissants de nos utilisateurs, nous avons encore renforcé, cette année, l'espace de stockage disponible. En ce qui concerne les autres faits saillants de cette année 2012, nous noterons:
Pas moins de 58 publications ont bénéficié de l'apport essentiel des infrastructures CISM en 2012, voir annexe D.

2. Matériel et infrastructure


Après l'installation en 2011 de la grappe Hmem, machine à haute capacité mémoire, cette année 2012 a été marquée par la mise en production de la seconde grappe de calcul ouverte aux membres du Consortium des Equipements de Calcul Intensif (CÉCI). Cette nouvelle machine (Lemaitre2), financée par le FNRS et complémentaire à HMEM, est de type “massivement parallèle” avec 1344 coeurs de calcul interconnectés par un réseau rapide et à faible latence.
L'installation de cette nouvelle infrastructure nous a amené, comme prévu, au démantèlement complet de la grappe Lemaitre. Cependant, certains serveurs ne nous semblaient pas devoir être déclassés. Nous les avons donc regroupés dans une nouvelle grappe que nous avons appelée Manneback, en mémoire de Charles Manneback (1894-1975), professeur à l'UCL et ami de Georges Lemaître. Au total, comme le montre la Figure 1, la puissance théorique cumulée de nos infrastructures a atteint en 2012 les 31 Tflops [Tflops, ou Tera flops représente 1000 milliards d'opérations par seconde. Par comparaison, un ordinateur individuel permet d'atteindre 0.05 Tflops]  Un tableau récapitulatif est présenté en Annexe B.
Figure 1
Figure 1: Evolution de la puissance théorique de calcul au CISM depuis 2006.

Pour ce qui concerne le service de stockage de masse, le remplacement du serveur de stockage Lmx par une extension de 90TB, ajoutée à Storage05, nous permet aujourd'hui de mettre à la disposition de l'ensemble de la communauté universitaire un espace en ligne de plus de 310TB. La répartition de cet espace sur nos serveurs est détaillée à la Figure 2. Un tableau récapitulatif est présenté en annexe C.
figure 2
Figure 2: Evolution de l'espace de stockage disponible au CISM depuis 2006

2.1. Les salles informatiques (Aquarium, Pyth03 et Tier2)


Les salles "Aquarium" B012 (PYTH02) du bâtiment Pythagore et “Tier-2” du bâtiment Marc de Hemptinne, construites respectivement en 2005 et 2008, sont des noeuds vitaux de l'infrastructure informatique de l'UCL. Le système de refroidissement par eau retenu par les services techniques de l'UCL est sûr et performant. L'alimentation électrique redondante (à partir de deux cabines de transformation) ainsi qu'un onduleur protègent efficacement une série d'équipements critiques. La salle Pyth03, du bâtiment Pythagore, est plus ancienne et nous ne pouvons malheureusement plus compter sur la fiabilité de son système de refroidissement. Lors des chaleurs estivales, certains serveurs doivent même être arrêtés pour limiter l'augmentation de la température de la salle.

Les renforcements de la dalle et du système de refroidissement effectués en 2009 et 2010 à l'Aquarium avaient pour but d'optimiser l'occupation des armoires en terme d'espace et de puissance. Sur les 7 armoires utilisées par le CISM, la réorganisation des armoires ainsi que le démantèlement partiel des serveurs de Lemaitre nous ont permis de libérer, dans un premier temps, 4 armoires afin d'accueillir les grappes Hmem, en 2011, et Lemaitre2 en 2012. La fin du démantèlement de Lemaitre, discuté plus loin, nous a ensuite permis de libérer les 3 armoires restantes. De ce fait, nous avons pu, d'une part, retirer tous nos serveurs critiques de la salle Pyth03 dont la fiabilité n'est plus assurée et, d'autre part, de reconstruire une nouvelle grappe (Manneback) avec les serveurs les plus performants de Lemaitre et la partie appelée « New Branch » de Green. Ce point sera discuté en détail au paragraphe 2.3.

Aujourd'hui, les 7 armoires de l'Aquarium sont occupées au maximum de leur capacité. Nous ne pouvons plus ajouter de serveurs sans devoir procéder à l'arrêt d'une machine ou d'une grappe plus ancienne. Dans l'état actuel des choses, le déploiement d'une nouvelle infrastructure, prévue en 2014 ou 2015, est impossible.

Nous ne pouvons malheureusement pas non plus compter sur la salle Tier-2 où nous occupons déjà en pleine capacité les deux armoires mises à notre disposition.

Le manque de place commence à être critique pour l'évolution des infrastructures du CISM. Ce constat est d'ailleurs identique pour SIPR. Nous avons donc déposé, en 2011, auprès des autorités de l'Université, une demande commune SGSI/SIPR – SST/CISM pour le financement d'une nouvelle salle serveurs que nous espérons opérationnelle dès 2015. Notre demande a été acceptée et ce projet est à l'étude pour le moment.

2.2. La grappe Lemaitre


E
n 2005, Lemaitre était un outil puissant et, depuis son installation, il a permis aux membres de l'UCL et à d'autres institutions (voir la section Coopération interuniversitaire de ce document) de réaliser de nombreux travaux scientifiques qui n'auraient pas pu être entrepris sur une petite infrastructure.

Aujourd'hui, ces machines ne répondent plus aux critères actuels et leur rapport puissance de calcul / puissance électrique consommée est devenu trop défavorable pour maintenir cette infrastructure en production. Cette grappe a donc été entièrement déclassée en juillet 2012.

Cependant, en 2009, une contribution du pôle SST/ELIC avait permis d'augmenter la puissance de Lemaitre de 51% avec l'acquisition de douze serveurs équipés de processeurs Intel Xeon Nehalem L5520. Ces serveurs restent intéressants et, comme mentionné au paragraphe 2.3, ont donc été reclassées dans la nouvelle grappe Manneback.

figure 3
Figure 4
Figure 3:Taux d'utilisation mensuelle de Lemaitre et des noeuds L5520.
Figure 4: Répartition par pôle pour Lemaitre.

La Figure 4 présente la répartition par pôle des utilisateurs principaux de la grappe Lemaitre jusqu'à la date de son démantèlement. On remarque que les utilisateurs de IMMC/TFL, largement majoritaires sur cette grappe en 2011, n'apparaissent plus en 2012. Ils se sont en fait déplacés, comme nous le verrons plus tard, sur la nouvelle grappe à vocation « massivement parallèle » Lemaitre2.

2.3. La grappe Manneback

 
Manneback
Bien que l'ancienne grappe Lemaitre ait été déclassée, certaines machines, installées plus tard que les noeuds initiaux, étaient encore tout à fait performantes et méritaient encore d'être utilisées. Ces machines ont été regroupées dans une « nouvelle » grappe, appelée Manneback, constitué de

Ce cluster utilise donc du matériel ancien, mais l'ensemble des logiciels ont été entièrement réinstallés de sorte qu'il est équipé des dernières versions du système d'exploitation, des compilateurs, du gestionnaire de jobs, etc. Cette mise à jour profite aux utilisateurs qui peuvent installer leur code indifféremment sur Hmem, Lemaitre2 ou Manneback sans même devoir le recompiler ; les librairies et les modules sont identiques aux trois clusters. De même ils ne doivent pas (ou peu) modifier les scripts de soumission de jobs.

Quant au nom choisi, Manneback, il fait référence à Charles Manneback (1894-1975). Charles Manneback était professeur de Physique à l'UCL et était un ami proche de Georges Lemaitre. En 1947, il fut le chef de la mission qui partit aux USA étudier les machines de calcul avec pour objectif de ramener les connaissances nécessaires à l'installation en Belgique du premier superordinateur.
Il devint naturellement le président du Comité pour la Promotion et l’Etude des Machines Mathématiques Electroniques qui mena à la création de la “Machine IRSIA-FNRS”, conçue et réalisée par 'Bell Telephone Manufacturing Comptany' (BTMC) à Anvers. Cette machine fut une des premières au monde à être conçue pour le calcul en virgule flottante et fut mise en place peu après 19505.
(Pour plus d'informations, se référer à The Belgian Electronic Mathematical Machine (1951-1962). An Account. In “Randell’s Tales: a Festschrift recognising the contributions of Brian Randell” Cliff Jones & John Lloyd, Ed.  Volume 6875 of the Lecture Notes in Computer Science Series. Springer Verlag, 2011.

Dès sa mise en production durant l'été 2012, le taux d'utilisation de cette nouvelle grappe de calcul a très vite augmenté. Comme on peut le voir en comparant la Figure 6 et la Figure 4, on ne retrouve pas les anciens utilisateurs de Lemaitre. Cette nouvelle grappe attire davantage les utilisateurs de NAPS et d'ELIC.

Les spécifications détaillées des machines composant la grappe Manneback se retrouvent à l'Annexe B.
figure 5
figure 6
Figure 5: Taux d'utilisation mensuelle de Manneback.
Figure 6: Répartition par pôle pour Manneback.

2.4. La grappe Green

 
Green
Cette grappe est constituée de 6 chassis Blade Dell M1000e équipés chacun de 16 dual quad-core Xeon L5420 cadencés à 2.5GHz par blade, dont la moitié dispose de 16GB de mémoire RAM et l'autre moitié de 32GB RAM. Elle compte en outre 6 serveurs Dell PowerEdge 1950 équipés des mêmes processeurs et de 32GB RAM. Green dispose donc de 816 coeurs de calcul, fournissant 8.16 Tflops de puissance théorique maximale, pour une consommation électrique ne dépassant pas 24 kW. Green est en production depuis début 2009 et reste une infrastructure importante du CISM.

De 2010 à 2012, une offre préférentielle de HP nous a permis d'acquérir un chassis Blade contenant 16 serveurs équipés chacun de deux processeurs de la même série, soient 128 coeurs de calcul supplémentaires. Nous les avions intégrés à la grappe Green, sous le nom « New Branch », et installés dans la salle Pyth03, par manque de place. La distance géographique entre ces machines posait quelques contraintes d'utilisation (répertoires home non montés) pour les utilisateurs. Par la suite, deux noeuds (16 coeurs) sont tombés en panne.

Cette année, nous avons profité de la mise en place de Manneback pour y intégrer ces 112 coeurs (noeuds mback20 à mback34) et, ce faisant, s'affranchir des contraintes précédentes.

En 2012, l'utilisation moyenne de Green s'est élevée à environ 60%. La Figure 7 présente l'évolution mensuelle de l'activité sur Green.
figure 5
figure 6
Figure 7: Taux d'utilisation mensuelle de Green.
Figure 8: Répartition par pôle pour Green.
La Figure 8 présente la répartition par pôle des utilisateurs les plus actifs sur Green. C'est de loin NAPS qui est le pôle le plus présent. Il faut souligner qu'étant à la base du projet d'acquisition de cette machine, les choix techniques de Green ont été effectués en fonction de leurs applications.


2.5. La grappe Hmem

 
Hmem

La grappe de calcul Hmem est une infrastructure orientée calcul intensif réclamant une quantité de mémoire vive importante ; d'où le choix du nom Hmem pour « High-Memory ». Cette infrastructure, installée en février 2011, est à la disposition des utilisateurs de l'UCL pour moitié et des membres du Consortium CÉCI pour l'autre moitié.

Cette grappe est composée de 16 machines DELL (fournies par ClusterVision) 4*12 coeurs AMD Opteron 6174 dont deux sont équipés de 512 GB de RAM, 7 de 256 GB et 7 de 128 GB. Un budget complémentaire venant d'ELIC nous a permis d'ajouter un huitième noeud équipé de 128 GB de RAM. L'ensemble est interconnecté par un réseau rapide à faible latence Infiniband QDR (40 Gbits/s). Le CISM a ajouté un serveur d'accès et de sessions interactive (2*6 coeurs AMD Opteron 4180, 64GB de RAM, 11TB d'espace disque pour les répertoires utilisateurs). Il permet l'identification des utilisateurs et la gestion des jobs en attente de soumission.

Début 2012, face à la demande d'utilisateurs qui souhaitaient disposer d'une possibilité de développer et d'évaluer rapidement leur code, nous avons reconfiguré un ensemble de 3 serveurs Transtec Calleo 530 acquis en novembre 2008 (4 dual-coeur AMD Opteron et 128GB RAM) et nous les avons intégrés à la grappe Hmem (Hmem18, 19 et 20, dans une queue « fast » de 24 heures maximum).

Cette grappe étant ouverte à tous les membres du Consortium CÉCI, elle correspond à la première brique d'un ensemble de grappes de calcul réparties sur les différents sites des universités de la Fédération Wallonie Bruxelles (FWB) où les utilisateurs sont identifiés de manière unique et centralisée. Lemaitre2, pour l'UCL, en est la seconde brique, les autres universités déploieront leur grappe en 2013. Le système d'identification de utilisateurs, basée sur une arborescence LDAP (Lightweight Directory Access Protocol), a été mis en place grâce à la collaboration étroite entre Bertrand Chenal, logisticien FNRS attaché au CÉCI, et l'équipe de gestion du CISM.

Le matériel qui compose Hmem est particulier car très peu de serveurs de calcul disposent d'un demi TB de RAM, et les valeurs de 128 et 256 GB sont également très élevées par rapport à ce qui est classiquement disponible sur des serveurs de calcul. Cela permet d'y faire tourner des simulations qui ne pourraient s'exécuter ailleurs (manipulant des tableaux très grands, par exemple). Le taux d'utilisation de Hmem reste de ce fait toujours élevé. C'est ce que présentent les Figures 9 et 10.

Figure 9
Figure 9: Taux d'utilisation journalière de la grappe HMEM.
figure 10
Figure 10: Taux d'utilisation mensuelle de la grappe HMEM

Le gestionnaire de jobs mis en place sur Hmem, SLURM, doit veiller au partage équilibré entre les utilisateurs des 5 universités de la FWB. La configuration choisie tient compte du fait que la machine est dédiée à 50% aux membres de l'UCL et 50% aux membres du CÉCI (dont l'UCL). A part cela, tous les utilisateurs sont mis sur le même pied. La Figure 11 présente la répartition de l'utilisation de la grappe HMEM entre les 5 universités de la FWB pour l'année 2012.
figure 11
Figure 11: Distribution par utilisateurs et pôles de recherche.

2.6. La grappe Lemaitre2

 
Lemaitre2

L'accord du Consortium des équipements de Calcul Intensif CÉCI a été signé par les recteurs des 5 universités de la FWB le 9 novembre 2010 (voir un article de presse). Dans la foulée, le FNRS accepta le financement des deux premières années d'un projet pluriannuel déposé par le CÉCI (voir plus loin). Ce financement mettait à la disposition de l'UCL 500 k€ pour l'achat, en 2011, d'une machine “massivement parallèle”. Dans ce cas, l'objectif était de mettre en place un grand nombre de CPU performants interconnectés par un réseau rapide.

En début janvier 2012, la grappe Lemaitre2 est installée grâce à ce financement dans trois armoires de l'Aquarium, libérées par le démantèlement des 50 derniers bi-processeurs V20z qui constituaient Lemaitre depuis 2005 et par la réorganisation des machines encore intéressantes au sein de la grappe Manneback.

La grappe Lemaitre2 est composée de 1344 coeurs de calcul Intel X5649@2.53Ghz interconnectés par un réseau Infiniband QDR “(3:1) blocking”. Un système de fichiers parallélisé de type “Lustre” assure l'accès en écriture le plus rapide possible à un espace d'hébergement temporaire de données de 120 TB. Les serveurs de gestion, d'accès aux répertoires utilisateurs (contenant les données essentielles, les sources et les programmes des utilisateurs) et de gestion du système de fichiers “Lustre” (plus performant, contenant les données de production des utilisateurs) sont tous dédoublés et sécurisés via Linux High Availibility (LHA).

La grappe Lemaitre2, avec sa puissance maximale théorique de 13.6 Tflops, est neuf fois plus puissante que sa première version Lemaitre installée six ans plus tôt.

Cette grappe est la première machine 100% CÉCI, seconde brique des grappes de calcul réparties dans les 5 universités de la FWB.

figure 12
Figure 12: Taux d'utilisation journalière de la grappe Lemaitre2

Les Figures 12 et 13 présentent les taux d'utilisation journalière et mensuelle de la grappe Lemaitre2 pour l'année 2012.
figure 13
Figure 13: Taux d'utilisation mensuelle de la grappe Lemaitre2
La Figure 14 présente la distribution des utilisateurs par université.
figure 14
Figure 14: Distribution des utilisateurs par université


2.7. Serveurs spécifiques


Outre les grappes de calcul, le CISM gère également des machines individuelles destinées au calcul interactif.


Serveur SAS SMCS1&2 (SMCS)

En 2011, dans le cadre d'une collaboration avec la plate-forme SMCS, deux serveurs de calcul avaient été acquis et installés. Ces deux machines offrent l'accès à un service de calcul statistique performant sur de grosses bases de données, avec, entre autre, les logiciels statistiques SAS, STATA et R.

Une des particularités de ces machines est d'héberger des cartes accélératrices (GPU). Ces cartes GPU ont été remplacées cette année par d'autres cartes présentant une meilleure compatibilité avec les serveurs suite à l'observation d'instabilités, et ce, malgré que la configuration soit certifiée par le vendeur. Les cartes GPU initialement présentes seront déplacées dans d'autres machines.

Les deux serveurs statistiques ont par ailleurs été déplacés cette année de la salle Pyth03 vers une des armoires refroidies de la salle Aquarium pour en assurer un meilleur hébergement.

Serveur Lm9 (INMA)

En début 2011, le CISM a installé, grâce à un financement du pôle INMA, un serveur spécifique pour les applications interactives telles que  Matlab. Cette année, le logiciel Thermocal a été installé sur la machine, logiciel dont la licence est financée par le pôle IMAP.

2.8. Les systèmes de stockage de masse


Afin de couvrir les nouveaux besoins des utilisateurs et remplacer l'espace perdu lors du déclassement de Lmx (appelée aussi Lmftp), qui hébergeait 18 TB de données, la capacité du serveur de stockage Storage05 a été accrue de 90 TB.

Actuellement, les quatre serveurs Storage02, Storage03, Storage04 et Storage05 fournissent à la communauté universitaire 322 TB d'espace disque en ligne, ce qui correspond à une augmentation d'un tiers par rapport à ce qui était disponible l'an dernier. Cet espace est réparti comme suit (voir également la Figure 2):
Cet espace disque est sécurisé: La configuration RAID des armoires tolère la panne de disques, remplaçables à chaud. De plus, la récupération en cas de désastre est assurée par la délocalisation des serveurs (storage04 et storage05 au Pythagore; storage02 et storage03 au Marc de Hemptinne) et la mise en place d'un système de réplication des données (activé uniquement si l'utilisateur le souhaite).
Les Figures 15 à 18 présentent la répartition des utilisateurs par secteurs, par instituts et par pôles de recherche. Dans ces distributions, nous avons inclus l'espace HOME des grappe Lemaitre et Green qui représentent ensemble 21 TB. Comme on peut le voir, les plus gros consommateurs sont SST/ELIC et SST/ELIE qui doivent stocker respectivement d'importants fichiers produits par des simulations en climatologie et des images satellites de grande taille à analyser. La Figure 17 montre l'évolution de l'espace de stockage utilisé et son accélération ces trois dernières années.
figure 15
figure 16
Figure 15 : Répartition des utilisateurs par secteurs.
Figure 16: Répartition des utilisateurs par instituts.
figure 17
figure 18
Figure 17: Répartition des utilisateurs par pôles de recherche.
Figure 18: Répartition de l'espace de stockage utilisé depuis 2008.


2.9. Déclassement des serveurs plus anciens


Cette année, nous avons procédé au déclassement du serveur Lmx, dernière machine de stockage de la génération du cluster Lemaitre. Comme signalé plus haut, ce déclassement a été accompagné du renforcement du serveur de stockage Storage05.

Du côté du calcul, Le déclassement de l'ancienne grappe Lemaitre (voir le rapport d'activité précédent) a été poursuivi cette année; tous les nœuds les plus anciens ont été éliminés de manière à laisser la place pour des machines plus puissantes et nettement moins énergivores. La cinquantaine de serveurs SUN V20z déclassés n'ont pas pour autant fini leur vie dans un parc à containers. Comme il s'agit de machines suffisamment équipées pour servir de Desktop et d'ordinateurs d'étude dans des salles didactiques, ils ont été donnés à l'Institut Supérieur Pédagogique et Technique de Kinshasa (Prof. D. D. Tengenza Baguma). E. Mulemangabo (LS/SGSI/SISG) s'est chargé de vérifier et de reconfigurer les machines.

La place libérée a permis de rapatrier dans les armoires de la salle Aquarium les machines installées dans la salle Pyth03. Cette salle arrivant en fin de vie, le refroidissement n'y était plus assuré correctement, et l'année précédente avait été émaillée d'incidents forçant l'arrêt de machines pour cause de défaillance du système de refroidissement.

2.10. Gestion et développement de l'infrastructure


L'équipe de gestion s'est dotée cette année d'un logiciel de gestion de matériel, appelé GLPI, acronyme de Gestionnaire Libre de Parc Informatique. Ce logiciel, libre et open-source, sert à maintenir une information centralisée et complète concernant le parc informatique du CISM: clusters, machines de calcul interactives, etc.

Outre ses capacités d'inventaire automatique, permettant une vision globale de l'état de l'ensemble des machines du CISM, GLPI permet la gestion simple des évènements liés au matériel: pannes, remplacements, expiration de contrat de support, etc. Ainsi, chaque appel au services de maintenance, chaque remplacement de pièce, chaque alarme, est enregistré en un seul endroit, ce qui permet aux gestionnaires d'avoir en un clic, l'historique de la maintenance d'une machine.

Ce programme est le parfait complément de l'outil de travail collaboratif (wiki) mis en place précédemment, et regroupant les informations relatives aux logiciels et configurations.

Par ailleurs, pour pouvoir tester divers logiciels et configurations, le CISM a profité du déclassement de NIC3, la grappe de calcul de l'Ulg, pour récupérer une partie du matériel et construire une petite grappe de calcul destinée aux tests. Elle comporte, outre un frontend, trois noeuds de calculs, tous équipés d'une carte Infiniband, et un panier de disques pour le stockage, panier récupéré lors du déclassement de Diskus (voir à ce sujet les rapports d'activités précédents).

Cette grappe, appelée Leleve par opposition à Lemaitre, est installée dans la salle Pyth03 du bâtiment Pythagore. Elle est activement utilisée, principalement pour tester les nouvelles versions et/ou configurations de Slurm, le gestionnaire de jobs, et pour tester de nouveaux systèmes de fichiers avant leur mise en production sur les systèmes de production. Ainsi, un système de fichier partagé installé sur Hmem et Manneback, appelé Fraunhofer FS, permettant de regrouper l'ensemble des disques durs des noeuds de calcul en un seul et unique système de fichier partagé par tous les noeuds, a été testé sur Leleve, et comparé à d'autres solutions potentielles (glusterfs, xrootd, hadoopfs, ...).

3. Le CISM, plate-forme technologique


Parmi les évènements les plus importants qui ont animé notre plate-forme cette année, nous pouvons mentionner la fin de mandat, en septembre 2012, du Professeur Hugues Goosse (ELI/ELIC) à la présidence du Conseil de Gestion du CISM. Après 4 ans de bons et loyaux services, le Professeur Hugues Goosse laisse la main au Professeur Philippe Chatelain (IMMC/TFL). Le CISM tient à remercier le Professeur Hugues Goosse pour son enthousiasme avec lequel il a défendu les intérêts de notre plate-forme durant ces années et se réjouit du travail entamé avec son successeur.

Un autre événement est bien sûr l'organisation, le 3 mai 2012, de la quatrième réunion scientifique CÉCI. Cet évènement nous a permis de rassembler une centaine de chercheurs de la FWB autour de 8 présentations scientifiques en relation avec l'utilisation de nos infrastructures de calcul.

Enfin, il faut encore rappeler la réorganisation, depuis 2011, du mode de financement de notre budget de fonctionnement. Cette année, 50% de notre fonctionnement a été couvert par un budget central. Les 50% restant ont été financés par le secteur SST, comprenant l'essentiel des utilisateurs de nos infrastructures de calcul. En 2013, il est prévu de facturer un tiers de notre budget de fonctionnement directement aux utilisateurs. A cette fin, la répartition de nos utilisateurs a été étudiée sur base du taux d'occupation de nos serveurs de calcul. Le stockage de masse n'est pas concerné car il est déjà autofinancé. Le tableau suivant présente cette répartition par secteurs, Instituts et pôles.


Instituts


Pôles


98,87%

CISM

0,15%

PAN

0,15%

ELI

16,08%

ELIC

15,38%

ELIB

0,53%

ELIM

0,00%

ELIA

0,16%

ELIE

0,01%

IMCN

56,75%

MOST

1,83%

NAPS

52,78%

BSMA

2,14%

ICTM

2,63%

ELEN

0,44%

INGI

2,00%

INMA

0,19%

IMMC

22,67%

IMAP

2,17%

MEMA

5,34%

TFL

13,69%

GCE

1,47%

IRMP

0,00%

CP3

0,00%

LOCI

0,16%

LOCI

0,16%

0,67%

TALN

0,00%

TALN

0,00%

IMMAQ

0,00%

IRES

0,00%

SMCS

0,00%

IACSSHOS

0,07%

IACS

0,07%

LSM

0,60%

LSM

0,60%

0,32%

IREC

0,18%

MIRO

0,18%

DDUV

0,14%

GEHU

0,14%

0,54%

CECI

0,12%

CECI

0,12%

VUB

0,42%

VUB

0,42%






100,00%


100,00%


100,00%



Tableau 1:
Répartitions des utilisateurs de calcul intensif par secteurs, instituts et pôles de recherche. Cette répartition a été calculée sur base de l'utilisation en temps CPU des grappes Lemaitre, Manneback, Green, Hmem et Lemaitre2. Les utilisateurs de Hmem et Lemaitre2, extérieures à l'UCL, ayant une compte CÉCI mais pas au CISM, ne sont pas pris en considération dans ce tableau.

4. Formations

Comme les années précédentes, le CISM, en collaboration avec le CÉCI, a proposé en 2012 une offre complète de formations au calcul intensif, allant de l'apprentissage de la ligne de commande sous linux au calcul parallèle sur cartes accélératrices (GPU).


Le cycle de formations s'est déroulé entre le 18 octobre et le jeudi 22 novembre 2012. Cette année, l'organisation des séances a été revue de manière à diminuer le nombre total de déplacements pour les participants venant de loin. Les formations de base étaient ainsi concentrées sur une demi-semaine, à raison de deux séances par jour. Les formations plus spécifiques ont elles été dispensées, comme les années précédentes, à raison d'une séance par semaine. Les séances se sont déroulées, comme l'année précédente, dans les salles informatiques du bâtiment Vinci, chacune étant équipée de 25 postes de travail.

Les formateurs ont été, cette année encore, choisis parmi les équipes du CISM, du CÉCI, et du SMCS. En outre, une séance spéciale dédiée au calcul sur GPU a été prévue au début de l'année 2013. Bien que faisant partie de la session 2012, elle a été placée en 2013 pour s'adapter à l'agenda du formateur, Sidi Ahmed Mahmoudi, de l'Université de Mons. L'organisation des formations se fait de manière à profiter au maximum des expertises des tous les membres du CÉCI.

Salle DAO
Illustration 1: la salle de formation.

Les thèmes des formations sont repris sur la figure ci-dessous. Chaque cadre représente une séance. Les séances à fond bleu sont données par un membre du CISM, les séances à fond jaune sont assurées par un membre du CÉCI, à savoir David Collignon ou Bertrand Chenal, alors que la séance possédant un fond rouge a été donnée par Nathan Uyttendaele, du SMCS.

Les 'boites' s'empilent sur leurs prérequis. Il est à noter que le CISM n'offre pas de formation à un langage de programmation ou à la programmation générique; les cases ayant un fond bleu clair ne font pas partie de l'offre du CISM.

Thèmes de formations
Figure 19: Thèmes de formations.

Cette année a vu un nombre record d'inscriptions: 95. Cependant, beaucoup de personnes inscrites n'ont finalement pas participé aux formations. La majorité des inscrits (60%) venaient de l'UCL, les autres venant principalement de l'ULg (16%) et de l'ULB (8%). La dizaine de pourcents restant venaient des autres universités francophones.

La première séance a été suivie par 40 personnes. Les suivantes ont vu leur audience fluctuer entre 30, pour les plus populaires, et 10 pour les plus pointues.

Cette année encore, un questionnaire de satisfaction a été envoyé aux participants. Il en ressort que la majorité (70 à 80% des répondants) était satisfaite de la localisation, et du matériel mis à disposition.

La majorité des répondants était en outre favorable ou neutre à l'égard de la nouvelle formule prévoyant une semaine intensive. Les participants venant de plus loin en étaient contents, alors que pour les participants plus proches, cela ne changeait pas grand chose.
Le graphique suivant montre le nombre de participants à chaque formation.

figure 20
Figure 20: Niveau général de qualité des formations perçues par les participants

De manière générale, la qualité perçue des formations par les participants est bonne (voir figure ci-dessus).
Les deux points revenant souvent dans les commentaires sont d'une part l'absence dommageable de support écrit pour certaines séances, et d'autre part les difficultés qu'engendre l'hétérogénéité des participants en terme d'expérience de programmation ou d'utilisation de Linux.
Cette année, plus de 50 certificats de participation ont été émis par le CISM. Ces certificats sont valorisés par les participants dans le cadre de leur cursus en école doctorale.

5. Actions et contacts hors-CISM


5.1. La coopération CP3-CISM


Le projet TIER-2 belge a été accepté au début 2006 et consiste à se doter des moyens nécessaires à l’acquisition et au fonctionnement d’un noeud de calcul destiné à être intégré dans la grille mondiale de calcul WLCG (Worldwide LHC Computing Grid), pour le stockage et l’analyse de données des expériences auprès du Large Hadron Collider du CERN. Le TIER-2 belge est constitué de deux sites séparés, l’un à l’UCL et l’autre à l’Institut Interuniversitaire des Hautes Energies IIHE de l’ULB/VUB.
L'accord de partenariat établi en 2006 entre l'unité  IRMP/CP3 et le CISM pour l'hébergement de l'infrastructure UCL dans la salle Tier2 au bâtiment Marc de Hemptinne est toujours d'application.

5.2. Collaboration avec l'entité SGSI/SIPR

Pour rappel, le CISM occupe actuellement 13% de la salle Tier2 qu'il partage avec CP3 et SIPR, et 50% de la salle Aquarium dont le reste profite aux serveurs de SIPR. Dès leur création, une gestion commune des salles a été mise en place et les systèmes de monitoring et de gestion développés par une des entités est, pour l'essentiel, mis à disposition des autres. De même, la surveillance des pannes et les contacts avec GTPL sont partagés via une mailing list s'adressant sans distinction à tous les gestionnaires de salles.

Lorsque des travaux ou transformations importants s'avèrent nécessaires, l'avis des autres entités est pris en compte afin, si possible, d'en faire bénéficier l'ensemble des utilisateurs des salles.

En 2011, comme mentionné dans notre rapport annuel précédent, SIPR et le CISM ont déposé une demande commune aux autorités de l'Université pour le financement d'une nouvelle salle serveurs. Cette salle doit répondre aux besoins grandissant de nos deux entités et à la fermeture annoncée de la salle Pyth03. Plus de détails sur cette demande sont fournis au paragraphe 2.1.

En 2012, des visites communes ont été organisées pour découvrir la solution container choisie par le Cenaero (Gosselies); et les nouveaux data centers de la KULeuven et UGent (datacenter Sterre). Ces visites nous ont permis de comparer les choix techniques opérés et échanger les expériences de nos différents interlocuteurs et nous aider à orienter nos besoins dans notre projet de nouvelle salle serveurs.

5.3. Collaboration avec la plate-forme Support en Méthodologie et Calcul Statistique (SMCS).

Cette année encore, la collaboration structurelle entre le CISM et le SMCS (Service de Modélisation et Calcul Statistique), une plate-forme technologique qui fournit un service d'aide statistique au sein de l'UCL) s'est poursuivie avec fruit, avec une représentation croisée de chacun dans l'organe de décision de l'autre. Pour rappel, le CISM s'occupe de la maintenance matérielle et système d'exploitation des deux machines de calcul statistique, et de la gestion des comptes utilisateurs sur ces machines.

5.4. Projet d'ouverture interuniversitaire des installations de calcul intensif de la Communauté française.

Pour rappel, Le CÉCI - Consortium des Équipements de Calcul Intensif - a été mis sur pied suite à la décision du F.R.S.-FNRS de soutenir le projet "Ouverture interuniversitaire des gros équipements de calcul intensif en Communauté française: accès, formation, information, technologie Grid, inventaire et synchronisation des ressources matérielles et logicielles", en permettant l'engagement d'un logisticien, le Dr. David Colignon, en mars 2008.

En 2009, un avenant a été déposé au FNRS, pour ce projet, demandant l'engagement d'un second logisticien chargé de l'étude des aspects techniques de la mise en commun d'équipements de calcul intensif entre les institutions présentes dans le Consortium (FUNDP, UCL, ULB, Ulg et UMH). Cette demande a été approuvée par le FNRS et un nouveau logisticien, Bertrand Chenal, a été engagé en mars 2010.

Ce partage de ressources nécessite la signature d'un accord de Consortium. Ce document a été rédigé en 2010 et présenté à Madame Halloin, Secrétaire Générale du FNRS, et aux recteurs des cinq universités de la FWB. Signé par toutes les parties le 9 novembre 2010, il officialise ainsi l'existence du Consortium.

D'autre part, afin d’encadrer les échanges scientifiques, un groupe de contact « Calcul Intensif » FNRS a été créé dès juillet 2008. B. Champagne (FUNDP) en est le président et D. Colignon le secrétaire. Le 8 mai 2009, une première journée scientifique a été organisée à l'ULB. Après celle de Mons (UMONS) en 2010 et celle Liège (Ulg) en 2011, la quatrième réunion a été organisée à Louvain-la-Neuve (UCL) le 3 mai 2012. Nous en avons profité pour inaugurer nos deux premières machines CÉCI: Hmem et Lemaitre2.

Cette année 2012, grâce au financement, en 2011, par le FNRS, des deux premières années de notre plan pluriannuel déposé par le CÉCI, nous avons, tout d'abord, finalisé l'installation et la mise en production de la grappe Lemaitre2, premier cluster 100% partagé par tous les chercheurs, membres du Consortium. De plus, des appels d'offres ont été lancés par l'ULB, UMONS, le FUNDP et l'Ulg pour le renforcement de ces infrastructures (Hmem et Lemaitre2) sur le site des universités concernées. Ces appels d'offres ont permis la sélection de différentes solutions en cours d'installation.
Avec ces nouvelles installations, c'est plus de 7300 coeurs de calcul qui seront accessibles par tous les chercheurs membres du Consortium, utilisant le système d'identification centralisé mis en place en 2011. La Figure 21 présente l'évolution de la puissance théorique de calcul, telle que reprise à la Figure 1, en considérant les nouvelles machines CECI en cours d'installation.

Il faut encore signaler l'entrée officielle, le 9 octobre 2012, de la Belgique dans le projet PRACE (Partnership For Advanced Computing In Europe). Cette entrée devrait faciliter l'accès, pour les chercheurs belges, à des infrastructures de classe mondiale (plus de 100.000 processeurs). Ces centres, de niveau Tier0 dans la hiérarchie des infrastructures de PRACE, ne sont cependant ouverts qu'aux chercheurs ayant fait la preuve que leur application est capable d'utiliser avantageusement une telle puissance de calcul.
Pour ce faire, un chercheur est sensé se faire la main sur une architecture locale, de niveau Tier2 (plusieurs milliers de processeurs) telle que le propose le CECI. Il doit ensuite faire ses preuves sur une infrastructure nationale, de type Tier1 (plusieurs dizaines de milliers de processeurs). En 2012, cette hiérarchie a été instaurée en Belgique d'une part, par l'installation d'un Tier1 à Ugent par le VSC (Vlaamse Supercomputer Centrum) et, d'autre part, par le projet financé par la région wallonne d'installer un nouveau Tier1 au Cenaero à Gosselies.

figure 21
Figure 21: Evolution et extrapolation de la puissance théorique de calcul depuis 2008 à 2013

Pour plus de détails sur le CÉCI, nous vous invitons à visiter le site: «http://www.ceci-hpc.be/».


5.5. Evaluation de Systèmes d'exploitation pour les serveurs de stockage


La société TTEC a mis un serveur à notre disposition afin de tester différents systèmes d'exploitation compatibles avec le système de fichiers ZFS. Les détails de cette étude se retrouvent en Annexe A.1 et sur ce lien.

5.6. Evaluation du nouveau processeur Intel Sandy Bridge


Grâce à un prêt de la société HP, nous avons pu tester une serveur de calcul composé de deux processeurs Sandy Bridge E5-2680. Les tests effectués sur cette machine sont décrits en Annexe A.2.

5.7. Participation au Slurm User Group Meeting


Cette année, un membre de l'équipe a participé au Slurm User Group Meeting qui s'est tenu les 9 et 10 octobre au Barcelona Supercomputing Centre à Barcelone. Slurm est le nom du programme qui gère les jobs des utilisateurs sur les clusters CISM ainsi que sur les clusters CÉCI. C'est une pièce essentielle du dispositif.

Slurm a été choisi comme gestionnaire de ressources en remplacement de Sun Grid Engine (SGE), qui était installé sur les clusters les plus anciens. SGE était un programme open-source édité par Sun et convenait parfaitement à la tâche. Mais depuis le rachat de Sun par la société Oracle, SGE, rebaptisé Oracle Grid Engine, est devenu un logiciel propriétaire, dont les sources ne sont plus distribuées, et pour lequel il faut payer une licence relativement élevée. Slurm est apparu alors comme un outil convenant parfaitement pour remplacer SGE du fait de son caractère libre et open-source, des nombreuses success stories engrangées dans les centres de calculs du TOP500 (environ 40% de ces centres utilisent Slurm), et du support affiché de sociétés importantes dans le secteur HPC, comme Dell, Bull, HP, et bien d'autres. Après avoir testé Slurm pour vérifier qu'il répondait à nos attentes, nous l'avons installé sur l'ensemble des nouveaux clusters mis en place depuis. Slurm a par ailleurs vu se construire autour de lui une communauté très active qui permet de trouver rapidement la réponse à toutes les questions qui se posent lors de son installation et de son utilisation. Cette communauté active se réunit tous les ans lors d'un Slurm User meeting group.

Le Slurm User Group Meeting de 2012 a rassemblé une cinquantaine de personnes développeurs ou utilisateurs de Slurm. Il a été l'occasion de rencontrer en personne les développeurs principaux, de suivre les tutoriels portant sur certains aspects de slurm et destinés aux administrateurs systèmes, et, de manière générale, d'échanger les bonnes pratiques en termes de configuration, politiques d'utilisation, etc.

6. 2013 et au delà...


Pour le CÉCI, l'année 2012 aura été une année importante avec l'installation de Lemaitre2 et les procédures d'appels d'offres ouvertes à Bruxelles, Liège, Namur et Mons. En 2013, la mise en production de ces nouvelles infrastructures nous permettra de consolider notre mode de partage de ressources au sein du Consortium. Si cet ensemble connait le même succès en terme d'utilisation et de partage que les grappes Hmem et Lemaitre2, le Consortium pourrait obtenir un nouveau financement pour les années 2014 - 2017.

Comme nous l'avons rappelé au paragraphe 2.1, le nombre d'armoires disponibles pour accueillir les serveurs du CISM et/ou du CECI dans les salles machines existantes devient insuffisant. En effet, en 2012 déjà, les 7 armoires de la salle Aquarium et les deux armoires de la salle Tier-2 étaient utilisées au maximum de leurs possibilités en terme d'espace et de puissance de refroidissement. Si on ajoute à cela l'arrêt programmé de la salle Pyth03, nous n'avons pas actuellement de solution d'hébergement pour de nouveaux projets qui pourraient prendre forme dès l'an prochain. L'aménagement d'une nouvelle salle machines à l'UCL est donc crucial pour les futures installations du CISM. Une demande commune CISM-SIPR a été déposée auprès de nos autorités en 2011 avec comme objectif, la mise à disposition d'un nouvel espace d'hébergement pour fin 2013, début 2014. Aujourd'hui, nous réalisons que ce délai était probablement trop serré et que l'année 2015 est un objectif plus réaliste.

Annexe A: Travaux effectués en collaboration avec des sociétés extérieures.

A.1. Evaluation de Systèmes d'exploitation pour les serveurs de stockage

Toutes les machines de stockage (storage02 à storage05) fonctionnent sous le système d'exploitation Solaris 10 datant de 2010 (08/2010 ou 09/2010), logiciel open-source édité par la société Sun. Ce système est en effet particulièrement adapté puisqu'il offre, nativement, le support du système de fichier ZFS, qui est un des systèmes de fichier les plus stables, robustes, et riches en fonctionnalités qui soit pour le stockage de masse.

Depuis le rachat de la société Sun par la société Oracle, Solaris est devenu un produit payant et son coût est devenu prohibitif. Pour continuer à utiliser le système de fichier ZFS il faut donc trouver un système d'exploitation alternatif qui le supporte.

Trois systèmes d'exploitation ont été identifiés comme remplaçants potentiels. Il s'agit de

Pour ces trois systèmes, nous avons décidé de tester:

Pour cela, nous avons obtenu de la société TransTec une machine équipée de la dernière génération de contrôleurs de disques LSI, de 18 disques SAS de 2TB de capacité, de trois disques SSD d'au moins 60GB, et d'un disque SATA de 100GB. La machine avait 128GB de RAM et deux processeurs Xeon E5-2620.

Des tests effectués, il apparait que:

De tous les tests effectués, il ressort qu'OpenIndiana est le choix qui sera fait pour le système d'exploitation des prochaines machines de stockage installées par le CISM. Les machines les plus récentes, déjà installées, seront sans doute réinstallées avec OpenIndiana.

Tous les détails du test peuvent être consultés à l'adresse: http://www.cism.ucl.ac.be/Bench09/benchmark_zfs1212.html

A.2. Evaluation du nouveau processeur Intel Sandy Bridge


Depuis l'acquisition de Lemaitre en 2006, le CISM a installé plusieurs grappes de calcul, mêlant ainsi, plusieurs générations de processeurs. Voici les résultats de plusieurs benchmarks permettant de les comparer. En 2012, la société HP a mis à notre disposition une machine de démonstration intégrant les nouveaux processeurs Intel Sandy Bridge. C'était l'occasion de mettre notre comparaison en perspective.

La liste des grappes de calcul et de leurs processeurs associés est la suivante:

Sans rentrer dans les détails des différentes architectures, nous avons mis l'accent sur trois paramètres: l'accès à la mémoire, la performance et la consommation électrique des différentes solutions.
Il est à noter que lors de tous les benchmarks présentés ici, nous avons décidé de désactiver l'Hyper-Threading sur les processeurs Intel (les processeurs AMD ne possèdent pas cette option). Cette option s'est en effet avérée inefficace pour les performances de ce type de processeur.
Le premier benchmark que nous avons testé mesure la vitesse d'accès à la mémoire vive ou encore la qualité du bus permettant le transfert d'informations entre le CPU et la mémoire RAM. Le benchmark ramSPEED/SMP est un programme multi-tâche qui effectue une série d'opérations sur des tableaux de réels double précision: (http://www.alasir.com/software/ramspeed)
ramspeed
Figure A.1: Bande passante pour accéder à la mémoire (RAM + cache) de différents systèmes. Les valeurs les plus élevées sont les meilleures.
COPY: a(i) = b(i)
SCALE: a(i) = q*b(i)
ADD: a(i) = b(i) + c(i)
TRIAD: a(i) = b(i) + q*c(i)

On peut noter le bon comportement des machines Hmem lorsque le nombre de process devient important. Chez Intel, le gain entre les générations Hapertown (54xx), Nehalem (55xx et 56xx) et Sandy Bridge est impressionnant.
Pour tester la performance des processeurs, nous avons choisi le benchmark Linpack qui correspond à une mesure en Mflops du nombre d'opérations en virgule flottante que le processeur est capable d'effectuer par seconde. Elle est obtenue en faisant tourner un programme résolvant un système de n équations linéaires à n inconnues.
La version utilisée est celle que l'on retrouve sur le site de netlib.org.
Dans cette version, l'ordre des matrices a été modifiée à n=1000.
En exécutant parallèlement plusieurs tâches en même temps, on remarque que, pour chaque process, le nombre de Mflops reste constant lorsque l'on dépasse le nombre de coeurs disponibles. Le résultat n'est donc pas très instructif lorsque le nombre de process devient important. Par contre, lorsqu'on compare les temps d'exécution, nous pouvons plus facilement en tirer des conclusions. Si on combine cette mesure à la puissance électrique de la machine obtenue, pour chaque test, à l'aide d'un wattmètre, nous pouvons en déduire le coût, en Watt-heure (Wh), des opérations exécutées sur chaque système.

Dans ce cas-ci, les valeurs les moins élevées sont bien-sûr les meilleures.
linpackd
Figure A2: Coût en Wh de l'exécution de tâches linpackd sur différents systèmes.

Pour terminer, le tableau suivant présente les résultats obtenus sur différents systèmes des benchmarks linpack précompilé par Intel et utilisant les librairies MKL et spec FP Rate Base 2006. Les résultats de ce dernier benchmark sont tirés directement du site www.spec.org. Les puissances utilisées dans ce tableau représentent les valeurs maximales mesurées lors du test linpackd ci-dessus.


Lemaitre

AMD 252

Green

Intel L5420

5520

Intel L5520

HMEM

AMD 6174

SMCS

Intel X5675

Lemaitre2

Intel L5649

Sandy

Int. E5-2680

Linpack Gflops


70,55

67,95


134

112

325

Gflops peak

10

80

72,64

422,4

147,4

121,4

345,6

%R


0,88

0,94


0,91

0,92

0,94

SpecFpRateBase


62

155

570

255

216

469

Spec/coeur


7,75

19,38

11,88

21,25

18

29,31

Spec/Watt


0,32

0,6

0,72

0,76

0,84

1

Tableau A1: Tableau récapitulatif des résultats Intel linpack MKL et SpecFPRateBase2006.

Annexe B: Tableau récapitulatif des différents serveurs de calcul.


Avec la mise en production de Lemaitre2 en 2012, l'offre en puissance théorique du CISM a fortement augmenté: de 17,8 Tflops, celle-ci est passée à 31,4 Tflops (+76%). Le CISM gère un total de 4 grappes de calcul, disposant ensemble de 3264 coeurs, de 12424 GB de RAM et de 249 TB d'espace disque, offrant une puissance théorique maximale d'un peu plus de 31,4 Tflops.

Nom


#noeuds

#core/ noeuds

#core

GFlops tot (peak)

RAM/ noeud (GB)

Espace disque (GB)

architecture

Mise en service

Decci11

1

4

4

9.93

32

56

Compaq ES45 Alpha ev68/ 1250MHz

01/03

Déclassé03/12

Chpit

1

4

4

24

8

62

HP rx4640 Itanium2 1500MHz

12/03

Déclassé12/12

Max (PCPM)

18

2

36

228

4

2946

Mac Xserve bi G5/2GHz

01/05

Déclassé01/12

Cauchy (PAMO)

devient
mback03

1

4

4

20.8

32

146

SUN V40z 4 AMD Opt. 852/2.6GHz

07/05

mback
07/12

Lemaitre front-end

1

4

4

19.2

8

146 + 1200 (/fast) + 5900 (/home)

SUN V40z 4 AMD Opt. 850/2.4GHz

09/05

Lemaitre exec nodes

50

2

100

520

4

3650

SUN V20z 2 AMD Opteron 252/2.6GHz

09/05

Déclassé
07/12

Lemaitre SMP

deviennent
mback01-02

2

8

16

70.4

32 et 64

600

SUN V40z 4 Dual Core AMD Opteron 875/2.2GHz

09/05

mback
07/12

Lm8 (INMA)

devient mback04

1

4

4

20.8

32

219

SUN V40z 4 AMD Opteron 852/2.6GHz

12/05

mback
07/12

Lm140

devient mback06

1

16

16

83.2

64

144

SUN Galaxy X4600 8 Dual Core AMD Opteron 885/2.6GHz

09/11

mback
07/12

Green (NAPS)

103

8

824

8240

47 à 16
56 à 32

11TB
(/home)

102 (+front-end) Dual Quad-Core Xeon L5420/2.5GHz in Dell Blade M1000e

09/08

New
Branch

deviennent
mback20-34

14

8

112

1120

16

3TB

(/scratch)

14 HP Blade Dual Quad-Core Xeon L5420/2.5GHz

01/10

mback 07/12

Lm143-Lm144-Lm145

(NAPS)

deviennent
hmem18-20

3

8

24

144

128

1TB

3 Transtec Calleo530 4 Dual Core AMD Opteron 8222SE/3GHz

10/08

hmem
01/12

Cauchy2 (NAPS)

devient mback05

1

4

4

36.8

64

860

SUN Galaxy X2200 2 Quad-Core AMD Opteron 2356/2.3GHz

11/08

mback
07/12

Lm241 à Lm252 (ELIC)

deviennent
mback08-19


12

8

96

872

24

16TB

12 HP Proliant 2 Quad-Core Intel Xeon L5520/2.27GHz

10/09

mback
07/12

Lmgpu

devient mback07

1

8

8

85.4
(GPU: 624)

24

1TB

1 SuperMicro 2 Quad-Core Intel Xeon X5550/2.67GHz

02/10

mback
07/12

HMEM Frontend

1

12

12

125

64

11TB

1 Dell PE R515 2 AMD Opteron 4180/2.6GHz

12/10

HMEM

16

48

768

6758

2 à 512

7 à 256

7 à 128

26TB

14 Dell PE R815 4 AMD Opteron 6174/2.2GHz

12/10

HMEM17 (ELIC)

1

48

48

422

128

800

1 HP DL585 4 AMD Opteron 6174/2.2GHz

02/11

Lm9 (INMA)

1

12

12

141

144

8TB

1 HP DL180 2 Intel(R) Xeon(R) CPU X5670 @ 2.93GHz

01/11

SMCS1- SMCS2

2

12

24

295 (+GPU2090)

96

1,8TB

2 HP DL170e 2 Intel(R) Xeon(R) CPU X5675 @ 3.07GHz

10/11

Lemaitre2 Frontend

2

12

24

243

64

27TB

2 HP DL380 2 Intel(R) Xeon(R) CPU X5649 @ 2.53GHz

01/12

Lemaitre2

112

12

1344

13601

48

120TB

2 HP DL380 2 Intel(R) Xeon(R) CPU X5649 @ 2.53GHz

01/12



Annexe C: tableau récapitulatif des différents serveurs de stockage de masse.

Le CISM offre un espace de stockage en ligne de 310TB, réparti principalement sur 4 serveurs:  storage02, storage03, storage04 et storage05.


Nom

type de serveur

type de stockage

Espace (GB)

Mis en service

Lemaitre ftp (lmx)
déclasse en 2012
SUN Galaxy X4200 2 dual core AMD Opteron 2.6GHz  16GB RAM
1x14 Fiber 146GB + 4x14 SATA 400GB 27,3TB brut + 1x16 SATA 500 GB 8 TB brut 03/07) 12TB+6TB (/storage) - 5.9TB /home sur lmx4500
+ 6TB ajouté à /storage
06/07
(6130: 06/06) +02/08
Storage02 SUN Galaxy X4540 2 Quad core AMD Opteron 2.3GHz 32GB RAM
48 SATA 1TB, 36TB net
36TB (/storage) 12/08
Storage03 Transtec Calleà 344 2 Quad-core Xeon E5506@2.13GHz 24GB RAM
30 SATA 2TB, 2 SSD 64GB (cache zfs), 42TB net
42TB (/storage)
05/10
Storage04
Supermicro CSE-847E16-R1400UB Six-core Xeon E5645@2.4 GHz 36GB RAM
34 SATA 3TB, 72TB net
72TB (/storage)
05/11
Storage05
Supermicro CSE-847E16-R1400UB Six-core Xeon E5645@2.4 GHz 36GB RAM
34 SATA 3TB, 72TB net

72TB (/storage)
+90TB
05/11

07/12

Annexe D: Publications de résultats ayant été obtenus grâce aux machines du calcul intensif.

Les publications peuvent être consultées en ligne sur le site Dial.pr ou depuis notre  base de donnée.


1.Vandenberghe, J.; Renssen, H.; Roche, D.M.; Goosse, Hugues; Velichko, A.A.; Gorbunov, A.; Levavasseur, G. Eurasian permafrost instability constrained by reduced sea-ice cover. In: Quaternary Science Reviews, Vol. ", no. 34, p. 16-23 (2012). doi:10.1016/j.quascirev.2011.12.001. http://hdl.handle.net/2078.1/107212

2. Landais, A.; Dreyfus, G.; Capron, E.; Pol, K.; Loutre, Marie-France; Raynaud, D.; Lipenkov, V. Y.; Arnaud, L.; Masson-Delmotte, V.; Paillard, D.; Jouzel, J.; Leuenberger, M. Towards orbital dating of the EPICA Dome C ice core using δO2/N2. In: Climate of the Past, Vol. ", no. 8, p. 191-203 (2012). doi:10.5194/cp-8-191-2012. http://hdl.handle.net/2078.1/106825

3. Goosse, Hugues; Guiot, Joël; Mann, Michael E.; Dubinkina, Svetlana; Sallaz-Damaz, Yoann. The medieval climate anomaly in Europe : Comparison of the summer and annual mean signals in two reconstructions and in simulations with data assimilation. In: Global and Planetary Change, Vol. ", no. 84-85, p. 35-47 (2012). doi:10.1016/j.gloplacha.2011.07.002. http://hdl.handle.net/2078.1/107204

4. Rath, V.; Gonzalez Rouco, Jésus Fidel; Goosse, Hugues. Impact of postglacial warming on borehole reconstructions of last millennium temperatures. In: Climate of the Past, Vol. 8, no. -, p. 1059-1066 (2012). doi:10.5194/cp-8-1059-2012. http://hdl.handle.net/2078.1/112247

5. Crucifix, Michel. Oscillators and relaxation phenomena in Pleistocene climate theory. In: Philosophical transactions of the Royal Society of London. A, Vol. 370, no. 1962, p. 1140-1165 (2012). doi:10.1098/rsta.2011.0315. http://hdl.handle.net/2078.1/107816

6. Caddeo, C.; Malloci, G.; Rignanese, Gian-Marco; Colombo, L.; Mattoni, A. Electronic properties of hybrid zinc oxide-oligothiophene nanostructures. In: Journal of Physical Chemistry C, Vol. 116, no.14, p. 8174-8180 (2012). doi:10.1021/jp212283z. http://hdl.handle.net/2078/117224

7. Rangel, T.; Kecik, D.; Trevisanutto, P.E.; Rignanese, Gian-Marco; Van Swygenhoven, H.; Olevano, V. Band structure of gold from many-body perturbation theory. In: Physical Review B, Vol. 86, no.12, p. 125125 (2012). doi:10.1103/PhysRevB.86.125125. http://hdl.handle.net/2078/117227

8. Miglio, Anna; Waroquiers, David; Antonius, G.; Giantomassi, M.; Stankovski, Martin; Côté, M.; Gonze, Xavier; Rignanese, Gian-Marco. Effects of plasmon pole models on the G0W0 electronic structure of various oxides. In: European Physical Journal B, Vol. 85, no.9, p. 1-8- (2012). doi:10.1140/epjb/e2012-30121-4. http://hdl.handle.net/2078/117295

9. Goosse, Hugues; Mairesse, Aurélien; Mathiot, Pierre; Philippon, Gwenaëlle. Antartic temperature changes during the last millennium: evaluation of simulations and reconstructions. In: Quaternary Science Reviews, Vol. 55, p. 75-90 (2012). doi:10.1016/j.quascirev.2012.09.003. http://hdl.handle.net/2078.1/118326

10. Barthélemy, Antoine; Goosse, Hugues; Mathiot, Pierre; Fichefet, Thierry. Inclusion of a katabatic wind correction in a coarse-resolution global coupled climate model. In: Ocean Modelling, Vol. 48, p. 45-54 (2012). doi:10.1016/j.ocemod.2012.03.002. http://hdl.handle.net/2078.1/110441

11. Pospisil, Jiri; Robiette, Raphaël; Sato, Hitoshi; Debrus, Kevin. Practical synthesis of β-oxo benzo[d]thiazolyl sulfones: Scope and limitations. In: Organic & Biomolecular Chemistry, Vol. 10, no. 6, p. 1225-1234. doi:10.1039/C1OB06510F. http://hdl.handle.net/2078.1/105691

12. De Vleeschouwer, D.; Da Silva, A.C.; Boulvain, F.; Crucifix, Michel; Claeys, P. Precessional and half-precessional climate forcing of Mid-Devonian monsoon-like dynamics. In: Climate of the Past, Vol. 8, no. 1, p. 337-351 (2012). doi:10.5194/cp-8-337-2012. http://hdl.handle.net/2078.1/118870

13. Vergote, Thomas; Nahra, Fady; Peeters, Daniel; Riant, Olivier; Leyssens, Tom. NHC-copper(I) bifluoride complexes: "Auto-activating" catalysts. In: Journal of Organometallic Chemistry, Vol. --, no.--, p. -- (2012). doi:10.1016/jorganchem.2012.10.011 (Accepté/Sous presse). http://hdl.handle.net/2078.1/119007

14. Vergote, Thomas; Gathy, Thomas; Nahra, Fady; Riant, Olivier; Peeters, Daniel; Leyssens, Tom. Mechanism of ketone hydrosilylation using NHC-Cu(I) catalysts: a computational study. In: Theoretical Chemistry Accounts : theory, computation and modeling, Vol. 131, no.--, p. 1253 (2012). doi:10.1007/s00214-012-1253-4. http://hdl.handle.net/2078.1/119004

15. Zanti, Giuseppe; Peeters, Daniel. Electronic structure analysis of small gold clusters Aum(m ≤ 16) by density functional theory. In: Theoretical Chemistry Accounts : theory, computation and modeling, Vol. 132, no.--, p. 1300 (2012). doi:10.1007/s00214-012-1300-1. http://hdl.handle.net/2078.1/119011

16. Lories, Xavier; Vandooren, Jacques; Peeters, Daniel. Isomerization of dehydrofulvene radicals to the phenyl radical, and application to the growth of Polycyclic Aromatic Hydrocarbons (PAH). In: International Journal of Quantum Chemistry, Vol. 112, p. 1959-1967 (2012). doi:10.1002/qua.23142. http://hdl.handle.net/2078.1/102407

17. Mathiot, Pierre; Konig Beatty, C.; Fichefet, Thierry; Goosse, Hugues; Massonnet, François; Vancoppenolle, Martin. Better constraints on the sea-ice state using global sea-ice data assimilation. In: Geoscientific Model Development, Vol. 5, p. 1501-1515 (2012). doi:10.5194/gmd-5-1501-2012. http://hdl.handle.net/2078.1/119047

18. Massonnet, François; Fichefet, Thierry; Goosse, Hugues; Bitz, C. M.; Philippon, Gwenaëlle; Holland, M. M.; Barriat, Pierre-Yves. Constraining projections of summer Arctic sea ice. In: The Cryosphere, Vol. 6, no.6, p. 1383-1394 (2012). doi:10.5194/tc-6-1383-2012. http://hdl.handle.net/2078.1/119055

19. Crespin, Elisabeth; Goosse, Hugues; Fichefet, Thierry; Mairesse, Aurélien; Sallaz-Damaz, Yoann. Arctic climate over the past millennium: Annual and seasonal responses to external forcings. In: The Holocene : a major interdisciplinary journal focusing on recent environmental change, Vol. 0, no.0, p. 1-9 (2012). doi:10.1177/0959683612463095. http://hdl.handle.net/2078.1/119079

20. Weaver, A.J.; Sedláček, J.; Eby, M.; Alexander, K.; Crespin, Elisabeth; Fichefet, Thierry; Philippon, Gwenaëlle; Joos, F.; Kawamiy, M.; Matsumoto, K.; Steinacher, M.; Tachiiri, K.; Tokos, K.; Yoshimori, M.; Zickfeld, K. Stability of the Atlantic meridional overturning circulation: A model intercomparison. In: Geophysical Research Letters, Vol. 39, no.20 (2012). doi:10.1029/2012GL053763. http://hdl.handle.net/2078.1/119081

21. Zanolli, Zeila; Charlier, Jean-Christophe. Single-Molecule Sensing Using Carbon Nanotubes Decorated with Magnetic Clusters. In: ACS Nano, Vol. 6, no.12, p. 10786–10791 (2012). http://hdl.handle.net/2078/119950

22. Renssen, H.; Seppä, H.; Crosta, X.; Goosse, Hugues; Roche, D.M. Global characterization of the Holocene Thermal Maximum. In: Quaternary Science Reviews, Vol. 48, p. 7-19 (2012). doi:10.1016/j.quascirev.2012.05.022. http://hdl.handle.net/2078.1/112248

23. De Saedeleer, Bernard; Crucifix, Michel; Wieczorek, Sebastian. Is the astronomical forcing a reliable and unique pacemaker for climate? A conceptual model study. In: Climate Dynamics : observational, theoretical and computational research on the climate system, p. 1-22 (2012). doi:10.1007/s00382-012-1316-1. http://hdl.handle.net/2078.1/119083

24. de Brye, Benjamin; Debrauwere, Anouk; Gourgue, Olivier; Delhez, Eric; Deleersnijder, Eric. Water renewal timescales in the Scheldt Estuary. In: Journal of Marine Systems, Vol. 94, p. 74-86 (2012). doi:10.1016/j.jmarsys.2011.10.013. http://hdl.handle.net/2078.1/106880

25. Bricteux, Laurent; Duponcheel, Matthieu; Manconi, Moïse; Bartosiewicz, Yann. Numerical prediction of turbulent heat transfer at low Prandtl number. In: Journal of Physics: Conference Series, Vol. 395, p. 012044 (2012). doi:10.1088/1742-6596/395/1/012044. http://hdl.handle.net/2078.1/119420

26. Bricteux, Laurent; Duponcheel, Matthieu; Winckelmans, Grégoire; Tiselj, I.; Bartosiewicz, Yann. Direct and large eddy simulation of turbulent heat transfer at very low Prandtl number: Application to lead–bismuth flows. In: Nuclear Engineering and Design : an international journal devoted to the thermal, mechanical, materials, and structural aspects of nuclear fission energy,. doi:10.1016/j.nucengdes.2011.07.010 (Accepté/Sous presse). http://hdl.handle.net/2078.1/84296

27. De Wilde, Juray; Froment, Gilbert F. Computational Fluid Dynamics in chemical reactor analysis and design: Application to the ZoneFlow™ reactor for methane steam reforming. In: Fuel : the science and technology of fuel and energy, Vol. 100, p. 48-56 (2012). doi:10.1016/j.fuel.2011.08.068 (Accepté/Sous presse). http://hdl.handle.net/2078.1/106254

28. Herold, N.; Yin, Qiuzhen; Karami, P.; Berger, A. Modelling the climatic diversity of the warm interglacials. In: Quaternary Science Reviews, Vol. 56, p. 126-141 (2012). doi:10.1016/j.quascirev.2012.08.020. http://hdl.handle.net/2078/119022

29. Yin, Qiuzhen; Berger, A. Individual contribution of insolation and CO2 to the interglacial climates of the past 800,000 years. In: Climate Dynamics, Vol. 38, p. 709-724 (2012). doi:10.1007/s00382-011-1013-5. http://hdl.handle.net/2078.1/71016

30. Muri, H.; Berger, A.; Yin, Qiuzhen; Voldoire, A.; Mélia, D.S.Y.; Sundaram, S. SST and ice sheet impacts on the MIS-13 climate. In: Climate Dynamics, Vol. 39, p. 1739-1761 (2012). doi:10.1007/s00382-011-1216-9. http://hdl.handle.net/2078.1/108376

31. Sundaram, S.; Yin, Qiuzhen; Berger, A.; Muri, H. Impact of ice sheet induced North Atlantic oscillation on East Asian summer monsoon during an interglacial 500,000 years ago. In: Climate Dynamics, Vol. 39, p. 1093-1105 (2012). doi:10.1007/s00382-011-1213-z. http://hdl.handle.net/2078.1/108379

32. Rosales-Trujillo, Waldo; De Wilde, Juray. Fluid catalytic cracking in a rotating fluidized bed in a static geometry: a CDF analysis accounting for the distribution of the catalyst coke content. In: Powder Technology, Vol. 221, p. 36-46 (May 2012). doi:10.1016/j.powtec.2011.12.015. http://hdl.handle.net/2078.1/106247

33. Simar, Aude; Bréchet, Yves; de Meester de Betzenbroeck, Bruno; Denquin, Anne; Gallais, Christophe; Pardoen, Thomas. Integrated modeling of friction stir welding of 6 series Al alloys: Process, microstructure and properties. In: Progress in Materials Science, Vol. 57, no. 1, p. 95-183 (2012). doi:10.1016/j.pmatsci.2011.05.003. http://hdl.handle.net/2078.1/105610

34. Avendano Franco, Guillermo; Piraux, Bernard; Grüning, Myrta; Gonze, Xavier. Time-dependent density functional theory study of charge transfer in collisions. In: Theor Chem Acc, Vol. 131, p. 10p. (2012). doi:10.1007/s00214-012-1289-5. http://hdl.handle.net/2078/123759

35. Espejo, C.; Rangel Gordillo, Tonatiuh; Pouillon, Y.; Romero, A.H.; Gonze, Xavier. Wannier functions approach to van der Waals interactions in ABINIT. In: Computer Physics Communications, Vol. 183, p. 480-485 (2012). doi:10.1016/j.cpc.2011.11.003. http://hdl.handle.net/2078/123806

36. Matsuura, Anne; Thrupp, Nicola; Gonze, Xavier; Pouillon, Y.; Bruant, G.; Onida, G. The ETSF : an e-infrastructure to bridge simulation and experiment. In: Computing in Science & Engineering : the bimonthly magazine of computational tools and method, Vol. 14, p. 22-32 (2012). doi:10.1109/MCSE.2011.76. http://hdl.handle.net/2078/123823

37. Zwanziger, J.W.; Galbraith, J.; Kipouros, Y.; Torrent, M.; Giantomassi, Matteo; Gonze, Xavier. Finite homogeneous electric fields in the augmented plane wave formalism : applications to linear and nonlinear response. In: Computational Materials Science, Vol. 58, p. 113-118 (2012). doi:10.1016/j.commatsci.2012.01.028. http://hdl.handle.net/2078/123825

38. Leroux, Stéphane; Gonze, Xavier. Accurate quantum-mechanical evaluation of the electric polarization of periodic solids using a multi-step method. In: Computational Materials Science, Vol. 63, p. 312-318 (2012). doi:10.1016/j.commatsci.2012.06.022. http://hdl.handle.net/2078/123827

39. Rohling, E.J.; Sluijs, A.; Dijkstra, H.A.; Köhler, P.; Van De Wal, R.S.W.; Von Der Heydt, A.S.; Beerling, D.J.; Berger, André; Bijl, P.K.; Crucifix, Michel. Making sense of palaeoclimate sensitivity. In: Nature : international weekly journal of science, Vol. 491, p. 683-691 (2012). doi:10.1038/nature11574. http://hdl.handle.net/2078.1/118863

40. Duponcheel, Matthieu; Manconi, Moïse; Bricteux, Laurent; Winckelmans, Grégoire; Bartosiewicz, Yann. Assessment of different RANS approaches and near wall modeling strategies for the prediction of turbulent heat transfer in liquid metals: comparison with DNS and LES. 20th International Conference on Nuclear Engineering (ICONE20) (Anaheim, Californie, USA, du 30/07/2012 au 03/08/2012). http://hdl.handle.net/2078.1/120175

41. Berger, André; Yin, Qiuzhen. Modeling the interglacials of the last one million years. In: A. Berger, F. Mesinger, D. Sijacki, Climate change at the eve of the second decade of the century. Inferences from paleoclimates and regional aspects , Springer, 2012, 57-64. 978-3-7091-0972-4. doi:null. http://hdl.handle.net/2078/119054

42. Lherbier, Aurélien; Dubois, Simon M.-M.; Declerck, Xavier; Niquet, Yann-Michel; Roche, Stephan; Charlier, Jean-Christophe. Transport properties of graphene containing structural defects. Physical review. B, Condensed matter and materials physics — Vol. 86, no.075402, p. 1-18 (2012).
http://hdl.handle.net/2078/117951

43. Goosse, Hugues; Crespin, Elisabeth; Dubinkina, Svetlana; Loutre, Marie-France. The role of forcing and internal dynamics in explaining the ‘‘Medieval Climate Anomaly’’. Climate Dynamics : observational, theoretical and computational research on the climate system — Vol. 39, p. 2847-2866 (2012).
http://hdl.handle.net/2078.1/119140

44. Fayt, André. High resolution FTIR spectrum of cyanogen iodide between 200 and 5000 cm-1. Global rovibrational analysis of IR and MW data for I(12)C(14)N, Journal of Quantitative Spectroscopy & Radiative Transfer — Vol. 113, no.11, p. 1170-1194 (2012).
http://hdl.handle.net/2078/114122

45. Fayt, André; Jolly, A.; Yenilan, B.; Manceron, L.; Kwabia-Tchana, F.; Guillemin, J.C. et al. Frequency and intensity analyses of the far infrared nu(5) band system of Cyanogen (C(2)N(2)) and applications to Titan. Journal of Quantitative Spectroscopy & Radiative Transfer - Vol. 113, no.11, p. 1195-1219 (2012).
http://hdl.handle.net/2078/114123

46. Aline Sliwa, Georges Dive*, Jacqueline Marchand-Brynaert
``12- to 22-membered bridged b-lactams as potential penicillin-binding protein inhibitors''
Chemistry, an asian journal 7, pp 425-434 (2012).

Contact: GDive@ULg.ac.be

47. A. Sliwa, G. Dive, A. Zervosen, O. Verlaine, E. Sauvage, J. Marchand-Brynaert
``Unprecedented inhibition of resistant penicillin binding proteins by bis-2-oxoazetidinyl macrocycles''
Med. Chem. Comm. 3, pp 344-351 (2012).

Contact: GDive@ULg.ac.be

48. Anne-Catherine Servais, Anne Rousseau, Georges Dive, Michel Frédérich, Jacques Crommen, Marianne Fillet
``Combination of capillary electrophoresis, molecular modelling and nuclear magnetic resonance to study the interaction mechanisms between single-isomer anionic cyclodextrin derivatives and basic drug enantiomers in a methanolic background electrolyte''
J. Chrom. A 1232, pp 59-64 (2012).

Contact: GDive@ULg.ac.be

49. Georges Dive, Raphaël Robiette, Aurélie Chenel, Mamadou Ndong, Christopher Meier, Michèle Desouter-Lecomte
``Laser control in open quatum systems: preliminary analysis toward th Cope rearrangement control in methyl-cyclopentadienlylcarboxylate dimer'' 
Theor. Chem. Acc. 131, pp 1236-11 (2012).

Contact: GDive@ULg.ac.be

50. Hogenraad, R. L.
``The fetish of archives. Springer''
http://dx.doi.org/10.1007/s11135-012-9778-0 , pp - (2012).
Contact:robert.hogenraad@uclouvain.be

51. Valery Mezoui Ndo, Luc Owono Owono, Bernard Piraux, Samira Barmaki, Morten Førre and Henri Bachau
``Nuclear interference processes in the dissociation of H2+in short vuv laser fields''
PHYSICAL REVIEW A 86, pp 013416- (2012).
Contact: bernard.piraux@uclouvain.be

52. Frédéric Bruyneel, Georges Dive, Jacqueline Marchand-Brynaert
``Non-symmetrically substituted phenoxazinones from laccase-meditated oxidative cross-coupling of aminophenols: an experimental and theoretical insight''
Org. Biomol. Chem. 10, pp 1834-1846 (2012).

Contact: GDive@ULg.ac.be

53. Hermine Zime-Diawara, Georges Dive, Géraldine Piel, Mansourou Moudachirou, Michel Frédérich, Joëlle Quetin-Leclercq, Brigitte Evrard
``Understanding the interactions between artemisinin and cyclodextrins: spectroscopic studies and molecular modeling ''
J. Incl. Phenom. Macrocycl. Chem. 74, pp 305-315 (2012).

Contact: GDive@ULg.ac.be

54. A.G. Galstyan, O. Chuluunbaatar, Yu.V. Popov et B. Piraux
``Effects of photon momentum in non relativistic (gamma,2e) processes''
Physical Review A 85, pp 023418-5 (2012).

Contact: bernard.piraux@uclouvain.be

55. Johannes Eiglsperger, Moritz Schönwetter, Bernard Piraux, Javier Madroñero
``Spectral data for doubly excited states of helium with non-zero total angular momentum''
Atomic Data and Nuclear Data Tables 98, pp 120-148 (2012).

Contact: bernard.piraux@uclouvain.be

56. Valery Mezoui Ndo, Luc Owono Owono, Bernard Piraux, Samira Barmaki, Morten Foerre et Henri Bachau
``Nuclear interference processes in the dissociation of H2+ in short vuv laser fields''
Physical Review A 86, pp 013416-10 (2012).
Contact: Bernard.piraux@uclouvain.be

57. Guillermo Avendaño-Franco, Bernard Piraux, Myrta Grüning et Xavier Gonze
``Time-dependent density functional theory study of charge transfer in collisions''
Theor. Chem. Acc 131, pp 1289-10 (2012).

Contact: bernard.piraux@uclouvain.be

58. L. Malegat, H. Bachau, B. Piraux et F. Reynal
``A novel estimate of the two-photon double-ionization cross section of helium''
Journal of Physics B 45, pp 175601-13 (2012).
Contact: bernard.piraux@uclouvain.be