CISM


Logo



Rapport d'activité 2009

de la plate-forme technologique CISM


illustration2008

Rédigé par Fabrice Charlier, Bernard Van Renterghem et Thomas Keutgen (responsable)
version www disponible à l'adresse http://www.cism.ucl.ac.be/Administration/Rapports/rapport2009/index.html


Le présent rapport a pour but de fournir un résumé des activités de la plate-forme technologique Calcul Intensif et Stockage de Masse (CISM) et de l'équipe qui en gère les équipements, pour l'année 2009. Le lecteur disposant de la version imprimée est invité à consulter la version électronique où les hyperliens donnent accès aux références de ce rapport. Il fait suite aux rapports annuels d'activités du CISM depuis 2004 et à ceux du Comité du Calcul Intensif (CCI) qui était en place avant l'existence du CISM. Les faits saillants de l'année 2009 y sont extraits d'une masse brute de procès-verbaux et de statistiques.

Pour rappel, l'équipe de gestion assure la maintenance quotidienne des équipements ainsi que le support aux utilisateurs, sous la responsabilité du Directeur du CISM. Le Conseil de direction du CISM, composé des représentants de tous les utilisateurs, de l'équipe de gestion et présidé par un académique nommé pour 4 ans, se réunit régulièrement pour définir les stratégies à moyen et long terme, préparer les éventuels projets et évaluer le fonctionnement de l'institut. Les procès-verbaux de ces réunions sont disponibles pour les membres de la communauté universitaire.

1. 2009 en bref

En 2009, le CISM est devenu une plate-forme technologique dépendant du secteur des sciences et technologies de l'UCL. Sa direction est assurée par un ingénieur de recherche et la présidence du conseil de direction, par un académique élu pour quatre ans. L'équipe de gestion, composée de quatre membres, a déménagé au bâtiment Marc de Hemptinne afin de se regrouper dans des bureaux proches. Au niveau des infrastructures, 2009 a vu la machine GREEN, acquise en 2008 en partenariat avec l'unité PCPM, devenir pleinement opérationnelle et mettre, de manière intensive, ses 816 coeurs au service des utilisateurs. Son taux d'occupation fut tout de suite proche du maximum. Malgré sa vétusté, la grappe Lemaitre reste un outil fort convoité en particulier pour son interconnexion Infiniband favorisant le calcul parallèle. Cette infrastructure a pu être renforcée par 96 nouveaux coeurs. Un second renforcement est prévu en 2010 en attendant son remplacement complet en 2011. En ce qui concerne les autres faits saillants de cette année 2009, nous noterons: le renforcement des installations de l'Aquarium (section 2.1), l'augmentation de la puissance de calcul de Lemaitre (section 2.3) et le déclassement de serveurs plus anciens (section 2.6); la poursuite des formations pour les utilisateurs (section 4); l'implication du CISM dans divers projets du SGSI (section 5.2) et enfin, sa collaboration dans le projet d'ouverture interuniversitaire des gros équipements de calcul intensif au niveau de la communauté française (section 5.3).
  49 publications ont bénéficié de l'apport essentiel des infrastructures CISM en 2009, voir annexe C.

2. Matériel et infrastructure

En fin d'année 2008, une nouvelle grappe de calcul avait été déployée, à l'initiative de l'unité PCPM, ajoutant à l'infrastructure déjà en place 816 nouveaux coeurs de calcul. En 2009, 96 coeurs interconnectés en Infiniband sont venus renforcer la grappe Lemaître qui voit sa capacité augmenter ainsi de 256 à 352 processeurs optimisés pour le calcul parallèle. Ce renforcement s'est réalisé avec la contribution de l'unité ASTR. Cet ensemble représente, avec les ressources d'Ingrid (TIER-2 belge à l'UCL) ouvertes aux utilisateurs du CISM, une puissance théorique cumulée de 11.5 Tflops. Un tableau récapitulatif est présenté en annexe A.

Aujourd'hui, le service de stockage de masse met à la disposition de l'ensemble de la communauté universitaire un espace en ligne de plus de 82 terabytes (TB). L'espace de stockage sur disque est réparti sur quatre serveurs: diskus (12,2TB), lmftp (23,9TB), lmstor (10,7TB) et Storage02 (36TB). Lmftp et lmstor font partie de l'infrastructure du projet FNRS2004 "Lemaitre". Ces machines plus anciennes, de même que diskus, devront faire l'objet d'un remplacement en 2010. Un tableau récapitulatif est présenté en annexe B.

2.1. L'aquarium : la salle informatique B012 (PYTH02)

La salle "Aquarium" B012 (PYTH02) du Bâtiment Pythagore, née des besoins conjoints de  SGSI/SIPR et du CISM, est un noeud vital de l'infrastructure informatique de l'UCL. Le système refroidissement par eau retenu par les services techniques de l'UCL est sûr et performant. L'alimentation électrique redondante (à partir de deux cabines de transformation) ainsi qu'un onduleur protègent efficacement une série d'équipements critiques.

Les limitations en terme d'espace utilisable dans les armoires et en puissance de refroidissement dans les armoires ne nous permettaient plus d'évoluer ni de prévoir, le cas échéant, le remplacement de la grappe Lemaître par une machine plus puissante. Nous avons donc demandé à l'ADPI et à GTPL de chiffrer et planifier le renforcement de la salle.
Dans un premier temps, il était important de renforcer la dalle sur laquelle les armoires sont posées. En effet, de résistance limit
ée, elle ne nous permettait pas de remplir les armoires au maximum. Des travaux ont été effectués en 2009 et aujourd'hui, après redistribution des serveurs, une armoire entière a pu être libérée.
Dans un second temps, en concertation avec les informaticiens de SIPR qui ont les mêmes besoins que nous en terme de puissance de refroidissement, nous avons demandé l'installation d'un troisième groupe frigo et de 15 nouveaux modules de refroidissement. Cet aménagement doit nous permettre d'augmenter de 8 à 12 kW la puissance de refroidissement de chacune des 14 armoires de l'Aquarium et, également, d'assurer une ventilation optimale des serveurs.
Enfin, afin d'adapter cette installation aux exigences de serveurs actuels (plus longs) les portes arrières des armoires seront remplacées. Les nouvelles portes devraient nous faire gagner jusqu'à 15 cm de profondeur. On se rapprochera ainsi de la profondeur que l'on retrouve dans notre nouvelle salle au de Hemptinne.
L'accomplissement de ces travaux est pr
évu pour la fin de l'année 2010.

2.2. La salle Tier-2 : la salle informatique Cyclotron (Marc de Hemptinne)

Les prévisions de croissance de l'infrastructure TIER-2 à l'UCL rendaient le déploiement d'une nouvelle salle informatique indispensable. Dans le cadre de l'accord de partenariat avec l'unité FYNU et fort de l'expérience acquise avec  GTPL lors de l'installation de "l'Aquarium", le CISM a participé à la conception d'une nouvelle salle. SIPR est un membre du projet, et bénéficie ainsi d'une deuxième salle des machines (double localisation de serveurs critiques). Cette nouvelle salle a été construite dans le bâtiment Marc de Hemptinne et est opérationnelle depuis mai 2008.
Pour une puissance totale de refroidissement de 160 kW, 16 armoires ont été partagées entre FYNU (10), SIPR(4) et le CISM(2). Les deux armoires occupées par le CISM hébergent le nouveau cluster Green et les 36TB de stockage Storage02.
Cette première année de fonctionnement s'est avérée un peu laborieuse. En effet, le système production d'eau froide et les échangeurs air/eau, pourtant identiques à ceux choisis à l'Aquarium, n'ont pas montré la même fiabilité. De nombreuses pannes ont provoqué, surtout dans les premiers mois de fonctionnement, des coupures prolongées (quelques jours) de nos serveurs. Cette situation semble cependant se stabiliser au fur et à mesure que les défauts détectés sont corrigés.
En 2009, la bande passante entre nos installations de l'Aquarium et de la salle TIER-2 a été augmentée par le SRI à 1 Gb/s. Cette nouvelle connexion permet un accès optimal à notre nouvel espace de stockage.

2.3. La grappe Lemaitre

En 2005, Lemaitre était un outil puissant et depuis son installation,  il permet aux membres de l'UCL et à d'autres institutions (voir la coopération interuniversitaire) de réaliser de nombreux travaux scientifiques qui ne pourraient pas être entrepris sur une petite infrastructure.
L'intérêt de  Lemaitre n'a pas diminué après l'installation de Green, pourtant 5 fois plus puissant. En effet, une interconnexion rapide et à faible latence (Infiniband) permet de tourner des applications largement distribuées. Ce que ne permet pas une interconnexion classique de type Gigabit Ethernet, qui équipe la grappe Green. Les jobs parallèles importants sont d'ailleurs favorisés sur Lemaitre par la mise en place d'une queue "large_parallel" de 64 processeurs.
Depuis 2005, la puissance maximale théorique de Lemaitre n'a augmenté que de 18%, grâce à l'ajout de serveurs de calcul particuliers (SMP, mémoire vive de 128GB).
Cette année, une contribution de l'unité ASTR a permis d'augmenter la puissance de Lemaitre de 51%, à 2577.9 GFlops.
Douze HP Proliant équipés de Processeurs Intel Xeon Nehalem L5520 cadencés à 2.27GHz et de 24GB de mémoire vive, soient 96 coeurs, 384 GB RAM et 16 TB d'espace disque (lmexec-241 à lmexec-252) sont mis en place. L'intérêt de ces nouveaux serveurs ne réside pas seulement en leur puissance intrinsèque mais surtout en leur connectique Infiniband encore plus rapide. En effet, ces machines sont équipées de connexion 4xDDR à 20Gb/s alors que les anciens noeuds disposent de connexion 2xDDR à 10Gb/s).

2.4. La grappe Green

Cette grappe est consituée de 6 chassis Blade Dell  M1000e équipés chacun de 16 dual quad-core Xeon L5420 cadencés à 2.5GHz  par blade, dont la moitié dispose de 16GB RAM et l'autre moitié de 32GB RAM. Il faut encore ajouter 6 serveurs Dell équipés des mêmes processeurs et de 16GB RAM. Green dispose donc de 816 core, fournissant 8.16 Tflops de puissance théorique maximale, pour une consommation électrique ne dépassant pas 24 kW. En fin d'année, un réagencement de serveurs dans trois armoires au lieu de deux a permis une meilleure répartition de la charge de consommation. En effet, la puissance de 11 kW consommée dans une des deux armoires approchait la valeur maximale tolérée par le système de refroidissement.

2.5. Les systèmes de stockage de masse

Les quatre serveurs  diskus.cism.ucl.ac.be, storage.cism.ucl.ac.be (lmstor), lmx.cism.ucl.ac.be (lmftp). et storage02.cism.ucl.ac.be fournissent à la communauté universitaire 82 TB d'espace disque en ligne.

Cet espace disque est sécurisé: La configuration RAID des armoires tolère la panne de disques, remplaçables à chaud. De plus, la récupération en cas de désastre est assurée par la délocalisation des serveurs (diskus, storage et lmx au Pythagore et storage02 au Marc de Hemptinne) et la mise en place d'un système de réplication des données (activé uniquement si l'utilisateur le souhaite).
Diskus ne changera plus dans sa configuration jusqu'à son déclassement prévu pour le courant 2010. Situé initialement au Pierre Curie (A128) , il a dû être déménagé au Pythagore, car le bâtiment Pierre Curie va subir d'importants travaux avant sa nouvelle affectation. Il offre une capacité nette de 12,2 TB. Sa technologie est plus ancienne (serveur datant de 2004, disques SCSI de 146 GB,...).
Storage pilote un StorEdge 3511 d'une capacité nette de 10.7 TB ( /stor3511 7.1TB et /mirror 3.6TB) utilisée directement dans l'infrastructure de calcul Lemaitre.
lmx "Lemaitre stockage" dispose de 18 TB et enfin, Storage02 offre 36 TB, essentiellement  pour déposer les résultats des simulations de climatologie de l'unité ASTR.

2.6. Déclassement des serveurs plus anciens

En  fin d'année, Turing et  la grappe Decci ont été déclassés.
Turing tournait sans avoir rencontré le moindre incident depuis 10 ans et continuait à être utilisé. Néanmoins, sa puissance de calcul était négligeable face à sa consommation (songeons à la "loi de Moore" qui postule que la densité des transistors, de pair avec la puissance des processeurs, double tous les 18 mois!).
De même Decci, une grappe de serveurs Alpha acquise en fin 2000, n'avait plus vraiment de raison d'être laissée en activité pour les mêmes raisons que Turing. Seul decci11 sera maintenu pour offrir une architecture originale et 32GB de RAM (ce qui n'est pas négligeable).

3. Le CISM, nouvelle plate-forme technologique

Jusqu'à fin 2008, l'Institut du Calcul Intensif et de Stockage de Masse a offert aux scientifiques de l'Université un service de qualité en mettant à leur disposition un outil de calcul et de stockage performant. Les utilisateurs se sont montrés satisfaits tant pour les services rendus par l'Institut que pour son système de gouvernance qui les intègre directement dans les décisions prises. Le concept de « gestion avec les utilisateurs, pour les utilisateurs » est à l'origine du succès du CISM.
Fin 2008, afin de maintenir ce service de qualité tout en nous adaptant aux nouvelles structures qui se mettent en place à l'UCL, nous avons proposé aux autorités, avec le soutien des chefs des unités concernées par le CISM, de convertir notre Institut en plate-forme technologique. Cette proposition a été favorablement accueillie par les autorités de l'Université et cette conversion est devenue officielle en 2009.
Sans rentrer dans les détails abordés dans le rapport 2008, on peut signaler que notre nouvelle plate-forme a rempli correctement son rôle et a pu maintenir, dans ses nouvelles structures, la qualité de son service aux utilisateurs.

4. Formations

Comme les années précédentes, la formation et le suivi personnalisé des nouveaux utilisateurs ont été poursuivis, en complément de l'auto-information permise par le site Web. L'ouverture interuniversitaire apportée par David Colignon, le collaborateur logistique du F.R.S.-FNRS CECI - Consortium des Equipements de Calcul Intensif, s'est poursuivie lors de ces formations: D. Colignon a donné trois formations (MPI et OpenMP) sur les neuf aux 15 chercheurs inscrits, dont 4 ULB, 2 ULg et 2 UMons.
 La salle de formation a continué de remplir son rôle: l'équipe du CISM a dispensé une série de  séances pratiques (d'octobre à décembre 2009)
Cette salle ne sera plus disponible pour les années prochaines car le bâtiment Pierre Curie va subir de profonds remaniements et accueillera les bureaux des services du SGSI.

La dernière formation avait pour but de présenter aux utilisateurs du Calcul Intensif la nouvelle infrastructure mise en place à l'UCL pour s'intégrer à l'environnement BeGrid et ainsi pouvoir s'y authentifier et  y soumettre des jobs.
La séance d'introduction à UNIX/Linux a également été dispensée dans le cadre du cours MAPR2451, en février 2009.

5. Actions et contacts hors-CISM

5.1. Le GRID à l'UCL

La coopération FYNU-CISM

Le projet TIER-2 belge a été accepté au début 2006 et consiste à se doter des moyens nécessaires à l’acquisition et au fonctionnement d’un noeud de calcul destiné à être intégré dans la grille mondiale de calcul WLCG (Worldwide LHC Computing Grid), pour le stockage et l’analyse de données des expériences auprès du Large Hadron Collider du CERN. Le TIER-2 belge est constitué de deux sites séparés, l’un à l’UCL et l’autre à l’Institut Interuniversitaire des Hautes Energies IIHE de l’ULB/VUB.
L'accord de partenariat établi en 2006 entre l'unité FYNU et le CISM s'est poursuivi. La nouvelle salle TIER-2 étant en fonctionnement depuis 2008, le CISM a essentiellement collaboré dans la surveillance du système en régime. L'installation TIER-2  baptisée "Ingrid" est ouverte aux utilisateurs du CISM, à concurrence d'environ 10% de la puissance totale, soit environ 478 Gflops actuellement.

La participation au projet BeGrid

Suite au succès des tests effectués en 2008 sur la portabilité des logiciels ABINIT et OCTOPUS sur la grille, travail qui a fait l'objet d'une présentation au « BeGrid seminar 2009 » à Bruxelles (Micael Oliveira: Gridification and use of ABINIT and OCTOPUS), le CISM a décidé de rentrer dans la collaboration BeGrid et partager, de façon coordonnée avec le CÉCI (voir plus bas), une partie de ses ressources avec eux.
Pour ce faire, une installation locale était nécessaire. Différents serveurs devaient être configurés pour s'intégrer à BeGrid. Huit machines SUN V60, offertes par le FUNDP, ont été utilisées à cette fin. Cette installation locale nous permet aujourd'hui de soumettre des tâches sur la grille à partir d'un serveur d'accès à l'UCL et de nous associer à des « Virtual Organization » (VO), aux objectifs scientifiques.
Comme déjà mentionné plus haut, un tutorial BeGrid a été ajouté à nos formations afin de présenter ce nouvel outil à nos utilisateurs.

5.2. L'implication des informaticiens CISM dans le SGSI

Les membres de l'équipe de gestion sont également membres associés du SGSI. Ils suivent avec attention et se conforment aux décisions prises par les autorités en terme d'orientation du Système de l'Information. Ils s'impliquent activement dans des projets et assistances rapprochées, où leurs domaines d'expertise peuvent être utiles (configuration de serveurs, gestion de grosse quantité de données,...). En 2009, cette collaboration a été très importante.
Le CISM a signé un contrat de service d'une durée de 10 mois (mars – décembre 2010) pour 0.4 ETP  avec l'entité SIPR du SGSI. Cette entité a en charge la gestion de l'infrastructure informatique du SGSI (serveurs mails, serveurs de bases de données, infrastructure SAP, ...). L'objectif de ce contrat de service était l'étude, le test et le déploiement en production d'une solution de répartition de charge basée sur des solutions open-sources.

Lors de la mise en place de l'infrastructure informatique de l'Université sous sa forme actuelle, la solution propriétaire Sun Nauticus s'était présentée comme un choix technologique adéquat pour assurer cette mission de répartition de charge. Avec l'accroissement de cette infrastructure et le nombre d'utilisateurs toujours en augmentation, cette solution ne donnait plus entière satisfaction et était la cause de nombreux soucis de manière directe ou indirecte. Un projet a donc été mis en chantier afin de pourvoir au remplacement de ce matériel. Dans le but d'éviter que la nouvelle solution soit aussi une « appliance » de type boîte noire donnant peu (ou pas) de visibilité sur son fonctionnement interne, ce projet a donné la priorité aux solutions open-sources.

Dans le cadre de ce projet, un étudiant en Informatique de l'Institut Paul Lambin, Fabien Duchêne, est venu réaliser son mémoire en SIPR afin d'effectuer une première étude des solutions open-sources de répartition de charge disponibles. A la suite de ce travail, Fabrice Charlier a pris ce projet en main et a effectué des tests plus approfondis de la solution qui avait été dégagée par l'étudiant. Les différents tests effectués étant tous positifs, la mise en production de cette solution a été décidée pour un seul des composants de l'infrastructure dans un premier temps. Cette première migration ayant permis de régler les derniers détails, le service Mail et Annuaire LDAP ont ensuite été basculés sur cette nouvelle solution.

A l'heure actuelle, la majorité des services critiques de l'Université utilisent la nouvelle infrastructure de répartition de charge et le déclassement de la solution Sun Nauticus a été programmé pour l'année 2010.

5.3. Projet d'ouverture interuniversitaire des installations de calcul intensif de la communauté française.

Pour rappel, Le CÉCI - Consortium des Équipements de Calcul Intensif - a été mis sur pied suite à la décision du F.R.S.-FNRS de soutenir le projet "Ouverture interuniversitaire des gros équipements de calcul intensif en Communauté française: accès, formation, information, technologie Grid, inventaire et synchronisation des ressources matérielles et logicielles", en permettant l'engagement d'un logisticien, le Dr. David Colignon, en mars 2008.
Le comité de coordination, comportant des représentants de chacun des gros équipements du CÉCI, s’est réuni dès 2007 pour mettre en place un bureau dont la mission est de piloter les actions du logisticien.

En 2009, un avenant a été déposé au FNRS, pour ce projet, demandant l'engagement d'un second logisticien chargé de l'étude des aspects techniques de la mise en commun d'équipements de calcul intensif entre les institutions présentes dans le Consortium (FUNDP, UCL, ULB, Ulg et UMH). Cette demande a été approuvée par le FNRS et un nouveau logisticien viendra soutenir le travail du Dr. David Colignon dès mars 2010.
Ce partage de ressources nécessite la signature d'un accord de Consortium. Ce document est en cours de rédaction.
D'autre part, afin d’encadrer les échanges scientifiques, un groupe de contact « Calcul Intensif » FNRS a été créé dès juillet 2008. B. Champagne (FUNDP) en est le président et D. Colignon le secrétaire. Le 8 mai 2009, une première journée scientifique a été organisée à l'ULB. Cette journée a réuni environ 50 participants qui ont pu partager leur expérience dans l'utilisation du calcul intensif dans leurs projets de recherche. La prochaine journée aura lieu à Mons en avril 2010.
Enfin, en ce qui concerne les équipements, le CÉCI a soutenu le projet de B. Piraux, D. Peeters et H. Goosse (UCL) pour l'achat de serveurs à haute capacité mémoire (512 GB). Un budget a été octroyé par le FNRS pour l'acquisition de ces serveurs qui seront hébergés par le CISM. En contrepartie, l'UCL s'engage à partager 50% de la machine avec les chercheurs des autres membres du Consortium.
Pour l'avenir, un plan interuniversitaire pluriannuel d'investissement est en préparation. Ce plan a pour but d'expliquer comment nous envisageons le renforcement du calcul intensif en communauté française de Belgique ces prochaines années. Dans ce projet, les demandes de financement n'émaneraient plus de promoteurs de recherche mais du CÉCI lui-même. Ces équipements seraient alors ouverts à 100% à tous les membres du Consortium. Ce plan sera soumis au FNRS fin 2010. 
Pour plus de détails sur le CÉCI, nous vous invitons à visiter le site: « http://hpc.montefiore.ulg.ac.be ».

6. 2009 et au delà...

Plusieurs unités, en particulier PAMO et CHIM, avaient émis le besoin d'acquérir une machine SMP de grande mémoire partagée (512 GB). Une demande de financement, soutenue par les membres du CÉCI, a donc été soumise aux autorités de l'UCL et envoyée au FNRS. L'objectif était de mettre en place, pour 2010, une ou plusieurs machines de ce type au service des utilisateurs de l'UCL et des membres du Consortium. Le budget est maintenant disponible et un appel d'offres devrait être déposé en mars ou avril de cette année. Un mode de fonctionnement garantissant le partage équilibré de ces machines doit encore être mis en place. Cela devra faire partie de l'accord de Consortium mentionné plus haut.

Aujourd'hui, Lemaître entre dans sa cinquième année. Cette machine arrive donc non seulement en fin de période de support mais surtout devient trop ancienne pour répondre efficacement aux demandes croissantes de nos utilisateurs. Or, ce type de machine et, en particulier, son mode d'interconnexion (Infiniband) est incontournable pour effectuer des tâches du type parallèle. Certains utilisateurs se plaignent même de ne pas pouvoir appliquer leurs processus parce que le nombre de noeuds disponibles pour le calcul parallèle est insuffisant. Aujourd'hui, il n'est plus rare d'exécuter des tâches parallèles sur des centaines de coeurs.   

Le remplacement de Lemaître par une machine plus puissante est donc, à terme, indispensable.  Ce remplacement sera débattu au sein du CÉCI pour qu'il soit intégré dans son plan pluriannuel.

Dans l'optique de maintenir un service de qualité à nos utilisateurs, il est important de pouvoir nous adapter à l'évolution des technologies dans le monde du calcul intensif. Actuellement, la tendance est à l'augmentation du nombre de processeurs disponibles par machine et même, par unité rackable (espace minimum occupé par un serveur dans une armoire). Même si les processeurs actuels offrent toujours plus de performance pour moins de puissance dissipée, leur densité croissante conduit les machines d'aujourd'hui à devenir plus profondes et surtout, plus energivores. C'est dans cette optique que nous avons entamé l'amélioration des installations de refroidissement de la salle Aquarium.

Enfin, notre rôle de plate-forme technologique s'exerçant aujourd'hui déjà à travers les différents secteurs de l'Université, notre activité pourrait s'ouvrir à l'ensemble des utilisateurs de la nouvelle académie, en collaboration rapprochée avec les autres entités de calcul intensif de cette nouvelle institution.

Annexe A: tableau récapitulatif des différents serveurs de calcul.

Par rapport à 2008, l'offre de puissance est restée relativement stable (+7,5%) en attendant les nouveaux projets de 2011: le CISM gère un total de 5 infrastructures différentes, disposant ensemble de 1284 coeurs, de 4008 GB de RAM et de 48 TB d'espace disque, offrant une puissance théorique maximale d'un peu plus de 11,4 Tflops.

Nom

#noeuds

#core/noeuds

#core

GFlops tot (peak)

RAM/noeud (GB)

Espace disque (GB)

architecture

Mis en service

Turing
déclassé 11/09

1

8

8

11.56

4

81

HP N4000 PA Risc8000/360MHz

02/00

Decci1-6
déclassé 01/10

6

4

24

33.74

4

1956

Compaq ES40 Alpha ev67/667MHz

12/00

Decci11

1

4

4

9.93

32

56

Compaq ES45 Alpha ev68/1250MHz

01/03

Chpit

1

4

4

24

8

62

HP rx4640 Itanium2 1500MHz

12/03

Deccint
déclasse 01/10

1

2

2

2.8

4

64

Microway Alpha ev67/667MHz

10/04

Max (PCPM)
18 2 36 228 4 2946 Mac Xserve bi G5/2GHz
01/05
Cauchy (PAMO)
1 4 4 20.8 32
146
SUN V40z 4 AMD Opteron 852/2.6GHz
07/05
Lemaitre front-end 1 4 4 19.2 8 146 + 1200 (/fast) + 5900 (/home)
SUN V40z 4 AMD Opteron 850/2.4GHz 09/05
Lemaitre exec nodes 128 2 256 1331.2 4 9344 SUN V20z 2 AMD Opteron 252/2.6GHz 09/05
Lemaitre SMP
2 8
16 70.4 32 et 64
600
SUN V40z 4 Dual Core AMD Opteron 875/2.2GHz 09/05
Lm8 (INMA)
1 4 4 20.8 32 219 SUN V40z 4 AMD Opteron 852/2.6GHz 12/05
Lm140 1 16 16 83.2 64 144 SUN Galaxy X4600 8 Dual Core AMD Opteron 885/2.6GHz
09/06
Ingrid (FYNU)
7
+
16
+
17

+
32
2

8

4


8
14

128

68


256
61.6

1536

625.6


2560
( tot 10% CISM = 478.3)

4

4

16


16
511

25TB

20TB


3x36TB
SUN V20z 2 AMD Opteron 252/2.2GHz

SuperMicro Twin 2 QuadCore Intel Xeon 3GHz

Dell DualCore Intel Xeon 5345 2.3GHz

Blade HP Dual QuadCore Intel Xeon L5420/2.5GHz
01/07



09/07

09/08
Green (PCPM)
103 8 824 8240 47 à 16
56 à 32
11TB
(/home)
102 (+front-end) Dual Quad-Core Xeon L5420/2.5GHz in Dell Blade M1000e
09/08
Lm143-Lm144-Lm145
(PCPM)
3 8 24 144 128 1TB 3 Transtec Calleo530 4 Dual Core AMD Opteron 8222SE/3GHz
10/08
Cauchy2 (PAMO) 1 4 4 36.8 64 860 SUN Galaxy X2200 2 Quad-Core AMD Opteron 2356/2.3GHz
11/08
Lm241 à Lm252
(ASTR)
12 8
96
872
24
16TB 12 HP Proliant 2 Quad-Core Intel Xeon L5520/2.27GHz
10/09

Annexe B: tableau récapitulatif des différents serveurs de stockage de masse.

Le CISM offre un espace de stockage en ligne de 82TB, réparti principalement sur 4 serveurs: diskus, storage, lmftp et storage02.

Nom

type de serveur

type de stockage

Espace (GB)

Mis en service

Diskus
HP Proliant
2 Xeon/2.8GHz 1GB RAM
Armoires à disques
1. HP StorageWorks 302969-B21, 3 inclosures (3x14 disques SCSI 146GB)
2. HP MSA20 335921-B21, 2 inclosures (2x12 disques SATA 250GB), 1 inclosure (12 disques SATA 500GB)
12,2TB
02/04
Storage
(lmstor)
SUN Galaxy X4100
AMD Opteron 252/2.6GHz 4GB RAM
Armoires à disques Sun StorEdge FC-AL 3511 (48 SATA 400GB 19,2TB brut) 7.1TB (/stor3511)+
3.6TB (/mirror)

10/06
Lemaitre ftp (lmx) SUN Galaxy X4200 2 dual core AMD Opteron 2.6GHz  16GB RAM
1x14 Fiber 146GB + 4x14 SATA 400GB 27,3TB brut + 1x16 SATA 500 GB 8 TB brut 03/07) 12TB+6TB (/storage) - 5.9TB /home sur lmx4500
+ 6TB ajouté à /storage
06/07
(6130: 06/06) +02/08
Lmx4500 SUN Galaxy X4500 2 dual core AMD Opteron 2.8GHz  16GB RAM 48 SATA 500 GB 10TB (/home) et 1.2TB (/fast)
02/08
Storage02 SUN Galaxy X4540 2 Quad core AMD Opteron 2.3GHz 32GB RAM
48 SATA 1TB, 36TB net
36TB (/storage) 12/08

Annexe C: Publications de résultats ayant été obtenus grâce aux machines du calcul intensif.

Les publications peuvent être consultées en ligne depuis la  base de donnée.


1. Francesco Contino, Hervé Jeanmart ``Study of the HCCI running zone using ethyl acetate'' SAE Technical Papers , pp 2009-01-0297-1 (11).
2. Urbach Allan, Dive Georges, Marchand-Brynaert Jacqueline ``Novel large ring 1,3 bridged 2-azetidinones as potential inhibitors of penicillin-binding proteins'' Eur. J. Org. Chem. 11, pp 1757-1770 (2009). Contact:GDive@ULg.ac.be
3. M. Frédérich, D. Delvaux, T. Gigliobianco, M. Gangolf, G. Dive, G. Mazzuchelli, B. Elias, E. De Pauw, L. Angenot, P. Wins, L Bettendorf ``Thiamylated adenine nucleotides. Chemical synthesis, structural characterization and natural ocurence'' FEBS avril, pp 1-13 (2009). Contact:GDive@ULg.ac.be
4. Sauvage E., Zervosen A., Dive G., Herman R., Amoroso A., Joris B., Fonzé E., Pratt R., Luxen A., Charlier P., Kerff F. ``Structural basis of the inhibition of class A beta-lactamases and penicillin-binding proteins by 6-beta-iodopenicillinate'' J. Am; Chem. Soc. 131, pp 15262-15269 (2009). Contact:GDive@ULg.ac.be
5. V. Rerat, G. Dive, A. Cordi, G. Tucker, R. Bareille, J. Amédée, L. Bordenave, J. Marchand-Brynaert ``aVb3 integrin-targeting Arg-Gly-Asp (RGD) peptidomimetics containing oligoethylene glycol (OEG) spacers'' J. Med. Chem. 52, pp 7029-7043 (2009). Contact:GDive@ULg.ac.be
6. R. Shaltaf, X. Gonze, M. Cardona, R.K. Kremer, and G. Siegle ``Lattice dynamics and specific heat of alpha-GeTe : theoretical and experimental study'' Phys. Rev. B 79, pp 075204-7 (2009). Contact:xavier.gonze@uclouvain.be
7. J. Dumont, R. Sporken, M. J. Verstraete, J. Ghijsen, and X. Gonze. ``Demixing processes in AgPd superlattices '' J. Phys.: Condens. Matter 21, pp 315002-11 (2009). Contact:xavier.gonze@uclouvain.be
8. S.M.-M. Dubois, Z. Zanolli, X. Declerck, and J.-C. Charlier ``Electronic properties and quantum transport in Graphene-based nanostructures'' THE EUROPEAN PHYSICAL JOURNAL B 72, pp 1-24 (2009). Contact:jean-christophe.charlier@uclouvain.be
9. R. Shaltaf, T. Rangel, M. Grüning, X. Gonze, G.-M. Rignanese, and D.R. Hamann ``Electronic properties of zircon and hafnon from many-body perturbation theory '' Phys. Rev. B 79, pp 195101-6 (2009). Contact:xavier.gonze@uclouvain.be
10. M. Grüning, A. Marini and X. Gonze ``Exciton-plasmon states in nanoscale materials : breakdown of the Tamm-Dancoff approximation'' Nanoletters 9, pp 2820-2824 (2009). Contact:xavier.gonze@uclouvain.be
11. X. Gonze, B. Amadon, P.M. Anglade, J.-M. Beuken, F. Bottin, P. Boulanger, F. Bruneval, D. Caliste, R. Caracas, M. Cote, T. Deutsch, L. Genovese, Ph. Ghosez, M. Giantomassi, S. Goedecker, D. Hamann, P. Hermet, F. Jollet, G. Jomard, S. Leroux, M. Mancini, S. Mazevet, M.J.T. Oliveira, G. Onida, Y. Pouillon, T. Rangel, G.-M. Rignanese, D. Sangalli, R. Shaltaf, M. Torrent, M.J. Verstraete, G. Zérah, J.W. Zwanziger ``ABINIT : first-principles approach to material and nanosystem properties '' Computer Physics Communications 180, pp 2582-2615 (2009). Contact:xavier.gonze@uclouvain.be
12. Cottin C, Lonfils T, Cocle R, Winckelmans G ``Roll-up of wing and propelled-wing wakes: time- and space-developing LES including comparisons to experiments'' International Workshop on Fundamental Issues Related to Aircraft Wakes. Marseille, France, May 27-29, 2008. Abstract in book of abstract Contact:timothee.lonfils@uclouvain.be
13. Monbaliu, J.-C.; Robiette, R.; Peeters, D.; Marchand-Brynaert, J. ``(R)-4-phenyloxazolidin-2-thione: an efficient chiral auxiliary for [4+2] cycloaddition of 1-aminodiene and activated phosphonodienophiles'' Tetrahedron Lett. 50, pp 1314-1317 (2009). Contact:raphael.robiette@uclouvain.be
14. Yin Q.Z., Berger A., and M. Crucifix ``Individual and combined effects of ice sheets and precession on MIS-13 climate'' Climate of the Past 5, pp 229-243 (2009). Contact:qiuzhen.yin@uclouvain.be
15. Z. Zanolli and J.-C. Charlier ``Defective carbon nanotubes for single-molecule sensing'' Physical Review B 80, pp 155447-155447 (2009). Contact:jean-christophe.charlier@uclouvain.be
16. S.M.-M. Dubois, Z. Zanolli, X. Declerck, and J.-C. Charlier ``Electronic properties and quantum transport in graphene-based nanostructures'' European Physical Journal B 72, pp 1-24 (2009). Contact:jean-christophe.charlier@uclouvain.be
17. S.M.-M. Dubois, Z. Zanolli, X. Declerck, and J.-C. Charlier ``Electronic properties and quantum transport in graphene-based nanostructures'' European Physical Journal B 72, pp 1-24 (2009). Contact:jean-christophe.charlier@uclouvain.be
18. E. Cruz-Silva, F. Lopez-Urias, E. Munoz-Sandoval, B.G. Sumpter, H. Terrones, J.-C. Charlier, V. meunier, and M. Terrones  ``Electronic transport and mechanical properties of phosphorus- and phosphorus-nitrogen-doped carbon nanotubes '' ACS Nano 3, pp 1913-1921 (2009). Contact:jean-christophe.charlier@uclouvain.be
19. J.-C. Charlier, L. Arnaud, I.V. Avilov, M. Delgado, F. Demoisson, E.H. Espinosa, C.P. Ewels, A. Felten, J. Guillot, R. Ionescu, R. Leghrib, E. Llobet, A. Mansour, H.-N. Migeon, J.-J. Pireaux, F. Reniers, I. Suarez-Martinez, G.E. Watson, and Z. Zanolli  ``Carbon nanotubes randomly decorated with gold clusters: from nano2hybrid atomic structures to gas sensing prototypes '' Nanotechnology 20, pp 375501-375501 (2009). Contact:jean-christophe.charlier@uclouvain.be
20. M. Moors, H. Amara, T. Visart de Bocarmé, C. Bichara, F. Ducastelle, N. Kruse, and J.-C. Charlier  ``Early-stages in the nucleation process for carbon nanotubes'' ACS Nano 3, pp 511-516 (2009). Contact:jean-christophe.charlier@uclouvain.be
21. DE KERCHOVE D'EXAERDE C., KRINGS G., LAMBIOTTE R., VAN DOOREN P., BLONDEL V. ``The role of second trials in cascades of information over networks'' Physical Review E 79, pp 016114 -7 (2009). Contact:c.dekerchove@uclouvain.be
22. Bouillon, S., M.A. Morales Maqueda, T. Fichefet, and V. Legat ``An elastic-viscous-plastic sea ice model formulated on Arakawa B and C grids'' Ocean Modell. 27, pp 174-184 (2009). Contact:thierry.fichefet@uclouvain.be
23. Crespin, E., H. Goosse, T. Fichefet, and M.E. Mann ``Causes of the 15th century Arctic warm event in a coupled climate model including data assimilation'' Climate of the Past 5, pp 389-401 (2009). Contact:thierry.fichefet@uclouvain.be
24. Jongma, J.I., E. Driesschaert, T. Fichefet, H. Goosse, and H. Renssen ``The effect of dynamic–thermodynamic icebergs on the Southern Ocean climate in a three-dimensional model'' Ocean Modell. 26, pp 104-113 (2009). Contact:thierry.fichefet@uclouvain.be
25. Renssen, H. H. Sëppa, O. Heiri, D.M. Roche, H. Goosse, and T. Fichefet ``The spatial and temporal complexity of the Holocene thermal maximum'' Nature Geoscience 2, pp 411-414 (2009). Contact:thierry.fichefet@uclouvain.be
26. Swingedouw, D., T. Fichefet, H. Goosse, and M.-F. Loutre ``Impact of transient freshwater releases in the Southern Ocean on the AMOC and climate'' Clim. Dyn. 33, pp 365-381 (2009). Contact:thierry.fichefet@uclouvain.be
27. Vancoppenolle, M., T. Fichefet, H. Goosse, S. Bouillon, G. Madec, and M.A. Morales Maqueda ``Simulating the mass balance and salinity of Arctic and Antarctic sea ice : I. Model description and validation'' Ocean Modell. 27, pp 33-53 (2009). Contact:thierry.fichefet@uclouvain.be
28. Vancoppenolle, M., T. Fichefet, and H. Goosse ``Simulating the mass balance and salinity of Arctic and Antarctic sea ice : II. Sensitivity to salinity processes'' Ocean Modell. 27, pp 54-69 (2009). Contact:thierry.fichefet@uclouvain.be
29. Goosse H., W. Lefebvre, A. de Montety, E. Crespin and A. Orsi ``Consitent past half-century trends in the atmosphere, the sea ice and the ocean at high southern latitudes'' Climate Dynamics 33, pp 999-1016 (2009). Contact:hugues.goosse@uclouvain.be
30. ``Jones, P.D., K.R. Briffa, T.J. Osborn, J. M. Lough, T. van Ommen, B.M. Vinther, J. Luterbacher, F.W. Zwiers, E. Wahl, G. Schmidt, C. Ammann, M.E. Mann, H. Wanner, B.M. Buckley, K. Cobb, J. Esper, H. Goose, N. Graham, E. Jansen, T. Kiefer, C. Kull, E. Mosley-Thompson, J.T. Overpeck, M. Schulz, S. Tudhope, R. Villalba and E. Wolff '' High-resolution paleoclimatology of the last millennium: a review of the current status and future prospects The Holocene , pp 19-3 (49). Contact:2009
31. Lancelot C., de Montety A., Goosse H., Becquevort S., Schoemann V., Pasquer B., and M. Vancoppenolle
``Spatial distribution of the iron supply to phytoplankton in the Southern Ocean: a model study''
Biogeosciences 6, pp 2861-2878 (2009).
Contact:hugues.goosse@uclouvain.be
32. Goosse H., Arzel O., Bitz C.M., de Montety A., and M. Vancoppenolle ``Increased variability of the Arctic summer ice extent in a warmer climate'' Geophysical Research Letters 36, pp L23702-doi:10.1029/2009GL040546 (2009). Contact:hugues.goosse@uclouvain.be
33. Urbach Allan, Dive Georges, Tinant Bernard, Duval Valérie, Marchand-Brynaert Jacqueline ``Large ring 1,3-bridged 2-azetidinones: experimental and theoretical studies'' Eur. J. Med. Chem. 44, pp 2071-2080 (2009). Contact:GDive@ULg.ac.be
34. Duponcheel M. ``Direct and large-eddy simulation of turbulent wall-bounded flows: further development of a parallel solver, improvement of multiscale subgrid models and investigation of vortex pairs in ground effect'' Doctorat en Sciences de l'ingénieur, Faculté: EPL, défendu le 2 October 2009 Promoteur: Winckelmans G.
35. De Visscher, I.; Bricteux, L. & Winckelmans, G ``Large-Eddy Simulations of aircraft wake vortices in a stably stratified atmosphere'' International Symposium on Turbulence and Shear Flow Phenomena (TSFP6), pp 1179-1184 (Seoul National University, 2009). Contact:ivan.devisscher@uclouvain.be
36. Cocle, R.; Bricteux, L. & Winckelmans, G. ``Scaling dependence and asymptotic very high Reynolds number spectral behavior of multiscale subgrid models'' Physics of Fluids 21, pp 085101-12 (2009). Contact:laurent.bricteux@uclouvain.be
37. Bricteux, L.; Duponcheel, M. & Winckelmans, G. ``A multiscale subgrid model for both free vortex flows and wall-bounded flows'' Physics of Fluids 21, pp 105102-12 (2009). Contact:laurent.bricteux@uclouvain.be
38. Jean-Christophe Monbaliu, Jacqueline Marchand-Brynaert and Daniel Peeters ``Is anthracene cofactor or spectator for the thermolysis of anthracenic acylnitroso cycloadducts in the presence of a diene?'' Tetrahedron Letters 2009 50 , pp 2555-2558 (2009). Contact:daniel.peeters@uclouvain.be
39. Giuseppe Zanti and Daniel Peeters ``DFT Study of Small Palladium Clusters Pdn and Their Interaction with a COLigand (n = 1–9) '' Eur. J. Inorg. Chem. 2009, pp 3904-3911 (2009). Contact:daniel.peeters@uclouvain.be
40. Thomas Gathy, Daniel Peeters, Tom Leyssens ``Mechanism of ketone hydrosilylation by Cu(I) catalysts: A theoretical study'' Journal of Organometallic Chemistry 694 , pp 3943-3950 (2009). Contact:daniel.peeters@uclouvain.be
41. Helleputte T. and Dupont P. ``Feature Selection by Transfer Learning with Linear Regularized Models'' European Conference on Machine Learning (ECML), Lecture Notes in Artificial Intelligence, N°5781., pp 533-547 (Springer, 2009). Contact:thibault.helleputte@uclouvain.be
42. Helleputte T. and Dupont P. ``artially Supervised Feature Selection with Regularized Linear Models'' 26th International Conference on Machine Learning (ICML), pp - ( , 2009). Contact:thibault.helleputte@uclouvain.be
43. L. Brassart, I. Doghri and L. Delannay ``Self-consistent modeling of DP steel incorporating short range interactions '' International Journal of Material Forming 2, pp 447-450 (2009). Contact:laurent.delannay@uclouvain.be
44. Delannay L., Melchior M.A., Signorelli J.W., Remacle J.-F., Kuwabara T. ``Influence of grain shape on the planar anisotropy of rolled steel sheets - Evaluation of three models'' Computational Materials Science 45, pp 739-743 (2009). Contact:laurent.delannay@uclouvain.be
45. E. Durgun, Ph. Ghosez, R. Shaltaf, X. Gonze and J.-Y. Raty. ``Polarization vortices in phase change GeTe nanoplatelets : a door to ternary logic memories ''
Phys. Rev. Lett. 103, pp 247601-4 (2009). Contact:xavier.gonze@uclouvain.be
46. J. Eiglsperger, B. Piraux and J. Madronero ``Spectral representation of the three-body Coulomb problem: Perspectives for highly doubly excited states of helium'' Physical Review A 80, pp 022511-14 (2009). Contact:bernard.piraux@uclouvain.be
47. E. Foumouo,H. Bachau and B. Piraux ``(2gamma,2e) total and differential cross-section calculations for helium with hbar omega=40-50 eV'' Eur. Phys. J. Special Topics 175, pp 175-180 (2009). Contact:bernard.piraux@uclouvain.be
48. J. Madronero and B. Piraux ``Explicit time-propagation method to treat the dynamics of driven complex systems'' Physical Review A 80, pp 033409-8 (2009). Contact:bernard.piraux@uclouvain.be
49. Jean Marcel Ngoko Djiokap ``Corrélations électroniques dans l'ionisation-excitation de l'hélium par photons XUV ou électrons rapides et Anomalie du moment magnétique de l'électron dans la diffusion de Mott en champ laser intense'' Doctorat en sciences physiques, Faculté: sciences, défendu le 1 February 2009 Promoteur: Bernard Piraux