|
|
![]() |
Rédigé
par
Fabrice
Charlier,
Bernard Van Renterghem
et Thomas Keutgen (responsable)
version www disponible à l'adresse http://www.cism.ucl.ac.be/Administration/Rapports/rapport2009/index.html
Le
présent
rapport
a
pour but de fournir un résumé
des activités de la plate-forme technologique Calcul Intensif et
Stockage
de Masse (CISM) et de l'équipe qui en gère les équipements, pour
l'année 2009. Le lecteur disposant de la version
imprimée est invité
à consulter la version électronique où les hyperliens donnent accès
aux références de ce rapport. Il
fait suite aux rapports
annuels d'activités du CISM depuis 2004 et à ceux du Comité
du Calcul Intensif (CCI) qui était en place avant l'existence du CISM.
Les faits
saillants de
l'année
2009 y sont extraits d'une masse brute de procès-verbaux
et de statistiques.
Pour rappel, l'équipe de gestion assure la maintenance quotidienne des équipements ainsi que le support aux utilisateurs, sous la responsabilité du Directeur du CISM. Le Conseil de direction du CISM, composé des représentants de tous les utilisateurs, de l'équipe de gestion et présidé par un académique nommé pour 4 ans, se réunit régulièrement pour définir les stratégies à moyen et long terme, préparer les éventuels projets et évaluer le fonctionnement de l'institut. Les procès-verbaux de ces réunions sont disponibles pour les membres de la communauté universitaire.
En
2009, le CISM est devenu une plate-forme technologique
dépendant du secteur des sciences et technologies de l'UCL. Sa
direction est assurée par un ingénieur de recherche et la présidence du
conseil de direction, par un académique élu pour quatre ans. L'équipe
de gestion, composée de quatre membres, a déménagé au bâtiment Marc de
Hemptinne afin de se regrouper dans des bureaux proches. Au
niveau des infrastructures, 2009 a vu la machine GREEN, acquise en 2008
en partenariat avec l'unité PCPM, devenir pleinement opérationnelle et
mettre,
de manière intensive, ses 816 coeurs au service des utilisateurs. Son
taux d'occupation fut tout de suite proche du maximum. Malgré sa
vétusté, la grappe Lemaitre reste un outil fort convoité en particulier
pour son interconnexion Infiniband favorisant le calcul parallèle.
Cette
infrastructure a pu être renforcée par 96 nouveaux coeurs. Un second
renforcement est prévu en 2010 en attendant son remplacement complet en
2011. En ce qui concerne les autres faits saillants de
cette année 2009, nous noterons: le renforcement des installations de
l'Aquarium (section 2.1), l'augmentation de la puissance de calcul de
Lemaitre (section 2.3) et le déclassement de serveurs plus anciens
(section 2.6); la poursuite des formations pour les utilisateurs
(section 4); l'implication du CISM dans divers projets du SGSI (section
5.2) et enfin, sa collaboration dans le projet d'ouverture
interuniversitaire des gros équipements de calcul intensif au niveau de
la communauté française (section 5.3).
49 publications ont
bénéficié de l'apport essentiel des infrastructures CISM en 2009, voir
annexe C.
En fin d'année
2008, une nouvelle grappe de calcul avait été déployée, à l'initiative
de l'unité PCPM, ajoutant à l'infrastructure déjà en place 816 nouveaux
coeurs
de calcul. En 2009, 96 coeurs interconnectés en Infiniband sont venus
renforcer la grappe Lemaître qui voit sa capacité augmenter ainsi de
256 à 352 processeurs optimisés pour le calcul parallèle. Ce
renforcement s'est réalisé avec la contribution
de l'unité ASTR. Cet ensemble représente, avec les ressources d'Ingrid
(TIER-2 belge à l'UCL) ouvertes aux utilisateurs du CISM, une puissance
théorique cumulée de 11.5 Tflops. Un
tableau
récapitulatif est
présenté en annexe A.
Aujourd'hui,
le
service
de
stockage de masse met à la disposition de l'ensemble de
la communauté universitaire un espace en ligne de plus de 82 terabytes
(TB). L'espace de stockage sur disque est réparti sur quatre serveurs:
diskus (12,2TB), lmftp (23,9TB), lmstor (10,7TB) et Storage02 (36TB).
Lmftp et lmstor font partie de l'infrastructure du projet FNRS2004
"Lemaitre". Ces machines plus anciennes, de même que diskus, devront
faire l'objet d'un remplacement en 2010. Un tableau
récapitulatif
est présenté en annexe B.
2.1. L'aquarium : la salle informatique
B012 (PYTH02)
La
salle
"Aquarium"
B012
(PYTH02)
du
Bâtiment
Pythagore,
née des
besoins conjoints de SGSI/SIPR
et du CISM, est un noeud vital de l'infrastructure informatique de
l'UCL. Le système refroidissement
par
eau
retenu
par les
services techniques de
l'UCL est sûr et performant. L'alimentation
électrique
redondante (à partir de deux cabines de transformation) ainsi qu'un
onduleur protègent efficacement une série d'équipements critiques.
Les limitations en terme d'espace
utilisable dans les armoires et en puissance de refroidissement dans
les armoires ne nous permettaient
plus d'évoluer ni de prévoir, le cas échéant, le remplacement de la
grappe Lemaître par une machine plus puissante. Nous avons donc demandé
à l'ADPI et à GTPL de chiffrer et planifier le renforcement de la
salle.
Dans un premier temps, il était important de renforcer la dalle sur
laquelle les armoires sont posées. En effet, de résistance limitée, elle ne
nous permettait pas de remplir les armoires au maximum. Des travaux ont
été effectués en 2009 et aujourd'hui, après redistribution des serveurs, une
armoire entière a pu être libérée.
Dans un second temps, en concertation avec les informaticiens de SIPR
qui ont les mêmes besoins que nous en terme de puissance de
refroidissement, nous avons demandé l'installation d'un troisième
groupe frigo et de 15 nouveaux modules de refroidissement. Cet
aménagement doit nous permettre d'augmenter de 8 à 12 kW la
puissance de refroidissement de chacune des 14 armoires de l'Aquarium
et,
également, d'assurer une ventilation optimale des serveurs.
Enfin, afin d'adapter cette installation aux exigences de serveurs
actuels (plus longs) les portes arrières des armoires seront
remplacées.
Les nouvelles portes devraient nous faire gagner jusqu'à 15 cm de
profondeur. On se rapprochera ainsi de la profondeur que l'on
retrouve dans notre nouvelle salle au de Hemptinne.
L'accomplissement de ces travaux est prévu pour la fin de l'année 2010.
2.2. La salle Tier-2 : la
salle informatique Cyclotron (Marc de Hemptinne)
Les
prévisions
de
croissance
de l'infrastructure TIER-2 à l'UCL rendaient
le déploiement d'une nouvelle salle informatique indispensable. Dans le
cadre de l'accord de partenariat avec l'unité FYNU et fort de
l'expérience acquise avec GTPL lors de l'installation de
"l'Aquarium", le CISM a participé à la conception d'une nouvelle salle.
SIPR est un membre du projet, et bénéficie ainsi d'une deuxième salle
des machines (double localisation de serveurs critiques). Cette
nouvelle salle a été construite dans le bâtiment Marc de Hemptinne et
est opérationnelle depuis mai 2008.
Pour une puissance totale de refroidissement de 160 kW, 16 armoires ont
été partagées entre FYNU (10), SIPR(4) et le CISM(2). Les deux armoires
occupées par le CISM hébergent le nouveau cluster Green et les 36TB de
stockage Storage02.
Cette première année de fonctionnement s'est avérée un peu laborieuse.
En effet, le système production d'eau froide et les échangeurs air/eau,
pourtant identiques à ceux choisis à l'Aquarium, n'ont pas
montré la même fiabilité. De nombreuses pannes ont provoqué, surtout
dans les premiers mois de fonctionnement, des coupures prolongées
(quelques jours) de nos serveurs. Cette situation semble cependant se
stabiliser au fur et à mesure que les défauts détectés sont corrigés.
En 2009, la bande passante entre nos installations de l'Aquarium et de
la salle TIER-2 a été augmentée par le SRI à 1 Gb/s. Cette nouvelle
connexion permet un accès optimal à notre nouvel espace de stockage.
2.3. La grappe Lemaitre
En 2005, Lemaitre était un outil puissant
et depuis son installation, il permet aux membres de l'UCL et à
d'autres institutions (voir la coopération interuniversitaire) de
réaliser de nombreux travaux scientifiques qui ne pourraient pas être
entrepris sur une petite infrastructure.
L'intérêt de Lemaitre n'a pas diminué après l'installation de
Green, pourtant 5 fois plus puissant. En effet, une interconnexion
rapide et à faible latence (Infiniband) permet de tourner des
applications largement distribuées. Ce que ne permet pas une
interconnexion classique de type Gigabit Ethernet, qui équipe la
grappe Green. Les jobs parallèles importants sont d'ailleurs favorisés
sur Lemaitre par la mise en place d'une queue "large_parallel" de 64
processeurs.
Depuis 2005, la puissance maximale théorique de Lemaitre n'a augmenté
que de 18%, grâce à l'ajout de serveurs de calcul particuliers (SMP,
mémoire vive de 128GB).
Cette année, une contribution de l'unité ASTR a permis
d'augmenter la puissance de Lemaitre de 51%, à 2577.9 GFlops.
Douze HP Proliant équipés de Processeurs Intel Xeon Nehalem
L5520 cadencés à 2.27GHz et de 24GB de mémoire vive, soient 96 coeurs,
384 GB RAM
et 16 TB d'espace disque (lmexec-241 à lmexec-252) sont mis en place.
L'intérêt de ces nouveaux serveurs ne réside pas seulement en leur
puissance intrinsèque mais surtout en leur connectique Infiniband
encore plus rapide. En effet, ces machines sont équipées de connexion
4xDDR à 20Gb/s alors que les anciens noeuds disposent de connexion
2xDDR à 10Gb/s).
2.4. La grappe Green
Cette grappe est consituée de 6 chassis Blade
Dell M1000e
équipés chacun de 16 dual
quad-core Xeon L5420 cadencés à 2.5GHz par blade, dont la moitié
dispose
de 16GB RAM et l'autre moitié de 32GB RAM. Il faut encore ajouter 6
serveurs Dell équipés des mêmes processeurs et de 16GB RAM. Green
dispose donc de 816 core, fournissant 8.16 Tflops de puissance
théorique maximale, pour une consommation électrique ne dépassant pas
24 kW. En fin d'année, un réagencement de serveurs dans trois armoires
au
lieu de deux a permis une meilleure répartition de la charge de
consommation. En effet, la puissance de 11 kW consommée dans une des
deux armoires approchait la valeur maximale tolérée par le système de
refroidissement.
2.5.
Les systèmes de stockage de masse
Les quatre
serveurs diskus.cism.ucl.ac.be,
storage.cism.ucl.ac.be
(lmstor),
lmx.cism.ucl.ac.be (lmftp). et storage02.cism.ucl.ac.be fournissent à
la communauté universitaire 82 TB d'espace disque en ligne.
Cet espace disque est
sécurisé: La
configuration RAID des
armoires tolère la panne de disques,
remplaçables à chaud. De plus, la récupération en cas de désastre est
assurée par la délocalisation des serveurs (diskus, storage et lmx au
Pythagore et storage02 au Marc de Hemptinne) et la
mise
en place d'un
système de réplication des données (activé uniquement si l'utilisateur
le
souhaite).
Diskus ne
changera
plus dans sa
configuration jusqu'à son déclassement prévu pour le courant 2010.
Situé initialement au
Pierre Curie (A128) , il a dû être déménagé au Pythagore, car le
bâtiment Pierre Curie va subir d'importants travaux avant sa nouvelle
affectation.
Il offre une capacité nette de 12,2 TB. Sa
technologie est plus ancienne (serveur datant de 2004, disques SCSI de
146 GB,...).
Storage pilote un
StorEdge 3511 d'une capacité nette
de 10.7 TB ( /stor3511 7.1TB
et /mirror
3.6TB)
utilisée
directement
dans
l'infrastructure de calcul Lemaitre.
lmx "Lemaitre
stockage" dispose de 18 TB
et enfin, Storage02
offre 36 TB, essentiellement pour déposer les résultats des
simulations de climatologie de l'unité ASTR.
2.6. Déclassement des serveurs plus anciens
En fin
d'année, Turing et la grappe Decci ont été déclassés.
Turing tournait sans avoir rencontré le moindre incident depuis 10 ans
et continuait à être utilisé. Néanmoins, sa puissance de calcul était
négligeable face à sa consommation (songeons à la "loi de Moore" qui
postule que la densité des transistors, de pair avec la puissance des
processeurs, double tous les 18 mois!).
De même Decci, une grappe de serveurs Alpha acquise en fin 2000,
n'avait
plus vraiment de raison d'être laissée en activité pour les mêmes
raisons que Turing. Seul
decci11 sera maintenu pour offrir une architecture originale et 32GB de
RAM (ce qui n'est pas négligeable).
Jusqu'à fin 2008,
l'Institut du Calcul Intensif et de Stockage de Masse a offert aux
scientifiques de l'Université un service de qualité en mettant à leur
disposition un outil de calcul et de stockage performant. Les
utilisateurs se sont montrés satisfaits tant pour les services rendus
par l'Institut que pour son système de gouvernance qui les intègre
directement dans les décisions prises. Le concept de « gestion
avec les utilisateurs, pour les utilisateurs » est à l'origine du
succès du CISM.
Fin 2008, afin de maintenir ce service de qualité tout en nous adaptant
aux nouvelles structures qui se mettent en place à l'UCL, nous avons
proposé aux autorités, avec le soutien des chefs des unités concernées
par le CISM, de convertir notre Institut en plate-forme technologique.
Cette proposition a été favorablement accueillie par les autorités de
l'Université et cette conversion est devenue officielle en 2009.
Sans rentrer dans les détails abordés dans le rapport 2008, on peut
signaler que notre nouvelle plate-forme a rempli correctement son rôle
et a pu maintenir, dans ses nouvelles structures, la qualité de son
service aux utilisateurs.
Comme
les
années
précédentes,
la
formation et
le
suivi personnalisé des nouveaux utilisateurs ont été
poursuivis, en complément de l'auto-information permise par le
site Web.
L'ouverture
interuniversitaire
apportée
par David Colignon, le
collaborateur logistique du F.R.S.-FNRS CECI - Consortium des
Equipements de Calcul Intensif, s'est poursuivie lors de ces
formations: D. Colignon a donné trois formations (MPI et OpenMP) sur
les neuf aux 15 chercheurs inscrits, dont 4 ULB, 2 ULg et 2 UMons.
La
salle
de formation
a
continué
de remplir son rôle: l'équipe du CISM a dispensé une série de
séances pratiques (d'octobre à décembre 2009)
Cette salle ne sera plus disponible pour les années prochaines car le
bâtiment Pierre Curie va subir de profonds remaniements et accueillera
les bureaux des services du SGSI.
La dernière formation avait pour but de
présenter aux utilisateurs du Calcul Intensif la nouvelle
infrastructure mise en place à l'UCL pour s'intégrer à l'environnement
BeGrid et ainsi pouvoir s'y authentifier et y soumettre des jobs.
La
séance
d'introduction à UNIX/Linux a également été dispensée dans le cadre du
cours MAPR2451, en février 2009.
5.1. Le GRID à l'UCL
La coopération FYNU-CISM
Le
projet
TIER-2 belge a été accepté au début 2006 et consiste à se doter des
moyens nécessaires à l’acquisition et au fonctionnement d’un noeud de
calcul destiné à être intégré dans la grille mondiale de calcul WLCG (Worldwide
LHC Computing Grid), pour le
stockage et l’analyse de données des
expériences auprès du Large Hadron Collider du CERN. Le TIER-2 belge
est constitué de
deux sites séparés, l’un à l’UCL et l’autre à l’Institut
Interuniversitaire des Hautes Energies IIHE
de l’ULB/VUB.
L'accord de partenariat établi en 2006 entre
l'unité FYNU et le CISM s'est poursuivi. La nouvelle salle TIER-2 étant
en fonctionnement depuis 2008, le CISM a essentiellement collaboré dans
la surveillance du système en régime.
L'installation TIER-2 baptisée "Ingrid" est
ouverte aux utilisateurs du CISM, à concurrence d'environ 10% de la
puissance totale, soit environ 478 Gflops actuellement.
La participation au projet BeGrid
Suite au succès des tests effectués en
2008 sur la portabilité des logiciels ABINIT et OCTOPUS sur la grille,
travail qui a fait l'objet d'une présentation au « BeGrid seminar
2009 » à Bruxelles (Micael Oliveira: Gridification and use
of ABINIT and OCTOPUS), le
CISM a décidé de rentrer dans la collaboration BeGrid et partager, de
façon coordonnée avec le CÉCI (voir plus bas), une partie de ses
ressources avec eux.
Pour ce faire, une installation
locale était nécessaire. Différents serveurs devaient être configurés
pour s'intégrer à BeGrid. Huit machines SUN V60, offertes par le
FUNDP, ont été utilisées à cette fin. Cette installation locale nous
permet aujourd'hui de soumettre des tâches sur la grille à partir d'un
serveur d'accès à l'UCL et de nous associer à des « Virtual
Organization » (VO), aux objectifs scientifiques.
Comme déjà mentionné plus haut, un
tutorial BeGrid a été ajouté à nos formations afin de présenter ce
nouvel outil à nos utilisateurs.
5.2. L'implication des informaticiens CISM dans le SGSI
Les membres de l'équipe de gestion
sont également membres associés du SGSI. Ils suivent avec
attention et se conforment aux
décisions prises par les autorités en terme d'orientation du Système de
l'Information. Ils s'impliquent activement dans des projets et
assistances rapprochées, où leurs domaines d'expertise peuvent être
utiles (configuration de serveurs, gestion de grosse quantité de
données,...). En 2009, cette collaboration a été très importante.
Le CISM a signé un contrat de service d'une durée de 10 mois (mars –
décembre 2010) pour 0.4 ETP avec l'entité SIPR du SGSI. Cette
entité a en charge la gestion de l'infrastructure informatique du SGSI
(serveurs mails, serveurs de bases de données, infrastructure SAP,
...). L'objectif de ce contrat de service était l'étude, le test et le
déploiement en production d'une solution de répartition de charge basée
sur des solutions open-sources.
Lors de la mise en place de l'infrastructure informatique de
l'Université sous sa forme actuelle, la solution propriétaire Sun
Nauticus s'était présentée comme un choix technologique adéquat pour
assurer cette mission de répartition de charge. Avec l'accroissement de
cette infrastructure et le nombre d'utilisateurs toujours en
augmentation, cette solution ne donnait plus entière satisfaction et
était la cause de nombreux soucis de manière directe ou indirecte. Un
projet a donc été mis en chantier afin de pourvoir au remplacement de
ce matériel. Dans le but d'éviter que la nouvelle solution soit aussi
une « appliance » de type boîte noire donnant peu (ou pas) de
visibilité sur son fonctionnement interne, ce projet a donné la
priorité aux solutions open-sources.
Dans le cadre de ce projet, un étudiant en Informatique de l'Institut
Paul Lambin, Fabien Duchêne, est venu réaliser son mémoire en SIPR afin
d'effectuer une première étude des solutions open-sources de
répartition de charge disponibles. A la suite de ce travail, Fabrice
Charlier a pris ce projet en main et a effectué des tests plus
approfondis de la solution qui avait été dégagée par l'étudiant. Les
différents tests effectués étant tous positifs, la mise en production
de cette solution a été décidée pour un seul des composants de
l'infrastructure dans un premier temps. Cette première migration ayant
permis de régler les derniers détails, le service Mail et Annuaire LDAP
ont ensuite été basculés sur cette nouvelle solution.
A l'heure actuelle, la majorité des services critiques de l'Université
utilisent la nouvelle infrastructure de répartition de charge et le
déclassement de la solution Sun Nauticus a été programmé pour l'année
2010.
5.3. Projet d'ouverture interuniversitaire des installations
de calcul intensif de la communauté française.
Pour rappel, Le
CÉCI -
Consortium des Équipements de Calcul Intensif - a été mis sur pied
suite à la décision du F.R.S.-FNRS de soutenir le projet "Ouverture
interuniversitaire des gros équipements de calcul intensif en
Communauté française: accès, formation, information, technologie
Grid, inventaire et synchronisation des ressources matérielles et
logicielles", en permettant l'engagement d'un logisticien, le
Dr. David Colignon, en mars 2008.
Le comité de
coordination, comportant des représentants de chacun des gros
équipements du CÉCI, s’est réuni dès 2007 pour mettre en place
un bureau dont la mission est de piloter les actions du logisticien.
En 2009, un avenant
a été déposé au FNRS, pour ce projet, demandant l'engagement d'un
second logisticien chargé de l'étude des aspects techniques de la mise
en commun d'équipements de calcul intensif entre les institutions
présentes dans le Consortium (FUNDP, UCL, ULB, Ulg et UMH). Cette
demande a été approuvée par le FNRS et un nouveau logisticien viendra
soutenir le travail du Dr. David Colignon dès mars 2010.
Ce partage de ressources nécessite la signature d'un accord de
Consortium. Ce document est en cours de rédaction.
D'autre part, afin d’encadrer les échanges scientifiques, un groupe de
contact « Calcul Intensif » FNRS a été créé dès juillet 2008. B.
Champagne (FUNDP) en est le président et D. Colignon le secrétaire. Le
8 mai 2009, une première journée scientifique a été organisée à l'ULB.
Cette journée a réuni environ 50 participants qui ont pu partager leur
expérience dans l'utilisation du calcul intensif dans leurs projets de
recherche. La prochaine journée aura lieu à Mons en avril 2010.
Enfin, en ce qui concerne les équipements, le CÉCI a soutenu le projet
de B. Piraux, D. Peeters et H. Goosse (UCL) pour l'achat de serveurs à
haute capacité mémoire (512 GB). Un budget a été octroyé par le FNRS
pour l'acquisition de ces serveurs qui seront hébergés par le CISM. En
contrepartie, l'UCL s'engage à partager 50% de la machine avec les
chercheurs des autres membres du Consortium.
Pour l'avenir, un plan interuniversitaire pluriannuel d'investissement
est en préparation. Ce plan a pour but d'expliquer comment nous
envisageons le renforcement du calcul intensif en communauté française
de Belgique ces prochaines années. Dans ce projet, les demandes de
financement n'émaneraient plus de promoteurs de recherche mais du CÉCI
lui-même. Ces équipements seraient alors ouverts à 100% à tous les
membres du Consortium. Ce plan sera soumis au FNRS fin 2010.
Pour plus de
détails sur le CÉCI, nous vous invitons à visiter le site:
« http://hpc.montefiore.ulg.ac.be
».
Plusieurs unités, en particulier PAMO et CHIM, avaient émis le besoin d'acquérir une machine SMP de grande mémoire partagée (512 GB). Une demande de financement, soutenue par les membres du CÉCI, a donc été soumise aux autorités de l'UCL et envoyée au FNRS. L'objectif était de mettre en place, pour 2010, une ou plusieurs machines de ce type au service des utilisateurs de l'UCL et des membres du Consortium. Le budget est maintenant disponible et un appel d'offres devrait être déposé en mars ou avril de cette année. Un mode de fonctionnement garantissant le partage équilibré de ces machines doit encore être mis en place. Cela devra faire partie de l'accord de Consortium mentionné plus haut.
Aujourd'hui, Lemaître entre dans sa cinquième année. Cette machine arrive donc non seulement en fin de période de support mais surtout devient trop ancienne pour répondre efficacement aux demandes croissantes de nos utilisateurs. Or, ce type de machine et, en particulier, son mode d'interconnexion (Infiniband) est incontournable pour effectuer des tâches du type parallèle. Certains utilisateurs se plaignent même de ne pas pouvoir appliquer leurs processus parce que le nombre de noeuds disponibles pour le calcul parallèle est insuffisant. Aujourd'hui, il n'est plus rare d'exécuter des tâches parallèles sur des centaines de coeurs.
Le remplacement de Lemaître par une machine plus puissante est donc, à terme, indispensable. Ce remplacement sera débattu au sein du CÉCI pour qu'il soit intégré dans son plan pluriannuel.
Dans l'optique de maintenir un service de qualité à nos utilisateurs, il est important de pouvoir nous adapter à l'évolution des technologies dans le monde du calcul intensif. Actuellement, la tendance est à l'augmentation du nombre de processeurs disponibles par machine et même, par unité rackable (espace minimum occupé par un serveur dans une armoire). Même si les processeurs actuels offrent toujours plus de performance pour moins de puissance dissipée, leur densité croissante conduit les machines d'aujourd'hui à devenir plus profondes et surtout, plus energivores. C'est dans cette optique que nous avons entamé l'amélioration des installations de refroidissement de la salle Aquarium.
Enfin, notre rôle de plate-forme technologique s'exerçant aujourd'hui déjà à travers les différents secteurs de l'Université, notre activité pourrait s'ouvrir à l'ensemble des utilisateurs de la nouvelle académie, en collaboration rapprochée avec les autres entités de calcul intensif de cette nouvelle institution.
Par rapport à 2008, l'offre de
puissance est restée relativement stable (+7,5%) en attendant les
nouveaux projets de 2011: le CISM gère un total de 5
infrastructures différentes, disposant ensemble de 1284 coeurs, de 4008
GB de RAM et
de 48 TB d'espace disque, offrant une puissance théorique
maximale d'un peu plus de 11,4 Tflops.
Nom |
#noeuds |
#core/noeuds |
#core |
GFlops tot (peak) |
RAM/noeud (GB) |
Espace disque (GB) |
architecture |
Mis en service |
---|---|---|---|---|---|---|---|---|
Turing |
1 |
8 |
8 |
11.56 |
4 |
81 |
HP
N4000 PA Risc8000/360MHz |
02/00 |
Decci1-6 |
6 |
4 |
24 |
33.74 |
4 |
1956 |
Compaq
ES40
Alpha
ev67/667MHz |
12/00 |
Decci11 |
1 |
4 |
4 |
9.93 |
32 |
56 |
Compaq ES45 Alpha ev68/1250MHz |
01/03 |
Chpit |
1 |
4 |
4 |
24 |
8 |
62 |
HP rx4640 Itanium2 1500MHz |
12/03 |
Deccint déclasse 01/10 |
1 |
2 |
2 |
2.8 |
4 |
64 |
Microway
Alpha
ev67/667MHz |
10/04 |
Max
(PCPM) |
18 | 2 | 36 | 228 | 4 | 2946 | Mac
Xserve
bi
G5/2GHz |
01/05 |
Cauchy
(PAMO) |
1 | 4 | 4 | 20.8 | 32 |
146 |
SUN
V40z
4
AMD
Opteron 852/2.6GHz |
07/05 |
Lemaitre front-end | 1 | 4 | 4 | 19.2 | 8 | 146
+ 1200 (/fast) + 5900 (/home) |
SUN V40z 4 AMD Opteron 850/2.4GHz | 09/05 |
Lemaitre exec nodes | 128 | 2 | 256 | 1331.2 | 4 | 9344 | SUN V20z 2 AMD Opteron 252/2.6GHz | 09/05 |
Lemaitre
SMP |
2 | 8 |
16 | 70.4 | 32
et
64 |
600 |
SUN V40z 4 Dual Core AMD Opteron 875/2.2GHz | 09/05 |
Lm8
(INMA) |
1 | 4 | 4 | 20.8 | 32 | 219 | SUN V40z 4 AMD Opteron 852/2.6GHz | 12/05 |
Lm140 | 1 | 16 | 16 | 83.2 | 64 | 144 | SUN
Galaxy
X4600
8
Dual Core AMD Opteron
885/2.6GHz |
09/06 |
Ingrid
(FYNU) |
7 + 16 + 17 + 32 |
2 8 4 8 |
14 128 68 256 |
61.6 1536 625.6 2560 ( tot 10% CISM = 478.3) |
4 4 16 16 |
511 25TB 20TB 3x36TB |
SUN
V20z
2
AMD
Opteron 252/2.2GHz SuperMicro Twin 2 QuadCore Intel Xeon 3GHz Dell DualCore Intel Xeon 5345 2.3GHz Blade HP Dual QuadCore Intel Xeon L5420/2.5GHz |
01/07 09/07 09/08 |
Green
(PCPM) |
103 | 8 | 824 | 8240 | 47
à
16 56 à 32 |
11TB (/home) |
102
(+front-end)
Dual
Quad-Core
Xeon
L5420/2.5GHz in Dell Blade M1000e |
09/08 |
Lm143-Lm144-Lm145 (PCPM)
|
3 | 8 | 24 | 144 | 128 | 1TB | 3
Transtec Calleo530 4 Dual Core AMD Opteron
8222SE/3GHz |
10/08 |
Cauchy2 (PAMO) | 1 | 4 | 4 | 36.8 | 64 | 860 | SUN
Galaxy
X2200
2
Quad-Core AMD Opteron 2356/2.3GHz |
11/08 |
Lm241 à Lm252 (ASTR)
|
12 | 8 |
96 |
872 |
24 |
16TB | 12 HP Proliant 2 Quad-Core Intel Xeon
L5520/2.27GHz |
10/09 |
Nom |
type de serveur |
type de stockage |
Espace (GB) |
Mis en service |
---|---|---|---|---|
Diskus |
HP
Proliant 2 Xeon/2.8GHz 1GB RAM |
Armoires à disques 1. HP StorageWorks 302969-B21, 3 inclosures (3x14 disques SCSI 146GB) 2. HP MSA20 335921-B21, 2 inclosures (2x12 disques SATA 250GB), 1 inclosure (12 disques SATA 500GB) |
12,2TB |
02/04 |
Storage (lmstor) |
SUN
Galaxy X4100 AMD Opteron 252/2.6GHz 4GB RAM |
Armoires à disques Sun StorEdge FC-AL 3511 (48 SATA 400GB 19,2TB brut) | 7.1TB (/stor3511)+ 3.6TB (/mirror) |
10/06 |
Lemaitre ftp (lmx) | SUN
Galaxy X4200 2 dual core AMD Opteron 2.6GHz 16GB RAM |
1x14 Fiber 146GB + 4x14 SATA 400GB 27,3TB brut + 1x16 SATA 500 GB 8 TB brut 03/07) | 12TB+6TB (/storage) - 5.9TB /home sur lmx4500 + 6TB ajouté à /storage |
06/07 (6130: 06/06) +02/08 |
Lmx4500 | SUN Galaxy X4500 2 dual core AMD Opteron 2.8GHz 16GB RAM | 48 SATA 500 GB | 10TB (/home) et 1.2TB
(/fast) |
02/08 |
Storage02 | SUN
Galaxy X4540 2 Quad core AMD Opteron 2.3GHz 32GB RAM |
48 SATA 1TB, 36TB net |
36TB (/storage) | 12/08 |
Les publications peuvent être consultées en ligne depuis la base de donnée.
1. Francesco Contino, Hervé Jeanmart ``Study of the HCCI running zone using ethyl acetate'' SAE Technical Papers , pp 2009-01-0297-1 (11). |
2. Urbach Allan, Dive Georges, Marchand-Brynaert Jacqueline ``Novel large ring 1,3 bridged 2-azetidinones as potential inhibitors of penicillin-binding proteins'' Eur. J. Org. Chem. 11, pp 1757-1770 (2009). Contact:GDive@ULg.ac.be |
3. M. Frédérich, D. Delvaux, T. Gigliobianco, M. Gangolf, G. Dive, G. Mazzuchelli, B. Elias, E. De Pauw, L. Angenot, P. Wins, L Bettendorf ``Thiamylated adenine nucleotides. Chemical synthesis, structural characterization and natural ocurence'' FEBS avril, pp 1-13 (2009). Contact:GDive@ULg.ac.be |
4. Sauvage E., Zervosen A., Dive G., Herman R., Amoroso A., Joris B., Fonzé E., Pratt R., Luxen A., Charlier P., Kerff F. ``Structural basis of the inhibition of class A beta-lactamases and penicillin-binding proteins by 6-beta-iodopenicillinate'' J. Am; Chem. Soc. 131, pp 15262-15269 (2009). Contact:GDive@ULg.ac.be |
5. V. Rerat, G. Dive, A. Cordi, G. Tucker, R. Bareille, J. Amédée, L. Bordenave, J. Marchand-Brynaert ``aVb3 integrin-targeting Arg-Gly-Asp (RGD) peptidomimetics containing oligoethylene glycol (OEG) spacers'' J. Med. Chem. 52, pp 7029-7043 (2009). Contact:GDive@ULg.ac.be |
6. R. Shaltaf, X. Gonze, M. Cardona, R.K. Kremer, and G. Siegle ``Lattice dynamics and specific heat of alpha-GeTe : theoretical and experimental study'' Phys. Rev. B 79, pp 075204-7 (2009). Contact:xavier.gonze@uclouvain.be |
7. J. Dumont, R. Sporken, M. J. Verstraete, J. Ghijsen, and X. Gonze. ``Demixing processes in AgPd superlattices '' J. Phys.: Condens. Matter 21, pp 315002-11 (2009). Contact:xavier.gonze@uclouvain.be |
8. S.M.-M. Dubois, Z. Zanolli, X. Declerck, and J.-C. Charlier ``Electronic properties and quantum transport in Graphene-based nanostructures'' THE EUROPEAN PHYSICAL JOURNAL B 72, pp 1-24 (2009). Contact:jean-christophe.charlier@uclouvain.be |
9. R. Shaltaf, T. Rangel, M. Grüning, X. Gonze, G.-M. Rignanese, and D.R. Hamann ``Electronic properties of zircon and hafnon from many-body perturbation theory '' Phys. Rev. B 79, pp 195101-6 (2009). Contact:xavier.gonze@uclouvain.be |
10. M. Grüning, A. Marini and X. Gonze ``Exciton-plasmon states in nanoscale materials : breakdown of the Tamm-Dancoff approximation'' Nanoletters 9, pp 2820-2824 (2009). Contact:xavier.gonze@uclouvain.be |
11. X. Gonze, B. Amadon, P.M. Anglade, J.-M. Beuken, F. Bottin, P. Boulanger, F. Bruneval, D. Caliste, R. Caracas, M. Cote, T. Deutsch, L. Genovese, Ph. Ghosez, M. Giantomassi, S. Goedecker, D. Hamann, P. Hermet, F. Jollet, G. Jomard, S. Leroux, M. Mancini, S. Mazevet, M.J.T. Oliveira, G. Onida, Y. Pouillon, T. Rangel, G.-M. Rignanese, D. Sangalli, R. Shaltaf, M. Torrent, M.J. Verstraete, G. Zérah, J.W. Zwanziger ``ABINIT : first-principles approach to material and nanosystem properties '' Computer Physics Communications 180, pp 2582-2615 (2009). Contact:xavier.gonze@uclouvain.be |
12. Cottin C, Lonfils T, Cocle R, Winckelmans G ``Roll-up of wing and propelled-wing wakes: time- and space-developing LES including comparisons to experiments'' International Workshop on Fundamental Issues Related to Aircraft Wakes. Marseille, France, May 27-29, 2008. Abstract in book of abstract Contact:timothee.lonfils@uclouvain.be |
13. Monbaliu, J.-C.; Robiette, R.; Peeters, D.; Marchand-Brynaert, J. ``(R)-4-phenyloxazolidin-2-thione: an efficient chiral auxiliary for [4+2] cycloaddition of 1-aminodiene and activated phosphonodienophiles'' Tetrahedron Lett. 50, pp 1314-1317 (2009). Contact:raphael.robiette@uclouvain.be |
14. Yin Q.Z., Berger A., and M. Crucifix ``Individual and combined effects of ice sheets and precession on MIS-13 climate'' Climate of the Past 5, pp 229-243 (2009). Contact:qiuzhen.yin@uclouvain.be |
15. Z. Zanolli and J.-C. Charlier ``Defective carbon nanotubes for single-molecule sensing'' Physical Review B 80, pp 155447-155447 (2009). Contact:jean-christophe.charlier@uclouvain.be |
16. S.M.-M. Dubois, Z. Zanolli, X. Declerck, and J.-C. Charlier ``Electronic properties and quantum transport in graphene-based nanostructures'' European Physical Journal B 72, pp 1-24 (2009). Contact:jean-christophe.charlier@uclouvain.be |
17. S.M.-M. Dubois, Z. Zanolli, X. Declerck, and J.-C. Charlier ``Electronic properties and quantum transport in graphene-based nanostructures'' European Physical Journal B 72, pp 1-24 (2009). Contact:jean-christophe.charlier@uclouvain.be |
18. E. Cruz-Silva, F. Lopez-Urias, E. Munoz-Sandoval, B.G. Sumpter, H. Terrones, J.-C. Charlier, V. meunier, and M. Terrones ``Electronic transport and mechanical properties of phosphorus- and phosphorus-nitrogen-doped carbon nanotubes '' ACS Nano 3, pp 1913-1921 (2009). Contact:jean-christophe.charlier@uclouvain.be |
19. J.-C. Charlier, L. Arnaud, I.V. Avilov, M. Delgado, F. Demoisson, E.H. Espinosa, C.P. Ewels, A. Felten, J. Guillot, R. Ionescu, R. Leghrib, E. Llobet, A. Mansour, H.-N. Migeon, J.-J. Pireaux, F. Reniers, I. Suarez-Martinez, G.E. Watson, and Z. Zanolli ``Carbon nanotubes randomly decorated with gold clusters: from nano2hybrid atomic structures to gas sensing prototypes '' Nanotechnology 20, pp 375501-375501 (2009). Contact:jean-christophe.charlier@uclouvain.be |
20. M. Moors, H. Amara, T. Visart de Bocarmé, C. Bichara, F. Ducastelle, N. Kruse, and J.-C. Charlier ``Early-stages in the nucleation process for carbon nanotubes'' ACS Nano 3, pp 511-516 (2009). Contact:jean-christophe.charlier@uclouvain.be |
21. DE KERCHOVE D'EXAERDE C., KRINGS G., LAMBIOTTE R., VAN DOOREN P., BLONDEL V. ``The role of second trials in cascades of information over networks'' Physical Review E 79, pp 016114 -7 (2009). Contact:c.dekerchove@uclouvain.be |
22. Bouillon, S., M.A. Morales Maqueda, T. Fichefet, and V. Legat ``An elastic-viscous-plastic sea ice model formulated on Arakawa B and C grids'' Ocean Modell. 27, pp 174-184 (2009). Contact:thierry.fichefet@uclouvain.be |
23. Crespin, E., H. Goosse, T. Fichefet, and M.E. Mann ``Causes of the 15th century Arctic warm event in a coupled climate model including data assimilation'' Climate of the Past 5, pp 389-401 (2009). Contact:thierry.fichefet@uclouvain.be |
24. Jongma, J.I., E. Driesschaert, T. Fichefet, H. Goosse, and H. Renssen ``The effect of dynamic–thermodynamic icebergs on the Southern Ocean climate in a three-dimensional model'' Ocean Modell. 26, pp 104-113 (2009). Contact:thierry.fichefet@uclouvain.be |
25. Renssen, H. H. Sëppa, O. Heiri, D.M. Roche, H. Goosse, and T. Fichefet ``The spatial and temporal complexity of the Holocene thermal maximum'' Nature Geoscience 2, pp 411-414 (2009). Contact:thierry.fichefet@uclouvain.be |
26. Swingedouw, D., T. Fichefet, H. Goosse, and M.-F. Loutre ``Impact of transient freshwater releases in the Southern Ocean on the AMOC and climate'' Clim. Dyn. 33, pp 365-381 (2009). Contact:thierry.fichefet@uclouvain.be |
27. Vancoppenolle, M., T. Fichefet, H. Goosse, S. Bouillon, G. Madec, and M.A. Morales Maqueda ``Simulating the mass balance and salinity of Arctic and Antarctic sea ice : I. Model description and validation'' Ocean Modell. 27, pp 33-53 (2009). Contact:thierry.fichefet@uclouvain.be |
28. Vancoppenolle, M., T. Fichefet, and H. Goosse ``Simulating the mass balance and salinity of Arctic and Antarctic sea ice : II. Sensitivity to salinity processes'' Ocean Modell. 27, pp 54-69 (2009). Contact:thierry.fichefet@uclouvain.be |
29. Goosse H., W. Lefebvre, A. de Montety, E. Crespin and A. Orsi ``Consitent past half-century trends in the atmosphere, the sea ice and the ocean at high southern latitudes'' Climate Dynamics 33, pp 999-1016 (2009). Contact:hugues.goosse@uclouvain.be |
30. ``Jones, P.D., K.R. Briffa, T.J. Osborn, J. M. Lough, T. van Ommen, B.M. Vinther, J. Luterbacher, F.W. Zwiers, E. Wahl, G. Schmidt, C. Ammann, M.E. Mann, H. Wanner, B.M. Buckley, K. Cobb, J. Esper, H. Goose, N. Graham, E. Jansen, T. Kiefer, C. Kull, E. Mosley-Thompson, J.T. Overpeck, M. Schulz, S. Tudhope, R. Villalba and E. Wolff '' High-resolution paleoclimatology of the last millennium: a review of the current status and future prospects The Holocene , pp 19-3 (49). Contact:2009 |
31. Lancelot C., de Montety A.,
Goosse H., Becquevort S., Schoemann V., Pasquer B., and M. Vancoppenolle ``Spatial distribution of the iron supply to phytoplankton in the Southern Ocean: a model study'' Biogeosciences 6, pp 2861-2878 (2009). Contact:hugues.goosse@uclouvain.be |
32. Goosse H., Arzel O., Bitz C.M., de Montety A., and M. Vancoppenolle ``Increased variability of the Arctic summer ice extent in a warmer climate'' Geophysical Research Letters 36, pp L23702-doi:10.1029/2009GL040546 (2009). Contact:hugues.goosse@uclouvain.be |
33. Urbach Allan, Dive Georges, Tinant Bernard, Duval Valérie, Marchand-Brynaert Jacqueline ``Large ring 1,3-bridged 2-azetidinones: experimental and theoretical studies'' Eur. J. Med. Chem. 44, pp 2071-2080 (2009). Contact:GDive@ULg.ac.be |
34. Duponcheel M. ``Direct and large-eddy simulation of turbulent wall-bounded flows: further development of a parallel solver, improvement of multiscale subgrid models and investigation of vortex pairs in ground effect'' Doctorat en Sciences de l'ingénieur, Faculté: EPL, défendu le 2 October 2009 Promoteur: Winckelmans G. |
35. De Visscher, I.; Bricteux, L. & Winckelmans, G ``Large-Eddy Simulations of aircraft wake vortices in a stably stratified atmosphere'' International Symposium on Turbulence and Shear Flow Phenomena (TSFP6), pp 1179-1184 (Seoul National University, 2009). Contact:ivan.devisscher@uclouvain.be |
36. Cocle, R.; Bricteux, L. & Winckelmans, G. ``Scaling dependence and asymptotic very high Reynolds number spectral behavior of multiscale subgrid models'' Physics of Fluids 21, pp 085101-12 (2009). Contact:laurent.bricteux@uclouvain.be |
37. Bricteux, L.; Duponcheel, M. & Winckelmans, G. ``A multiscale subgrid model for both free vortex flows and wall-bounded flows'' Physics of Fluids 21, pp 105102-12 (2009). Contact:laurent.bricteux@uclouvain.be |
38. Jean-Christophe Monbaliu, Jacqueline Marchand-Brynaert and Daniel Peeters ``Is anthracene cofactor or spectator for the thermolysis of anthracenic acylnitroso cycloadducts in the presence of a diene?'' Tetrahedron Letters 2009 50 , pp 2555-2558 (2009). Contact:daniel.peeters@uclouvain.be |
39. Giuseppe Zanti and Daniel Peeters ``DFT Study of Small Palladium Clusters Pdn and Their Interaction with a COLigand (n = 1–9) '' Eur. J. Inorg. Chem. 2009, pp 3904-3911 (2009). Contact:daniel.peeters@uclouvain.be |
40. Thomas Gathy, Daniel Peeters, Tom Leyssens ``Mechanism of ketone hydrosilylation by Cu(I) catalysts: A theoretical study'' Journal of Organometallic Chemistry 694 , pp 3943-3950 (2009). Contact:daniel.peeters@uclouvain.be |
41. Helleputte T. and Dupont P. ``Feature Selection by Transfer Learning with Linear Regularized Models'' European Conference on Machine Learning (ECML), Lecture Notes in Artificial Intelligence, N°5781., pp 533-547 (Springer, 2009). Contact:thibault.helleputte@uclouvain.be |
42. Helleputte T. and Dupont P. ``artially Supervised Feature Selection with Regularized Linear Models'' 26th International Conference on Machine Learning (ICML), pp - ( , 2009). Contact:thibault.helleputte@uclouvain.be |
43. L. Brassart, I. Doghri and L. Delannay ``Self-consistent modeling of DP steel incorporating short range interactions '' International Journal of Material Forming 2, pp 447-450 (2009). Contact:laurent.delannay@uclouvain.be |
44. Delannay L., Melchior M.A., Signorelli J.W., Remacle J.-F., Kuwabara T. ``Influence of grain shape on the planar anisotropy of rolled steel sheets - Evaluation of three models'' Computational Materials Science 45, pp 739-743 (2009). Contact:laurent.delannay@uclouvain.be |
45. E. Durgun, Ph. Ghosez, R.
Shaltaf, X. Gonze and J.-Y. Raty. ``Polarization vortices in phase
change GeTe nanoplatelets : a door
to ternary logic memories '' Phys. Rev. Lett. 103, pp 247601-4 (2009). Contact:xavier.gonze@uclouvain.be |
46. J. Eiglsperger, B. Piraux and J. Madronero ``Spectral representation of the three-body Coulomb problem: Perspectives for highly doubly excited states of helium'' Physical Review A 80, pp 022511-14 (2009). Contact:bernard.piraux@uclouvain.be |
47. E. Foumouo,H. Bachau and B. Piraux ``(2gamma,2e) total and differential cross-section calculations for helium with hbar omega=40-50 eV'' Eur. Phys. J. Special Topics 175, pp 175-180 (2009). Contact:bernard.piraux@uclouvain.be |
48. J. Madronero and B. Piraux ``Explicit time-propagation method to treat the dynamics of driven complex systems'' Physical Review A 80, pp 033409-8 (2009). Contact:bernard.piraux@uclouvain.be |
49. Jean Marcel Ngoko Djiokap ``Corrélations électroniques dans l'ionisation-excitation de l'hélium par photons XUV ou électrons rapides et Anomalie du moment magnétique de l'électron dans la diffusion de Mott en champ laser intense'' Doctorat en sciences physiques, Faculté: sciences, défendu le 1 February 2009 Promoteur: Bernard Piraux |