CISM


Logo



Rapport d'activité 2006
de l'institut CISM



cover

Rédigé par Xavier Gonze et Bernard Van Renterghem (Version 3 du 28 février )
version www disponible à l'adresse http://www.cism.ucl.ac.be/Administration/Rapports/rapport2006/index.html


Le présent rapport a pour but de fournir un résumé des activités de l'institut du Calcul Intensif et du Stockage de Masse (CISM) et de l'équipe de gestion des équipements correspondants, pour l'année 2006. Le lecteur disposant de la version imprimée est invité à consulter la version électronique où les hyperliens donnent accès aux références de ce rapport. Il fait suite aux rapports annuels d'activités du CISM (2004 et 2005), et à ceux du Comité du Calcul Intensif (CCI) qui était en place avant l'existence du CISM. Les faits saillants de l'année 2006 y sont extraits d'une masse brute de procès-verbaux et de statistiques.

Pour rappel, l'équipe de gestion assure la maintenance quotidienne des équipements ainsi que le support aux utilisateurs, sous la responsabilité du Directeur du CISM, le Pr. X. Gonze. Le Conseil de direction du CISM, composé des représentants de tous les utilisateurs et présidé par le Pr. D. Peeters, se réunit régulièrement pour définir les stratégies à moyen et long terme, préparer les éventuels projets et évaluer le fonctionnement de l'institut. Les procès-verbaux de ces réunions sont disponibles pour les membres de la communauté universitaire.

1. 2006 en bref.

Lors de sa seconde année d'existence, en 2005, le CISM avait pu acquérir un serveur de calcul SUN très puissant, complété d'un système de stockage de masse sur disque. Cette infrastucture, nommée "Lemaître" avait été livrée durant le dernier quadrimestre 2005. Toutefois, certains aménagements de locaux n'ayant pas encore été finalisés, Lemaître n'avait pas pu être déployé entièrement.

En 2006, le déploiement total de Lemaître a pu être effectué, dans une nouvelle salle informatique, inaugurée le 23 juin 2006 (voir section 2.1). Ceci constitue un des points forts de l'année 2006. De manière beaucoup moins plaisante, de nombreux problèmes concernant la nouvelle infrastructure se sont présentés, déjà à la fin de l'année 2005, mais de manière soutenue durant de nombreux mois de 2006. Une bonne partie du potentiel de l'équipe de gestion a été détournée des projets initialement prévus, pour pouvoir résoudre ces problèmes, dont la responsabilité incombe principalement à la firme SUN Microsystems. Ces problèmes sont décrits dans la section 2.4 . Plusieurs compensations ont été négociées avec SUN.

En ce qui concerne les utilisateurs, malgré que l'entièreté de la puissance de calcul de Lemaître ait été disponible dès le mois d'avril 2006, il leur a fallu beaucoup de ténacité, en raison des nombreux arrêts, redémarrages ou interruptions partielles qui ont émaillé l'année 2006. La situation à la fin de l'année 2006 est tout-à-fait satisfaisante, et l'infrastructure est utilisée intensément. L'infrastructure Lemaître a été au centre d'une demi-journée scientifique sur le présent et le futur du calcul intensif, le 15 novembre 2006, voir section 4.4 .

En ce qui concerne les autres faits saillants de cette année 2006, nous noterons l'importante migration du système de stockage de masse, d'une infrastructure de bandes vers les disques attachés à Lemaître, avec déclassement final de la technologie basée sur les bandes (section 2.2). Divers serveurs de calcul ont également été déclassés (section 2.3), libérant de l'espace. Les formations ont été poursuivies (section 3). Le CISM a mis sur pied un projet interuniversitaire d'ouverture des gros équipements de calcul intensif au niveau de la communauté française (section 4.3). Il a été impliqué dans la mise sur pied d'une installation TIER2 à l'UCL, faisant partie de l'expérience CMS (CERN), voir la section 4.1 . L'interaction avec le SGSI a été particulièrement prenante cette année (section 4.2). Environ quarante publications ont bénéficié de l'apport essentiel des infrastructures CISM en 2006, voir annexe C.

2. Matériel et infrastructure

La puissance théorique maximale cumulée de l'ensemble des serveurs de calcul avait septuplé en 2005, passant à 1,9 Tflops. En 2006 le CISM offre toujours cette puissance de calcul, l'arrivée d'un serveur à 16 processeurs et 64GB de RAM ayant compensé le déclassement de machines anciennes. Un tableau récapitulatif est présenté en annexe A ; les acquisitions de l'année 2006 y sont ajoutées à  la fin.

Le service de stockage de masse met à la disposition de l'ensemble de la communauté universitaire un espace en ligne de plus de 40 Tera-Bytes. L'espace de stockage sur disque est réparti sur trois serveurs: diskus (12,2TB), lms (17,9TB) et lmstor(10,7TB). Lms et lmstor font partie de l'infrastructure du projet FNRS2004 "Lemaître". Un tableau récapitulatif est présenté en annexe B.

2.1. L'aquarium: la salle informatique B012 (PYTH02)

L'association
SGSI/SIPR-CISM en vue d'une utilisation commune de la salle B012 (PYTH02) du Bâtiment Pythagore est poursuivie. Les travaux, dirigés très efficacement par la Gestion Technique du Patrimoine de Louvain-la-Neuve (GTPL ex-MATL) ont été terminés avant la fin mai.
L'inauguration officielle de cette salle informatique, le 23 juin 2006, fut l'occasion pour les autorités (présence de Mme Kumps, administrateur général, et Mr Keunings, prorecteur) et l'ensemble de la communauté universitaire (environ 80 personnes étaient présentes) de constater l'importance de la réalisation, tant par les techniques retenues que l'usage qui en est fait.
La salle a été surnommée "Aquarium" car les services techniques de l'UCL ont opté pour un système de refroidissement par eau: produite par une batterie de froid en sous-sol, de l'eau à 14°C est amenée dans des blocs de ventilation solidaires des armoires informatiques. Les calories produites par les ordinateurs sont ainsi évacuées de manière extrêmement efficace. De plus, les équipements installés dans cette salle bénéficient d'une fiabilité accrue résultant d'une alimentation électrique redondante (à partir de deux cabines de transformation) et protégée par un onduleur. Outre l'infrastructure Lemaître, cette salle abrite une série de serveurs du SGSI répondant mieux aux besoins de haute disponibilité et de sécurisation des données critiques de l'institution: SAP, Bibliothèques, EPC, bases de données ... Les serveurs et leur stockage peuvent être répliqués entre les bâtiments des halles et du Pythagore.

2.2. Les systèmes de stockage de masse

Le système de stockage de masse sur bandes a été déclassé. Une phase de migration de 5TB de données vers les stockages sur disques a été menée durant le premier trimestre 2006.
Le système de stockage sur disques a fait l'objet de plusieurs extensions, pour pouvoir accueillir les données qui étaient sur les bandes et pour faire face à l'augmentation rapide des besoins des utilisateurs.
Le 04/09/2006, un panier de 12 disques SATA de 500GB (4TB net) est ajouté à
diskus.cism.ucl.ac.be, portant ainsi sa capacité maximale à 12TB.
Le serveur
lms.cism.ucl.ac.be ("lemaitre stockage"), un Sunfire V440 (Quadri Sparc IIIi 1.6GHz 16GB RAM) pilotait un StorEdge 3511 pour les home directories (2,7TB) et l'espace de stockage (11TB). Face aux problèmes de configuration et aux limites de performance de ce StorEdge 3511 ainsi qu'à une série de disfonctionnements de l'infrastructure de calcul livré par SUN Microsystems, le CISM a négocié et obtenu une série de compensations comprenant notamment l'installation d'une armoire à disques plus performante.
Dès lors, en juin 2006, une armoire à disques de type SUN StorEdge 6130 est venu remplacer le StorEdge 3511.
Cette armoire est équipée d'un panier de 5 disques FC de 146GB (Fiber Channel, rapide: 15000 rpm) configuré comme /fc 402GB et d'un panier de 14 disques SATA de 400GB. Pour 10 KEuro TVAc, le CISM a ajouté immédiatement un deuxième panier de 14 disques.
En septembre, le panier de 5 disques FC est complété par 9 autres disques (configurés en /fast 1.2TB) et un troisième panier de 14 disques SATA de 400GB est ajouté (pour 20 KEuro TVAc), suivi d'un quatrième panier en novembre 2006. En fin d'année, "Lemaître stockage" disposait de 27,3 TB de capacité brute, répartie notamment en 12TB pour le stockage de masse et 5.9TB pour les home directories des utilisateurs.
Le StorEdge 3511 n'a pas été déclassé pour autant. Il a été totalement reconfiguré pour être contrôlé par un serveur
storage.cism.ucl.ac.be (lmstor), un SUN Galaxy X4100 (AMD Opteron 252/2.6GHz 4GB RAM). Ce serveur faisait également partie de l'offre de compensation de SUN Microsystems. Un espace /stor3511de 7.1TB est monté en NFS par l'ensemble des noeuds de travail de la grappe Lemaître. L'unité MILA (ENGE; environnemétrie et géomatique) peut ainsi y traiter directement de grandes quantités de données.
Une autre partie du StorEdge 3511 ( /mirror 3.6TB) assure une copie synchronisée des home directories des serveurs Alpha ES40
decci.cism.ucl.ac.be d'ancienne génération, car le CISM n'a plus souhaité prolonger le contrat de maintenance de l'armoire à disques MA8000.
 Enfin, en mars 2006, Le CISM a décidé l'arrêt du serveur replicus, à la suite d'une avarie de l'armoire à disques. Pour garantir une sécurité encore plus grande des données,  une  replication "croisée" entre diskus et lms est mise en place. La réplication "croisée" signifie que certaines arborescences de diskus, choisies par les utilisateurs, sont recopiées sur lms (par rsync) et inversément.
Le serveur replicus déclassé (HP Proliant 2 Xeon/2.8GHz 1GB RAM) a été réutilisé en tant que serveur web www.cism.ucl.ac.be. L'EasyRaid X16S (3,2TB) qui y est toujours attaché a été reconditionné et est utilisé comme espace de backup de secours pour SIBX.

2.3. Déclassement des serveurs plus anciens

En 2005, 60 processeurs sur les 84 que comptait la grappe Tux avaient été déclassés. Cette année, le reste de la grappe a été limitée à 16 noeuds. L'unité CHIM a repris 15  anciens noeuds de calcul Alpha ev56 ainsi que deux ev67. SISE (ex SISC) en a repris cinq pour servir de backup de serveurs de mail. Enfin, les 14 noeuds Deepflow ainsi qu'une armoire de trois Digital Serveur 7000 ont été offerts à L'association UnixLab (UnixLab Egyesület) de l'Université de Debrecen en Hongrie.
Elle y a aménagé une salle didactique où les ordinateurs servent de stations de travail.
En août 2006, trois serveurs Alpha ES40, Decci8, 9 et 10 ont été déclassés, car leur carte mère était défaillante. La grappe Decci, qui n'est plus couverte par un contrat de maintenance, a ainsi perdu 28% de sa puissance maximale théorique, à 49 Gflops (à comparer avec les  1526 Gflops de Lemaître) mais elle rend néanmoins toujours de bons services (32 processeurs disponibles, un noeud à 32GB de RAM).

2.4. La grappe Lemaitre

Pour le projet FNRS 2004, l'offre de SUN Microsystems surpassait celle de ses concurrents en terme de puissance, mémoire et espace de stockage.
Comme il était spécifié dans leur offre, et en fonction de la mise à disposition sur le marché, des compléments en matériel ont été livrés:  fin janvier, la mémoire d'une des deux Octo-processeurs a été portée à 64GB. Enfin, en septembre, un serveur Galaxy X4600 équipé de 8 dual core AMD Opteron 885/2.6GHz et de 64GB de RAM est venu grossir les rangs des serveurs SMP de Lemaître.
Malheureusement, l'infrastructure livrée par SUN était loin d'être "prête à l'emploi" et ne répondait pas, sur certains points, aux préoccupations exprimées dans le cahier des charges. Les difficultés rencontrées ont mobilisé fortement l'attention de l'équipe de gestion:
Face à notre mécontentement, SUN Microsystems a réagit correctement, quoique de manière très lente sur certains points:
Malgré les difficultés rencontrées, l'équipe de gestion a veillé à la bonne disponibilité de l'outil qui a, tout au long de l'année, permis d'effectuer de nombreux travaux scientifiques. Le taux d'utilisation élévé en témoigne (plus de 80% durant de nombreuses semaines). Durant certaines périodes, les utilisateurs ont toutefois dû faire preuve de beaucoup de ténacité, vu les arrêts fréquents.

3. Formations

Comme les années précédentes, la formation et le suivi personnalisé des nouveaux utilisateurs ont été poursuivis, en complément de l'auto-information permise par le site Web. La salle de formation a continué de remplir son rôle: l'équipe du CISM a dispensé une séries de  séances pratiques (d'octobre à novembre 2006):

La séance d'introduction à UNIX/Linux a également été dispensée dans le cadre du cours MAPR2451, en février 2006.

4. Actions et contacts hors-CISM

4.1. Le GRID à l'UCL

La coopération FYNU-CISM
L'unité FYNU est un acteur important, au niveau belge, de l'expérience CMS (physique des hautes énergies), réalisée au CERN. Des quantités gigantesques de données vont être produites par cette expérience, et devront être réparties en temps réel, dans une infrastructure GRID mondiale composée de centres de diverses tailles, liés hiérarchiquement (un centre 'TIER' de niveau 0 au CERN, quelques 'TIER' de niveau 1, une quarantaine de 'TIER' de niveau 2, et de nombreux 'TIER 3'). En 2005, Les bases d'un projet de 5 ans pour un TIER 2 national ont été posées (40% des investissements à l'UCL, 60% VUB/ULB + UA et UMH). Ce projet a reçu l'approbation des autorités. Le centre TIER 2 belge doit proposer une puissance de calcul évolutive, qui, pour 2008, correspond très approximativement à la moitié de la puissance de calcul du CISM actuelle.
Un accord de partenariat a été établi, le 10 février 2006, entre l'unité FYNU et le CISM. Le CISM sera impliqué pour l'étude des problèmes suivants : dimensionnement de la nouvelle installation (la puissance électrique, le système de refroidissement, les UPS, la sécurité), surveillance du système en régime. L'installation TIER2 sera ouverte aux utilisateurs CISM, à concurrence d'environ 10% de la puissance totale, et seulement pour les logiciels qui seront compatibles GRID.
L'avancement du projet Tier2 UCL:
Dès le début 2006, l'installation Belgrid à l'UCL a été utilisée comme banc de test. Ce dernier était composé de 8 machines (bi-processeurs) et de 1.5 TB de stockage. Sur ce banc de test, la structure complexe des logiciels de l'expérience CMS permettant le contrôle, la gestion et le transfert de données associées a été installée.
Au mois de juin 2006, afin de permettre la certification des installations, des tests de transfert et d'écriture de fichiers ont été effectués. Pour ce faire, il était important de disposer de la plus grande bande passante possible avec l'extérieur.
Le local d'hébergement temporaire PYTH01n'étant pas encore disponible à ce moment, l'installation fut déployée en INGI, au REAUMUR, où le SRI avait déjà établi une connexion Gigabit avec Belnet pour un projet GRID INGI.
L'installation Tier2 UCL est à présent certifiée par EGEE, autorité compétente pour les projets associés à LCG, et figure sur sa liste des sites en production.
Traffic réseau Pythagore-Reaumur

Figure 1: Trafic réseau Pythagore-Reaumur pour 2006. les tests ont duré de début juin à la fin du mois d'août et sont clairement visibles en bleu.

L'étape suivante fut la préparation du CSA06 (Computing, Software and Analysis Challenge 2006), test à grande échelle utilisant 25% des ressources prévues pour les infrastructures GRID de CMS en 2008 et réunissant la plupart des laboratoires collaborant à ce projet.
Pour ces tests, FYNU a fait, avec l'IIHE (ULB-VUB), l'acquisition de 26 nouvelles machines (52 CPU dual core) et 50 TB de stockage de masse dont 17 machines et 25 TB respectivement sur le site de l'UCL. Ce nouvel équipement a été installé début octobre 2006 dans le local PYTH01 disponible tant que la puissance du TIER-2 UCL restera limitée (inférieure à 25 kW).
CSA06 s'est déroulé sur une période allant du 2 octobre au 13 novembre. La Figure 2 présente le trafic réseau entre Belnet et notre TIER-2 actuel. On y observe deux zones de forte activité. La première se situe fin septembre (semaines 38 et 39) où des tests de charges préliminaires ont été effectués. La seconde a débuté comme prévu la semaine du 9 octobre (41ème) et met en évidence les tests officiels.
Traffic réseau entre Belnet et TIER-2 UCL

Figure 2: Trafic réseau entre Belnet et le TIER-2 UCL. En bleu, le traffic entrant et en vert, le traffic sortant.

Ensuite, des jobs ont pu commencer le 17 octobre (début de la 42ème semaine). C'est ce qui est observé sur la Figure 3. Le nombre de processus en activité y est comparé pour les sites IIHE et UCL.
Nombre de processus en activité sur les deux sites du Tier2 belge.

Figure 3: Nombre de processus en activité sur les deux sites du Tier2 belge.

Prévisions de l'évolution de l'infrastructures:
2006: 34 CPU (dual core) et 25 TB (8 kW)
Avril 2007: 80 CPU (dual core) et 50 TB (17 kW)
Avril 2008: 130 CPU (dual core) et 100 TB (30 kW)
Avril 2009: 165 CPU (dual core) et 200 TB (45 kW)
Avril 2010: 215 CPU (dual core) et 350 TB (67 kW)

R. Keunings (PROR) appuie cette initiative. Le projet disposera de fonds pour engager les ressources humaines nécessaires. Le CISM apportera son expertise dans le cadre d'une coopération FYNU-CISM dont les modalités pratiques sont à l'étude: partage des ressources de la machine Tier 2 par des programmes "GRID-compatibles", définition des tâches FYNU/CISM, répartition des ressources humaines (engagement, partage des ETP).

4.2. L'implication des informaticiens CISM dans le SGSI

Les membres de l'équipe de gestion sont aussi, parallèlement/simultanément, membres du SGSI à temps partiel ou membres associés au SGSI. Ils s'implique activement dans une série de projets. En voici la liste (en général, chacune n'implique qu'un seul membre de l'équipe de gestion) :

4.3. Projet d'ouverture interuniversitaire des installations de calcul intensif de la communauté française.

Après la mise sur pied d'une commission des gros équipements pour le FNRS, et l'inventaire associé, auquel le CISM a contribué fortement, le FNRS a décidé l'attribution de postes de logisticiens de haut niveau d'une durée déterminée (4 ans). La décision a été prise en décembre 2006, et les premiers contacts en vue de la mise en place d'une structure de coordination et de concertation interuniversitaire ont été pris. Cette structure devrait permettre l'ouverture graduelle et contrôlée des équipements de calcul intensif, ainsi que l'accueil d'un ou deux logisticiens de manière à en faire bénéficier l'entièreté de la communauté.

Pour rappel, la base de donnée du FNRS reprenant la liste des gros équipements en Communauté française de Belgique (et notamment le matériel de calcul intensif) peut être consultée et modifiée en ligne.

4.4. L'inauguration scientifique de lemaitre

Le mercredi 15 novembre, le CISM a mis sur pied une demi-journée scientifique autour de 'Lemaître', ouverte hors-UCL. Après un bref mot d'introduction, par le prorecteur Keunings, deux experts étrangers (Profs. Paul Durham - Daresbury CCLRC Lab. et Matthias Kasemann -DESY Hamburg) y ont effectué des présentations, intitulées respectivement "Computational Sciences at the Peta-Scale" et "A world-wide data and computing grid for scientific data analysis". Trois autres présentations scientifiques y ont également été effectuées, par des membres de l'UCL, et une session posters a regroupé environ une trentaine de contributions. Les énoncés furent d'un très bon niveau scientifique. Les échanges furent nombreux: il y eu plus de 75 participants dont de nombreux représentants d'autres universités nationales (FUNDP, UA, ULB, ULg, VUB) ainsi que d'autres partenaires, tels que Belnet, Cenaero, Cediti.

5. 2006, et après...

En 2006, d'une part la nouvelle infrastructure 'Lemaître' acquise en 2005 a été complètement déployée dans une nouvelle salle, et d'autre part, les problèmes de mise en route de cette infrastructure ont été résolus. Cela n'a toutefois pas été sans mal. De ce fait, certains projets envisagés fin 2005 ont connu du retard, ou n'ont pas été entamés, comme la mise en route de la récupération de cycles morts de PC de salles didactiques. Néanmoins, le projet TIER 2 est en bonne voie, le stockage de masse repose maintenant entièrement sur des disques, et les tâches de formation et de support à l'utilisateur ont été assumées à la satisfaction des utilisateurs.

Grâce à l'outil disponible, environ quarante publications scientifiques ont été réalisées. La liste de ces publications est présentée en Annexe C. Le CISM n'est bien évidemment pas à même de porter un jugement sur la qualité de ces publications (et ce n'est pas son rôle). Ce nombre est en retrait par rapport aux années 2004 et 2005, d'environ 30 pourcents, et au même niveau qu'en 2003 (rapport du Comité du Calcul Intensif). En tenant compte d'un effet de retard lié au temps nécessaire entre la finalisation d'une recherche et sa publication (de 6 à 9 mois), il se peut que ce tassement corresponde à un manque de puissance de calcul durant l'année 2005, lié au vieillissement de l'installation qui était alors disponible au CISM. Il se peut également que plusieurs équipes du CISM aient connu des baisses de régime passagères, qui ne soient pas liées à la puissance de calcul du CISM.

En ce qui concerne l'année 2007, nous pouvons prévoir les activités suivantes : (1) étude prospective et achat de serveurs de calcul présentant des incidences écologiques plus favorables (consommation d'énergie) - projet introduit au FNRS par l'unité PCPM, en coordination avec le CISM ; (2) poursuite de la collaboration FYNU-CISM concernant le TIER 2 belge ; (3) redéploiement du site Web dans le cadre du portail UCL ; (4) étude et mise en oeuvre du projet de récupération de cycles morts de salles didactiques ; (5) mise en route de l'ouverture des centres de calcul intensif de la communauté française de Belgique.

La place du CISM dans le cadre du plan directeur de l'UCL, et de la possible transformation de l'académie Louvain en une seule université fera également l'objet de l'attention du CISM.


Annexe A: tableau récapitulatif des différents serveurs de calcul.

Par rapport à 2005, l'offre de puissance a peu changé: le CISM gère un total de 15 serveurs SMP, 5 grappes de calcul, disposant ensemble de 422 processeurs, de 928 GB de RAM et de 23.26 TB d'espace disque, offrant une puissance théorique maximale de 1.9 Tflops

Nom

#noeuds

#proc/noeuds

#procs

GFlops tot (peak)

RAM/noeud (GB)

Espace disque (GB)

architecture

Mis en service

Turing

1

8

8

11.25

4

81

HP N4000 PA Risc8000/360MHz

02/00

Tux

16

1

16

8

1.125

223.6

Dec WS Alpha ev56/500MHz

12/00

Decci1-7
Decci8 déclassé 08/06

7

4

28

39.37

4

1974

Compaq ES40 Alpha ev67/667MHz

12/00

Cox

11

2

22

20.48

1

224.3

Microway Intel P3/933MHz (with myrinet interconnect)

06/01

Decci9
déclassé 08/06

1

4

4

6.62

16

39

Compaq ES40 Alpha ev67/833MHz

03/02

VortX (TERM)

12

1

12

56.25

1 ou 2

169

Intel P4/2.4GHz

11/02

Decci10
déclassé 08/06

1 4

4

6.62

16

39

Compaq ES40 Alpha ev67/833MHz

01/03

Decci11

1

4

4

9.93

32

56

Compaq ES45 Alpha ev68/1250MHz

01/03

Tux front-end

1

4

4

2.4

4

318

Dec Digital 4100 Alpha ev56/600MHz

11/03

Chpit

1

4

4

24

8

62

HP rx4640 Itanium2 1500MHz

12/03

Deccint

1

2

2

2.8

4

64

Microway Alpha ev67/667MHz

10/04

Max (PCPM)
18 2 36 228 4 2946 Mac Xserve bi G5/2GHz
01/05
Cauchy (PAMO)
1 4 4 20.8 32
146
SUN V40z 4 AMD Opteron 852/2.6GHz
07/05
Lemaitre front-end 1 4 4 19.2 8 146 + 1200 (/fast) + 5900 (/home)
SUN V40z 4 AMD Opteron 850/2.4GHz 09/05
Lemaitre exec nodes 128 2 256 1331.2 4 9344 SUN V20z 2 AMD Opteron 252/2.6GHz 09/05
Lemaitre SMP
2 8
16 70.4 32 et 64
600
SUN V40z 4 Dual Core AMD Opteron 875/2.2GHz 09/05
Lm8 (INMA)
1 4 4 20.8 32 219 SUN V40z 4 AMD Opteron 852/2.6GHz 12/05
Lm140 1 16 16 83.2 64 144 SUN Galaxy X4600 8 Dual Core AMD Opteron 885/2.6GHz
09/06

Annexe B: tableau récapitulatif des différents serveurs de stockage de masse.

Nom

type de serveur

type de stockage

Espace (GB)

Mis en service

Backus
déclassé
 04/06

HP L-Class
4 PA-Risc8500/440MHz
4GB RAM

Robots à cassettes
 1. Robot HP SureStore, 4 lecteurs LTO, 60 slots, Bande LTO max 200 GB
 2. Robot HP 4853A, 3 lecteurs DLT, 30 slots, Bande DLT7000 max 70GB

10TB (permis par la licence DXUL)

04/00 (L-Class)

Diskus
HP Proliant
2 Xeon/2.8GHz 1GB RAM
Armoires à disques
1. HP StorageWorks 302969-B21, 3 inclosures (3x14 disques SCSI 146GB)
2. HP MSA20 335921-B21, 2 inclosures (2x12 disques SATA 250GB), 1 inclosure (12 disques SATA 500GB) ajoutée 09/06
12,2TB
02/04
Replicus
déclassé
04/06
HP Proliant
2 Xeon/2.8GHz 1GB RAM
Armoires à disques (pour les copies délocalisées de diskus uniquement)
 EasyRaid X16S (16 disques SATA 250GB to SCSI)
3,5TB 02/04
Lemaitre Stockage (lms)
SUN  Sunfire V440 Quadri SparcIIIi 1.6GHz 16GB RAM
Armoires à disques Sun StorEdge 6130
1x14 Fiber 146GB + 4x14 SATA 400GB 27,3TB brut)
12TB (/storage) + 5,9TB /home lm
09/05
6130: 06/06
Storage
(lmstor)
SUN Galaxy X4100
AMD Opteron 252/2.6GHz 4GB RAM
Armoires à disques Sun StorEdge FC-AL 3511 (48 SATA 400GB 19,2TB brut) 7.1TB (/stor3511)+
3.6TB (/mirror)
10/06

Annexe C: Publications de résultats ayant été obtenus grâce aux machines du calcul intensif.

Les publications peuvent être consultée en ligne depuis la  base de donnée.


1. Emmanuel Foumouo, Gerard Lagmago Kamta, Gaston Edah and Bernard Piraux ``Theory of multiphoton single and double ionization of two-electron atomic systems driven by short-wavelength electric fields: An ab initio treatment'' Physical Review A 74, pp 063409-1-22 (2006). Contact:piraux@pamo.ucl.ac.be
2. P. Hermet, N. Izard, A. Rahmani and Ph. Ghosez ``Raman Scattering in Crystalline Oligothiophenes: A Comparison between Density Functional Theory and Bond Polarizability Model'' J. Phys. Chem. B 110, pp 24869-24875 (2006). Contact:Philippe.Ghosez@ulg.ac.be
3. Tom Leyssens, Paul Geerlings and Daniel Peeters ``A conceptual group electronegativity equalization scheme, which includes the effect of the external potential.'' J. Phys. Chem. 110, pp 8872-8879 (2006). Contact:peeters@chim.ucl.ac.be
4. Porson A., Steyn D.G., Schayes G. ``Sea Breeze Scaling from Numerical Model Output Part II: Interaction between Sea Breezes and Slope Flows'' Boundary-Layer Meteorology 122, pp 31-41 (2006). Contact:a.n.f.porson@reading.ac.uk
5. C. Fantini, E. Cruz, A. Jorio, M.Terrones, H. Terrones, G. Van Lier, J.-C. Charlier, M.S. Dresselhaus, R. Saito, Y.A. Kim, T. Hayashi, H. Muramatsu, M. Endo, and M.A. Pimenta ``Resonance Raman study of linear carbon chains formed by the heat treatment of double-wall carbon nanotubes'' Physical Review B Brief Reports 73, 193408 (2006). Contact:charlier@pcpm.ucl.ac.be
6. C.P. Ewels, G. Van Lier, J.-C. Charlier, M.I. Heggie, and P.R. Briddon ``Pattern formation on carbon nanotube surfaces'' Physical Review Letters 96, 216103 (2006). Contact:charlier@pcpm.ucl.ac.be
7. S.M.-M. Dubois, G.-M. Rignanese, T. Pardoen, and J.-C. Charlier ``The ideal strength of silicon : an ab initio study'' Physical Review B 74, 235203 (2006). Contact:charlier@pcpm.ucl.ac.be
8. ARZEL O., FICHEFET T., and H. GOOSSE ``Sea ice evolution over the 20th and 21st centuries as simulated by current AOGCMs'' Ocean Modelling 12, pp 401-415 (2006). Contact:fichefet@astr.ucl.ac.be
9. E. Hanert, E. Deleersnijder, V. Legat ``An adaptive finite element water column model using the Mellor-Yamada level 2.5 turbulence closure scheme'' Ocean Modelling 12, pp 205--223 (2006). Contact:vl@mema.ucl.ac.be
10. R. Ionescu, E.H. Espinosa, E. Sotter, E. Llobet, X. Vilanova, X. Correig, A. Felten, C. Bittencourt, G. Van Lier, J.-C. Charlier, J.J. Pireaux ``Oxygen functionalisation of MWNT and their use as gas sensitive thick-film layers'' Sens. & Act. B 113, pp 36-46 (2006). Contact:gvanlier@nanoscience.be
11. C. Craeye, X. Dardenne ``Element pattern analysis of wideband arrays with the help of a finite-by-infinite array approach'' IEEE Transacations on Antennas and Propagation 54, pp 519-526 (2006). Contact:craeye@tele.ucl.ac.be
12. Vincent Deledicque & Miltiadis V. Papalexandris ``Computational study of three-dimensional gaseous detonation structures'' Combustion and Flame 144, pp 821-837 (2006). Contact:deledicque@term.ucl.ac.be
13. Xavier JANSSENS, Pierre DEFOURNY, Jean de KERMABON, Philippe V. BARET ``The recovery of the otter in the Cevennes (France): A GIS-Based Model'' HYSTRIX The Italian Journal of Mammalogy 17, pp 5-14 (2006). Contact:defourny@enge.ucl.ac.be
14. Xavier Fettweis ``Reconstruction of the 1979-2005 Greenland ice sheet surface mass balance using satellite data and the regional climate model MAR'' Doctorat en Physique, Faculté: Sciences exactes, défendu le 28 August 2006
Promoteur: Jean-Pascal van Ypersele et Hubert Gallée
15. Delannay L., Jacques P.J., Kalidindi S.R. ``Finite element modeling of crystal plasticity with grains shaped as truncated octaedrons'' International Journal of Plasticity 22, pp 1879-1898 (2006). Contact:delannay@mema.ucl.ac.be
16. Melchior M.A., Delannay L. ``A texture discretization technique adapted to polycrystalline aggregates with non-uniform grain size'' Computational Materials Science 37, pp 557-564 (2006). Contact:delannay@mema.ucl.ac.be
17. Delannay L., Jacques P.J., Pardoen T. ``Micro-macro modeling of the plastic flow of TRIP-assissted Multiphase Steel'' International Plasticity Symposium (Halifax, July 2006), pp 1-3 (Neat Press, 2006). Contact:delannay@mema.ucl.ac.be
18. Melchior M.A., Godet S., Delannay L. ``Prediction of rolling texture in TWIP steel using a multisite crystal plasticity model'' International Plasticity Symposium (Halifax, July 2006), pp 1-3 (Neat Press, 2006). Contact:delannay@mema.ucl.ac.be
19. Melchior M.A., Iker M., Godet S., Jacques P.J., Delannnay L.  ``Crystal plasticity modeling of texture development and hardening of TWIP steels'' international symposium on advanced steels (COM2006), pp 377-384 (Met. Soc. Canada, 2006). Contact:delannay@mema.ucl.ac.be
20. Melchior M.A., Iker M., Godet S., Jacques P.J., Delannnay L. ``Crystal plasticity modeling of texture development and hardening of TWIP steels'' international symposium on advanced steels (COM2006), pp 377-384 (Met. Soc. Canada, 2006). Contact:delannay@mema.ucl.ac.be
21. Goosse H, H. Renssen, A. Timmermann, R.S. Bradley and M.E. Mann ``Using paleoclimate proxy-data to select optimal realisations in an ensemble of simulations of the climate of the past millennium. '' Climate Dynamics 27, pp 165-184 (2006). Contact:hgs@astr.ucl.ac.be
22. Renssen H., V. Brovkin, T. Fichefet and H. Goosse ``Simulation of the Holocene climate evolution in Northern Africa: the termination of the African Humid Period.'' Quaternary International 150, pp 95-102 (2006). Contact:hgs@astr.ucl.ac.be
23. Renssen H., H. Goosse and R. Muscheler `` Coupled climate model simulation of Holocene cooling events: oceanic feedback amplifies solar forcing.'' Climate of the Past 2, pp 79-90 (2006). Contact:hgs@astr.ucl.ac.be
24. Aerts J. , H. Renssen, Ph. Ward, H. de Moel, E. Odada, L. Bouwer and H. Goosse  ``Sensitivity of global river discharges under Holocene and future climate conditions '' Geophysical Research Letters 33, pp L-19401 (2006). Contact:hgs@astr.ucl.ac.be
25. Goosse H., O. Arzel, J. Luterbacher, M. E. Mann, H. Renssen, N. Riedwyl, A. Timmermann, E. Xoplaki and H. Wanner ``The origin of the European "Medieval Warm Period".'' Climate of the Past 2, pp 99-113 (2006). Contact:hgs@astr.ucl.ac.be
26. Wiersma A.P., H. Renssen, H. Goosse and T. Fichefet ``Evaluation of different freshwater forcing scenarios for the 8.2 ka BP event in a coupled climate model. '' Climate Dynamics 27, pp 831-849 (2006). Contact:hgs@astr.ucl.ac.be
27. R. Cocle, L. Dufresne and G. Winckelmans ``Investigation of multiscale subgrid scale models for LES of instabilities and turbulence in wake vortex systems'' in Complex Effects in Large Eddy Simulation edited by Springer LNCSE volume, pp 153-172 (Springer, 2006) Contact:cocle@term.ucl.ac.be
28. Brovkin, V., M. Claussen, E. Driesschaert, T. Fichefet, D. Kicklighter, M.-F. Loutre, D. Matthews, D. Ramankutty, M. Schaeffer, and A. Sokolov ``Biogeophysical effects of historical land cover changes simulated by six Earth system models of intermediate complexity'' Climate Dynamics 26, pp 587-600 (2006). Contact:fichefet@astr.ucl.ac.be
29. Renssen, H., E. Driesschaert, M.-F. Loutre, and T. Fichef ``On the importance of initial conditions for simulations of the Mid-Holocene climate'' Climate of the Past 2, pp 91-97 (2006). Contact:fichefet@astr.ucl.ac.be
30. Vancoppenolle, M., T. Fichefet, and C. Bitz ``Modeling the salinity profile of undeformed Arctic sea ice'' Geophys. Res. Lett. 33, pp L21501-doi : 10.1029/2006GL028342 (2006). Contact:fichefet@astr.ucl.ac.be
31. Blondel Vincent, De Kerchove Cristobald, Huens Etienne, Van Dooren Paul ``Social leaders in graphs'' 2nd International Symposium on Positive Systems POSTA 06, Grenoble, France, August 30 - September 2, pp 231-237 (unknown, 2006). Contact:etienne.huens@uclouvain.be
32. Verstraete, Matthieu J. and Gonze, Xavier ``Phonon band structure and electron-phonon interactions in metallic nanowires'' Phys. Rev. B 74, pp 153408-4 (2006). Contact:verstraete@pcpm.ucl.ac.be
33. Solomko, V. and Verstraete, M. and Delcorte, A. and Garrison, B.J. and Gonze, X. and Bertrand, P. ``Modeling the dissociation and ionization of a sputtered organic molecule'' App. Surf. Sci. 252, pp 6459-6462 (2006). Contact:verstraete@pcpm.ucl.ac.be
34. S. M.-M. Dubois, G.-M. Rignanese, T. Pardoen, and J.-C. Charlier ``Ideal strength of silicon: An ab initio study'' Physical Review B 74, pp 235203-7 (2006). Contact:sdubois@pcpm.ucl.ac.be
35. F. Detraux, F. Finocchi, and X. Gonze ``First-principles study of PbSiO3 alamosite '' Phys. Rev. B 73, pp 165208-644 (2006). Contact:gonze@pcpm.ucl.ac.be
36. R. Caracas and X. Gonze ``First-principles study of high-temperature phases of K2SeO4'' Phys. Rev. B 74, pp 195111-4 (2006). Contact:gonze@pcpm.ucl.ac.be
37. E. Marchandise and J.-F. Remacle ``A stabilised finite element method using a discontinous level set approach for solving two phase incompressible flows'' Journal of Computational Physics 219, pp 780-800 (2006). Contact:marchandise@gce.ucl.ac.be
38. E. Marchandise and J.-F. Remacle and N. Chevaugeon ``A Quadrature free discontinuous Galerkin method for the level set equation'' Journal of Computational Physics 212, pp 338-357 (2006). Contact:marchandise@gce.ucl.ac.be
39. Porson A., Steyn D.G., Schayes G. ``Sea Breeze Scaling from Numerical Model Output Part I: Pure Sea Breezes'' Boundary-Layer Meteorology 122, pp 17-29 (2006). Contact:a.n.f.porson@reading.ac.uk
40. Sallem Wafa, Serradji Nawal, Dereuddre-Bosquet Nathalie, Dive Georges, Clayette Pascal, Heymans Françoise ``Structure-activity relationships in platelet-activating factor.14. Synthesis and biological evaluation of piperazine derivatives with dual anti-PAF and anti-HIV-1 activity'' Bioorg. Med. Chem 14, pp 7999-8013 (2006). Contact:GDive@ULg.ac.be
41. Lauvergnat David, Baloïtcha Ezinvi, Dive Georges, Desouter-lecomte Michèle ``Dynamics of complex molecular systems with numerical kinetic energy operators in generalized coordinates'' Chem. Phys. 326, pp 500-508 (2006). Contact:GDive@ULg.ac.be