+CISM


Logo



Rapport d'activité 2010

de la plate-forme technologique CISM


illustration2010

Rédigé par Damien François, Bernard Van Renterghem et Thomas Keutgen (responsable)
version www disponible à l'adresse http://www.cism.ucl.ac.be/Administration/Rapports/rapport2010/index.html


Le CISM en quelques chiffres...

Le CISM est une plateforme technologique rattachée au Secteur des Sciences et Technologies (SST), qui fournit aux chercheurs de l'Université un service de calcul intensif et de stockage de masse.

Un outil indispensable à la recherche

Les outils de calcul intensif sont utilisés dans les recherches demandant des nombreux calculs ne pouvant être pris en charge par un simple ordinateur de bureau ; simulation numérique en mécanique et physique nucléaire, modèles météorologiques, optimisation de processus pour l'ingénierie mathématique, etc.

Le stockage de masse est un service qui permet aux chercheurs de stocker, de manière sécurisée, des volumes de données cruciales pour leur recherches qui dépassent de loin ce que l'ordinateur de bureau peut accueillir.

En 2010, le CISM a permis 67 publications scientifiques, par une centaines d'utilisateurs réguliers, issus de 28 pôles de recherche de l'UCL grâce à une production cumulée de plus de 1.9M heures de calcul informatique, et au stockage et partage de plus de 100 TB de données.

Une expertise reconnue

Le CISM représente une équipe de 4 gestionnaires de haut niveau qui maintiennent un know-how de pointe en calcul scientifique et en gestion de parc informatique (dont la valeur totale est évaluée à plus de 1 M€). Cette expertise est reconnue en Communauté française de Belgique (CfB) (projet FNRS/CECI) et au fédéral (projet Begrid). Cette expertise est également reconnue au sein des services de l'Université où le CISM collabore directement dans les projets de plusieurs entités. Les formations dispensées par l'équipe du CISM ont attiré en 2010 des chercheurs de pas moins de 7 universités ou centres de recherche en CfB.

Une année 2010 riche en initiatives

L'année 2010 a vu se concrétiser des accords de coopération avec les différents centres de calcul intensif en CfB, se mettre sur pied des projets FNRS pour le financement des outils, l'étude d'une nouvelle architecture de calculateur qui semble très prometteur dans un futur proche (GPU) et la commande d'une machine de calcul unique en Belgique, qui va repousser encore, dans un futur immédiat, les limites de la recherche.


Le présent rapport a pour but de fournir un résumé des activités de la plate-forme technologique Calcul Intensif et Stockage de Masse (CISM) et de l'équipe qui en gère les équipements, pour l'année 2010. Le lecteur disposant de la version imprimée est invité à consulter la version électronique où les hyperliens donnent accès aux références de ce rapport. Il fait suite aux rapports annuels d'activités du CISM depuis 2004 et à ceux du Comité du Calcul Intensif (CCI) qui était en place avant l'existence du CISM. Les faits saillants de l'année 2010 y sont extraits d'une masse brute de procès-verbaux et de statistiques.
Pour rappel, l'équipe de gestion assure la maintenance quotidienne des équipements ainsi que le support aux utilisateurs, sous la responsabilité du Directeur du CISM. Le Conseil de direction du CISM, composé des représentants de tous les utilisateurs, de l'équipe de gestion et présidé par un académique nommé pour 4 ans, se réunit régulièrement pour définir les stratégies à moyen et long terme, préparer les éventuels projets et évaluer le fonctionnement de la plate-forme. Les procès-verbaux de ces réunions sont disponibles pour les membres de la communauté universitaire.

1. 2010 en bref


En 2010, le CISM a renforcé ses infrastructures de calcul intensif et de stockage de masse. Pour le calcul intensif, une nouvelle grappe de calcul à haute capacité mémoire (HMEM) a fait l'objet d'un appel d'offres européen et nous a été livrée en décembre. Aussi, une demande de financement pluriannuelle a été soumise au FNRS via le Consortium des Equipements de Calcul Intensif. Ce budget, s'il est octroyé, doit nous permettre, dès 2011, de remplacer l'infrastructure infiniband de Lemaitre par une machine « massivement parallèle ». Pour le stockage de masse, le démantèlement de Diskus et les besoins toujours croissants des utilisateurs ont été comblés par l'acquisition d'un nouveau serveur de disques. En ce qui concerne les autres faits saillants de cette année 2010, nous noterons: le renforcement des installations de l'Aquarium (section 2.1), l'arrivée d'un nouveau serveur GPU (section 2.6) et le déclassement de serveurs plus anciens (section 2.8); la poursuite des formations pour les utilisateurs (section 4) et enfin, l'implication de notre plate-forme dans divers projets hors CISM (section 5) en soulignant sa collaboration dans le projet d'ouverture interuniversitaire des gros équipements de calcul intensif au niveau de la communauté française (section 5.4).
67 publications ont bénéficié de l'apport essentiel des infrastructures CISM en 2010, voir annexe C.

2. Matériel et infrastructure


L'année 2010 a été marquée par l'acquisition de la première grappe de calcul ouverte aux membres du Consortium des Equipements de Calcul Intensif (CÉCI). Cette  nouvelle machine, toujours en cours de configuration, viendra renforcer notre infrastructure avec 768 nouveaux coeurs de calcul interconnectés en infiniband et surtout, 3.7 terabytes (TB) de mémoire vive répartis sur seulement 16 serveurs.
En tenant compte des ressources d'Ingrid (TIER-2 belge à l'UCL), ouvertes aux utilisateurs du CISM pour un total de 10%, la puissance théorique cumulée de nos infrastructures de calcul atteint ainsi 18.3 Tflops.
Un tableau récapitulatif est présenté en annexe A.
Pour ce qui concerne le service de stockage de masse, le remplacement de Diskus par un nouveau serveur de 42TB nous permet aujourd'hui de mettre à la disposition de l'ensemble de la communauté universitaire un espace en ligne de plus de 110TB. L'espace de stockage sur disque est réparti sur quatre serveurs: lmftp (23,9TB), lmstor (10,7TB), Storage02 (36TB) et Storage03 (42TB). Lmftp et lmstor font partie de l'infrastructure du projet FNRS2004 "Lemaitre". Ces machines plus anciennes, et donc moins fiables, n'ont pas pu, au vu des besoins toujours croissant, être arrêtées en 2010 et devront faire l'objet d'un remplacement en 2011. Un
tableau récapitulatif est présenté en annexe B.

2.1. L'aquarium : la salle informatique B012 (PYTH02)

La salle "Aquarium" B012 (PYTH02) du Bâtiment Pythagore, née des besoins conjoints de  SGSI/SIPR et du CISM, est un noeud vital de l'infrastructure informatique de l'UCL. Le système refroidissement par eau retenu par les services techniques de l'UCL est sûr et performant. L'alimentation électrique redondante (à partir de deux cabines de transformation) ainsi qu'un onduleur protègent efficacement une série d'équipements critiques. Les limitations en terme d'espace utilisable et de puissance de refroidissement dans les armoires ne nous permettaient plus d'évoluer ni de prévoir, le cas échéant, le remplacement de la grappe Lemaître par une machine plus puissante. En concertation avec SIPR qui était soumis aux mêmes contraintes que les nôtres, nous avons donc demandé à l'ADPI et à GTPL de chiffrer et planifier le renforcement de la salle.
Ce renforcement s'est déroulé en deux étapes.
La première consistait au renforcement de la dalle sur laquelle les armoires sont posées. Cette opération avait déjà eu lieu en 2009.
La seconde opération était beaucoup plus importante en terme de modification technique de l'installation. En effet, un troisième groupe frigo a été placé en cave afin de fournir suffisamment de puissance de refroidissement pour alimenter les armoires en eau froide. Un troisième échangeur a été ajouté à chaque armoire à laquelle nous avons également ajouté 20 cm de profondeur pour répondre aux critères des serveurs actuels.
Ces travaux ont eu lieu durant les mois de novembre et décembre 2010. Un ajustement des débits d'eau doit encore être programmé avant de pouvoir compter sur une capacité de refroidissement optimale des armoires.
Ces travaux nous ont déjà permis de libérer une armoire complète permettant d'accueillir notre nouvelle grappe de calcul à haute capacité mémoire (HMEM).


2.2. La salle Tier-2: La salle informatique Cyclotron (Marc de Hemptinne)

Les prévisions de croissance de l'infrastructure TIER-2 à l'UCL rendaient le déploiement d'une nouvelle salle informatique indispensable. Dans le cadre de l'accord de partenariat avec l'unité FYNU (IRMP/CP3 actuel) et fort de l'expérience acquise avec GTPL lors de l'installation de "l'Aquarium", le CISM a participé à la conception d'une nouvelle salle. SIPR est un membre du projet, et bénéficie ainsi d'une deuxième salle des machines (double localisation de serveurs critiques). Cette nouvelle salle a été construite dans le bâtiment Marc de Hemptinne et est opérationnelle depuis mai 2008.
Pour une puissance totale de refroidissement de 160 kW, 16 armoires ont été partagées entre CP3 (10), SIPR(4) et le CISM(2). Les deux armoires occupées par le CISM hébergent le cluster Green et les 36TB de stockage Storage02. Lors de l'acquisition du nouveau serveur de stockage, Storage03, n'ayant plus d'espace disponible pour l'installation de cette machine, un espace temporaire a été mis à notre disposition par les membres de CP3.
Après une première année de fonctionnement un peu laborieuse, la fiabilité de la salle semble s'être améliorée. Cette amélioration fait suite au rinçage complet de l'installation, programmé et effectué par GTPL au mois de mai 2010. Cette opération a d'ailleurs causé plusieurs arrêts complets des serveurs de GREEN.
En 2010, le SRI a installé deux nouveaux routeurs entre les salles Aquarium et Tier2 faisant passer la bande passante entre ces deux points à 10Gb/s. Ce nouveau débit devrait améliorer la communication entre les serveurs des deux salles. Les modalités d'utilisation de ces routeurs par le CISM doivent encore être discutées avec le SRI.

2.3. La grappe Lemaitre

En 2005, Lemaitre était un outil puissant et, depuis son installation,  il permet aux membres de l'UCL et à d'autres institutions (voir la coopération interuniversitaire) de réaliser de nombreux travaux scientifiques qui ne pourraient pas être entrepris sur une petite infrastructure.
L'intérêt de  Lemaitre n'a pas diminué après l'installation de Green, pourtant 5 fois plus puissant. En effet, une interconnexion rapide et à faible latence (Infiniband) permet de tourner des applications largement distribuées. Ce que ne permet pas une interconnexion classique de type Gigabit Ethernet, qui équipe la grappe Green. Les jobs parallèles importants sont d'ailleurs favorisés sur Lemaitre par la mise en place d'une queue "large_parallel" de 64 processeurs.
Depuis 2005, la puissance maximale théorique de Lemaitre n'a augmenté que de 18%, grâce à l'ajout de serveurs de calcul particuliers (SMP, mémoire vive de 128GB).
En 2009, une contribution de l'unité ASTR a permis d'augmenter la puissance de Lemaitre de 51%, à 2577.9 GFlops.
Douze HP Proliant équipés de Processeurs Intel Xeon Nehalem L5520 cadencés à 2.27GHz et de 24GB de mémoire vive, soient 96 coeurs, 384 GB RAM et 16 TB d'espace disque (lmexec-241 à lmexec-252) sont mis en place. L'intérêt de ces nouveaux serveurs ne réside pas seulement en leur puissance intrinsèque mais surtout en leur connectique Infiniband encore plus rapide. En effet, ces machines sont équipées de connexion 4xDDR à 20Gb/s alors que les anciens noeuds disposent de connexion 2xDDR à 10Gb/s).

Cette année, comme nous le verrons plus loin, nous attendons une décision du FNRS pour l'octroi d'un financement CÉCI dont l'UCL obtiendrait 500 k€ la première année. Cette somme est déjà prévue pour le remplacement complet de Lemaître par une machine « massivement » parallèle et à interconnexion rapide.

2.4. La grappe Green

Cette grappe est constituée de 6 chassis Blade Dell M1000e équipés chacun de 16 dual quad-core Xeon L5420 cadencés à 2.5GHz par blade, dont la moitié dispose de 16GB RAM et l'autre moitié de 32GB RAM. Il faut encore ajouter 6 serveurs Dell équipés des mêmes processeurs et de 16GB RAM. Green dispose donc de 816 coeurs de calcul, fournissant 8.16 Tflops de puissance théorique maximale, pour une consommation électrique ne dépassant pas 24 kW. Green est en production depuis début 2009 et reste l'infrastructure du CISM la plus utilisée actuellement.

2.5. La grappe HMEM

Les utilisateurs de plusieurs pôles de recherche, en particulier IMCN/NAPS, IMCN/MOST et ELI/ELIC, avaient émis le besoin d'acquérir une machine SMP de grande mémoire partagée (512 GB). Une demande de financement, soutenue par les membres du CÉCI, a donc été soumise aux autorités de l'UCL et envoyée au FNRS. L'objectif était de mettre en place, pour 2010, une ou plusieurs machines de ce type au service des utilisateurs de l'UCL (50%) et des membres du Consortium CÉCI (50%). Le budget a été octroyé et un appel d'offres européen a été lancé dès le mois de mai.
Dans une première étape, nous avons retenu 10 candidats dont 4 ont remis une offre complète, comprenant les résultats des benchmarks que nous avions demandés. L'analyse de ces résultats nous ont amené à sélectionner le couple ClusterVision – Dell dont l'offre s'est avérée la meilleure.
L'offre sélectionnée comprenait 16 machines 4*12 coeurs AMD Opteron 6174 dont deux de 512 GB de RAM et 14 de 128 GB. Suite à un problème de livraison nous avons obtenu en compensation le renforcement de l'infrastructure à deux unités de 512 GB de RAM, 7 unités de 256 GB et 7 unités de 128 GB.
Afin de contrôler et d'accéder à ces nouveaux noeuds de calcul, un serveur supplémentaire, de configuration beaucoup plus petite, a été acheté par le CISM pour servir de serveur d'accès. Il permettra l'identification des utilisateurs et la gestion des jobs en attente de soumission. Cette grappe étant ouverte à tous les membres du Consortium CECI, ce serveur deviendra la première brique d'un ensemble de grappes de calcul réparties sur les différents sites des universités de la Communauté française de Belgique (CfB) où les utilisateurs seront identifiés de manière unique et centralisée. Nous  reviendrons plus loin sur les difficultés techniques liées à cet objectif.
Ce nouvel ensemble est en cours de configuration et devrait être disponible dans le courant du mois de mars 2011.

2.6. Le serveur GPU (lmgpu)

Vu l'importance que prennent progressivement les processeurs GPU, processeurs utilisés par les cartes graphiques, dans le domaine du calcul intensif, le CISM a décidé d'acquérir une serveur de développement. Une machine bi-processeur quad-core X5550 (2.67GHz) a donc été ajoutée au pool CISM. Ce nouveau serveur est muni de deux carte Tesla M1060 représentant deux fois 240 coeurs GPU reliés à 4 GB de mémoire vive.
Ce nouveau serveur est une machine de développement permettant aux utilisateurs de se familiariser à l'utilisation des GPU dans leurs applications et à tester leurs codes sur une plateforme performante. Au cas où ces développements mettent en évidence le caractère incontournable de ce type de technologie pour les recherches de nos utilisateurs, il est probable que l'infrastructure GPU du CISM soit renforcée à l'avenir.
En 2010, un effort particulier a été déployé par l'équipe de gestion pour se familiariser avec cette nouvelle technologie. Un know-how a été développé dans le but d'encadrer les utilisateurs qui pourraient être attirés par ce type de solution. Afin de mettre ce travail en valeur et en faire profiter les membres de notre plate-forme, un tutorial sur le sujet sera ajouté  aux formations proposées une à deux fois par ans aux membres du CÉCI.

2.7. Les systèmes de stockage de masse


Afin de couvrir les nouveaux besoins des utilisateurs et remplacer l'espace perdu lors du déclassement de Diskus (12.2TB), un nouveau serveur de stockage, Storage03, d'une capacité de 42 TB, est venu renforcer notre infrastructure globale.
Actuellement, les quatre serveurs
storage.cism.ucl.ac.be (lmstor), lmx.cism.ucl.ac.be (lmftp). storage02.cism.ucl.ac.be et storage03.cism.ucl.ac.be fournissent à la communauté universitaire 110 TB d'espace disque en ligne. Cet espace est réparti comme suit:
Cet espace disque est sécurisé: La configuration RAID des armoires tolère la panne de disques, remplaçables à chaud. De plus, la récupération en cas de désastre est assurée par la délocalisation des serveurs (storage et lmx au Pythagore; storage02 et storage03 au Marc de Hemptinne) et la mise en place d'un système de réplication des données (activé uniquement si l'utilisateur le souhaite).
Malgré le renforcement de notre infrastructure de stockage, l'espace disque mis à disposition devrait être entièrement occupé en cours d'année 2011. De plus, certains utilisateurs tels que ELI/ELIC nous annoncent déjà une augmentation importante de leurs besoins. Il faut donc prévenir cette situation et prévoir, en 2011, l'acquisition d'espace de stockage supplémentaire. Ce nouveau renforcement devrait nous amener à presque doubler l'espace de stockage disponible.

2.8. Déclassement des serveurs plus anciens

Cette année, seul le serveur Diskus a été déclassé. Ce serveur de stockage, acquis en 2004, n'était plus sous garantie depuis un an. Même si ses 12.2 TB restent toujours accessibles et fonctionnels, il nous semble dangereux de maintenir cette ancienne machine en service, au risque de perdre des données.

3. Le CISM, plate-forme technologique


Dans les évènements importants qui ont animés notre plate-forme cette année, il faut certainement mentionner le dépôt de notre Règlement d'Ordre Intérieur (ROI) auprès du Secteur des Sciences et Technologies (SST). Ce règlement sera bientôt publié sur le portail de l'Université à la page: http://www.uclouvain.be/reglements.html.
Un autre événement important est bien sûr le départ de Fabrice Charlier qui est allé renforcer l'équipe de SIPR à la mi-mars. Un appel à candidature a donc été publié et dès le mois de septembre, Damien François, ex ICTEAM, a rejoint notre équipe.
Enfin, la nouvelle structure de l'université nous impose de remanier la hiérarchie des répertoires des utilisateurs et, ainsi, nous conformer à la nomenclature de pôles de recherche actuels. Ce remaniement est d'autant plus important qu'aujourd'hui au CISM, l'organisation des fichiers s'articulent encore sur les anciennes unités, éliminées dans le nouvel organigramme de l'UCL. Un travail de longue haleine a donc été entrepris pour remédier à cette situation.
Ce travail a d'abord consisté à l'identification du nouveau pôle de recherche de chaque utilisateur. Une base de données MySQL, contenant, pour chaque utilisateur, la correspondance ancienne unité – pôle de recherche, a été générée. C'était l'occasion également pour mettre à jour les informations utiles associées à chaque login et éliminer les comptes inutilisés de longue date.
Dans un second temps, la hiérarchie des répertoires devra être modifiée en ce sens et un nouveau groupe sera assigné à chaque fichier existant. Les chemins correspondant à l'ancienne arborescence seront toujours valides grâce à la mise en place de liens symboliques. Cette dernière étape, la plus sensible, est prévue pour 2011.

4. Formations

Comme les années précédentes, la formation et le suivi personnalisé des nouveaux utilisateurs ont été poursuivis, en complément de l'auto-information permise par le site Web, dont la partie FAQ (Foire Aux Questions/Frequently Asked Questions) a été mise à jour, étendue, et traduite en anglais pour ce qui concerne le calcul intensif. Cette nouvelle version est disponible sur le wiki utilisateur. La partie stockage de masse subira le même sort dans le courant 2011.
Les formations ont attiré une quarantaine de personnes pour les séances généralistes, et entre 10 et 15 personnes pour les séances plus spécialisées. Ces chercheurs venaient de 7 universités ou centres de recherche en Communauté française (7 FUNDP, 1 UMons, 1 FUSL, 13 ULg-Gembloux, 6 ULg, 16 UCL, 1VKI). Devant l'importance de l'assistance, et pour assurer un niveau de formation élevé, le groupe a été scindé en deux parties, et les formations ont été données deux fois chacune.
L'ouverture interuniversitaire s'est poursuivie et s'est étendue lors de ces formations: outre David Colignon, collaborateur logistique du F.R.S.-FNRS CECI qui a donné, comme l'année passée trois formations (MPI-1 et MPI-2, OpenMP), Bertrand Chenal, également collaborateur logistique au F.R.S-FNRS CECI, a donné une formation d'introduction à Python. 

Les formations dispensées cette année

5. Actions et contacts hors-CISM

5.1. Le GRID à l'UCL

La coopération FYNU-CISM

Le projet TIER-2 belge a été accepté au début 2006 et consiste à se doter des moyens nécessaires à l’acquisition et au fonctionnement d’un noeud de calcul destiné à être intégré dans la grille mondiale de calcul WLCG (Worldwide LHC Computing Grid), pour le stockage et l’analyse de données des expériences auprès du Large Hadron Collider du CERN. Le TIER-2 belge est constitué de deux sites séparés, l’un à l’UCL et l’autre à l’Institut Interuniversitaire des Hautes Energies IIHE de l’ULB/VUB.
L'accord de partenariat établi en 2006 entre l'unité FYNU (actuellement IRMP/CP3) et le CISM est toujours en application. La nouvelle salle TIER-2 étant en fonctionnement depuis 2008, le CISM a essentiellement collaboré dans la surveillance du système en régime. L'installation TIER-2  baptisée "Ingrid" est ouverte aux utilisateurs du CISM, à concurrence d'environ 10% de la puissance totale, soit environ 478 Gflops actuellement.

La participation au projet BeGrid

Cette année, malgré la formation organisée fin 2009, très peu d'utilisateurs du CISM ont montré de l'intérêt pour cette nouvelle plate-forme. La complexité technique existante pour pouvoir accéder à la Grille et y soumettre ses applications est apparue souvent comme un obstacle suffisant pour décourager les utilisateurs potentiels.
Cette observation est d'ailleurs identique dans les autres centres partenaires de BeGrid.
De plus, n'ayant pas de budget spécifique à ces développements, l'infrastructure, mise en place à l'UCL en 2009, est composée de machines assez anciennes, récupérées de grappes de calcul démantelées. L'objectif était au départ de mettre en place un banc de test et non de directement proposer une plate-forme de production. Aujourd'hui, ces machines ne présentent plus les garanties de sécurité suffisantes pour rester en fonctionnement. Nous avons donc décidé de les arrêter en attendant la disponibilité de nouvelles machines.
Dans ces conditions, tant que l'intérêt des utilisateurs reste peu marqué, nous ne dépenserons plus trop d'énergie et essayerons d'assurer un service minimum. Nous restons cependant à l'écoute de nos collaborateurs dans le projet pour répondre éventuellement à des demandes spécifiques.

5.2. L'implication des informaticiens CISM dans le SGSI

Les membres de l'équipe de gestion sont également membres associés du SGSI. Ils suivent avec attention et se conforment aux décisions prises par les autorités en terme d'orientation du Système de l'Information. Ils s'impliquent activement dans des projets et assistances rapprochées, où leurs domaines d'expertise peuvent être utiles. En 2010, cette collaboration s'est formalisée essentiellement dans la gestion des deux salles Aquarium et Tier2.
Pour rappel, le CISM occupe actuellement 13% de la salle Tier2 qu'il partage avec CP3 et SIPR, et 50% de la salle Aquarium dont le reste profite aux serveurs de SIPR. Dès leur création, une gestion commune des salles a été mises en place et les systèmes de monitoring et de gestion développés par une des entités est, pour l'essentiel, mis à disposition des autres. De même, la surveillance des pannes et les contacts avec GTPL sont partagés via une mailing list s'adressant sans distinction à tous les gestionnaires de salles.
Lorsque des travaux ou transformations importants s'avèrent nécessaires, l'avis des autres entités est pris en compte afin, si possible, d'en faire bénéficier l'ensemble des utilisateurs des salles. Cela a été les cas cette année lors du projet de renforcement du système de refroidissement de la salle Aquarium.

5.3. La Collaboration avec la plate-forme Support en Méthodologie et Calcul Statistique (SMCS).

L'année 2010 a vu se mettre en place une collaboration structurelle entre le CISM et le SMCS. Le SMCS (Service de Modélisation et Calcul Statistique - http://www.uclouvain.be/smcs.html) est une plateforme technologique de l'UCL qui fournit un service d'aide statistique aux chercheurs et mémorants, tant au niveau des concepts statistiques (tests d'hypothèses, plan d'expérience, etc.) que des logiciels informatiques (R, SAS, SPSS, etc).
Le SMCS propose également à ses utilisateurs l'accès à des serveurs de calcul sur lesquels sont installés ses logiciels statistiques.
Dans le cadre de la collaboration entre le CISM et le SMCS, ces serveurs de calcul seront dorénavant gérés (hébergement, connexions, hardware, système d'exploitation) par le CISM. La gestion des installations et licences des outils statistiques reste par contre du ressort du SMCS.
Le CISM fournira donc son expérience/know-how en gestion de parc informatique orienté calcul scientifique, permettant au SMCS de se recentrer sur ses activités liées aux statistiques. Le SMCS fournira son expertise en logiciels statistiques (notamment R), qui sont de plus en plus demandés par les utilisateurs du CISM.
Une première machine a été déménagée dans la salle Pyth03.

5.4. Projet d'ouverture interuniversitaire des installations de calcul intensif de la communauté française.

Pour rappel, Le CÉCI - Consortium des Équipements de Calcul Intensif - a été mis sur pied suite à la décision du F.R.S.-FNRS de soutenir le projet "Ouverture interuniversitaire des gros équipements de calcul intensif en Communauté française: accès, formation, information, technologie Grid, inventaire et synchronisation des ressources matérielles et logicielles", en permettant l'engagement d'un logisticien, le Dr. David Colignon, en mars 2008.
Le comité de coordination, comportant des représentants de chacun des gros équipements du CÉCI, s’est réuni dès 2007 pour mettre en place un bureau dont la mission est de piloter les actions du logisticien.
En 2009, un avenant a été déposé au FNRS, pour ce projet, demandant l'engagement d'un second logisticien chargé de l'étude des aspects techniques de la mise en commun d'équipements de calcul intensif entre les institutions présentes dans le Consortium (FUNDP, UCL, ULB, Ulg et UMH). Cette demande a été approuvée par le FNRS et un nouveau logisticien, Bertrand Chenal, a été engagé en mars 2010.
Ce partage de ressources nécessite la signature d'un accord de Consortium. Ce document a été rédigé en 2010 et présenté à Madame Halloin, Secrétaire Générale du FNRS, et aux recteurs des cinq universités de la CfB. Signé par toutes les parties le 9 novembre 2010, il officialise ainsi l'existence du Consortium.
D'autre part, afin d’encadrer les échanges scientifiques, un groupe de contact « Calcul Intensif » FNRS a été créé dès juillet 2008. B. Champagne (FUNDP) en est le président et D. Colignon le secrétaire. Le 8 mai 2009, une première journée scientifique a été organisée à l'ULB. Cette journée a réuni environ 50 participants qui ont pu partager leur expérience dans l'utilisation du calcul intensif dans leurs projets de recherche. Une seconde journée s'est déroulée à Mons (UMH) en avril 2010 pour un nombre de participants équivalent. La prochaine réunion est prévue à Liège (Ulg) le 28 avril 2011.
Enfin, en ce qui concerne les équipements, le CÉCI a soutenu le projet de B. Piraux, D. Peeters et H. Goosse (UCL) pour l'achat de serveurs à haute capacité mémoire (512 GB). Un budget a été octroyé par le FNRS pour l'acquisition de ces serveurs qui ont été livrés au CISM en décembre 2010 (voir HMEM). En contrepartie, l'UCL s'engage à partager 50% de la machine avec les chercheurs des autres membres du Consortium.
Cette première machine partagée pour 50% avec tous les chercheurs du CÉCI est l'occasion de mettre en place un tout nouveau système d'identification des utilisateurs. Ce système comprendra un serveur LDAP central accessible via une interface WEB où chaque utilisateur viendra remplir sa demande d'identifiant. Chaque centre de calcul s'appuiera sur un serveur LDAP local synchronisé automatiquement avec le serveur central. Ce système permettra à chaque utilisateur d'accéder à toutes les machines du CÉCI en utilisant le même identifiant. Le développement de ce nouveau système a été pris en charge par Bertrand Chenal (logisticien FNRS), pour l'interface WEB, et l'équipe de gestion, pour la couche LDAP, et devrait entrer en production sur la grappe HMEM.
Pour l'avenir, un plan interuniversitaire pluriannuel d'investissement a été déposé au FNRS en septembe 2010. Ce plan a pour but d'expliquer comment nous envisageons le renforcement du calcul intensif en communauté française de Belgique ces prochaines années. Dans ce projet, les demandes de financement n'émanent plus de promoteurs de recherche mais du CÉCI lui-même. Ce projet s'articule sur un budget annuel de 1M€ sur cinq ans à répartir entre les cinq partenaires et dédié uniquement à l'acquisition d'équipement de calcul intensif. Ces équipements seraient alors ouverts à 100% à tous les membres du Consortium.
Pour plus de détails sur le CÉCI, nous vous invitons à visiter le site: « http://hpc.montefiore.ulg.ac.be ».

6. 2010 et au delà...


L'année 2011 sera une année charnière, qui décidera du fonctionnement futur de notre plate-forme. En effet, comme nous l'avons vu plus haut, le CÉCI est en attente d'une réponse du FNRS suite à une demande de financement de l'ordre de 1 M€ pour 5 ans à répartir dans les 5 universités de la CfB. Dans ce projet, il est prévu que l'UCL reçoive 500 k€ en 2011, 500 k€ en 2013 et 400 k€ en 2015. Ces sommes importantes seront investies dans une infrastructure massivement parallèle qui prendra la place des 6 armoires de l'Aquarium, occupées aujourd'hui par la grappe Lemaître. Le renforcement de la salle en terme de puissance de refroidissement qui a été effectué cette année, devrait permettre l'accueil de cette nouvelle machine.
Cette nouvelle machine étant ouverte à tous les chercheurs de la CfB, un système d'identification centralisée des utilisateurs sera mis en place et fait déjà l'objet, aujourd'hui, d'un travail de développement des logisticiens CÉCI et des membres du CISM (voir sections 2.5 et 5.4). La mise en place d'un système de fichiers partagés sur les différents centres de calcul du CÉCI devrait être la prochaine étape à suivre.
Ce nouvel environnement modifiera quelque peu le fonctionnement de notre plate-forme. En effet, une partie des décisions sur la gestion des machines et des priorités des utilisateurs sur les différentes grappes de calcul seront prises au niveau du bureau du CÉCI et non plus lors du Conseil de gestion du CISM. Il faudra donc s'assurer de la bonne représentation de nos utilisateurs au sein de ce bureau.
La nouvelle grappe HMEM, en cours de configuration, devrait entrer en production dans le courant du mois de mars 2011. Pour cette nouvelle machine, des recherches ont été engagées pour trouver un remplaçant au système de gestion de jobs SGE (Sun Grid Engine) dont la version utilisée sur Lemaître et Green reste incomplète et le suivi par Oracle incertain. Un bon candidat semble ressortir du lot. Il s'agit de SLURM, déjà fort utilisé dans la communauté du calcul intensif. Ce nouveau gestionnaire sera évalué début 2011 et, en cas de satisfaction, sera proposé aux utilisateurs de la nouvelle grappe.
De nombreux utilisateurs nous ont déjà transmis leur impatience pour pouvoir accéder à cette nouvelle machine à haute capacité mémoire.
Par ailleurs, les développement effectués sur le serveur GPU nous ont permis d'acquérir de l'expérience dans ce domaine. Un tutorial est en préparation sur le sujet et devrait venir s'ajouter aux formations proposées chaque année aux utilisateurs du CÉCI.
Enfin, le stockage de masse doit également être renforcé. Notre projet est de quasi doubler l'espace disponible actuel. Un appel d'offre est déjà en cours de réalisation.

Annexe A: tableau récapitulatif des différents serveurs de calcul.

Par rapport à 2009, l'offre de puissance est restée relativement stable (+7,5%) en attendant les nouveaux projets de 2011: le CISM gère un total de 5 infrastructures différentes, disposant ensemble de 1284 coeurs, de 4008 GB de RAM et de 48 TB d'espace disque, offrant une puissance théorique maximale d'un peu plus de 18.3 Tflops.

Nom

#noeuds

#core/noeuds

#core

GFlops tot (peak)

RAM/noeud (GB)

Espace disque (GB)

architecture

Mis en service

Decci11

1

4

4

9.93

32

56

Compaq ES45 Alpha ev68/1250MHz

01/03

Chpit

1

4

4

24

8

62

HP rx4640 Itanium2 1500MHz

12/03

Max (PCPM)
18 2 36 228 4 2946 Mac Xserve bi G5/2GHz
01/05
Cauchy (PAMO)
1 4 4 20.8 32
146
SUN V40z 4 AMD Opteron 852/2.6GHz
07/05
Lemaitre front-end 1 4 4 19.2 8 146 + 1200 (/fast) + 5900 (/home)
SUN V40z 4 AMD Opteron 850/2.4GHz 09/05
Lemaitre exec nodes 128 2 256 1331.2 4 9344 SUN V20z 2 AMD Opteron 252/2.6GHz 09/05
Lemaitre SMP
2 8
16 70.4 32 et 64
600
SUN V40z 4 Dual Core AMD Opteron 875/2.2GHz 09/05
Lm8 (INMA)
1 4 4 20.8 32 219 SUN V40z 4 AMD Opteron 852/2.6GHz 12/05
Lm140 1 16 16 83.2 64 144 SUN Galaxy X4600 8 Dual Core AMD Opteron 885/2.6GHz
09/06
Ingrid (FYNU)
7
+
16
+
17

+
32
2

8

4


8
14

128

68


256
61.6

1536

625.6


2560
( tot 10% CISM = 478.3)

4

4

16


16
511

25TB

20TB


3x36TB
SUN V20z 2 AMD Opteron 252/2.2GHz

SuperMicro Twin 2 QuadCore Intel Xeon 3GHz

Dell DualCore Intel Xeon 5345 2.3GHz

Blade HP Dual QuadCore Intel Xeon L5420/2.5GHz
01/07



09/07

09/08
Green (PCPM)
103 8 824 8240 47 à 16
56 à 32
11TB
(/home)
102 (+front-end) Dual Quad-Core Xeon L5420/2.5GHz in Dell Blade M1000e
09/08
Lm143-Lm144-Lm145
(PCPM)
3 8 24 144 128 1TB 3 Transtec Calleo530 4 Dual Core AMD Opteron 8222SE/3GHz
10/08
Cauchy2 (PAMO) 1 4 4 36.8 64 860 SUN Galaxy X2200 2 Quad-Core AMD Opteron 2356/2.3GHz
11/08
Lm241 à Lm252
(ASTR)
12 8
96
872
24
16TB 12 HP Proliant 2 Quad-Core Intel Xeon L5520/2.27GHz
10/09
Lmgpu 1
8
8
85.4 (GPU: 624)
24
1TB
1 SuperMicro 2 Quad-Core Intel Xeon X5550/2.67GHz
02/10
HMEM Frontend
1
12
12
125
64
11TB
1 Dell PE R515 2 AMD Opteron 4180/2.6GHz
12/10
HMEM
16
48
768
6758
2 à 512
7 à 256
7 à 128
26TB
14 Dell PE R815 4 AMD Opteron 6174/2.2GHz
12/10

Annexe B: tableau récapitulatif des différents serveurs de stockage de masse.

Le CISM offre un espace de stockage en ligne de 110TB, réparti principalement sur 4 serveurs:  storage, lmftp, storage02 et storage03.

Nom

type de serveur

type de stockage

Espace (GB)

Mis en service

Diskus déclassé 12/10

HP Proliant
2 Xeon/2.8GHz 1GB RAM
Armoires à disques
1. HP StorageWorks 302969-B21, 3 inclosures (3x14 disques SCSI 146GB)
2. HP MSA20 335921-B21, 2 inclosures (2x12 disques SATA 250GB), 1 inclosure (12 disques SATA 500GB)
12,2TB
02/04
Storage
(lmstor)
SUN Galaxy X4100
AMD Opteron 252/2.6GHz 4GB RAM
Armoires à disques Sun StorEdge FC-AL 3511 (48 SATA 400GB 19,2TB brut) 7.1TB (/stor3511)+
3.6TB (/mirror)

10/06
Lemaitre ftp (lmx) SUN Galaxy X4200 2 dual core AMD Opteron 2.6GHz  16GB RAM
1x14 Fiber 146GB + 4x14 SATA 400GB 27,3TB brut + 1x16 SATA 500 GB 8 TB brut 03/07) 12TB+6TB (/storage) - 5.9TB /home sur lmx4500
+ 6TB ajouté à /storage
06/07
(6130: 06/06) +02/08
Lmx4500 SUN Galaxy X4500 2 dual core AMD Opteron 2.8GHz  16GB RAM 48 SATA 500 GB 10TB (/home) et 1.2TB (/fast)
02/08
Storage02 SUN Galaxy X4540 2 Quad core AMD Opteron 2.3GHz 32GB RAM
48 SATA 1TB, 36TB net
36TB (/storage) 12/08
Storage03 Transtec Calleà 344 2 Quad-core Xeon E5506@2.13GHz 24GB RAM
30 SATA 2TB, 2 SSD 64GB (cache zfs), 42TB net
42TB (/storage)
05/10

Annexe C: Publications de résultats ayant été obtenus grâce aux machines du calcul intensif.

Les publications peuvent être consultées en ligne depuis la  base de donnée.


1. J.-M. Alimi, A. Fuzfa, V. Boucher, Y. Rasera, J. Courtin and P.-S. Corasaniti ``Imprints of dark energy on cosmic structure formation – I. Realistic quintessence models and the non-linear matter power spectrum'' Monthly Notices of the Royal Astronomical Society 401, pp 775-790 (2010). Contact:vincent.boucher@uclouvain.be
2. L. Brassart, I. Doghri and L. Delannay ``Homogenization of elasto-plastic composites coupled with a nonlinear finite element analysis of the equivalent inclusion problem'' International Journal of Solids and Structures 47, pp 716-729 (2010). Contact:laurent.delannay@uclouvain.be
3. Nadia Meddad-Belhabich, Darina Aoun, Atimé Djimdé, Catherine Redeuilh, Georges Dive, France Massicot, François Chau, Françoise Heymans, Aazdine Lamouri ``Design of new potent and selective secretory phospholipase A2 inhibitors. 6- Synthesis, structure-activity relationships and molecular modelling of 1-substituted-4-[4,5-dihydro-1,2,4-(4H)-oxadiazol-5-one-3yl(methyl)]-functionalized aryl piperazin/one/dione derivatives'' Bioorg. Med. Chem. 18, pp 3588-3600 (2010). Contact:GDive@ULg.ac.be
4. Emmanuel de Coninck ``Modélisation de l'indice CAC40 à l'aide d'un modèle logistique chaotique.'' Doctorat en Gestion des risques financiers, Faculté: Facultés Universitaires de Saint Louis, défendu le 24 June 2010 Promoteur: Mr Serge Wibaut
5. Delphine Castagne, Georges Dive, Brigitte Evrard, Michel Frédérich, Géraldine Piel ``Spectroscopic studies and molecular modeling for understanding the interactions between cholesterol and cyclodextrines'' J. Pharm. Pharmaceut. Sci. 13, pp 362-377 (2010). Contact:GDive@ULg.ac.be
6. Aline Sliwa, Georges Dive, Jean-Louis Habib Jiwan, Jacqueline Marchand-Brynaert ``Cyclodimerization by ring-closing metathesis: synthesis, computational and biological evaluation of novel bis-azetidinyl-macrocycles'' Tetrahedron 66, pp 9519-9527 (2010). Contact:GDive@ULg.ac.be
7. Robert, F.; Naik, A.D.; Hidara, F.; Tinant, B.; Robiette, R.; Wouters, J.; Garcia Y. ``Engineering Solid-State Molecular Switches N-salicylidene N-Heterocycle Derivatives'' Eur. J. Org. Chem. 4, pp 621-637 (2010). Contact:raphael.robiette@uclouvain.be
8. Jean-Christophe Monbaliu, Bernard Tinant, Daniel Peeters, Jacqueline Marchand-Brynaert ``Novel chiral 1-phosphono-1,3-butadiene for asymmetric hetero Diels–Alder cycloadditions with nitroso and azodicarboxylate dienophiles'' Tetrahedron Letters 51 , pp 1052-1055 (2010). Contact:daniel.peeters@uclouvain.be
9. Xavier Lories, Jacques Vandooren, Daniel Peeters ``Cycle formation from acetylene addition on C4H3 radicals'' Physical Chemistry Chemical Physics (PCCP 12, pp 3762-3771 (2010). Contact:daniel.peeters@uclouvain.be
10. Giuseppe Zanti, Daniel Peeters ``DFT study of bimetallic palladium – gold clusters PdnAum of low nuclearities (n + m ≤ 14)'' J. Phys. Chem. A 114, pp 10345-10356 (2010). Contact:daniel.peeters@uclouvain.be
11. Jean-Christophe Monbaliu, Georges Dive, Jacqueline Marchand-Brynaert and Daniel Peeters ``HD-A Cycloadditions of 1-diethoxyphosphoryl-1,3-butadiene with nitroso- and azo- heterodienophiles: a theoretical investigation '' J. Mol. Struct. (THEOCHEM) 959, pp 49-54 (2010). Contact:daniel.peeters@uclouvain.be
12. De Visscher, I.; Winckelmans, G. & Bricteux, L. ``LES of aircraft wake vortices evolving in a stably stratified and weakly turbulent atmosphere'' V European Conference on Computational Fluid Dynamics (ECCOMAS CFD 2010), pp --- (Pereira, J. C. F. & Sequeira, A. (Eds.), 2010). Contact:ivan.devisscher@uclouvain.be
13. K. Hamraoui, A. Delcorte  ``Effects of molecular orientation and size in sputtering of model organic crystals'' J. Phys. Chem. C 114, pp 5458-5467 (2010). Contact:arnaud.delcorte@uclouvain.be
14. O. Restrepo, A. Prabhakaran, K. Hamraoui, N. Wehbe, S. Yunus, P. Bertrand, A. Delcorte ``Mechanisms of metal-assisted secondary ion mass spectrometry: a mixed theoretical and experimental study'' Surf. Interface Anal. 42, pp 1030-1034 (2010). Contact:arnaud.delcorte@uclouvain.be
15. A. Delcorte, P. Bertrand, B. J. Garrison, K. Hamraoui, T. Mouhib, O. A. Restrepo, C.N. Santos, S. Yunus ``Probing soft materials with energetic ions and molecules: From microscopic models to the real world'' Surf. Interface Anal. 42, pp 1380-1386 (2010).
Contact:arnaud.delcorte@uclouvain.be
16. Aude Simar, Kim Nielsen, Bruno de Meester, Thomas Pardoen and Viggo Tvergaard ``Strain hardening and damage in 6xxx series aluminum alloy friction stir welds'' Materials Science Forum 638-642, pp 333-338 (2010).
Contact:aude.simar@uclouvain.be
17. Kim Nielsen, Thomas Pardoen, Viggo Tvergaard, Bruno de Meester and Aude Simar ``The effect of stage IV hardening on plastic flow localisation and damage development in friction stir welded 6005A aluminium alloy'' International Journal of Solids and Structures 47(18-19), pp 2359-2370 (2010).
Contact:aude.simar@uclouvain.be
18. Aude Simar, Caroline Jonckheere, Kevin Deplus, Thomas Pardoen and Bruno de Meester ``Comparing similar and dissimilar friction stir welds of 2017 – 6005A aluminium alloys'' Science and Technology of Welding and Joining 15(3), pp 254-259 (2010).
Contact:aude.simar@uclouvain.be
19. Aude Simar, Kim Nielsen, Bruno de Meester, Thomas Pardoen and Viggo Tvergaard ``Micro-mechanical modelling of ductile failure in 6005A aluminium using a physics based strain hardening law including stage IV'' Engineering Fracture Mechanics 77(13), pp 2491-2503 (2010).
Contact:aude.simar@uclouvain.be
20. T. Pardoen, F. Scheyvaerts, A. Simar, C. Tekoğlu, P.R. Onck ``Multiscale modeling of ductile failure in metallic alloys'' Comptes Rendus Physique 11, pp 326-345 (2010).
Contact:thomas.pardoen@uclouvain.be
21. Aude Simar, Yves Bréchet, Bruno de Meester, Anne Denquin and Thomas Pardoen ``Integrated modelling of friction stir welding in 6xxx series aluminium alloys'' 8th International Symposium on Friction Stir Welding, pp 1-16 (TWI-Cambridge, 2010).
Contact:aude.simar@uclouvain.be
22. Yin Q.Z and Berger A. ``Insolation and CO2 contribution to the interglacial climate before and after the Mid-Brunhes Event'' Nature Geoscience 3, pp 243-246 (2010).
Contact:qiuzhen.yin@uclouvain.be
23. Berger A., Loutre M.F., and Yin Q.Z. ``Total irradiation during any time interval of the year using elliptic integrals'' Quaternary Science Reviews 29, pp 1968-1982 (2010).
Contact:andre.berger@uclouvain.be
24. Benjamin de Brye, Anouk de Brauwere, Olivier Gourgue, Tuomas Kärnä, Jonathan Lambrechts, Richard Comblen and Eric Deleersnijder ``A finite-element, multi-scale model of the Scheldt tributaries, river, estuary and ROFI'' Coastal Engineering 57, pp 850-863 (2010).
Contact:benjamin.debrye@uclouvain.be
25. M. Grüning, R. Shaltaf, and G.-M. Rignanese ``Quasiparticle calculations of the electronic properties of ZrO2 and HfO2 polymorphs and their interface with Si'' Phys. Rev. B 81, pp 035330-7 (2010).
Contact:gian-marco.rignanese@uclouvain.be
26. G. Pourtois, K. Sankaran, I. Radu, R. Degraeve, M. B. Zahid, S. Van Elshocht, C. Adelmann, S. De Gendt, M. M. Heyns, D. J. Wouters, J. A. Kittl, M. Jurczak, G.-M. Rignanese, and J. Van Houdt ``First-Principles Investigation of High-k Dielectrics for Nonvolatile Memories'' Electrochem. Soc. Trans. 33, pp 393-407 (2010).
Contact:gian-marco.rignanese@uclouvain.be
27. K. Sankaran, G. Pourtois, R. Degraeve, M. B. Zahid, G.-M. Rignanese, and J. Van Houdt'  ``First-principles modeling of intrinsic and extrinsic defects in γ-Al2O3'' Appl. Phys. Lett. 97, pp 212906-3 (2010).
Contact:gian-marco.rignanese@uclouvain.be
28. R. Caracas and X. Gonze ``Ab Initio lattice dynamics and thermodynamical properties '' in Thermodynamic Properties of Solids : experiment and modeling  edited by S. Chaplot, R. Mittal, and N. Choudhury , pp 291-312 (Wiley-VCH, Weinheim, Germany, 2010)
Contact:xavier.gonze@uclouvain.be
29. C. Motta, M. Giantomassi, M. Cazzaniga, K. Ga’al-Nagy, and X. Gonze ``Implementation of techniques for computing optical properties in 0-3 dimensions, including a real-space cutoff, in ABINIT'' Comput. Mater. Sci. 50, pp 698-703 (2010).
Contact:xavier.gonze@uclouvain.be
30. Javier Madroñero et Bernard Piraux ``The dynamics of the ionization of atoms exposed to strong low-frequency fields'' in Journal of Physics: Conference series 212 (2010) 012027 edited by N.L.S. Martin & B.A. deHarak, pp 1-6 (IOP (Institute of Physics) Publishing, 2010)
Contact:bernard.piraux@uclouvain.be
31. Johannes Eiglsperger, Bernard Piraux, Javier Madroñero ``Spectral representation of the three-body Coulomb problem: I. Nonautoionizing doubly excited states of high angular momentum in helium'' Physical Review A 81, pp 042527-1-042527-6 (2010).
Contact:bernard.piraux@uclouvain.be
32. Johannes Eiglsperger, Bernard Piraux, Javier Madroñero ``Spectral representation of the three-body Coulomb problem. II Autoionizing doubly excited states of unnatural parity in helium'' Physical Review A 81, pp 042528-1-042528-9 (2010).
Contact:bernard.piraux@uclouvain.be
33. E. Foumouo, A. Hamido, Ph. Antoine, H. Bachau, R. Shakeshaft ``Time-dependent analysis of the mechanism for two-photon double escape in helium: from very long to attosecond time scales'' J. Phys. B:At. Mol. Opt. Phys. 43, pp 091001-1-091001-9 (2010).
Contact:bernard.piraux@uclouvain.be
34. J.M. Ngoko Djiokap, E. Foumouo, M.G. Kwato Njock, X. Urbain, B. Piraux ``Electron-impact ionization excitation of helium in the quasiphoton regime'' Physical Review A 81, pp 042712-1-042712-8 (2010).
Contact:bernard.piraux@uclouvain.be
35. O. Chuluunbaatar, H. Bachau, Y. Popov, B. Piraux, K. Stefanska ``Two-photon double ionization of atoms in attosecond x-ray radiation fields'' Physical Review A 81, pp 063424-1-063424-10 (2010).
Contact:bernard.piraux@uclouvain.be
36. L. Malegat, H. Bachau, A. Hamido, B. Piraux ``Analysing a two-electron wavepacket by semiclassically propagating its Fourier components in space'' J. Phys. B:At. Mol. Opt. Phys. 43, pp 245601-1-245601-11 (2010).
Contact:bernard.piraux@uclouvain.be
37. J. Lambrechts, C. Humphrey, L. McKinna, O. Gourgue, K. Fabricius, A. Mehta, S. Lewis and E. Wolanski ``Importance of wave-induced bed liquefaction in the fine sediment budget of cleveland bay, great barrier reef. '' Estuarine, Coastal and Shelf Science 89, pp 154-162 (2010).
Contact:jonathan.lambrechts@uclouvain.be
38. Waldo Rosales Trujillo and Juray De Wilde ``Computational Fluid Dynamics Simulation of Fluid Catalytic Cracking in a Rotating Fluidized Bed in a Static Geometry'' Industrial Engineering and Chemistry Research 49, pp 5288-5298 (2010).
Contact:waldo.rosales@uclouvain.be
39. Nicolas Leconte, Joël Moser, Pablo Ordejon, Haihua Tao, Aurélien Lherbier, Adrian Bachtold, Francesc Alsina, Clivia M. Sotomayor Torres, Jean-Christophe Charlier and Stephan Roche ``Damaging Graphene with Ozone Treatment : A Chemically Tunable Metal-Insulator Transition'' ACS Nano 4, pp 4033-4038 (2010).
Contact:nicolas.leconte@uclouvain.be
40. S.M.-M. Dubois, A. Lopez-Bezanilla, A. Cresti, F. Triozon, J.-C. Charlier, and S. Roche ``Quantum transport in graphene nanoribbons: effects of edge reconstruction and chemical reactivity'' ACS Nano 4, pp 1971-1976 (2010).
Contact:jean-christophe.charlier@uclouvain.be
41. Z. Zanolli and J.-C. Charlier ``Spin transport in carbon nanotubes with magnetic vacancy-defects'' Physical Review B 81, pp 165406-165406 (2010).
Contact:jean-christophe.charlier@uclouvain.be
42. N. Leconte, J. Moser, P. Ordejon, H. Tao, A. Lherbier, A. Bachtold, F. Alsina, C.M. Sotomayor Torres, J.-C. Charlier, and S. Roche ``Damaging graphene with ozone treatment : a chemically tunable metal-insulator transition'' ACS Nano 4, pp 4033-4038 (2010).
Contact:jean-christophe.charlier@uclouvain.be
43. M. Terrones, A.R. Botello-Méndez, J. Campos-Delgado, F. López-Urías, Y.I. Vega-Cantú, F.J. Rodríguez-Macías, A.L. Elías, E. Muñoz-Sandoval, A.G. Cano-Márquez, J.-C. Charlier, H. Terrones ``Graphene and graphite nanoribbons : morphology, properties, synthesis, defects and applications'' Nanotoday 5, pp 351-372 (2010).
Contact:jean-christophe.charlier@uclouvain.be
44. Z. Zanolli, G. Onida and J.-C. Charlier ``Quantum spin transport in carbon chains'' ACS Nano 4, pp 5174-5180 (2010).
Contact:jean-christophe.charlier@uclouvain.be
45. B. Biel, A. Cresti, R. Avriller, S. Dubois, A. Lopez-Bezanilla, F. Triozon, X. Blase, J.-C. Charlier, and S. Roche ``Mobility gaps in disordered graphene-based materials: an ab initio-based tight-binding approach to mesoscopic transport'' Physica Status Solidi C 7, pp 2628-2631 (2010).
Contact:jean-christophe.charlier@uclouvain.be
46. G. Savini, Y.J. Dappe, S. Oberg, J.-C. Charlier, M.I. Katsnelson, and A. Fasolino Carbon ``Bending modes, elastic constants and mechanical stability of graphitic systems'' In press , pp - (2010).
Contact:jean-christophe.charlier@uclouvain.be
47. E. Cruz-Silva, F. Lopez-Urias, E. Munoz-Sandoval, B.G. Sumpter, H. Terrones, J.-C. Charlier, V. Meunier, and M. Terrones ``Phosphorus and Phosphorus-Nitrogen doped carbon nanotubes for ultrasensitive and selective molecular detection'' Nanoscale, In press , pp - (2010).
Contact:jean-christophe.charlier@uclouvain.be
48. A.R. Botello-Méndez, X. Declerck, M. Terrones, H. Terrones, and J.-C. Charlier ``One-dimensional extended lines of divacancy-defects in graphene'' Nanoscale, In press , pp - (2010).
Contact:jean-christophe.charlier@uclouvain.be
49. A. Lherbier, S.M.-M. Dubois, X. Declerck, S. Roche, Y.M. Niquet, and J.-C. Charlier ``Two-dimensional Graphene with structural defects: elastic mean free path, minimum conductivity and Anderson transition'' Phys. Rev. Lett.,, In press , pp - (2010).
Contact:jean-christophe.charlier@uclouvain.be
50. C. Brugger, M. Coulombier, T.J. Massart, J.-P. Raskin, T. Pardoen ``Strain gradient plasticity analysis of the strength and ductility of thin metallic films using enriched interface model'' Acta Materialia 58, pp 4940-4949 (2010).
Contact:thomas.pardoen@uclouvain.be
51. R. Verpoorte, M. Frédérich, C. Delaude, L. Angenot, G. Dive, Ph. Thépenier, M.J. Jacquier, M. Zèches-Hanrot, C. Lavaud, J.M. Nuzillard ``Moandaensine, a dimeric indole alkaloid from Stychnos moandaensis (Loganiaceae)'' Phytochemistry Letters 3, pp 100-103 (2010).
Contact:GDive@ULg.ac.be
52. B. Amyay, M. Herman, A. Fayt, L. Fusina, and A. Predoi-Cross ``High resolution FTIR investigation of 12C2H2 in the FIR spectral range using synchrotron radiation'' Chem. Phys. Letters 491, pp 17-19 (2010).
Contact:andre.fayt@uclouvain.be
53. A. Jolly, A. Fayt, Y. Benilan, D. Jacquemart, C. A. Nixon, and D. E. Jennings ``The ν8 bending mode of diacetylene: from laboratory spectroscopy to the detection of 13C isotopologs in Titan's atmosphere'' Astrophys. J. 714, pp 852-859 (2010).
Contact:andre.fayt@uclouvain.be
54. D. S. Perry, A. Miller, B. Amyay, A. Fayt, and M. Herman ``Vibration-rotation alchemy in acetylene (12C2H2), X^1 Σ^+_g at low vibrational excitation: from high resolution spectroscopy to fast intramolecular dynamics'' Mol. Phys. 108, pp 1115-1132 (2010).
Contact:andre.fayt@uclouvain.be
55. A. Moudens, R. Georges, A. Benidar, B. Amyay, M. Herman, A. Fayt, and B. Plez ``Emission spectroscopy from optically thick laboratory acetylene samples at high temperature'' J. Quant. Spectrosc. Radiat. Transf. , In press , pp - (2010).
Contact:andre.fayt@uclouvain.be
56. BERGER A. and M.F. LOUTRE ``Modelling the 100-kyr glacial-interglacial cycles'' Global and Planetary Change, 72, pp 275-281 (2010).
Contact:andre.berger@uclouvain.be
57. BLAISE S., de BRYE B., de BRAUWERE A., DELEERSNIJDER E., DELHEZ E. and R. CCOMBLEN ``Capturing the residence time boundary layer-application to the Scheldt Estuary'' Ocean Dynamics 60, pp 535-554 (2010).
Contact:eric.deleersnijder@uclouvain.be
58. BLAISE S., COMBLEN R., LEGAT V., REMACLE J.-F., E. DELEERSNIJDER and J. LAMBRECHTS ``A discontinuous finite element baroclinic marine model on unstructured prismatic meshes. Part I: space discretization,'' Ocean Dynamics 60, pp 1371-1393 (2010).
Contact:Eric.Deleersnijder@uclouvain.be
59. BLAISE S., COMBLEN R., LEGAT V., REMACLE J.-F., DELEERSNIJDER E. and J. LAMBRECHTS ``A discontinuous finite element baroclinic marine model on unstructured prismatic meshes. Part II: implicit/explicit time discretization'' Ocean Dynamics 60, pp 1395-1414 (2010).
Contact:Eric.Deleersnijder@uclouvain.be
60. de BRYE B., de BRAUWERE A., GOURGUE O., KARNA T., LAMBRECHTS J., COMBLEN R. and E. DELEERSNIJDER ``A finite-element, multi-scale model of the Scheldt tributaries, river, estuary and ROFI'' Coastal Engineering 57, pp 850-863 (2010).
Contact:Eric.Deleersnijder@uclouvain.be
61. GOELZER H., HUYBRECHTS P., LOUTRE M.F., GOOSSE H., FICHEFET T., and A. MOUCHET ``Impact of Greenland and Antarctic ice sheet interactions on climate sensitivity'' Climate Dynamics , pp - (2010).
Contact:Hugues.Goosse@uclouvain.be
62. GOOSSE H., CRESPIN E., DE MONTETY A., MANN M., RENSSEN H., and A. TIMMERMANN ``Reconstructing surface temperature changes over the past 600 years using climate model simulations with data assimilation'' Journal of Geophysical Research 115, pp - (2010).
Contact:Hugues.Goosse@uclouvain.be
63. GOOSSE H., BROVKIN V., FICHEFET T., HAARSMA R., JONGMA J., HUYBRECHTS P., MOUCHET A., SELTEN F., BARRIAT P.-Y., CAMPIN J.-M., DELEERSNIJDER E., DRIESSCHAERT E., GOELZER H., JANSSENS I., LOUTRE M.-F., MORALES MAQUEDA M. A., OPSTEEGH T., MATHIEU P.-P., MUNHOVEN G., PETTERSON E., RENSSEN H., ROCHE D. M., SCHAEFFER M., SEVERIJNS C., TARTINVILLE B., TIMMERMANN A. and N. WEBER
``Description of the Earth system model of intermediate complexity LOVECLIM version 1.2'' Geoscientific Model Development 3, pp 603-633 (2010).
Contact:Hugues.Goosse@uclouvain.be
64. MARTI P., BRACONNOT P., DUFRESNE J.L., BELLIER J., BENSHILA R., BONY S., BROCKMANN P., CADULE P., CAUBEL A., CODRON F., de NOBLET N., DENVIL S., FAIRHEAD L., FICHEFET T., FOUJOLS M.A., FRIEDINGSTEIN P., GOOSSE H., GRANDPEIX J.Y., GUILYARDI E., HOURDIN F., IDELKADI A., KAGEYAMA M., KRINNER G., LEVY C., MADEC G., MIGNOT J., MUSAT I., SWINGEDOUW D., and C. TALANDIER ``Key features of the IPSL ocean atmosphere model and its sensitivity to atmospheric resolution'' Climate Dynamics 34, pp 1-26 (2010).
Contact:Hugues.Goosse@uclouvain.be
65. RENSSEN H., GOOSSE H., CROSTA X., and D.M. ROCHE ``Early Holocene Laurentide Ice Sheet deglaciation causes cooling in the high-latitude Southern Hemisphere through oceanic teleconnection'' Paleeoceanography 25, pp - (2010).
Contact:Hugues.Goosse@uclouvain.be
66. VANCOPPENOLLE M., GOOSSE H., DE MONTETY A., FICHEFET T., TREMBLAY B. and J.L. TISON ``Modeling brine and nutrient dynamics in Antarctic sea ice: the case of dissolved silica'' Journal of Geophysical Research 115, pp - (2010).
Contact:Hugues.Goosse@uclouvain.be
67. WIDMAN M., GOOSSE H., VAN DER SCHIER G., SCHNUR G., and J. BARKMEIJER ``Using data assimilation to study extratropical Northern Hemisphere climate over the last millennium'' Climate of the Past 6, pp 627-644 (2010).
Contact:Hugues.Goosse@uclouvain.be