Twitter Facebook Google Plus Linkedin email Imprimer Pdf

|||

Génomique et calcul intensif

Publié le 17 septembre 2012 par Pierre Picard

par Xavier Vigouroux et Gunter Roeth, Bull

La baisse drastique du coût du séquençage de l’ADN a ouvert des perspectives fascinantes pour la génomique et la biochimie mais elle a aussi fait exploser les besoins de calcul et de stockage. Pour mettre en œuvre ces systèmes de pointe, les chercheurs ont besoin d’interlocuteurs possédant une double compétence, technologique et scientifique, à l’image de l’équipe Applications & Performances de Bull.

Avec le décryptage du génome humain au début des années 2000, le secteur de la santé et des sciences de la vie a connu un engouement exceptionnel. Tant dans les laboratoires universitaires que dans ceux des industriels, la recherche s’est formidablement accélérée. D’importantes découvertes ont été réalisées (les microARN, par exemple) et de nouvelles méthodes ont été mises au point (dites « séquençage de nouvelle génération »). L’un des résultats les plus spectaculaires a été la baisse drastique du coût du séquençage du génome d’un individu. Ce qui était une avancée unique et majeure il y a une dizaine d’années peut aujourd’hui être réalisé à la demande pour moins d’un millier de dollars. Pourtant, loin d’être un aboutissement, cette démocratisation du séquençage apparaît de plus en plus comme un point de départ. En effet, plus la recherche avance et plus nous mesurons l’extraordinaire complexité des mécanismes du vivant. Désormais, pouvoir obtenir, pour un coût relativement modique, le génome de vastes populations autorisera des analyses à grande échelle qui, seules, permettront de comprendre le comportement et le rôle des gènes. À condition toutefois de disposer des ressources informatiques adéquates…

Des besoins de pointe mais variés

Manipulant des quantités phénoménales de données, des algorithmes extrêmement spécifiques et, très souvent, des informations personnelles sensibles, la génomique et la biochimie requièrent des supercalculateurs hautement performants et adaptés avec précision aux tâches qu’ils auront à accomplir. En génomique, par exemple, de nombreux programmes de recherche s’intéressent à la comparaison de deux populations, l’une malade et l’autre saine, pour confronter leurs génomes et tenter d’isoler, toutes choses égales par ailleurs, le ou les points qui les différencient. Cela signifie qu’il faut dans un premier temps, grâce aux récentes méthodes à très haut débit, reconstituer le « puzzle » génétique d’un nombre important d’individus (ce qui démultiplie la quantité d’informations) ; puis, dans un deuxième temps, traiter ces volumes colossaux de données au moyen d’algorithmes analytiques spécialisés. Seuls des supercalculateurs de dernière génération couplés à d’énormes capacités mémoire sont en mesure d’accomplir ces calculs dans des délais acceptables.

Ce besoin de simulation avancée vaut également pour la biochimie qui étudie le comportement des protéines. Il a été mis en évidence que la chimie du milieu, la conformation des molécules et les innombrables interactions qui en découlent influaient directement sur l’expression des gènes. Modéliser les molécules, découvrir les règles qui déterminent leur géométrie, évaluer le jeu des influences croisées, tels sont les objectifs d’un domaine d’une complexité extrême, dont les progrès sont directement tributaires des capacités de calcul disponibles.

Dans l’industrie, l’enjeu est quelque peu différent. Autant la recherche académique part le plus souvent dans l’inconnu, et doit donc balayer tout le spectre des possibles, autant les laboratoires industriels débutent leurs travaux avec une idée précise de leur cible. Leurs besoins de calcul sont donc moindres, et c’est ce qui leur permet de s’appuyer sur des « puces à ADN », qui n’examinent que des zones limitées et identifiées du génome. En revanche, l’obligation de conserver l’historique de leurs recherches (protocoles, systèmes, résultats…), imposée notamment par la FDA américaine, exige des solutions très poussées d’archivage à valeur probante. Et la sécurité (identification et authentification des accès en particulier) est une question majeure et omniprésente.

Des chercheurs parlent aux chercheurs

On le voit, la recherche dans le domaine des sciences de la vie est indissociable des systèmes informatiques qu’elle utilise. De leurs capacités, de leur performance, de leur robustesse, de leur sécurité dépendront directement la qualité de ses résultats. C’est bien parce que ces liens sont si étroits qu’il est indispensable de fournir aux chercheurs des interlocuteurs qui soient bien entendu des experts techniques mais aussi de leur domaine. Seule une personne au fait de leurs travaux, des logiciels qu’ils utilisent, de leur vocabulaire ou de la manière usuelle de présenter les résultats sera en mesure de traduire parfaitement leurs besoins en caractéristiques techniques. C’est la raison pour laquelle Bull a créé, au sein de son activité Extreme Computing, une organisation spécialisée, Bull Applications & Performances (A&P), composée d’experts du HPC qui sont tous, par ailleurs, titulaires d’un doctorat dans un domaine scientifique particulier. Ainsi, ce sont des chercheurs qui parlent aux chercheurs. Grâce à leur double culture, ils comprennent parfaitement les besoins exprimés par les utilisateurs et peuvent dimensionner, ajuster et optimiser l’ensemble de l’environnement technique des supercalculateurs bullx™ pour tirer le meilleur des applications scientifiques. Cette optimisation fine peut faire une grande différence, c’est-à-dire, dans un domaine aussi ardu et compétitif, toute la différence !

  • Ce qu’en disent nos clients…

« Il ne fait aucun doute que la valeur ajoutée sans cesse démontrée par l’équipe Applications & Performances constitue le cœur de notre partenariat avec Bull. Les experts de Bull ont, de loin, dépassé toutes nos attentes, depuis la mise en service initiale et son programme « fast start » basé sur un benchmark de nos applications clés jusqu’à la résolution des problèmes applicatifs qui ont pu se manifester en cours d’exploitation. Bull nous a apporté un support proactif d’une qualité qui, d’après notre expérience, n’a pas d’équivalent chez ses concurrents.

En particulier, des ressources clés ont été détachées sur le site de Cardiff, ce qui s’est révélé essentiel pour parvenir à accompagner les différentes communautés d’utilisateurs de l’ARCCA, depuis les chercheurs confirmés, dont les applications requièrent des centaines de cœurs de calcul, jusqu’aux novices, qui commencent à peine à envisager l’impact du HPC sur leurs travaux. »

Martyn Guest, directeur du centre de calcul de l’université de Cardiff (Advanced Research Computing @ Cardiff, ARCCA)

« Notre collaboration avec Bull, mise en place dans le cadre d’un projet de recherche qui a débuté en février 2012, a tout de suite été très active. Lors de la mise en service du supercalculateur CURIE , la double compétence informatique et scientifique des experts Bull nous a permis de travailler ensemble, très naturellement, autour d’une culture commune, et d’être tout de suite opérationnels. Ces experts ont en effet une connaissance approfondie de nos codes, ils sont habitués à nos méthodes de travail et aux contraintes spécifiques à nos calculs, ce qui permet de cibler directement les problèmes et de trouver rapidement des solutions qui répondent réellement à nos besoins. La réactivité des experts de Bull et la pertinence de leur travail ont été déterminantes pour l’avancement de nos recherches et préfigurent une riche collaboration à long terme. »

Sébastien Masson, chercheur au laboratoire LOCEAN-IPSL, spécialiste de la modélisation climatique et notamment des interactions atmosphère/océan.

  • À chaque domaine, son expert

Vidéo de Damien Declat

Pour chaque usage du HPC, Bull dispose de véritables spécialistes du sujet, capables d’en appréhender toutes les dimensions. 

 CALCUL

 
 

Les images de simulation sont la propriété de leurs titulaires

 

 

xAVIERXavier Vigouroux est manager du développement de l’activité Extreme Computing pour le secteur Éducation et Recherche. Il a rejoint Bull en 2006 pour diriger l’équipe benchmarks, aujourd’hui partie intégrante du pole Applications & Performances . Il a auparavant travaillé pour HP, Sun Microsystems et Sun Labs. Il est diplômé de l’ENS Lyon, où il a obtenu, en 1996, un doctorat dans le domaine de l’informatique du parallélisme.

Gunter RoethGunter Roeth a rejoint le Centre HPC Applications et Performances de Bull en 2010, après avoir travaillé chez Cray, HP, puis Sun Microsystem. Il a un DEA de géophysique de l’Institut de Physique du Globe (IPG) à Paris et fait une thèse en sismologie sur l’utilisation des réseaux de neurones (intelligence artificielle) pour l’interprétation des données géophysiques, En 2000, il est l’un des fondateurs d’un groupe d’experts des sciences de la vie.

En savoir plus >> Bull world & Bull.com

Comments are closed.