• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > Le projet Blue Brain et le programme européen Human Brain Simulation (...)

Le projet Blue Brain et le programme européen Human Brain Simulation Project HBSP

On rappellera que des intérêts stratégiques majeurs s’attachent à la simulation informatique du cerveau humain et aux applications en découlant. Les Etats Unis y consacrent des sommes et des effectifs importants. Des centaines de neuro-scientifiques y travaillent, autant que l’on puisse les dénombrer. IBM depuis les origines a toujours été une pompe à idées travaillant dans un seul sens : du reste du monde vers le coeur de la puissance US

Le projet Blue Brain a été initialisé il y a plusieurs années dans le cadre d'une collaboration entre l'Ecole polytechnique fédérale de Lausanne et la firme IBM. Aujourd'hui la revue Sciences et Avenir, dans son numéro 768 de février 2011, consacre un Dossier à ce projet et ses perspectives, sous le titre peut-être un peu dithyrambique de « L'incroyable défi du projet Blue Brain ». Essayons ici de faire le point sur la question et ses implications.
 
Nous avions mentionné ce projet dès ses débuts en 2005 tout en rappelant les réserves suscitées non par le projet lui-même, mais par les conclusions que ses promoteurs espéraient en tirer quant à la connaissance du fonctionnement du cerveau biologique en situation. Comment, concrètement, une analyse bottom up limitée à une part infime de l'anatomie du cerveau pouvait-elle rendre compte du fonctionnement global d'une « machine » comprenant 100 milliards de neurones et un nombre infiniment plus grand de synapses et donc de connexions potentielles ? Comment par ailleurs le faire en ne tenant pas compte des interactions du cerveau avec le reste du corps, au plan de l'organisme global, et en ne tenant pas compte des interactions de cet organisme avec le reste du monde, au plan de la société et de sa culture globale ?
 
Bien sûr, on ne peut pas prétendre tenir compte de tous les facteurs en même temps. Cependant, ces diverses interactions imposent une adaptation (plasticité) tout à fait déterminante dans le fonctionnement et par conséquent dans les connexions et l'architecture d'un cerveau, fut-il d'un rat ou d'un humain. Or ses conséquences ne peuvent pas apparaître dans le cadre d'un examen anatomique et d'une simulation fonctionnelle limités comme c'est le cas à une infime portion de la matière grise, c'est-à-dire pour le moment à quelques millimètres cubes. En d'autres terme, nous serions avec Blue Brain confrontés à une approche réductionniste qui, bien qu'utile en elle-même, ne répondrait pas aux exigences de l'approche holiste qui devrait être conduite en parallèle 1)
Aujourd'hui les promoteurs du projet Blue Brain visent à le prolonger dans un projet élargie étendu à d'autres partenaires, le Human Brain Simulation Project (HBSB) et proposé au financement de la Commission européenne. Voyons d'abord l'état actuel du projet Blue Brain, avant de jeter un coup d'oeil nécessairment sommaire sur des projets parallèles ou concurrents.
 
Blue Brain. Etat des lieux

On résumera ici les éléments présentés par le dossier de Sciences et Avenir, qu'il conviendra de compléter par les informations disponibles sur le web. On se référera au bref encadré valant présentation du Human Brain Simulation Project (HBSP) publié par Sciences et Avenir. Ce projet rassemblerait autour de Blue Brain une centaine de laboratoires répartis dans le monde entier. Admettons le chiffre, bien que ce nombre élevé ne garantisse pas que tous les partenaires apportent une réelle valeur ajoutée. Le prestige d'IBM et l'espoir de participer aux financements doit aussi jouer un rôle.
 
L'initiateur du projet est Henri Markram, fondateur du Brain and Mind Institute à l'Ecole Polytechnique fédérale de Lausanne. L'institut vise à mieux comprendre les fonctions du cerveau sain ou malade en associant différentes méthodes d'analyse du comportement des neurones, y compris la simulation sur ordinateur. Le HBSP a déposé une demande de financement de 100 millions d'euros sur 10 ans auprès du domaine FET de la commission européenne, Future and Emerging Technologies. Ce domaine est un élément essentiel du programme Cordis de l'Union européenne consacré au financement de la recherche scientifique et technologique communautaire. A ce budget déjà considérable s'ajouteraient des financements provenant de la Suisse et d'un certain nombre d'Etats européens.
 
Le projet HBSP est ambitieux. Dans le cadre d'un objectif très général et relativement banal, la compréhension et la simulation du cerveau humain, des gènes au comportement, il s'intéresse à la réalisation de nouveaux calculateurs imitant le cerveau, sur le modèle des réseaux de neurones, ou à l'implémentation dans des robots de modules inspirés du cerveau (neurorobotique). Il dispose déjà, comme nous l'avons indiqué, via l'Ecole de Lausanne, d'importantes ressources informatiques, notamment le super-ordinateur Blue Gene d'IBM. La version acquise en 2005, Blue Gene/L vient d'être augmentée en Blue Gene/P. Cette machine comporte 16.000 microprocesseurs et développe une puissance de 53.5 teraflops. Elle n'occupe cependant que le 173 rang dans le classement mondial des plus gros calculateurs.
 
Jusqu'à ce jour, le projet HBSP dans sa version Blue Gene s'est focalisé sur la modélisation informatique d'une mini-colonne de cortex de rat. L'ambition paraît modeste, mais il faut rappeler que le cortex, siège de l'essentiel des fonctions neurologiques élaborées, sensorielles, motrices et cognitives, est constitué, chez l'homme et chez le rat, voisin de l'homme à cet égard, d'un empilement de 6 couches de neurones présentant des caractères différents selon les couches. Ces neurones entretiennent des connexions de type horizontal avec des neurones voisins ou éloignés dans le cerveau. Mais ils s'organisent aussi verticalement en unités fonctionnelles appelées mini-colonnes ou colonnes fonctionnelles. Celles-ci prennent la forme de colonnes verticales traversant les couches horizontales du cortex. Elles regroupent environ 10.000 neurones pour un volume de matière grise total ne dépassant pas 2mm3. Les neurones sont reliés entre eux de façon arborescente par un grand nombre de synapses, quelques milliers par neurone. Ceci dans le faible volume d'une mini-colonne représente un réseau extrêmement dense de liens possibles.

Par ailleurs, les observations portant sur le cerveau entier, faites depuis longtemps par divers procédés dont depuis quelques années l'imagerie fonctionnelle ont montré que le cerveau, dès la naissance, à la suite d'une programmation génétique souvent spécifique à l'espèce, s'organise en aires spécialisées, dédiées au départ à telle ou telle fonction, spécialisations susceptibles de se préciser ou d'évoluer au cours de la croissance du sujet. Comment cette spécialisation se traduit-elle au niveau très fin des mini-colonnes ? Selon les hypothèses des neurologues américains Vernon Mourtcastle, David Hubel et Torsten Wiesel, cités dans le dossier de S§A, elle se traduirait par une similarité d'organisation fonctionnelle dans les colonnes traitant de façon identique les données sensorielles et motrices. « Il existerait dans le cerveau de la souris, par exemple, une colonne corticale d'architecture spécifique commandant les fonctions liées aux moustaches ».

D'une façon générale, les colonnes corticales seraient spécialisées dans des fonctions déterminées, par exemple la reconnaissance des formes ou des sons dans les cortex sensoriels. Le cerveau humain disposerait d'1 million de telles colonnes 2). Associer des colonnes à des fonctions spécifiques représente une avancée dans l'analyse. Elle permet de préciser la localisation de ces fonctions au sein des aires plus vastes identifiées depuis longtemps, aires sensorielles par exemple. Mais l'analyse ne permet pas encore de descendre, sauf exception, au niveau du faisceau de neurones ou du neurone isolé, afin d'identifier par exemple le célèbre et mythique « neurone de la grand-mère » censé ne s'activer qu'à la vue de la grand mère.
 
Les chercheurs de Blue Brain (HBSP) se sont donc attachés à reproduire sur ordinateur une de ces colonnes, à partir de l'observation du tissu d'un cortex de rat, fragment prélevé dans une aire dont la spécificité fonctionnelle a été plus ou moins définie. Le travail doit alors être conduit, en principe, neurone par neurone. La tâche est considérable puisqu'il existe environ 50 catégories de neurones différents et un nombre infiniment plus grand, nous l'avons rappelé, de connexions synaptiques et de messages échangés. Par ailleurs des éléments non neuronaux interviennent également dans l'activité fonctionnelle. Mais on doit quitter alors la matière grise pour atteindre la matière blanche, avec les cellules de la glie, (astrocytes notamment) dont il faudrait en principe intégrer l'action dans le modèle fonctionnel de la mini-colonne. Nous ne savons si Blue Brain descend jusque là.
 
Plusieurs méthodes différentes et ingénieuses ont été développées pour analyser in vivo l'anatomie et la physiologie des échantillons de cortex biologique étudiés, ceci nous l'avons dit quasiment neurone par neurone. Les observations ainsi faites ont été reportées sur l'ordinateur. Il ne restait plus qu'à simuler sur celui-ci les neurones, leurs dendrites et leurs synapses (1 milliard de synapses par colonne), ainsi que les échanges en perpétuel remaniement entre ces divers éléments. On conçoit qu'il faille toute la puissance d'un super-ordinateur pour reproduire sous forme d'équations ne fut-ce qu'une petite partie des échanges réels observés. Le neurobiologiste Idan Segev qui dirige le Centre de calcul neuronal de Jérusalem est associé au projet. Il a développé un ensemble d'algorithmes génétiques permettant d'obtenir le plus rapidement possible ces équations en tenant compte de la variété des éléments à prendre en compte et d'un minimum de plasticité, celle qui affecte les relations de ces cellules dans le cadre d'un fonctionnement in vivo observé de façon obligatoirement très limitée.
 
bluebrain.jpegDepuis 2007, les équipes estiment avoir réussi à modéliser une colonne entière de cortex de rat. L'ordinateur fournit à cet égard des représentations en 3 D et fausses couleurs qui donnent une bonne idée de la complexité du tissu neuronal de l'animal. Une grande variété d'images est désormais disponible (voir image en tête d'article et ci-contre).
 
Il ne faut pas confondre ces images avec celles obtenues par observation directe d'un fragment de tissu cérébral maintenu en vie, utilisant par exemple des protéines fluorescentes ou un marquage électro-physiologique.
 
Dans l'immédiat le projet vise à étendre la modélisation à l'ensemble du cerveau d'un rat. La tâche paraît hors de portée, mais les équipes comptent développer de nouvelles techniques d'analyse in vivo et surtout d'une automatisation plus rapide, résultant de l'augmentation de la puissance de l'ordinateur et de nouveaux algorithmes travaillant en simultanéité. Une fois obtenu un cerveau global, il sera relativement aisé d'étudier son fonctionnement à une échelle elle-même globale, en le soumettant à des entrées/sorties analogues à celles que le corps vivant impose au cerveau vivant.
 
La même méthode sera appliquée à la modélisation d'une mini-colonne du cortex humain, puis, pourquoi pas, vers 2030, à celle du cerveau entier. On devine que chez l'homme, les observations in vivo ne peuvent être conduites, aujourd'hui, qu'à partir d'échantillons de tissu cérébral obtenus par autopsie post mortem. Mais les techniques en plein développement des neurosciences observationnelles, de moins en moins invasives, devraient permettre d'obtenir une représentation de plus en plus fiable des structures, non sans doute du cerveau humain profond, mais des couches supérieures. Celles-ci viendraient alors compléter et informer les simulations sur ordinateur.
 
Le projet Brainscales

Nous avons évoqué la nécessité de prendre en charge l'adaptativité permanente du tissu cérébral, dénotant sa plasticité. Celle-ci, maximale à la naissance, se maintient dans une certaine mesure tout au long de la vie. Comment en tenir compte, dans la représentation d'une mini-colonne spécialisée, non facilement étudiable à partir d'un échantillon difficile à maintenir en vie ?
 
Le dossier de S§A n'élude pas la question. La parole est donnée au chercheur français Yves Fregnac, participant au projet européen Brainscales de l'Unic (Unité de neurosciences intégratives et computationnelles du CNRS) et de l'institut Kirchhoff. Ce projet, déjà financé depuis quelques mois par le FET, vise à développer une représentation multi-échelle d'un cerveau aussi complet que possible. Les chercheurs utilisent pour cela des données provenant de l'observation biologique pour construire un modèle computationnel du cerveau. Celui-ci fait appel à l'architecture des réseaux de neurones. Il est donc capable par définition de se construire en tenant compte de l'expérience. Brainscales est associé à Blue Brain de l'EPFL et à un autre projet européen, Brain-i-Nets qui explore les capacités offertes, notamment pour simuler l'apprentissage des aires cérébrales en utiliant de grands ensembles de réseaux neuronaux artificiels 3). Il existe donc une complémentarité de principe entre les trois approches.
 
Yves Fregnac met cependant l'accent sur les faiblesses intrinsèques du projet Blue Brain. Les résultats obtenus par ce dernier ressembleraient, dit il, à un « erzatz » de cortex, comparable au niveau microsopique à un cortex biologique mais incapable à un niveau plus global ou holistique de reproduire une opération cognitive. Ses éléments ne pourraient en effet acquérir, faute des processus d'apprentissage adéquat, la diversité nécessaires à la conduite d'une telle opération. Les facteurs intrinsèques, liés à la morphologie des neurones, et les facteurs extrinsèques résultant de l'adapativité découlant de l'activité synaptique, ne sont pas séparables. C'est pourtant à cette séparation que procède Blue Brain.
 
De plus, comme nous l'avons rappelé ci-dessus, une mini-colonne entretient un grand nombre de relations avec les autres parties du cerveau, provenant de l'activité de neurones de liaisons qui ne sont pas observables sans l'étude du comportement dynamique du cerveau à grande échelle. Tout ces facteurs sont déterminants pour l'étude des fonctions cognitives. Or le modèle Blue Brain à lui seul, construit sur le mode bottom-up, ne pourra pas en tenir compte. Ce n'est pas le cas des deux approches proposées par Brainscales et Brain-i-Nets. D'où l'intérêt de conjuguer l'ensemble, comme il est actuellement proposé à la Commission européenne.
 
D'autres horizons

Mais pour que les objectifs affichés soient tenus, il faudrait non seulement que les financements demandés soient obtenus, mais qu'une véritable collaboration réunissent les chercheurs concernés, bien qu'ils partent de bases différentes. On ne verrait pas l'intérêt, sauf pour la communication d'IBM, que l'Union européenne mette si l'on peut dire tous les oeufs dans le même panier au sein d'un programme pharaonique dont rien ne garantirait qu'il fournisse les résultats promis s'il ne s'ouvrait pas à une véritable coopération multidisciplinaire.
 
Par ailleurs, suffirait-il de s'en tenir aux collaborations mentionnées ci-dessus ? Nous pouvons ici rappeler l'existence de démarches et d'approches qui pour le moment ne semblent pas à notre connaissance véritablement prises en compte par les partenaires associés dans le futur consortium HBSP. Contrairement à Blue Brain qui se contraint à ne simuler qu'une toute petite partie du cerveau, elles étudient le fonctionnement et l'anatomie du cerveau global en situation, pour reprendre l'expression utilisée ci-dessus.
 
Les plus importantes de ces approches concernent l'application de l'imagerie cérébrale fonctionnelle à la compréhension des grandes fonctions cognitives. Nous avons précédemment sur ce site interrogé les représentants français éminents de cette méthode, Stanislas Dehaene et Jean-Pierre Changeux. Hasard heureux, la revue La Recherche donne ce même mois de février la parole à Stanislas Dehaene et à d'autres chercheurs qui étudient la façon dont le cerveau se construit et se diversifie par l'apprentissage. L'analyse peut être menée au niveau le plus fin des neurones intéressés par ces processus. (La Recherche, février 2011, Comment le cerveau apprend, Neurones, plasticité, mémoire ).
 
L'intérêt de ces études est de n'être pas enfermées dans des limites artificielles autres que celles résultant du manque de moyens et de temps d'observation. Elles peuvent s'adresser à toutes les espèces vivantes dotées de l'équivalent d'un système nerveux central. Elles peuvent approcher progressivement l'ensemble des aires neuronales mobilisables par l'ensemble des fonctions mentales. Elles peuvent à la demande passer du détail du neurone et de la synapse à la globalité du cerveau, du corps et finalement du milieu culturel. Un champ potentiel considérable d'investigations est ainsi ouvert. Rappelons que l'activité des neurones miroirs essentiels à la vie sociale a pu être mise en évidence de cette façon.
 
On ne manque pas de reprocher une tentation de réductionnisme aux chercheurs faisant appel à l'imagerie fonctionnelle. Mais les ouvertures conceptuelles apportées par les travaux de Stanislas Dehaene ou de Lionel Naccache, également mentionnés sur notre site, montrent le contraire.
 
Nous avons signalé par ailleurs d'autres recherches menées principalement aux Etats-Unis, visant à rassembler sur de vastes Atlas du cerveau l'ensemble des observations faites sur des sujets vivants en bonne santé ou atteints de troubles divers et relatives au fonctionnement du cerveau, de ses composantes et plus généralement du système nerveux. L'intérêt de ces méthodologies observationnelles est de conjuguer les approches de détail et les approches holistes. Elles ne sont pas indemnes d'a priori conceptuels, voire politiques. On ne trouve, en ce domaine comme dans d 'autres, que ce que l'on cherche - plus exactement, on ne trouve pas ce que l'on ne cherche pas. Néanmoins ces globalisations restent scientifiques car dans la mesure où les résultats en sont largement diffusés, sur le modèle du Human Genome Project, elles restent en permanence susceptibles de suggérer des expériences permettant de tester les hypothèses.
 
Il s'agit notamment de l'Human Cognome Project, approfondi aujourd'hui par le Human Connectome Project . Au niveau le plus fin, les études du neurone seront bientôt complétées par celle des complexes de protéines assurant la communication synaptiques (Post-synaptic Density ou PSD).

Pour terminer, nous devons, particulièrement sur ce site où nous avons déjà fait allusion, signaler l'apport que pourrait représenter aux projets précédents les travaux d'Alain Cardon et de Pierre Marchais. Ceux-ci visent à modéliser sur des supports informatiques, à partir du concept de systèmes massivement multi-agents propre à l'Intelligence artificielle, non seulement les grandes fonctions du cerveau mais la façon dont celles-ci se traduisent sous forme de phénomènes mentaux, normaux ou pathologiques.
 
Il devrait être facile de transposer les résultats obtenus sur des modèles physiques voire à terme biologiques reproduisant les architectures et les échanges neuronaux, afin de tester de façon croisée la pertinence des diverses approches. Mais il faudrait pour cela que le programme européen FET consacre quelques crédits à financer les recherches d'Alain Cardon et de Pierre Marchais, puisque ceux-ci, par éthique, ne veulent pas s'adresser à des agences travaillant pour la défense, telle la Darpa américaine.
 
Références
plantri.gif Le projet Blue Brain http://bluebrain.epfl.ch/
plantri.gif Le Human Brain Simulation Project http://cordis.europa.eu/fp7/ict/fet-proactive/docs/ie-sept10-10-markram_en.pdf
plantri.gif Henri Markram http://bluebrain.epfl.ch/page18900.html
plantri.gif Brain and Mind Institute http://bmi.epfl.ch/
plantri.gif Future and Emerging Technologies http://cordis.europa.eu/fp7/ict/programme/fet_en.html
voir aussi http://cordis.europa.eu/fp7/ict/fet-proactive/home_en.html
plantri.gif Unic :http://www.unic.cnrs-gif.fr/ (lien ne fonctionnant pas le 30/01/11)
plantri.gif Le projet Brainscales http://brainscales.kip.uni-heidelberg.de/
plantri.gif Le projet Brain-i-Nets http://brain-i-nets.kip.uni-heidelberg.de/
plantri.gif Interview de Stanislas Dehaene http://www.automatesintelligents.com/interviews/2008/dehaene.html
plantri.gif Human Cognome Project http://en.wikipedia.org/wiki/Human_Cognome_Project
plantri.gif Human Connectome Project http://www.humanconnectomeproject.org/, voir aussi http://www.admiroutes.asso.fr/larevue/2010/111/actualite.htm#actu1
plantri.gif PSD : voir http://www.admiroutes.asso.fr/larevue/2010/112/actualite.htm#actu13.
plantri.gif A propos des travaux d'Alain Cardon, voir notre article "Les « processus coactivés » et la nouvelle maîtrise du monde :
Introduction à la lecture de l'ouvrage d'Alain Cardon Un modèle constructible de système psychique »
Voir aussi l'entretien avec Alain Cardon http://www.automatesintelligents.com/interviews/2011/interviewcardon.html

Notes
1) Certains ont vu dans le projet Blue Brain une opération récupérée depuis le début par IBM qui en fait un argument commercial puisque c'est un ordinateur IBM qui fournit l'essentiel de la ressource utilisée dans l'opération. Nous n'avons pas les informations nécessaires pour préciser exactement ce qu'il en est.
2) Ceci paraît peu. Si ces colonnes étaient véritablement spécialisées, et qui plus est incapables de s'adapter à de nouvelles entrées sensorielles et motrices, on ne voit pas comment le cerveau pourrait faire face à ses exigences fonctionnelles, dont le nombre nous paraît devoir dépasser le million.
3) On notera en lisant son livre publié sur le site Automates Intelligents qu'Alain Cardon s'est refusé à utiliser des réseaux de neurones formels, dont il estime les capacités trop limitées
 
 

Moyenne des avis sur cet article :  5/5   (4 votes)




Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON







Palmarès