Fermer

  • AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > The Master Algorithm de Pedro Domingos

The Master Algorithm de Pedro Domingos

Place de la Terre dans l'histoire de l'univers selon le site Planck
De gauche à droite : Big Bang — Ère de l'inflation - Découplage de l'interaction forte et faible et formation des particules - Formation des étoiles et galaxies - Formation du système solaire
.
En dessous : La Terre actuelle.

The Master Algorithm : How the quest for the ultimate learning machine will remake our world

Pedro Domingos

Basic Books/Penguin 2015

Analyse et commentaires par Jean-Paul Baquiast
20/12/2015

Sur l'auteur, voir sa page
http://homes.cs.washington.edu/ pedrod/

 

Les hypothèses n'ont jamais manqué concernant la possibilité que l'univers tel que nous le connaissons ait été dès son origine le produit de processus calculatoires informatiques profondément ancrés dans le réel . Ils ne seraient pas seulement ancrés, mais consubstantiels à l'existence de l'univers, inséparables de lui, de même que la parole et le langage sont pratiquement inséparables. Récemment, des chercheurs tels que Seth Lloyd ont défendu l'idée que l'univers n'était pas seulement un ordinateur classique géant, mais un ordinateur quantique. Ceci expliquerait beaucoup de ses propriétés hors de portée d'un ordinateur numérique. 1).

Ces hypothèses sont intéressantes, mais elles se heurtent à la difficulté de faire apparaître clairement les bases naturelles qui dans l'univers seraient responsables de la production de ces calculs. Même un ordinateur quantique doit être organisé autour de composants et unités de traitement capables de manipuler des « bits quantiques ».
Certes, il est relativement facile de montrer que tous les processus cosmologiques, biologiques ou neurologiques identifiables dans l'univers, et plus particulièrement sur la Terre, pourraient être simulés sur de super-calculateurs, et par conséquent résulter du fait que l'univers responsable de la production de ces processus serait lui-même un super-calculateur. Mais où seraient les unités centrales de celui-ci, ses mémoires, ses organes d'entrée-sortie ou plus immédiatement ses composants élémentaires ?

Par ailleurs, dans la mesure où la cosmologie moderne admet que l'univers s'est développé depuis le Big bang à partir d'atomes élémentaires surgis du vide dit quantique, il est difficilement admissibles de penser que dès le Big Bang les programmes nécessaires à la production ultérieure d'un univers capables de computations telles que nous les observons aujourd'hui se trouvaient prêt à opérer. On peut envisager qu'ils auraient pu progressivement se développer sur le mode darwinien, comme la vie elle-même, mais à partir de quelles semences initiales ? A moins d'admettre que celles-ci aient toujours été présentes dans un univers primordial, que l'on pourrait qualifier de multivers, à partir duquel émergeraient des univers analogues au nôtre, ou proches.

The Master Algorithm

Dans un livre tout récent, The Master Algorithm, Pedro Domingos, concepteur informaticien réputé, ne remonte pas, tout au moins au début de son ouvrage, à l'origine de l'univers pour comprendre le monde numérique dans lequel nous vivons et dont il est l'un des acteurs. Il se borne à expliquer ce dont beaucoup de personnes aujourd'hui ne se sont pas encore rendu compte, le fait que les données de masse en ligne (Big Data) et que les algorithmes dits « intelligents » de plus en plus nombreux les exploitant sont en train de révolutionner nos sociétés.

Le propre de ces algorithmes, ce qui les rend intelligents, est qu'ils sont en train d'apprendre à devenir intelligents en exploitant ces Big Data. On parle à leur propos de « learning algorithms » ou d'algorithmes capables d'apprendre. Cexs-ci sont en train de s'organiser, à partir des supports informatiques et les réseaux nécessaires, en véritables « machines apprenantes », learning machines. Certains futuristes imaginent qu'ils pourraient un jour supplanter l'intelligence humaine, à condition que les supports physiques ou réseaux sur lesquels ils prospèrent ne soient pas détruits par un cataclysme quelconque.Le discours n'est pas à proprement nouveau. Beaucoup de nos lecteurs ont lu sur notre site de nombreux articles évoquant cette perspective ou des recensions d'ouvrages l'abordant. Nous avons nous-mêmes édité ici deux livres d'Alain Cardon traitant ce problème 2)

Dans ces ouvrages, Alain Cardon anticipait avec quelques années d'avance un phénomène qui est en train se se produire dans certains secteurs, l'apparition d'algorithmes et de machines autonomes, c'est-à-dire susceptibles d'opérer sans l'intervention d'organismes humains. Il s'agit précisément de ce que montre clairement aujourd'hui Pedro Domingos.

Il rappelle qu'existent dorénavant des millions de tels algorithmes apprenants. Ils sont en train de donner une impulsion qui sans eux serait inimaginable aux sciences, aux technologies, à l'économie, à la vie politique. Ils le font aussi dans le domaine militaire, qu'il s'agisse de guerres classiques ou de guerre de 4e génération conduites par des milices insurgées ou terroristes. Les entreprises mondiales telles que Google et Facebok, ou les hébergeurs plus locaux, tirent exclusivement leur pouvoir des Big Data que leur livrent les personnes privées ou les agents économiques faisant appel à elles.

De leur coté, les grands Etats, les Etats-Unis en premier lieu par l'intermédiaire de la NSA, CIA et autres agences, s'en servent pour espionner et tenter de dominer le monde entier. Les uns et les autres ont en projet l'intention de réaliser des cerveaux artificiels par lesquels ils parachevront leur actuelle domination.

Mais Pedro Domingos ne se limite pas à ces constatations. Il se demande s'il ne serait pas possible de concevoir un « master algorithm » ou « algorithme maître » susceptible de modifier en profondeur les machines apprenantes, et de ce fait nos vies et celles de beaucoup d'organismes vivants. Cet algorithme maître tirerait son immense pouvoir du fait qu'il serait capable d'exploiter toutes les Data existant sur la planète. De celles-ci, il pourrait tirer des connaissances illimitées intéressant le passé, le présent et aussi l'avenir.
Il n'y aurait pas besoin pour ce faire de se référer à des lois de la nature que les scientifiques se sont toujours efforcés de faire apparaître avec plus ou moins de difficultés. En collectant les données en masse, ceux-ci pourraient décrire la nature sans avoir besoin de faire appel à de telles lois, et sans avoir besoin de compétences spécialisées pour les élaborer.

Nous avons plusieurs fois évoqué ce point. Google peut-il obtenir sur la progression d'une épidémie des informations plus précises que celles découlant des observations des épidémiologistes, en utilisant simplement les données résultant de la consultation par des milliers de malades ou de personnes craignant de le devenir des sites de diagnostic en ligne ou de publicités pharmaceutiques ? Longtemps incertaine, la réponse à cette question paraît désormais pouvoir être affirmative.

De la même façon, affirme Pedro Domingos, si les données observées par Tycho Brahé et autres astronomes de l'époque avaient pu être exploitées par un algorithme maitre, celui-ci en aurait déduit les lois de la gravitation bien avant l'apparition de Newton.

Mais pour cela, l'algorithme maître doit être capable, comme le font à petite échelle d'ailleurs les scientifiques, d'exploiter les données (Data) du passé ou du présent, comme d'anticiper ce que pourraient être les données du futur. Selon Pedro Domingos, ces données existent déjà dans les laboratoires ou dans les publications, mais personne ne s'est organisé pour les exploiter en masse. De multiples raisons, spécificités disciplinaires, incompatibilités entre langages et méthodes, crainte des risques liés à l'anticipation ou plus simplement manque de crédits pour les mémoriser et les rendre disponibles, contribuent à laisser dormir ce trésor.

Pedro Domingos va cependant plus loin que ces constatations relativement faciles à faire. Il se demande si les algorithmes capables d'exploiter les données naturelles omniprésentes dans l'univers ne seraient déjà pas en place, tout au moins dans certains organes ou organismes. Ainsi le cerveau humain pourrait de par son organisation neurologique transformer en connaissances intelligentes, voire conscientes, les données que lui apportent en permanence les organes sensoriels et moteurs. De même, au niveau bien plus général de l'évolution darwinienne des espèces vivantes, un tel algorithme maître, évidemment réparti, n'a-t-il pas optimisé les processus darwiniens par essais et erreurs, en favorisant les plus aptes à permettre la survie des espèces.

Observations

Nous ne prolongerons pas ici l'analyse de The Master Algorithm, ce que nous incitons vivement le lecteur à faire lui-même en se procurant le livre. Revenons par contre sur quelques perspectives non évoquées dans celui-ci, qui pourraient intéresser les scientifiques.

Si l'on admettait que les algorithmes maitres moteurs des machines auto-apprenantes décrits par Pedro Domingos existeraient dans la nature ailleurs que dans les actuels réseaux numériques, il ne faudrait pas se limiter à les rechercher dans les cerveaux ou dans les génomes. En s'appuyant sur le principe de Copernic selon lequel rien de spécifique n'existe dans l'univers, il faudrait postuler que de tels algorithmes et machines sont présents ailleurs sur la Terre, et au delà de la Terre, dans le système solaire et au delà de celui-ci, dans l'univers tout entier. Ils seraient apparus dès origines du cosmos.

Selon les hypothèses cosmologiques modernes, l'univers tel que nous le connaissons et dans lequel nous vivons a émergé en quelques fractions de seconde (seconde de notre temps actuel) sous la forme d'une structure presque infiniment petite, dense et chaude. Ce phénomène a été qualifié de Big Bang. Très rapidement, après sa naissance c'est-à-dire après ce Big Bang, l'univers a subi un processus dit d'inflation qui l'a conduit aux dimensions telles que celles observées aujourd'hui. L'inflation pourrait se poursuivre durant de très longues durées jusqu'à la dissolution complète des structures matérielles de l'univers. Dans les phases finales, le temps se ralentirait sans cesse et l'espace perdrait toutes dimensions mesurables.

Le milieu original dont serait issu notre univers, composé de particules et de photons, serait ce que l'on nomme le vide quantique. Il s'agirait de particules virtuelles dites quantiques car, selon les hypothèses de la physique quantique, elles n'obéiraient pas aux lois de la physique einstenienne , autrement dit elles ne seraient pas caractérisées par des dimensions d'espace et de temps déterminées. Faute d'une échelle de temps et d'espace au sein de l'univers quantique, celui-ci ne pourrait pas être décrit en termes d'infini ou de fini, ni concernant l'espace ni concernant le temps.

Du vide quantique émergerait en permanence (si le terme peut s'appliquer à un univers dépourvu de temps), des particules matérielles, c'est-à-dire dotées, comme celles de notre univers, de propriétés d'espace et de temps. La plupart s'effondreraient ensuite pour retourner dans le vide quantique. Certaines pourraient rester matérielles, et subir des inflations qui les conduiraient à devenir des univers analogues au nôtre.

Concernant l'origine et l'histoire de notre univers, c'est l'observation du rayonnement du fonds diffus cosmologique ou rayonnement fossile cosmologique (dit aussi CMB ou Cosmic Micro-ondes Background) par les satellites successifs dédiés à cette tâche, dont le dernier en date est le satellite européen Planck, qui en fournit des éléments permettant la modélisation des évènements. Le schéma présenté en début d'article représente l'histoire de l'univers depuis le Big Bang jusqu'à nos jours.

Or il n'y a pas de raison de refuser l'apparition de premiers algorithmes maitres et machines auto-apprenantes dès le Big Bang. Ces éléments de computation se seraient formés non sous leur forme sophistiquée actuelle mais sous des formes primitives, fonctions elles-mêmes des ressources disponibles lors de chacune des phases d'univers, Big Bang, découplage de l'interaction forte et faible et formation des particules, formation des premières étoiles et galaxies, formation du système solaire et de la Terre, apparition de la vie sur celle-ci et finalement apparition du web des réseaux numériques enveloppant la Terre d'une couverture dense.

Ce seraient les capacités d'auto-apprentissage des premiers ordinateurs naturels qui auraient dirigé, mieux qu'un doigt de Dieu encore évoqué par des milliards de croyants de par le monde, la sélection des facteurs les plus favorables à la généralisation de systèmes intelligents et conscient dont les humains se croient les seuls représentants. Si l'on admet l'existence du multivers, il n'y aurait d'ailleurs pas de raison de refuser le principe de tels systèmes au sein de celui-ci.

Le postulat de l'existence d'un univers quantique ne contrarierait en rien ces diverses hypothèses. Des algorithmes et machines auto-apprenantes constituées de bits quantiques n'en seraient que plus efficaces pour servir à l'évolution ayant conduit à la Terre actuelle et à notre société de l'information. Celle-ci, lorsque les premiers calculateurs quantiques seront réalisés à grande échelle, pourra utiliser à son tour les Big Data quantiques et leurs systèmes d'exploitation.

Il en résulterait que ce que nous appelons l'intelligence humaine aurait été incluse en germe dès les premiers pas de l'univers et pourrait évidemment se trouver ailleurs aujourd'hui au sein de celui-ci. L'intelligence et les capacités d'apprentissage ne se limiteraient sans doute pas aux seules planètes habitables, mais pourraient se retrouver dans toutes les structures de grande échelle identifiées dans l'univers, amas galactique ou nuages de poussière cosmique notamment. Elles disparaitraient également avec la mort progressive de notre univers. On ne voit pas comment en effet, malgré leurs grandes compétences à apprendre, elles pourraient résister à des facteurs d'extinction de cette importance.

Travaux pratiques

Certes, pour rendre tout ceci matière à travail scientifique, il faudrait montrer comment, phase par phase depuis au moins la formation des particules, des systèmes d'abord extrêmement simples, composés de quelques atomes, auraient pu s'organiser en moteurs générant des données sous-produits de leur action. Celles-ci leur auraient servi de base pour contribuer à leur auto-perfectionnement sur le mode darwinien. Des concepteurs de systèmes aussi avertis et compétents que Pedro Domingos n'auraient certainement pas de difficultés à en réaliser des prototypes, s'ils disposaient du temps et des équipes nécessaires.

Ces prototypes, inutile de le souligner, pourraient ouvrir la voie aux ordinateurs moléculaires, génétiques ou neuronaux dont l'on parle beaucoup de nos jours, mais qui n'existent en fait que dans les publications scientifiques. Leur organisation sous la forme de consommateurs de Big Data naturelles donnerait une valeur considérables à celles-ci, valeur généralement ignorées de tous. Les véritables sources pour les inventions de demain se trouveraient là.

Notes

1) Voir à ce sujet notre commentaire du livre Programming the Universe

2) Alain Cardon

* "Modélisation constructiviste pour l'autonomie des systèmes"
Edition Automates Intelligents. 24 mai 2012
(publié sous Licence Creative Commons)

* " Vers un système de contrôle total"
Edition Automates Intelligents, 20 octobre 2011
(publié sous Licence Creative Commons)


Moyenne des avis sur cet article :  2.33/5   (3 votes)




Réagissez à l'article

14 réactions à cet article    


  • Hervé Hum Hervé Hum 21 décembre 2015 13:37

    Il n’y a pire aveugle que celui qui ne veut pas voir dit le dicton.

    Votre article, comme les autres sur les spéculations théoriques de la science, en est la plus claire démonstration.

    "Certes, pour rendre tout ceci matière à travail scientifique, il faudrait montrer comment, phase par phase depuis au moins la formation des particules, des systèmes d’abord extrêmement simples, composés de quelques atomes, auraient pu s’organiser en moteurs générant des données sous-produits de leur action."

    Pourtant, rien n’est plus simple à démontrer pour un esprit scientifique !

    Mais voilà, tout esprit scientifique est d’abord un esprit humain, où au dessus règne non pas la raison pure, mais la passion. Où règne la pensée unique qui comme au temps de Copernic interdisait toute remise en cause du dogme. Mais cette fois pourtant, c’est différent, la chape ne se trouve pas au dessus, mais en dessous, c’est à dire, dans la tautologie du principe de la relation de causalité que les scientifiques croient connaître, alors qu’ils ne la connaissent que de manière très superficielle. Tautologie mal comprise qui maintient le monde scientifique dans la dissonance cognitive ou ici, dissociation de relation de causalité. Incroyable, pour un monde prétendant bâtir sa raison sur la logique, elle même indissociable de la relation de causalité.

    Quand la réponse sera rendu publique, il est certains que le monde scientifique va s’arracher les cheveux, tant la réponse est triviale. Mais encore une fois, face à la dissociation de relation de causalité, la trivialité est partout, sauf là où on ne veut pas quelle soit !


    • Automates Intelligents (JP Baquiast) 21 décembre 2015 14:01

      @Hervé Hum
      Désolé, je ne comprends rien


    • Hervé Hum Hervé Hum 21 décembre 2015 14:43

      @Automates Intelligents (JP Baquiast)

      C’est normal !

      je vais écrire un article pour expliquer la première partie

      Jusqu’à présent, il me manquait un support pour expliquer le principe, mais je l’ai trouvé avec la fourmi de Langton, grâce à la vidéo mis en lien par Blueman.

      L’article s’intitulera « la fourmi de Langton et le principe de relation de causalité ».

      Je donnerai des indications pour trouver la seconde partie et voir si quelqu’un fait eureka.

      En tous les cas, il s’agit d’une clé qui permet d’entrer dans l’ontologie de l’Univers. Autrement dit, tout restera à faire, mais avec les bons outils relationnels.

      Vous devriez comprendre après... Enfin, si votre esprit vous le permet !!!


    • Gcopin Gcopin 22 décembre 2015 14:40

      @Hervé Hum

      La fourmi de Langton ?. La relativité nous parle de déterminisme et la mécanique quantique nous parle de hasard, je n’aime pas ce mot, quand je l’utilise, j’ai toujours l’impression d’avoir zappé un épisode. Ce qui me dérange dans la fourmi de Langton c’est le fait de dire « les règles sont simples mais le comportement est complexe ». En ce qui me concerne, je ne vois pas la complexité, si je prends mon damier initialisé avec les paramètres correspondants à la première séquence du tunnel, j’ai une boucle infernale conforme aux règles simples du départ qui démarre, point barre ! En informatique ou simulation Bill Gates appelle ça un plantage ou un bug. D’ailleurs parler de hasard avec une machine « l’ordinateur » qui est la référence en système « déterministe » c’est un peu démesuré, d’ailleurs à ce propos ci une personne connaît une méthode pour programmer un nombre aléatoire sur une bécane qui dépend vraiment du hasard, sans brancher une interface quantique je suis preneur ! Donc en résumé, on passe en revue des configurations damiers au grès du vent « les règles » et si je tombe sur là configuration damier tunnel, c’est parti pour un tour, ça ressemble à une réussite lol. En plus, je ne vois pas d’émergence, sachant que le tunnel dépend uniquement de la seule et unique étape précédente et le résultat de la progression est toujours la même étape soit la suivante, d’ailleurs c’est pour cette raison que l’on obtient un pseudo dessin de tunnel, une ligne une courbe, peut importe. Je demande qu’à me tromper ?


    • Hervé Hum Hervé Hum 26 décembre 2015 11:13

      @Gcopin

      Vous ne vous trompez pas !

      Cela dit, l’explication est trop sommaire, il faut lui donner un formalisme qui puisse être exploité par l’esprit humain.

      "une méthode pour programmer un nombre aléatoire sur une bécane qui dépend vraiment du hasard, sans brancher une interface quantique je suis preneur !« 

      Ce que montre la fourmi de Langton ou autre automate cellulaire, c’est que le hasard est le mot donné à l’impossibilité mathématique de prédire à l’avance un résultat.

      Aucun algorithme ne peut donner la position exacte de la fourmi à tout instant et cela pour des raisons simples, mais implacables. En physique on appelle cela l’interférence.

      Bref, les interférences agissantes dans un système quelconque, modifies son espace-temps et oblige alors à intégrer celle ci dans l’algorithme. Ce qui n’est possible qu’au moment de l’interférence, lorsque celle ci n’a pas été prévu au départ, donc, dans l’algorithme de départ.

      C’est ce qui explique l’impossibilité de trouve un nombre premier quelconque, car chaque nombre premier ajoute sa propre variable dans l’algorithme de départ. En effet, chaque nombre premier interfère avec tous ceux qui le précède.

      Ce n’est pas difficile à voir et comprendre, mais cela heurte la prétention humaine à tout prévoir, tout maîtriser sans devoir respecter les principes fondamentaux de la nature. Bon, c’est infiniment plus complexe, mais ce n’est pas le lieu pour en parler, trop difficile.

      Bref, l’humain est »victime" de son égo qui le pousse dans les pires aberrations logiques. Mais nul ne peut se placer au dessus du principe de la relation de causalité... Pas même Dieu !

      D’ailleurs, que ce soit la fourmi de Langton ou le jeu de la vie, personne n’a encore imaginé de changer le principe de causalité définit car il sait pertinemment que cela rendrait caduque tout le système. L’absurdité est ici patente, mais ne l’est plus dès lors qu’on parle de la vie, avec cette dernière, on utilise l’arme fatale... Le déni de réalité ou ici, dissociation de relation de causalité !

      Je connais bien les réponses, mais ce n’est pas ici que je les développerai.


    • Shawford Shawford43 26 décembre 2015 11:42

      @Hervé Hum

      Cet article sera visiblement très intéressant à lire, Hervé Hum, j’ai bien fait de revenir en cette période de la nativité pour voir ce qui s’y trame.

      Pour le reste dans cet article et les commentaires qui suivent, on en sort vraiment avec l’impression que la conscience dans tout ça est (de plus en plus) une variable de calcul dont d’aucun semblent pouvoir aisément se passer.

      C’est ébouriffant d’imprécation et d’aveuglement, mais OMG, on est pourtant là tout au cœur de la « science » et de ceux qui s’en référent smiley smiley


    • Hervé Hum Hervé Hum 26 décembre 2015 22:00

      @Shawford43

      Vous avez raison !

      Mais faut être prudent ou la folie guette...


    • pemile pemile 21 décembre 2015 13:49

      @JP « utiliser les Big Data quantiques »
      Le lien avec la physique quantique ne vient pas de Domingo mais de vous, non ?


      • Automates Intelligents (JP Baquiast) 21 décembre 2015 13:58

        @pemile
        Exact ; Tout les commentaires à partir du sous-titre « observations » sont de moi. Mais ils ne sont pas incompatibles sauf erreur avec ce que pense l’auteur


      • fred.foyn Le p’tit Charles 21 décembre 2015 15:43

        Lors du big bang, il y a eu diffusion de la matière dans tous les sens et non dans un sens unique comme le démontre la photo...Figurez vous qu’il y a autant de chose à voir sur la face cachée de cette explosion...Vos explications c’est comme si la lune était plate et qu’il n’y avait rien derrière...Ce n’est pas une hypothèse mais une réalité que les scientifiques omettent de dire...bizarre non.. ?


        • Automates Intelligents (JP Baquiast) 22 décembre 2015 09:42

          @Le p’tit Charles
          L’image est une coupe dans la sphère. Il faut la prolonger mentalement dans tous les sens


        • Rounga Rounga 22 décembre 2015 17:52

          @Le p’tit Charles
          Vous avez déjà dit la même chose sur un autre article et je vous avais expliqué votre erreur. Vous n’apprenez donc rien, vous venez sur ce site uniquement pour montrer à tous votre imbécillité.


        •  C BARRATIER C BARRATIER 21 décembre 2015 18:25

          Expliquer aux autres ce que l’on ne comprend pas soi même n’est pas inutile. L’homo sapiens est limité, il confond souvent les causes et les effets. Les lois de la physique découlent de la situation actuelle de l’univers, ou de son apparente situation. Elles ne se sont pas imposées à lui, ce qu’est l’univers, finement observé a forcément des logiques internes, que nous avons fini par saisir et à mettre en équations et formules.
          Il n’y a pas l’homme et l’univers, l’homme fait partie de l’univers comme son intelligence. Mieux comprendre l’univers c’est aussi mieux nous comprendre, mais en même temps savoir que nous ne connaissons pas grand chose. Les ordinateurs qui nous prolongent comme tout outil dépendant de nous (il faut leur fabriquer leur électricité et ne pas couper, il faut réparer....) mais nous dépendons tout autant de l’univers.
          J’en suis resté au génial EISTEIN, je ne demande qu’à voir plus loin...
          En table des news :

          Sens de la vie, sens de l’univers

          http://chessy2008.free.fr/news/news.php?id=59


          • rocla+ rocla+ 26 décembre 2015 11:19

            à l’ algorithme je préfère l’ alcool de poire ...

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON







Palmarès