Fermer

  • AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > La singularité technologique expliquée

La singularité technologique expliquée

Le progrès technique s’accélère et va atteindre un point de rupture...

Au sortir de la seconde guerre mondiale, le petit monde de ce qui n’est pas encore l’informatique est en effervescence. La cryptographie, c’est-à-dire l’art de « cracker » les messages codés du camp ennemi, a connu un essor important et la mise au point de la bombe atomique a initié la recherche en simulation numérique. On se demande alors jusqu’où pourrait aller le « calcul » si l’on disposait de machines plus performantes. Alan Turing, chercheur britannique, publie en 1950 dans la revue Mind un article qui fera date : Computing Machinery and Intelligence. Il y pose explicitement le problème de l’intelligence des machines et propose un moyen d’en rendre compte. L’article résonne immédiatement comme un programme de recherches dans le champ de l’intelligence artificielle et annonce l’avènement d’une nouvelle discipline fondamentale : l’informatique, dont les progrès spectaculaires, aujourd’hui en prise avec les nanotechnologies, ne semblent pas connaître de fin.

L’INVENTION DE L’INFORMATIQUE ET SON IMAGINAIRE.
 
Les avancées technologiques sont relativement rapides et bientôt chacun dispose chez lui de l’une de ces machines. Pourtant, l’intelligence artificielle semble nourrir davantage l’imagination des auteurs de science-fiction que l’innovation industrielle. Ce n’est qu’une question de temps d’après certains chercheurs et ingénieurs du domaine. En 1965, Irving Good, statisticien britannique, pose les jalons d’une vision du progrès technologique oscillant entre foi et science. Dans son article Speculations concerning the first ultraintelligent machine, il décrit, voire prophétise, un développement prochain extrêmement soudain de la technique, un progrès ultra-rapide dans un laps de temps extrêmement réduit. Il avance en effet que si l’on pouvait construire une machine ne serait-ce qu’un peu plus "intelligente" que l’homme, celle-ci serait capable, très vite, de construire elle-même une machine encore plus intelligente, et ainsi de suite jusqu’à atteindre une intelligence incommensurable à la nôtre : l’homme serait littéralement "largué", abandonné sur le quai du progrès.

Ce brusque accroissement du savoir technique s’apparenterait à un "point" dans l’histoire, à un "pli", ou plutôt à une "singularité". Le terme fut utilisé pour décrire ce phénomène par Vernor Vinge, chercheur américain et auteur de science-fiction, dans son essai The Coming Technological Singularity (1993). Il est emprunté à la physique où la notion de singularité gravitationnelle renvoie à des régions de l’espace-temps où les quantités dont on est capable de rendre compte habituellement deviennent subitement infinies, et par là-même échappent à nos appareils de mesure. Par analogie, on imagine qu’une fois cette singularité technologique atteinte, notre société connaîtrait des bouleversements démesurés. Pour certains, les transhumanistes par exemple, la singularité signe la fin de l’humanité et la nécessité de nous robotiser, pour d’autres, inspirés par la "noosphère" de Teilhard de Chardin, elle équivaut à l’entrée dans un Âge d’Or où l’information et la communication se font sans entraves. D’après les plus alarmistes, les machines super intelligentes nous réduiront à néant sans attendre. On retrouve là toute l’ambiguïté des récits apocalyptiques dans lesquels on tente de faire coïncider en un même événement destruction et révélation, mort et naissance, fin et début (une "destruction créatrice" comme diraient Nietzsche ou Schumpeter).
 
 
LA SINGULARITÉ TECHNOLOGIQUE ENTRE MYTHE ET RÉALITÉ.
 
On est en droit de se demander dans quelle mesure la qualité de chercheurs et de scientifiques des différents protagonistes de ce "mouvement de pensée" garantit la scientificité de la singularité technologique. En effet, sur certains points, et même s’il ne s’agit pas de remettre en cause les compétences de ces scientifiques, l’idée paraît naïve et semble reposer sur des "extrapolations" plutôt que sur des "lois". Les tenants de la singularité technologique s’inspirent en effet de la dite "loi de Moore". D’après cette conjecture, la complexité des semiconducteurs, et donc par extension la puissance de calcul des ordinateurs, croîtrait à un rythme exponentiel : le nombre de transistors par circuit de même taille doublerait tous les 18 mois. Cela revient à dire que si sur un m2 de champ cultivable vous récoltez 10 pommes de terre en janvier 2002, vous en récoltez 20 en juin 2003, 40 en janvier 2005, 80 en juin 2006, 160 en janvier 2008, 320 en juin 2009, et ainsi de suite. On comprend que les quantités deviennent vite énormes, et même, à partir d’un certain point, "infinies" ou, en tout cas, proches de l’infini. Ray Kurzweil, auteur de l’essai The Singularity is near : when Human transcends Biology (2005), parle d’un "accelerating change", d’un changement qui va en s’accélérant. Or, on sent bien intuitivement que s’approcher d’une telle croissance, surtout si l’on parle de "quantités de savoir" ou de "quantités d’intelligence", devrait avoir des conséquences concrètes immédiates pour nos modes de vie. C’est ce que Vernor Vinge et ses acolytes appellent la "singularité technologique", stimulant l’imaginaire d’une révolution comparable aux révolutions néolithiques et industrielles, voire les surpassant.

Tout ceci peut paraître très excitant ou très angoissant, au choix. Seulement voilà, l’histoire a la fâcheuse tendance de ne peut pas suivre des lois mathématiques abstraites. Tout d’abord, les investissement financiers et humains dans la recherche reposent sur la motivation des hommes. Ensuite, et surtout, la Nature résiste. Ainsi, de l’aveu même de Gordon Moore, co-fondateur d’Intel et auteur de la loi susnommée, le progrès technologique en matière de computation va se heurter à un mur dans sa quête de miniaturisation : l’échelle atomique. À partir d’un certain stade, en effet, et selon les prévisions, c’est à l’échelle de l’atome que nous devrions prochainement confectionner nos processeurs.
 
 
BREAKING THE WALL !
 
Ce "wall" est d’ores et déjà l’objet de toutes les convoitises commerciales et scientifiques : défi majeur pour l’intelligence humaine, sa percée représente également un marché potentiel qui se chiffre en millards de dollars. Ce marché est celui des nanotechnologies. Il s’agit de réussir à construire des machines, si possible intelligentes, des robots, à l’échelle du nanomètre (pour ordre de grandeur, il y a 1 000 000 de nanomètres dans 1 millimètre). Pour réaliser ces machines, il faut maîtriser la manipulation de la matière atome par atome. Cette perspective a été évoquée dès 1959 par le physicien Richard Feynman dans sa conférence There’s Plenty of Room at the Bottom. Depuis, les chercheurs s’y attèlent : en septembre 1989, Donald Eigler et Erhard Schweizer, chercheurs chez IBM, annoncent qu’ils sont parvenus à déplacer la matière atome par atome, dessinant le sigle IBM à l’aide de 35 atomes de Xenon déposés sur une surface de Nickel.

Dès lors, les spéculations vont bon train et les plus audacieux évoquent la possibilité de "reprogrammer" la matière, transformant ainsi le monde réel en un monde virtuel, malléable, modifiable selon nos souhaits. Une telle image est vertigineuse. Elle l’est tant que seuls 29,5 % des américains jugent "moralement acceptable" l’idée d’une manipulation de la matière atome par atome (enquête présentée en 2008 par Dietram Scheufele). Ray Kurzweil lui-même, lors de la présentation d’un rapport sur les nanotechnologies au Congrès Américain, a jugé bon de souligner les dangers potentiels, tout en prévenant que la tentation d’y parvenir était si grande que personne ne pourrait entraver cette recherche. Ces dangers sont peu ou prou semblables aux critiques régulièrement prononcées à l’égard de l’intelligence artificielle (on aura compris en quoi ces deux champs ont partie liée) : perte de contrôle de l’homme sur sa création, confusion totale quant à ce qui est réel et ce qui ne l’est pas, impossibilité de prévoir le comportement d’une machine rendue autonome (et invisible à l’œil nu).

Car c’est à un niveau fondamental que se situe le cœur du débat portant sur la nature de la technique, de l’esprit et de l’intelligence. S’il est encore de bon ton, notamment dans la tradition "continentale" de la philosophie, de tourner en ridicule la recherche en intelligence artificielle en s’appuyant sur les a priori fondant notre conception de l’humanisme, il semble important de s’intéresser aux évolutions récentes et de s’investir dans le débat. La virulence des confrontations secrète en effet des arguments de plus en plus riches. À titre d’exemple, Anthony Berglas, dans Artifical Intelligence will Kill our Grandchildren (2008), défend l’idée selon laquelle une machine, n’étant ni mortelle ni incarnée, n’aurait nul besoin de développer un sentiment tel que l’amour, qui, sur un plan évolutionniste, assure la reproduction d’une espèce. Or de telles conceptions sont porteuses de réflexions étonnamment denses quant à notre condition mortelle et notre rapport au temps. Comment pourrait-on seulement concevoir l’équivalent d’une conscience qui n’aurait pas un rapport au temps de mortel ? Une conscience qui se déploierait dans une pure atemporalité, hors du temps ?

Mais soyons patients, car la réponse est proche si l’on en croit Vernor Vinge : "Je serai surpris si cet événement arrive avant 2005 ou après 2030" (1993).



ARTICLES CITÉS :

Alan Turing, Computing Machinery and Intelligence, in Mind, 59, 433-460, 1950.

Irving J. Good, Speculations Concerning the First Ultraintelligent Machine, in Advances in computers, 39, 1965.

Vernor Vinge, The Coming of Technological Singularity, présenté au Vision-21 symposium du NASA Lewis Research Centre et de l’Ohio Arospace Institute, 1993.

Pierre Teilhard de Chardin, La place de l’homme dans la Nature, Seuil, Paris, 1963.

Ray Kurzweil, The Singularity is Near, Viking Adult, 2005.

Richard Feynman, There’s Plenty of Room at the Bottom, conférence donnée à l’American Physical Society, 1959.

Anthony Berglas, Artificial Intelligence will Kill our Grandchildren, 2008.
 

Moyenne des avis sur cet article :  5/5   (15 votes)




Réagissez à l'article

38 réactions à cet article    


  • JL JL 20 août 2009 13:51

    L’intelligence artificielle ne sera jamais l’intelligence humaine : il n’y a que le mot intelligence qui nous soit commun avec ces machines.

    Une intelligence des machines qui ferait de celles-ci autre chose que des outils, sera soit déterministe - autrement dit totalitaire - soit destructrice. Cela n’a rien d’excitant, c’est plutôt effrayant.

    L’ordinateur qui raisonne en tout ou rien fournit des résultats absurdes en dehors de la comptabilité (pour faire court). L’ordinateur c’est le triomphe de la pensée binaire, autrement dit, le mode defonctionnement de la pensée totalitaire.


    • Traroth Traroth 20 août 2009 19:01

      Désolé, mais vous avez tort. De nombreux paradigmes informatiques ont déjà dépassé depuis longtemps la simple logique à 2 possibilités. La logique floue permet de prendre en compte des états intermédiaires, par exemple. Quant à l’intelligence artificielle, elle permet déjà de simuler de nombreux aspects de l’intelligence, y compris certains aspects de la créativité, grâce aux systèmes multi-agents, par exemple.
      L’idée de base de la plupart des algorithmes d’IA est d’introduire du hasard dans le comportement du système, pour faire simple. Des algorithmes comme les algorithmes génétiques ou les réseaux neuronaux sont des algorithmes d’optimisation, c’est à dire qu’ils servent à rechercher la meilleure solution en fonction des paramètres de base. On introduit du hasard dans le système afin de lui permettre de trouver des solutions empiriquement meilleures. Au lieu de chercher la solution optimale, on cherche la meilleure solution sous-optimale.


    • sobriquet 20 août 2009 19:59

      @traroth

      Je trouve curieux de considérer les algos génétiques comme des systèmes d’intelligence artificielle : comme vous le dites, ce sont des algos d’optimisation. Les réseaux neuronaux et algos génétiques ont besoin d’être conçus de manière à résoudre un problème précis, et cela ne peut être fait que par l’homme : certains algos à base de population donnent des résultats catastrophiques sur certains problèmes, mais excellents sur d’autres. Il me semble que seule une bonne connaissance du problème que l’on cherche à résoudre permet de trouver le bon algo génétique correspondant ; en cela, le savoir faire de l’homme est encore rremplaçable.

      Cette intelligence n’a rien d’artificielle.


    • Traroth Traroth 21 août 2009 11:34

      Il faut commencer par s’entendre sur ce qu’on appelle intelligence artificielle, je pense. Pour Marvin Minsky, ce sont des "programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique". La recherche de solutions à des problèmes complexes, ce que permettent les algorithmes génétiques et les réseaux neuronaux, entrent clairement dans cette définition.


    • Traroth Traroth 21 août 2009 11:43

      Petit exemple de ce qu’on peut accomplir avec des algorithmes génétiques. L’objectif l(fonction de fitness, donc) est de trouver le véhicule capable d’aller le plus loin possible en 7 secondes sur le parcours, sans que les cercles rouges ne touchent le sol.

      http://www.wreck.devisland.net/ga/


    • Patapom Patapom 21 août 2009 12:37

      Oui enfin entre un algo génétique et une IA, il y a du chemin. Ca fait des années qu’on nous bassine avec les réseaux de neurones et compagnie, ça n’a jamais rien donné que de résoudre des problèmes dont les bases ont été posées et fournies par un humain.

      D’ici à ce que les machines se posent leurs propres problèmes, leurs propres interrogations et que, pour ça, elles fassent preuve de curiosité, il y a encore des années lumières !
      Et contrairement à ce que peut écrire l’auteur, je ne vois aucun rapport entre la capacité d’une machine à « réfléchir » et la miniaturisation de ses composants...


    • Piotrek Piotrek 21 août 2009 12:44

      L’intelligence artificielle ne sera jamais l’intelligence humaine

      Je pense que JL a raison mais pour d’autres raisons :

      Quel est l’interet de simuler la pensee humaine ? Avec ses erreurs, ses errements, son passif emotionnel a part pour les poupees de demain ?

      Autant prendre que le bon, l’imagination productive


    • Traroth Traroth 21 août 2009 14:23

      @Patapom : On est en train de parler de création humaine. Il est évident que l’intelligence artificielle découlera toujours de l’intelligence humaine, par définition. Là n’est pas la question. Le chemin à parcourir entre ce qu’il est possible de faire en IA aujourd’hui et une intelligence autonome est surtout conditionné par la puissance de calcul, à mon avis. Un système capable de se comporter, par exemple, comme le robot intelligent qu’on peut voir dans le film « I, robot » nécessiterait une puissance de calcul énorme. Mais je suis d’accord, il faudra également des progrès au niveau algorithmique. On n’y est pas encore, c’est clair. Mais on n’est pas si loin que la plupart des gens le pense.


    • Patapom Patapom 21 août 2009 15:38

      @Traroth :
      « Mais je suis d’accord, il faudra également des progrès au niveau algorithmique. »

      Je pense qu’il ne faudrait surtout QUE CA ! La puissance de calcul ne sert absolument à rien si on n’a pas le bon algo qui tourne derrière. Et pour l’instant, je crois que les progrès effectués en matière d’algorithmie dans le domaine de l’IA sont... inexistants.

      Le dernier truc que j’avais vu qui m’avait fait pas mal rêver, c’était l’ amorphous computing. Qui date tout de même de 96.
      Depuis, rien. Néant. Queud’quetsche !

      N’oubliez pas qu’à partir du moment où un algo fonctionne, peu importe le temps qu’il prendra à s’exécuter : il est réalisable, et c’est uniquement ça qui compte. L’important, comme l’auteur le souligne, c’est d’atteindre la singularité. Après, la « puissance de calcul » viendra toute seule, par auto-amélioration.

       
      Je pense qu’une bouillie d’algo génétique, capable d’améliorer sa base de connaissance en faisant des inférences à partir d’une analyse sémantique de documents glanés sur le net pourrait être un excellent point de départ. C’est comme ça que je commençerais en tout cas... Et ça se programme sur n’importe quelle bécane personnelle ! En +, c’est le truc qui se parallèlise très bien donc la patate de calcul, c’est vraiment pas le souci.

      A mon sens, toutes les recherches sur la reconnaissance de formes, les robots qui marchent et tous ces trucs, c’est une pure perte de temps. Un hobby coûteux pour ingénieurs. Ca n’est pas ce que je qualifie de recherche en intelligence artificielle.
      Un peu comme la théorie des cordes en « physique » quoi...

      (du coup, je rejoins complètement le post d’AspExplorer qui prétend que la science est en panne ^_^)


    • sobriquet 21 août 2009 20:16

      @traroth, 11h34

      C’est juste, j’ai tellement le nez dedans que je ne me rends plus compte qu’il s’agit d’« intelligence artificielle ».

      J’étudie et utilise régulièrement des algorithmes de ce type, et honnêtement, il ne me vient jamais à l’esprit que certains appellent cela de l’intelligence.

      Pour moi, c’est avant toute chose des systèmes programmés qui font ce qu’on leur demande de faire. C’est peut-être parce que j’ai un peu trop le nez dans le guidon, mais je crois aussi que les gens sont assez impressionnables. Cf l’histoire du canard de Vaucanson.


    • JL JL 26 août 2009 10:53

      @ Piotreck et Patapom : « Je pense que JL a raison mais pour d’autres raisons »

      Voir mon précédent commentaire, mal placé ci-dessous et qui vous était adressé.

      Untiliser des machines elles-mêmes livrées aux caprices du hasard serait de la folie.

      Utiliser des machines très sophistiquées mais maîtrisées c’est déjà du totalitarisme, puisque les machines sont au service des puissants dont l’intérêt est d’asservir les masses, même si, parmi ces machines il en est qui sont au service l’homme.

      L’on se deamnde alors, qui possède qui de l’homme ou de la machine.


    • sobriquet 20 août 2009 15:12

      Entre science et fantasmes, certains intellectuels ne se sentent plus pisser. Dans cette branlette intellectuelle, on atteint l’orgasme avec le titre de l’essai de Kurzweil : « when Human transcends Biology ».

      Histoire de reposer un peu les pieds sur terre, il serait bon de se rappeler que même une cellule de mammifère est bien plus complexe que les projets humains les plus audacieux, comme la navette spatiale, ou d’autres projets plus récents.


      • freeal freeal 20 août 2009 17:22

        Votre commentaire me fait penser à celui d’un vers de terre prétendant que la lune n’existe pas parce qu’il ne l’aurait jamais vu. Mais bon, ce n’est pas grave. Cela ne changera rien à sa vie - du vers de terre - s’il se rend compte que la lune existe.
        En attendant, bon Gratttt gratttt


      • sobriquet 20 août 2009 19:35

        Je doute du caractère scientifique de ces spéculations. Concernant la loi de Moore, il est par exemple bien connu que seuls les économistes et les fous peuvent croire qu’on croissance exponentielle peut se maintenir longtemps dans un monde fini.

        Je n’ai pas lu les œuvres de Teilhard de Chardin, mais je ne suis pas étonné qu’il ait énoncé de telles idées ; à l’époque du colonialisme et du pétrole abondant, il était d’usage de considérer tous les coûts induits par la modernité comme nuls, et ceux qui pensaient autrement étaient considérés comme des esprits limités, des « vers de terre ».

        En matière d’intelligence artificielle, on n’a pas atteint la moitié des projections des auteurs de science fiction les moins audacieux : les systèmes experts sont pour la plupart inexploitables sans l’intervention d’experts humains ; il n’est même pas d’actualité d’espérer qu’ils proposent de nouvelles notions. La reconnaissance vocale peut bien être efficace à 90%, c’est largement insuffisant pour être exploitable pour une analyse sémantique. Les systèmes de traduction automatique sont tellement peu fiables qu’on préfèrera encore longtemps employer des interprètes, même pour les communications les plus confidentielles.

        Les espoirs flambants de technologies prometteuses telles que les réseaux neuronaux ou la logique floue ont été abandonnés depuis longtemps, et ces technologies ne sont plus utilisées, comme toutes les autres, que dans des domaines très spécialisés.

        Les systèmes les plus performants, comme les drônes militaires américains, sont d’immondes usines à gaz patchées à mort, il faut plus d’intelligence pour les maintenir opérationnels que pour faire leur travail à leur place.

        Tout ce qu’on a, c’est de la puissance de calcul ; c’est déjà très utile, mais l’intelligence n’est pas tant une question de puissance que de maîtrise.

        Quand bien même on mobiliserait du jour au lendemain toutes les ressources de la planète à atteindre ce point de singularité, on les épuiserait avant d’y arriver. Ou plus vraisemblablement, le porteur du projet conduira 90% de l’humanité à la famine avant que le projet ne fasse faillite.


      • JL JL 26 août 2009 10:47

        @ Traroth, je sais très bien ce qu’est la logique floue ainsi que les techniques auxquelles vous faites allusion.

        Mais je sais aussi une chose : On ne sait pas créer des séries aléatoires : on ne sait que faire des séries dites pseudo aléatoires, qui sont toujours déterministes. Ceci veut dire qu’elles sont tributaire d’un ou plusieurs paramètre et que les mêmes paramètres produisent toujours les mêmes suites.

        La vie c’est le hasard. Donner le pouvoir à des machines qui seraient déterminées par le hasard serait de la folie, à supposer que cela soit possible. C’est cette folie que j’ai qualifiée de destructrice.

        Me suis-je fait comprendre ? 


      • Kalki Kalki 20 août 2009 19:25

        Entre mythe et réalité ?

        La plupart des gens ne sont pas capable de faire la difference entre le faux et le vrai , entre la fantamasgorie et des faits reel scientifique devant leurs yeux...

        La science-fiction se base sur la science pour la plupart des bons romans - et il y a un, tout ce qui est décrit sont des possibilités - vrai, non des fantasmes - de l’imaginaire - et c’est la qu’il faut bien distinguer le probleme : Simulacre et Possible, simulation, falsification.

        Mais sachez comme vous l’avez démontrez ceux qui en ont parlé de ces problème sont d’abord des hommes de science- qui ont dans ce cas possiblement une plus grande conscience du probleme scientifique et reel.

        Que ce soit clair celui qui préfére la machine a l’humanité choisit son camp - qui n’est plus naturelle- et certain osent s’appeller les premier transhumain quand vous n’avez plus rien d’humain. Vous pouvez ramener le probleme au niveau existentiel, politique etc. C’est un chemin qui se sépare contrairement a ce que vous pouvez penser ce n’est pas la continuité ( car vous ne voyez pas ce qui va avec ....)

        Il ne faut pas laisser le pouvoir aux expert , scientifique - car ils sont capable d’etre tout autant idéologue.

        Certain scientifique travaillant ont fait des réunions a propos de ce dangers récement aux usa.

        Je ne pense pas que ca arrettera personne de le faire ! Il y a toujours un couillon qui fait que son boulot , en plus il est payé l’abruti.

        http://www.lefigaro.fr/sciences/2009/07/31/01008-20090731ARTFIG00452-un-cerveau-artificiel-annonce-dans-dix-ans-.php

        il y a plein d’imbécile qui sont capable de le faire aujourd’hui et la probabilité qu’un abruti le fasse et de un.


        • Panzerfaust 20 août 2009 19:52

          L’intelligence artificielle dépassant l’intelligence humaine, fascinant dirait Spock. Pourquoi pas, après tout d’autres vaches sacrées ont été désacralisées : la position centrale de la terre dans l’univers, l’homme résultat direct de la création divine infirmée par l’evolution. Toutes ces propositions absolument évidentes et indiscutables à leurs époques sont aujourd’hui complètement abandonnées (sauf par quelques fondamentalistes attardés que rien ne convaincra jamais de toute façon).
          Un des derniers bastions de l’anthropomorphisme reste l’intelligence humaine. Prendre ce bastion aurait à coup sur des conséquences non-linéaires sur l’espèce humaine.
          Ceci dit rien n’est gagné. Il ne faut pas se laisser abuser par le rythme incroyablement rapide de l’évolution technique dans les techniques informatiques. D’autres domaines ont aussi connu des évolutions fulgurantes.
          L’astronautique par exemple a réussi à envoyer des hommes sur la lune à la fin des années 60, et depuis plus rien, ou pas grand-chose. Pas d’essor du spatial comparable a celui du transport aérien. La technique a tout simplement atteint ses limites fin des années 60. La fusion contrôlée : c’est théoriquement possible, mais personne ne se risque à annoncer une application industrielle avant la fin du siècle.
          Comme le souligne un autre intervenant une cellule est plus complexe que les projets humains les plus audacieux. Il aurait du ajouter : à ce jour. La complexité ne fait rien à l’affaire, tout au plus cela signifie-t-il que la réponse n’est malheureusement pas proche, sans doute pas suffisamment proche pour que notre génération puisse la connaitre.

           


          • Halman Halman 20 août 2009 22:25

            A ceux qui pensent que l’informatique n’est qu’une stupide suite de binaire et que les ordinateurs ne seront jamais aussi intelligents que l’homme, mais pour qui se prennent ils ?

            Tellement imbus de prétention humaine à savoir que notre espèce ne serait que le seul dépositaire de l’intelligence ?

            Ca va les chevilles ?

            Un petit peu d’humilité de la part d’un de nos plus grands chercheur en IA :

            http://www.jean-michel-truong.net/totalement_inhumaine/page/chtotalement.html

            Ensuite les algorithmes génétiques, entre autres, réservent bien des surprises :

            http://www.automatesintelligents.com

            Chercher à Sydney Brooks.

            Des expériences faites à partir d’entités programmées avec des algorithmes génétiques ont, cela va donner de l’urticaire à certains, SPONTANEMENT, sans que cela soit programmé nulle part, inventé en quelques milliers de générations, les pattes, la reptation, la nage, la préhension, la marche à six pattes, les organes sensoriels et la communication.

            Petit détail croustillant : combien de milliards de milliards de milliards de générations a t’il fallu à la vie sur terre pour en arriver là à partir des premières cellules procaryotes ?
            Étonnant non ?
            Ca calme, un bon coup d’humilité dans notre prétendu supériorité biologique non ?

            Comment peut on raisonnablement penser que la nature ait mis tous ses oeufs dans le même panier, à savoir ce pauvre petit cerveau humain épouvantablement fragile, à la merci de n’importe quelle catastrophe terrestre ou extra terrestre du genre astéroïde, grosse colère du soleil, etc ?

            Nous ne sommes pas éternels.

            Et il faudrait peut être penser un jour à notre successeur.

            Successeur que nous sommes en train de construire.

            Peut être cohabiterons nous avec lui pendant des millions d’années, peut être nous séparerons nous en deux branches de l’évolution différentes mais ayant l’intelligence en commun.

            La Nature trouve toujours son chemin.

            « Qu’un raisonnement soit issu d’un cerveau de silicium ou de carbone ne fait aucune différence, ils ont tous les deux droit au même respect ».

            A.C. Clarke

            Maintenant à ces gens là je leur suggère une recherche sur le thème du test de Turing et d’Eliza.

            Et qu’ils sachent que sur Minitel et Internet des automates répondent aux gens et que personne ne s’en rend compte.
            Que des cadres de grandes sociétés ont étés remplacés par des systèmes experts fonctionnant en télétravail et que personne ne s’en est encore rendu compte.

            D’ailleurs vous mêmes, êtes vous capables de prouver que vous êtes vraiment en colère et que vous ne la simulez pas ?

            Ne cherchez, pas, vous n’y arriverez pas. L’hypotalamus qui envoie les neurotransmetteurs provoquant la colère n’est à la base que des neurones réagissant à un stimulus chimique leur faisant envoyer une réponse électrique du type oui/non, j’envoie ou je n’envoie pas les substances.
            Et c’est tout.
            Comme un transistor dans un processeur.
            A part qu’un processeur contient des circuits logiques bien plus sophistiqués qu’un neurones, avec des portes oui/non, ou, et, nor, xor, etc.

            C’est dur à avaler pour les humains imbus de leur supériorité, mais ce n’est pourtant que cela.

            Merci.


            • bj33 21 août 2009 08:47

              <<Que des cadres de grandes sociétés ont étés remplacés par des systèmes experts fonctionnant en télétravail et que personne ne s’en est encore rendu compte>>

              vouv parlez des programmes de trading automatique ?


            • bobbygre bobbygre 21 août 2009 12:31

              L’intelligence est-elle tout ce qui fait la « supériorité » de l’homme par rapport à la machine ? Une machine pourra-t-elle éprouver des sentiments ?
              Qu’une machine puisse suivre ou même construire des raisonnements pourquoi pas mais est-ce qu’une machine pourra jamais être émue ? Une machine pourra-t-elle ressentir de l’empathie ? J’en doute. L’homme est un être biologique dont nous ne comprenons toujours pas et, espérons-le, dont nous ne comprendrons jamais le fonctionnement. Sur quels critères et de quel façon nous opérons nos choix, cela reste un mystère. Nous sommes autant fait d’imprévisibles sentiments que de froide logique.
              Si un jour l’humanité invente l’intelligence artificielle, c’est qu’elle saura forcément comment elle fonctionne. Ses ressorts, ses limites, ses capacités seront connus et il n’y aura pas de mystère alors que la conscience humaine, elle, est et restera un mystère. C’est comme en musique, beaucoup de musiciens retournent à l’analogique, conscients d’avoir perdu quelque chose en passant au numérique.

              La « supériorité » de tout être biologique sur un être mécanique me parait évidente. Mais ce que je considère comme caractérisant notre « supériorité » serait sans aucun doute considéré comme un signe d’infériorité pour une machine intelligente.


            • Patapom Patapom 21 août 2009 13:04

              @bobbygre :
              Je ne suis pas, comme semble l’être l’auteur de ce commentaire, un illuminé de technologie qui défend ses chers petits ordinateurs (personnellement, je pense qu’on est encore loin de tout ce qu’il semble penser être pour demain).
              Cela-dit, quand vous énoncez « 
              Si un jour l’humanité invente l’intelligence artificielle, c’est qu’elle saura forcément comment elle fonctionne. », c’est faux.

              Il y a plusieurs courants de pensée sur ce qu’on appelle « l’intelligence » :

              • A) ceux qui pensent réduire l’intelligence à une équation méthématique (bon courage !)
              • B) ceux qui pensent que la connaissance est un produit de l’activité du cerveau, est qu’elle est calculable
              • C) ceux qui pensent que la connaissance est un produit de l’activité du cerveau, est qu’elle N’est PAS calculable
              • D) ceux qui croient que l’intelligence est de nature divine et qu’elle ne peut être reproduite (Amen !)
              S’il on fait abstraction des points de vue extrèmes A) et D), alors il y a tout un panel de possibilités pour réussir « calculer » l’intelligence.

              Par exemple, avec une version améliorée et autonôme d’algorithmes qui se modifient eux-mêmes de manière à augmenter leur potentiel (les buts à atteindre restent évidemment à déterminer par l’homme). Dans le cas de ce genre d’algorithmes, aucun humain ne sera capable de comprendre comment l’organisme « final » fonctionnera (entre guillemets, car ce genre d’IA est en perpétuelle évolution, comme le sont nos cerveaux) (personnellement, j’ai une préférence pour cette hypothèse).

              Une autre idée serait que l’intelligence surgisse spontanément dans un « programme » (sens à définir) à partir du moment où celui-ci serait capable de traiter une base de données suffisamment énorme et interconnectée pour engendrer la « connaissance » (sens également à définir). C’est l’ambition de Google par exemple.

              Du point de vue de C), l’intelligence n’est pas calculable avec des outils conventionnels. Il serait nécessaire d’inventer une « nouvelle physique » dont rien ne prouve qu’elle sera compréhensible par l’homme quand ses « équations » seront enchevêtrées.

               
              Beaucoup de guillemets, comme vous le voyez. La vérité est que personne n’en sait rien. Ca pourrait arriver d’une seule manière, comme de plusieurs à la fois. Une chose est sûre cependant, c’est que c’est pas pour demain ! ^_^


            • Patapom Patapom 21 août 2009 13:49

              Un lien sur une vidéo de 1994 d’un travail réalisé par Karl Sims sur l’évolution de créatures, sans doute les « expériences » mentionnées par Halman :

              http://www.archive.org/details/sims_evolved_virtual_creatures_1994

              Ca m’avait bien bluffé à l’époque. Pas trop de nouvelles du bonhomme depuis...


            • bobbygre bobbygre 21 août 2009 15:14

              Merci pour votre réponse intéressante.

              « Si un jour l’humanité invente l’intelligence artificielle, c’est qu’elle saura forcément comment elle fonctionne. » c’est faux.

              Vous avez raison et en plus je me suis mal exprimé.

              Pour ma part, lorsque j’entends intelligence, au sens de l’intelligence de l’homme, j’entends la conscience, qui pour moi est un pré-requis indispensable à une véritable compréhension du monde et donc à l’apparition d’une intelligence.

              Vous parlez de l’intelligence de machines placées en réseaux. A mon avis, de tels réseaux intelligents ne feront jamais apparaitre de conscience et donc de véritable intelligence. Ce n’est qu’une opinion car nul ne peut le dire, je le sais bien mais une fourmilière sait faire plein de choses mais peut-on pour autant dire que la fourmilière est intelligente ? Werber a tranché la question mais il ne m’a pas convaincu pour autant.

              Vous parlez aussi d’intelligence qui apparaitrait spontanément dans de gros systèmes d’information. Alors là, j’avoue n’absolurent pas comprendre par quels mécanismes mais c’est la première fois que j’entends parler de ce concept alors je vais éviter d’étaler mon ignorance.

              Les algos « génétiques » me paraissent nettement plus prometteurs et je pense que si l’intelligence artificielle peut exister, il est probable que ce sera de cette manière (avec des « programmes » informatiques capables de 1. se reproduire 2. se réecrire 3. mourir). Mais plus les années passent et moins j’y crois. Plus je connais les hommes et plus je me dis qu’il y autre chose, une dimension supplémentaire dans l’intelligence de l’homme qui échappe à la raison et aux sciences, une raison liée à notre coté organique. Je ne pense pas forcément à l’âme des mystiques d’ailleurs.

              Mais je suis conscient que tout cela est davantage affaire de convictions et d’opinions que de certitudes scientifiques et je respecte totalement votre point de vue.


            • Patapom Patapom 21 août 2009 15:56

              Oui, entièrement d’accord avec vous : il faudrait auparavant être capable de définir ce que l’on pense être la raison de notre « conscience », de notre éveil, pour pouvoir la transcrire en code machine et faire tendre ces fameux algos vers ce but.

              Ca pourrait être, par exemple :

              • la capacité à utiliser son environnement à son avantage
              • la capacité à combiner plusieurs éléments pour en obtenir un nouveau
              • la faculté empathique (qui a encore sérieusement besoin de développement chez la majorité des hommes, cela dit !)
              • la curiosité, l’envie de découverte et d’expérimentation
              • l’extrapolation des connaissances
              • la Divine Essence, l’Amour et tous ces trucs que l’on peut s’imaginer

              Ou bien un peu de tout ça mélangé... (je n’ai cité que des chose typiquement humaines ou que l’on rencontre rarement chez les animaux).

              Malgré tout, je pense que même s’il on est capable de donner des buts semblables à quelques algos, et si cela se traduit miraculeusement par l’émergence d’une « conscience », on sera néanmoins incapables de déterminer dans quelle mesure ou de quelle manière chaque critère influe sur la personnalité résultante, un peu à l’instar du principe d’incertitude en méca-q...

              Mais ce ne sont que des convictions personnelles, bien sûr.


            • Héloïse 2 décembre 2010 10:39

              je suis assez d’accord, voir mon post plus bas


            • aml 21 août 2009 01:22

              C’est intéressant, j’avais justement ce genre de réflexion à la suite d’une lecture...

              Personellement, je suis persuadée qu l’on puisse créer de l’intelligence artificielle, mais elle n’aurait pas les mêmes préoccupations que l’être humain il me semble.

              Je ne crois pas que l’émergence de cette forme de « pensée » puisse améliorer l’humanité. C’est « pire » que de concevoir des enfants, car dans ce cas, engendrer la vie, c’est perpétuer ces gênes, une certaine culture, un mode de vie, l’amour...

              Maintenant, l’informatique, l’automatisation, la robotisation, la numérisation, etc., je suppose que ça aurait pu être un plus, mais je n’en suis plus si sûre.

              Tout dépend de l’usage qui en est fait et dans quel but c’est utilisé.

              Et puis, sans réseaux, sans énergie, les technologies ne pouraient pas plus exister que des humains sans eau, sans nouriture ou sans oxygène.
               
              Je me demande si les tecnologies trop sophistiquées seraient la solution à des problèmes biologiques ?


              • Asp Explorer Asp Explorer 21 août 2009 11:07

                J’aurais pu écrire cet article il y a vingt ans. Depuis, j’ai vécu assez longtemps pour comprendre à quel point je me serais fourvoyé. La triste vérité, c’est que le progrès technique n’existe que dans les fantasmes de futurologues qui feraient bien de sortir un peu. Dans les années 50, on a mis au point le laser, les semi-conducteurs, l’énergie nucléaire et le moteur fusée. Ce sont les dernières inventions de quelque importance que l’humanité aient faites. Le laser est aujourd’hui généré par des diodes au lieu de tubes à gaz, des diodes semi-conductrices. Les semi-conducteurs ont servi à faire des composants électroniques de plus en plus petits... mais qui ne diffèrent pas fondamentalement de ce qui se faisait dans les années 50. L’énergie nucléaire coûte si cher à développer et tout le monde a tellement peur de toucher quoi que ce soit aux systèmes existants que là encore, on n’a guère fait de progrès depuis les années 50. Quant au moteur fusée, force nous est de constater que la fusée Soyouz, qui date de 57, est encore largement utilisée de nos jours, avec les mêmes moulins (dérivés du V2) qu’à l’époque de Krouchtchev.

                La technologie est au point mort. On est assaillis de gadgets de plus en plus sophistiqués ce qui nous maintient dans l’illusion que « le progrès » avance, mais ce n’est qu’une illusion. Les automobiles modernes ont beau être bourrées d’ordinateurs, les moteurs qui les animent ont le plus souvent une vingtaine d’années, et si la carrosserie est plus ronde et plus jolie, avec des phares au xénon et des radars de proximité, les chassis sont les mêmes depuis des lustres. Et pour ce qui est de l’informatique, non seulement la programmation n’a pas suivi l’explosion des capacités du hardware, mais elle en a pâti. Qui de nos jours programme en assembleur ? Personne, et pour cause : à quoi bon se casser la tête pour optimiser son code alors qu’il est si simple de rajouter de la mémoire, de changer de processeur ou d’attendre un peu que la magie électronique corrige les maladresses de programmation. Vous évoquez l’intelligence artificielle, êtes-vous seulement au courant que ce champ de recherche est considéré comme mort et que les étudians ne s’y intéressent plus ? L’intelligence artificielle est un échec de la science, on n’a pas réussi à faire, tout simplement.

                En médecine, l’imposture encore plus flagrante. Il y a belle lurette que les gouvernements du monde entier ont déclaré la guerre au cancer. Quel résultat ? Aujourd’hui paraît-il, on guérit un cancer sur deux... enfin, on soigne avec une survie de plus de cinq ans. Et avant ? Avant, on ne dépistait pas. Certains cancers se guérissaient spontanément sans que le malade soit au courant de sa maladie. Les guérisons spontanées existent toujours aujourd’hui, mais ces guérisons sont mises sur le compte de « l’efficacité de la médecine moderne ». Une médecine qui en vingt-cinq ans, n’a pas réussi à soigner le SIDA. Une médecine toujours impuissante contre la malaria. Une médecine qui maintenant court partout en gloussant comme un poulet décapité à cause des risques... de grippe !

                Hors de la technologie, la science « dure » avance, c’est vrai. On isole des bosons, on compte des sursauts gamma, on échafaude des théories des cordes pour expliquer la matière noire, l’énergie sombre et le trucmuche pas très clair... sauf que tout ça ne débouchera jamais sur aucune application pratique. Les scientifiques du CERN expliquent que « dans les années 1910, personne ne savait à quoi servirait la mécanique quantique et la relativité, et aujourd’hui, c’est à la base de l’électronique et du GPS ». Certes. Sauf qu’entre la découverte du photon (1905) et la formalisation de la théorie du laser (1927), il s’est écoulé une vingtaine d’années. Voici près de cinquante ans qu’on fait tourner des électrons, des positrons, des protons, des croûtons et autres bidulotrons à pédales dans des accélérateurs de plus en plus puissants, et pouvez-vous m’expliquer ce qu’il en est ressorti, concrètement, pour le contribuable de base ? Ah oui, on a découvert pourquoi le spin des trous noirs était proportionnel à l’entropie de l’univers primordial multiplié par l’âge de Niels Bohr quand il a eu ses premières règles. Ouais, super... Et ça nous dit que l’univers est né il y a 13,6 milliards d’années... génial ! Et que dans je ne sais combien de pétazillions d’années, les trous noirs vont s’évaporer par rayonnement de Hawking... putain, ça va être un joli spectacle.

                Cela dit, excusez-moi si je vous semble prosaïque, mais j’ai un peu tendance à m’en foutre.


                • Piotrek Piotrek 21 août 2009 13:03

                  Votre commentaire est interessant car justement, la « singularité », c’est la resolution des problemes que vous evoquez par l’intelligence artificielle, les nanotechs...

                  "Sauf qu’entre la découverte du photon (1905) et la formalisation de la théorie du laser (1927), il s’est écoulé une vingtaine d’années."

                  Car il a fallu qu’un homme naisse, se forme, se decouvre un interet pour la physique, evite les accidents de la vie et fasse la decouverte. Puis qu’un autre naisse, se forme, se decouvre aussi un interet pour la physique, survive a la deuxieme guerre mondiale et finalement ponde la theorie du laser.

                  Quant au CERN, il est a l’origine de moult innovations indirectes comme des peintures, des technologies du froid ou de l’imagerie medicale... pour pas tous les citer


                • Patapom Patapom 21 août 2009 13:10

                  Huhu ! J’adore ton commentaire, et je partage entièrement ton point de vue ! ^_^

                  Je vous laisse, je file m’acheter la version 3.4 du dernier téléphone portable Samkasslékoui qui fait aussi sèche-linge ! Trop fort !


                • Héloïse 2 décembre 2010 10:43

                  Vous avez raison a posteriori, mais c’est assez pessimiste. Voir mon post plus bas (le livre dont je parle propose un lexique de la singularité assez complet en fin d’ouvrage, notamment sur les travaux de Teilhard de Chardin que vous semblez ignorer)


                • toug toug 21 août 2009 12:01

                  Deux commentaires intéressant Asp Explorer et Halman... J’attend le débat entre vous deux...


                  • Shox 24 août 2009 02:42

                    Asp Explorer a oublié qu’il écrivait ses inepties sur internet à l’aide de son PC, amnèsie assez pratique lorsqu’il s’agit de nier le progrès technique.
                    Tout comme parler du SIDA en omettant le décryptage du génome humain, c’est bien commode.


                    • sobriquet 24 août 2009 11:37

                      Il faut donc accepter tous les nouveaux outils qui se développent et qui s’autoproclament « progrès techniques » juste parce que certains d’entre eux sont effectivement utiles ? Il ne faut donc pas faire preuve d’esprit critique lorsqu’une nouvelle technologie apparaît, parce que celle-ci est nécessairement bonne, et que tout ce qui est nouveau est un progrès ?


                      • Shox 24 août 2009 22:26

                        Les nouveaux outils qui ne sont pas des progrès techniques ne se diffusent pas, c’est pas plus compliquer que cela, simple loi du marché.
                        Si le téléphone portable à conquis tous les foyers français c’est parce qu’il était jugé utile, il y aura toujours des personnes qui ne voient pas l’utilité d’avoir un téléphone portable mais ceux-ci seraient bien inspirés de ne pas être égocentrique et d’admettre que si eux n’en retirent aucune utilité, à l’échelle de l’humanité c’est un progrès considérable.
                        Il y avait surement des tas de gens pour penser que l’électricité, la voiture et l’aviation étaient des choses inutiles au début du XXe siècle.

                        Le progrès peut-être dangereux (amiante, armes atomiques... et dans le futur IA, nanotechnologie, robotique) il faut le controler et mettre en place des garde-fous, mais il est très rarement inutile d’ailleurs on ne finance pas la recherche dans des domaines sans débouchés et si par hasard une technologie inutile voit le jour elle ne se diffuse pas, voilà tout.


                        • sobriquet 25 août 2009 16:28

                          Ce serait peut-être vrai dans le cadre d’une concurrence pure et parfaite, et si tout le monde avait le recul suffisant dès la sortie d’une nouvelle technologie.

                          On a inventé la machine à vapeur dans l’Antiquité, et ce n’est pas pour autant qu’elle s’est diffusée aussitôt. On a eu beaucoup d’espoir lors de la conquête de l’espace, et l’on constate aujourd’hui que ça n’intéresse quasiment plus personne. Aucune innovation n’est intrinsèquement un progrès ; cela est complètement lié au contexte de son apparition, et en définitive, seule l’Histoire peut juger si c’est un progrès.

                          Par exemple, des recherches agronomiques et historiques, et le développement de nouvelles techniques agricoles sont en train de remettre en question le progrès qu’a pu nous apporter l’agriculture.

                          Concernant votre exemple du téléphone portable, s’il s’avérait que leur usage était extrêmement dangereux même à petite dose (cancérigène, ou n’importe quoi d’autre), il serait vite abandonné, et il n’y aurait plus personne pour affirmer que c’est un progrès.

                          Le progrès est utile, mais ce n’est pas parce que quelque chose est utile que c’est un progrès.


                        • Héloïse 2 décembre 2010 10:36

                          Bonjour,


                          férue de futurologie, je voudrais réagir à tous ces articles :

                          - ceux qui pensent que l’IA va engendrer une dystopie, c’est à dire un monde totalitaire : c’est une vision de type Terminator. L’intelligence nous a permis, nous humains , de nous éloigner des bêtes. Et bien, celle de l’IA le permettra encore plus, car ce ne sera pas une machine, masi plutot un H+ (humain amélioré)

                          - ceux qui pensent que ça ne va jamais se produire ou dans très longtemps, je suis à moitié d’accord avec eux : depuis le temps qu’on prévoit 2001 l’odyssée de l’espace, rien de tel ne s’est produit, et la seule intelligence automatique c’est Google : un très bon moteur de recherche, mais essayer d’avoir une conversation humaine avec lui, vous serez déçus. Donc la Singularité n’est pas pour demain, comme le prévoit Kurzweil and Co, mais elle arrivera

                          - à l’auteur de l’article : un très bon résumé, car il existe que très peu de documentation en français sur la Singularité. A ce propos, je viens de lire un livre (en français !) qui en parle et même va au-delà, il s’agit de « Idée » de Zosj Aabram (disponible sur aabram.com, ou fnac.com). Il évalue plutôt la Singularité dans les années 2070. La théorie est romancée (en pièce de théâtre !) mais elle enchantera tous les adeptes ou même contradicteurs de ce thème, si ça peut mettre tout le monde d’accord... :)

                          • Héloïse 2 décembre 2010 10:39

                            je suis assez d’accord, voir mon post plus loin


                            • JP de Lespinay JP de Lespinay 3 avril 2013 12:45

                              La Singularité existe, depuis l’an 2000 et en France ! Elle ne fait appel à aucune technologie compliquée. C’est une simple méthode d’extraction de la connaissance inconsciente associée à un logiciel qui raisonne sur cette connaissance. Qu’est-ce que ça donne ?


                              1) la faculté de dialoguer, qui est basée sur un raisonnement inconscient
                              2) la faculté d’expliquer ce qu’il fait et de détecter vos contradictions, qui est basée sur le raisonnement
                              3) la faculté d’extraire vos connaissances en dialoguant avec vous et de les utiliser tout de suite pour vous aider
                              4) la faculté d’écrire des programmes parfaits à partir de vos connaissances, qui tournent immédiatement devant vous.

                              A tout cela il faut ajouter les avantages propres à l’ordinateur : il n’oublie jamais rien, sa mémoire est infinie et il raisonne infiniment plus vite sur des quantités d’infos gigantesques sans jamais se tromper... 

                              Un ordi équipé de ce soft s’améliore sans cesse entre les mains de ses utilisateurs. Il donne l’apparence de la conscience. 

                              Pourquoi n’êtes-vous pas au courant ? Parce que tout est fait pour que vous l’ignoriez. Une telle machine tuerait le métier de l’informaticien et du logiciel tel qu’il est aujourd’hui. Or c’est lui qui vous tient au courant des innovations en informatique...



Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON

Auteur de l'article

Irr


Voir ses articles






Les thématiques de l'article


Palmarès