• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > Le graal de la révolution technologique est-il proche ?

Le graal de la révolution technologique est-il proche ?

Lors de la séquence électorale qui s'achève nous n'avons pas parlé de technologie. Pourtant, nous sommes en marche vers un monde digne d'un film de science-fiction. Et nous n'y sommes pas du tout préparés. 

Les chercheurs de Facebook ont récemment créé des programmes intelligents capables de négocier tout seuls. Mieux, ces programmes ont été capables lorsque laissés seuls d'inventer leur propre langage (incompréhensible des humains) pour discuter entre eux. Les progrès de l'intelligence artificielle ont été fulgurants ces dernières années. Là où les écrits de Kurzweil sur la singularité pouvaient sembler un sombre délire, ils apparaissent maintenant de plus en plus probables. 

Jamais le fantasme de créer une intelligence artificielle "forte" n'a été aussi proche. Bien que les savants le suspectent depuis les années 70, il semble que mise à part sa complexité (en terme de nombre de connexions neuronales) notre cerveau obéit bel et bien à des règles mécaniques qu'il va être possible de reproduire dans une machine dès que nous disposerons de la puissance de calcul adaptée. 

Plusieurs mini révolutions techniques ont considérablement accéléré ce but : 

  • L'arrivée du calcul sur GPU (Les processeurs de nos cartes graphiques) qui permettent de doper la vitesse de convergence des réseaux neuronaux. 
  • Le cloud computing qui permet de disposer de capacité de calcul colossales à la demande pour des couts accessibles à des PME.

Ainsi le monde de la technologie est en ébullition et on voit des dizaines d'entreprises tenter de mettre en application des techniques issues des laboratoires. Pour des tâches très spécialisées, celles-ci ont dépassé les humains ou sont en voie de le faire. Même le jeu de go très longtemps jugé inabordable par une IA a été vaincu. 

Mieux, on commence à voir des IA faire preuve de créativité (comme l'invention d'un langage cité plus haut) ou capables de remplacer des humains dans des tâches conversationnelles simples. Elles sont meilleures que les humains pour la reconnaissance de visages. 

Un choc terrible sur l'emploi est à attendre avant 2030 où la plupart des travaux effectués par l'homme seront automatisables. De par la nature liquide du code informatique, toute tentative de régulation pour ralentir le projet sera futile. Il va falloir penser la société post-travail car nous allons devoir trouver un sens à la vie des "inutiles" qui seront des millions. Si nous n'y parvenons pas, une société despotique s'installera probablement avec des capacités de répression terrifiante. 

Les idées ne sont pas légion : 

  • La hausse du niveau éducatif permettra de maintenir une super classe de gens utiles qui vivront mieux que jamais. Mais elle ne permettra pas de sauver la vaste majorité de la population. 
  • La réalité virtuelle pourra servir d'opium du peuple, mais rapidement viendra la question de savoir quel est le sens de tout cela. 

Le principal sujet de la décennie 2020 n'a pas été abordé durant les élections 2017. Nous sommes assurément en marche vers l'intelligence artificielle mais alors que nous n'avons pas su nous adapter à la révolution internet, l'attitude de nos politiques est inquiétante. A défaut de parvenir à organiser nos sociétés autour de ces nouvelles réalités, des chocs politiques et sociaux d'une nature encore plus extrèmes que ceux que nous venons de vivre sont inévitables. Même si des éléments de la politique de Macron vont dans le bon sens, la réaction est beaucoup trop timide. En 2027, nous vivrons littéralement dans un monde de science-fiction.


Moyenne des avis sur cet article :  1.32/5   (19 votes)




Réagissez à l'article

14 réactions à cet article    


  • jacques 21 juin 12:08

    J’ai 62 ans, j’entends parler de cette IA depuis au moins 40 ans, parfois par mon métier, j’ai vu les délires lors de la création des permières bases de données, qui devaient tout permettre, aujourd’hui on a reculé en fait, et l’on fait passer un « robot » qui répond sur internet ou au téléphone pour de l’IA, bref à mon avis impossible de reproduire un humain.... (sauf un coup de b—e )


    • amiaplacidus amiaplacidus 21 juin 15:38

      @jacques

      Effectivement, c’est une vieille lune récurrente.

      J’ai écris mon premier programme en 1964, et 1968-69, la « robotique » est mon métier, mais on appelait cela « informatique industrielle » ou « contrôle de processus », j’ai ensuite fait du « traitement du signal » (maintenant on dit reconnaissance vocale et faciale). Vous voyez que les termes ne manquent pas.

      Je me souviens, vers 1975, lors d’un séminaire de quelques jours de formation à Prolog, avoir écrit, à titre d’exercice, un programme qui déterminait l’espèce d’un animal que l’on décrivait. Rien de bien sorcier.

      Je crois que les vieux informaticiens de mon genre ne peuvent que sourire lorsqu’ils voient les gens s’esbaudir devant l’informatique actuelle. En fait, le seul vrai changement, c’est le très grand progrès des moyens techniques qui fait que l’on peut réaliser maintenant des choses dont nous ne pouvions que décrire théoriquement auparavant.
      Maintenant, on traite en une fraction de seconde de gigantesques matrices (traitement qui aurait pris des jours, voire des semaines, il y a 40 ans), ce qui permet, un exemple parmi bien d’autres choses, l’analyse de photographies,
      .
      J’aimerais ici citer le premier être humain qui a exprimé et rédigé, en partie théoriquement, le premier programme, Ada de Lovelace (fille de Byron), femme à la tête bien faite, aux deux sens du terme, esthétique et intellectuel :

      « La machine analytique n’a nullement la prétention de créer quelque chose par elle-même. Elle peut exécuter tout ce que nous saurons lui ordonner d’exécuter. Son rôle est de nous aider à effectuer ce que nous savons déjà dominer. ».

      Par « Machine analytique », il faut comprendre la machine de Babbage, qui contenait tous les concepts des ordinateurs modernes, mais dont Babbage n’a pu faire qu’une version mécanique faute de disposer, au 19em siècle, d’électronique (un exemplaire de la machine est visible au musée de la science à Londres).

      Je crois qu’Ada a tout dit il y a plus de 150 ans.
      .
      Lorsqu’un ordinateur sera capable de ressentir la beauté d’un petit matin de printemps, lorsqu’un ordinateur sera capable d’aimer, d’être jaloux, d’empathie, de détester, etc.
      Bref, pour paraphraser Descartes, lorsqu’un ordinateur pourra se dire « je suis, donc je pense », qu’il pourra se ressentir existant, alors, peut-être pourra-t-on parler d’intelligence artificielle.
      Mais pour l’instant, il ne s’agit que de traiter rapidement et de trier (d’ordonner) un grand nombre de données.


    • amiaplacidus amiaplacidus 21 juin 15:57

      Comme toujours, j’avais oublié quelque chose.

      L’auteur a parfaitement raison de soulever les problèmes d’emplois et, partant, sociaux qui sont posé par l’automatisation.

      Mais, de nouveau, il s’agit d’automatisation, pas d’intelligence artificielle, même si cela paraît « miraculeux » aux yeux d’un profane.
      .
      Ces problèmes dépassent largement des élections, fussent-elles jupitériennes ou législatives.
      Il n’y aura plus de travail pour tous le monde.

      Pourra-t-on répartir le travail ?
      Comment le répartir ?
      Les nouvelles tâches impliquent une certaine capacité intellectuelle, comment faire avec ceux qui ont été moins bien dotés lors de la loterie génétique ?
      Les personnes nées avec moins de dispositions intellectuelles n’auraient-elle pas le droit de vivre et d’être heureux ?
      .
      Bon, on pourrait aussi faire le même type de question à propos du monde actuel. Par exemple, pourquoi un type qui sait, avec talent, taper dans un ballon, gagne des millions d’€ par mois, alors qu’une coiffeuse doit se contenter d’un bas salaire ?
      Un footballeur aurait-il plus de valeur qu’une coiffeuse ?


    • Zord Zord 22 juin 08:53

      @jacques
      « bref à mon avis impossible de reproduire un humain.... »

      Peut-être que les chercheurs s’amusent à ça, mais ce n’est absolument pas ce qui est recherché par les entreprises, ce qu’elle veulent ce n’est pas « reproduire » un humain, mais le surpassé sur une tâche bien définie. Et sur ce point c’est en cours.

      Par exemple là ou je travaille, un service est chargé « d’étudier » l’IA Watson d’IBM. Ma connaissance sur place m’a dit qu’il ne faut pas que ça s’ébruite trop au sein de l’entreprise, officiellement c’est juste pour tester l’outil....


    • Alex Alex 22 juin 09:07

      @amiaplacidus
      « lorsqu’un ordinateur sera capable d’aimer, d’être jaloux, d’empathie, de détester, etc. »

      I’m sorry, Dave, I’m afraid I can’t do that...

    • Gasty Gasty 21 juin 12:22

      L’homo sapiens sapiens ( celui qui sait qu’il sait ) n’est plus qu’un homo nyme nyme ( celui qui est l’autre de lui-même ) .


      • pallas 21 juin 12:35

        Bonjour Marc Bruxman

        Il y a aussi la recherche sur la neuro science, avec implant électronique mis dans le cerveau.

        Voici un site internet que je vous conseil fortement.

        celui de « L’Institut des Neurosciences Paris-Saclay (Neuro-PSI) ».

        http://neuro-psi.cnrs.fr/

        Tous les programmes de recherches passé et futur sont détaillés.

        Salut


        • Pierre-Yves Martin 21 juin 13:30

          Bien avant l’IA, et je ne nie pas qu’elle soit importante, il y a les données.

          En l’occurrence, il s’agit de stocker à peu près tout sur la plupart des humains (ceux qui ont fait de études, ont de l’argent, ont du pouvoir, etc.), ce qui est l’essence même du business de Google, Face(de)book, Microsoft, etc. et de la NSA.
          La disposition de ces données et les algorithmes qui vont avec, et qui font d’ailleurs appel à l’intelligence artificielle, a déjà changé, presque silencieusement, la face du monde. Bien entendu les intéressés s’en défendront vigoureusement.

          Dans l’immédiat, je crois que le vrai problème est là.

          J’ignore quelles sont les limites pratiques de l’IA. Par contre il y a une chose que je sais, en vieil informaticien : on ne pourra jamais automatiser le passage entre les pensées et arrières-pensées du cerveau humain et un logiciel quel qu’il soit. Or toute application informatique ou robotique provient à l’origine de plusieurs cerveaux humains... qui n’ont pas les mêmes pensées ni les mêmes arrière-pensées.
          On risque d’avoir des surprises !


          • pemile pemile 21 juin 16:27

            @Marc Bruxman « De par la nature liquide du code informatique »

            Bizarre cette métaphore !


            • Montagnais Montagnais 21 juin 21:37

              « Les chercheurs de Facebook  »


              C’est un oxymoron ?

              Et que dire de la « Mémoire Virtuelle » si porteuse de fantasmes, sortie par IBM .. à l’époque ..

              Un simple overlay dynamique ! 

              J’avais fait venir Feigenbaum, Edouard .. à Polytechnique, à l’époque ..

              On discutait, à la pause .. un vieil ingénieur de chez Renault, tirant son clope, nous a asséné : 

              « Y’aura jamais autant d’intelligence dans cent mille computers bite-à-cul que dans la tête d’un piaf .. »

              Et dire qu’il y a encore des benêts pour croire à la pose du pied du bipède sur la lune !

              Et dire qu’on nous présente, au spectron, pesquet « en route vers les étoiles » ..

              Ivan Illich, John Perry Barlow, Ted .. au secours 

              • pemile pemile 21 juin 22:46

                @Montagnais « Y’aura jamais autant d’intelligence dans cent mille computers bite-à-cul que dans la tête d’un piaf .. »

                Et cela reste encore vrai aujourd’hui ! smiley


              • Doume65 22 juin 12:56

                Définition du mot informatique :
                « Traitement automatisé de l’information.  »
                Tout est dit.
                Il n’est pas question d’intelligence en informatique. Un processeur reçoit de l’information, et, via un programme, des instructions pour traiter cette information, dans le sens voulu par ceux qui l’ont écrit. Bien entendu, on ajoute une sortie quelconque pour mettre à disposition des humains le résultat de ce traitement. Le mot intelligence contenu dans intelligence artificielle est un leurre. Le débat doit porter sur la validité de cette expression et non sur les prouesses obtenues par les machines créées, entretenues et alimentées par l’homme. Ces prouesses semblent sans limites, et peut-être le sont-elles, Mais la puissance, par exemple, d’un volcan, ne lui donne aucune intension, aucun vision projective, aucune autonomie, aucun libre arbitre. Pareil pour une machine, aussi perfectionnée soit-elle.


                • Zip_N Zip_N 24 juin 13:09

                  « Mieux, ces programmes ont été capables lorsque laissés seuls d’inventer leur propre langage (incompréhensible des humains) pour discuter entre eux. »

                  Mieux ? quelle utilisation possible ? pour remplacer la communication des animaux disparu ? c’est incompréhensible des humains, comment pouvez vous savoir qu’ils parlent intelligemment ? en utilisant votre bêtise ?


                  • Zip_N Zip_N 24 juin 14:23

                    Comment l’auteur peut-il donner de la crédibilité à quelque chose d’incompréhensible ? en utilisant et partageant sa crédulité.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON








Les thématiques de l'article


Palmarès