• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Tribune Libre > Des réseaux neuronaux de Google inventent leurs propres systèmes (...)

Des réseaux neuronaux de Google inventent leurs propres systèmes d’encryptage

Les recherches récentes sur les systèmes d'intelligence artificielle (AI) dits évolutionnaires, c'est-à-dire capables de s'adapter pour survivre à un environnement complexe changeant, font de plus allusion au fait qu'ils pourraient se doter progressivement de capacités cognitives analogues à celle d'un humain.

Celles-ci leur permettraient de se donner des représentations d'eux-mêmes et mettre en place des aptitudes au langage et à l'invention – le tout évidemment aujourd'hui encore sous des formes très primitives. Alain Cardon, dont les principaux ouvrages sont disponibles en accès libre sur ce site, explore en détail ce thème.

La littérature spécialisée n'a pas encore donné d'exemples concluants montrant que cette capacité est déjà à l'oeuvre dans des systèmes d'AI existants, sauf peut-être dans le cas d'algorithmes utilisés dans la gestion des marchés financiers, dits « à haute fréquence ». La pratique a montré que ceux-ci pouvaient prendre en quelques millisecondes des décisions d'achat et de vente plus pertinentes que celles des meilleurs traders humains.

Nous mentionnons par ailleurs le fait que Google, ambitionnant de mettre au point un « cerveau global artificiel » ou Google Global Brain, susceptible de se substituer aux cerveaux humains, avait racheté récemment la plupart des laboratoires d'AI travaillant sur ce thème. Il est clair que son intention, très largement partagée avec le Pentagone américain, est de mettre au service de son projet mondial des systèmes d'AI évolués, capables de prendre eux-mêmes des décisions en faveur des intérêts de Google, sans que celui-ci perde pour autant le contrôle d'ensemble de ces logiciels évolutionnaires.

Un progrès décisif

Or une publication sur ces capacités d'auto-décisions dont seront dotés les algorithmes de demain au service de Google vient d'être produite par des chercheurs de Google travaillant sur leprojet Google Brain. Elle montre que des machines capables d'apprentissage profond ou « deep learning » sont capables d'inventer des systèmes de cryptologie leur permettant d'échanger des messages qu'elles seraient seules à déchiffrer.

On objectera que l'objectif est loin de celui intéressant les capacités de décision autonome d'un cerveau humain. Mais quand on connait l'importance sur les sujets dits sensibles qu'ont pris les outils de cryptologie, le fait que des machines puissent communiquer entre elles de façon inaccessible aux humains fait réfléchir.

On trouvera in fine la référence à l'article de ces chercheurs, publié par arXiv. Martin Abadi et David Andersen y montrent que des systèmes dits neuronaux (neural nets), basés sur des architectures de neurones artificiels, ont pu mettre au point par eux-mêmes un système cryptographique n'empruntant pas aux techniques humaines déjà en service. Le système est très basique, mais rien n'interdira aux neurones artificiels de le complexifier ensuite, toujours de leur propre chef.

L'expérience a utilisé trois réseaux neuronaux indépendants, classiquement nommés Alice, Bob et Eve. Alice devait envoyer un message secret à Bob, message que Bob devait décoder. Eve devait s'y efforcer de son côté,à l'insu d'Alice et de Bob. Pour écrire ce message, Alice et Bob devaient produire un texte crypté faisant appel à un certain nombre de « clefs » inconnues d'Eve.

Initialement, les réseaux neuronaux se sont montrés peu efficaces dans cette tâche, mais après 15.000 tentatives menées par Alice pour produire un texte crypté, Bob s'est montré capable de le comprendre. Eve qui ne disposait que d'un petit nombre des clefs nécessaires, n'a pas pu le faire,

Les chercheurs précisent qu'ils n'ont pas à ce jour bien compris comment les réseaux neuronaux Alice et Bob ont procédé pour produire des textes cryptés. Il s'agissait manifestement d'une initiative autonome dans laquelle aucun humain n'était intervenu. Certes les recherches concernant la réalisation de machines capables d'échanger des messages qui ne seraient accessibles qu'à elles-mêmes sont encore dans l'enfance. Mais le projet Google Brain est désormais en bonne voie pour le faire

Référence : https://arxiv.org/abs/1610.06918

Abstract
We ask whether neural networks can learn to use secret keys to protect information from other neural networks. Specifically, we focus on ensuring confidentiality properties in a multiagent system, and we specify those properties in terms of an adversary. Thus, a system may consist of neural networks named Alice and Bob, and we aim to limit what a third neural network named Eve learns from eavesdropping on the communication between Alice and Bob. We do not prescribe specific cryptographic algorithms to these neural networks ; instead, we train end-to-end, adversarially. We demonstrate that the neural networks can learn how to perform forms of encryption and decryption, and also how to apply these operations selectively in order to meet confidentiality goals.

 


Moyenne des avis sur cet article :  1.57/5   (7 votes)




Réagissez à l'article

33 réactions à cet article    


  • Francis, agnotologue JL 2 novembre 2016 14:40

    Il y a loin de la coupe aux lèvres, et un monde entre le titre de l’article et ce que révèle le texte.

     
    Qu’est-ce que l’expérience a démontré ? Qu’une IA qui possède des clefs utilisée par un système de cryptage est plus apte à craquer ce système de cryptage qu’une IA qui ne possède pas ces clefs.
     
     Pas de quoi fouetter un chat.

    • gogoRat gogoRat 2 novembre 2016 16:57

       C’est quoi ces mystères ?
       
       Pas besoin de « deep learning » pour mettre en oeuvre un système de cryptologie permettant à n’importe qui (y compris robot) d’échanger des messages qu’il sera seul à déchiffrer  :
       ce seul cas, rudimentaire, élémentaire, le prouve :
      cf cryptage XOR basique et pédagogique


      • pemile pemile 2 novembre 2016 17:47

        @gogoRat

        Page 1 de l’article :

        « Famously, the simplest neural networks cannot even compute XOR, which is basic to many cryptographic algorithms. »


      • gogoRat gogoRat 3 novembre 2016 20:11

        @pemile
        toutefois :
        « This set-up, although rudimentary, suffices for basic schemes, in particular allowing for the possibility that Alice and Bob decide to rely on K as a one-time pad, performing encryption and decryption simply by XORing the key K with the plaintext P and the ciphertext C, respectively. However, we do not require that Alice and Bob function in this way—and indeed, in our experiments in Section 2.5, they discover other schemes.
         For simplicity, we ignore the process of generating a keyfrom a seed. We also omit the use of randomness for probabilistic encryption »

        >> encore du pain sur la planche devant une stratégie ’humaine’ de cryptage des plus basiques !


      • pemile pemile 3 novembre 2016 20:43

        @gogoRat « encore du pain sur la planche »

        Perso, avec mes quelques connaissances sur les réseaux de neurones, je n’ai pas compris, en lisant l’article, comment se sont déroulé la configuration des trois réseaux et avec quelles supervision humaines smiley


      • gogoRat gogoRat 4 novembre 2016 00:43

        @pemile
        effectivement, comme une impression de trop ou pas assez ... qui n’incite pas risquer son temps à détailler l’annonce ...
         ( Comment des neurones - ignorant le XOR - peuvent-ils décrypter un message codé avec une clé infinie  ? ... Quelqu’un saurait-il nous suggérer une représentation intuitive de cette faisabilité ? )
         


      • pemile pemile 4 novembre 2016 10:15

        @gogoRat « Comment des neurones - ignorant le XOR »

        Il y a moyen d’implémenter un XOR avec 2 neurones d’entrée, une couche intermédiaire de deux neurones et un neurone en sortie, pour, après apprentissage, obtenir ce genre de résultat :

        0 xor 0 -> 0.05 0 xor 1 -> 0.97 1 xor 0 -> 0.95 1 xor 1 -> 0.03

      • gogoRat gogoRat 4 novembre 2016 11:20

        @pemile
        Peut-être bien, mais
         
        Il semblerait que l’objectif de différencier des cryptages soit d’une autre nature que celle de décrypter ...
         
         Comment Eve pourrait-elle ’reconnaître(’reconstruct P’) un nouveau message crypté avec une clé comportant autant de bits inconnus que ceux du nouveau message. (nouveau K éventuellement calculé à partir du ou des P et K précédent(s) - et pas seulement ’combinés’ . Eve ne devrait-elle pas alors ’reconnaître’ implicitement le nouveau K en plus du nouveau P ? )
        ça me semble assez magique !


      • pemile pemile 4 novembre 2016 13:05

        @gogoRat « ça me semble assez magique ! »

        Oui, dans le mesure où il a plus que carence d’explication.

        Et j’aimerai savoir ce qu’en comprennent et concluent Baquiast et Dugué ?


      • gogoRat gogoRat 4 novembre 2016 16:48

        @pemile

         merci de confirmer mon impression que, au-delà d’une communication apparemment ’technique’, voire a priori ’experte’, de tels sujets de ’communication’ risquent bien de laisser suspecter un biais assez retord de propagande ou manipulation de l’opinion.

         Le pékin moyen ne voulant pas être pointé du doigt comme un ’prétentieux’, on abuse de ses honnêtes et prudents scrupules à « oser se servir de son propre entendement » (i.e. : ’sapere aude’) pour le noyer sous les « Lumières » d’ « explications » qu’il est censé ... ne pas avoir la prétention d’essayer de comprendre : c’est juste histoire de lui faire ressentir l’étendue de son ignorance !

           
         Est-ce que certains stratagèmes de « valorisation de la Recherche » ne risquent pas, par hasard, d’être mis en œuvre selon la même subtilité peu glorieuse ? ...
         
         
         Toujours est-il qu’on en vient alors à mieux comprendre les fondements de l’attitude d’un Grigori Iakovlevitch Perelman qui, lui par contre, a su refuser et la médaille Fields et un prix Clay de 1 Million de dollars, rien que parce que ceux qui avaient la prétention de les lui décerner n’avaient pas encore su prouver qu’ils avaient bien compris ses démonstrations !


      • gogoRat gogoRat 4 novembre 2016 17:10

         pour justifier cette suspicion, encore faudrait-il, bien sûr, imaginer un mobile à cette manipulation d’opinion.
         Sommes-nous alors cette fois autorisés à aborder le domaine (réservé ?) de spéculations politiques ?
         La cryptographie étant reconnue, en tous cas par les militaires, comme une réelle arme de tout premier plan ... la digression ne me paraît pas si saugrenue que cela .

         En effet, pour dissuader les scrupuleux d’utiliser une toute bête et simplissime technique de cryptage, rien de tel que de leur laisser entendre qu’un réseau magique de neurones serait capable de cracker n’importe quel cryptage ...

         (remarquons juste que, alors, pourquoi les espionneurs ne resteraient-il pas tapis dans l’ombre, gardant pour eux cette arme secrète pour mieux décoder à l’insu des crypteurs ?
         Sinon, pourquoi ne partagent-ils pas complètement leur trouvaille, avec explications détaillées ET efforts de démocratisation pédagogique - si ne n’est qu’ils ne chercheraient en fait qu’à intimider - ?
        )


      • pemile pemile 4 novembre 2016 18:28

        @gogoRat « imaginer un mobile à cette manipulation d’opinion. »

        Ce n’est qu’une annonce commerciale pour vendre du réseaux de neurones, sans aucun rapport avec la cryptographie.

        L’annonce, c’est de laisser penser que des « réseaux de neurones » pourraient « inventer » ou « communiquer » entre eux spontanément. En les nommant, en plus, pour déclarer qu’Alice et Bob (prénoms utilisés depuis longtemps pour présenter les algos à clés publiques) ont « rusé » la pauvre Eve, c’est de la SF à vendre ici et maintenant.

        Tous les chercheurs en IA (ou les commerciaux et financeurs qui cherchent des sous ?) continuent de vouloir les comparer ou mettre en concurrence avec le cerveau humain.

        Le deep learning donne de bons résultats dans certains domaines, le décisionnel version bigdata aussi, mais associer réseau de neurones et intelligence, j’ai toujours du mal. Un réseau de neurones cela demande toujours une sacré supervision humaine pour sa mise au point.


      • pemile pemile 4 novembre 2016 19:01

        @pemile

        PS : un exemple d’article récent, assez court, qui contient sept fois « cerveau humain », pour présenter la puce TrueNorth d’IBM, spécialisée pour implémenter des réseaux de neurones.

        http://www.lemondeinformatique.fr/actualites/lire-ibm-montre-les-capacites-d-apprentissage-de-sa-puce-neuromorphique-truenorth-66034.html


      • gogoRat gogoRat 4 novembre 2016 20:37

         @pemile
        Bien vu pour le mobile commercial !
        et merci pour l’info


      • pemile pemile 4 novembre 2016 21:35

        @gogoRat « Bien vu pour le mobile commercial ! »

        L’article venant de Google, cela reste une simplification un peu facile masquant mon incompréhension smiley

        J’aurai quand même apprécié que l’auteur JP Baquiast, ami d’Alain Cardon, spécialiste dans le domaine, nous donne un peu plus d’information sur ce qu’ils ont compris de cette publication de Google Brain ?



      • gogoRat gogoRat 6 novembre 2016 16:10

        @pemile

         Mais comment des gens censés peuvent-ils s’imaginer qu’on puisse gober la ’création d’une nouvelle méthode de chiffrement’ sans que l’exposé détaillé et compréhensible de cette ’nouvelle méthode’ nous permettre de vérifier qu’elle est bien inédite ? !
         
         
         Si l’on en croit l’article référencé par le lien que j’ai commencé par donner ici, concernant le chiffrement  théoriquement impossible à casser par la technique du masque jetable , si cette ’nouvelle méthode’ a été sélectionnée par l’IA pour être plus inviolable que la technique basique de, par exemple, le chiffre de Vernam, cela laisse entendre que ’l’invention’ revendiquée serait au moins aussi fabuleuse que celle qui permettrait la production de clés parfaitement aléatoires ! ...
         
        ( Pour ce qui est de savoir reconnaître un message crypté de la même façon et avec la même clé que le précédent, dont on connaîtrait le décryptage, pas besoin d’une usine à gaz : comme le montre cette démonstration )


      • Automates Intelligents (JP Baquiast) 2 novembre 2016 17:26

        Je vous conseille, messieurs les je sais tout, de lire l’abstract et d’essayer de le comprendre. Il serait encore mieux que vous procuriez l’article lui même. Il est curieux de voir que moins on en sait, plus on est catégorique dans la critique. . We do not prescribe specific cryptographic algorithms to these neural networks ; instead, we train end-to-end, adversarially. We demonstrate that the neural networks can learn how to perform forms of encryption and decryption, and also how to apply these operations selectively in order to meet confidentiality goals.


        • Bernard Dugué Bernard Dugué 3 novembre 2016 10:08

          @Automates Intelligents (JP Baquiast)

          Bonjour Jean-Pierre, merci pour cette info et la référence de l’article dont la conclusion est assez nette. Il est peu probable que les réseaux neurones puissent devenir performant dans l’analyse des cryptages. Je crois que l’interprétation est claire. Une hiérarchisation s’est produite dans le réseau avec une émergence. Les scientifiques de Google n’ont apparemment pas su interpréter leur découverte. A plus


        • Bernard Dugué Bernard Dugué 3 novembre 2016 10:10

          @Bernard Dugué

          rectificatif, c’était bonjour Jean-Paul !


        • pemile pemile 3 novembre 2016 15:04

          @Bernard Dugué « Les scientifiques de Google n’ont apparemment pas su interpréter leur découverte. »

          Quelle est votre interprétation de cette expérience ?


        • gogoRat gogoRat 3 novembre 2016 19:02

          @Automates Intelligents (JP Baquiast)

           et c’est cet abstract bien compris ? qui a inspiré le propos catégorique :
          « le fait que des machines puissent communiquer entre elles de façon inaccessible aux humains fait réfléchir. »


        • gogoRat gogoRat 3 novembre 2016 20:01

           voir conclusion de l’article :
          « While it seems improbable that neural networks would become great at cryptanalysis, they may be quite effectivein making sense of metadata and in traffic analysis »


        • Francis, agnotologue JL 4 novembre 2016 08:58

          @Bernard Dugué
           

          ’’Les scientifiques de Google n’ont apparemment pas su interpréter leur découverte.’’
           
           Les scientifiques, je ne sais pas - quoique - mais les managers ont très bien su le faire, mais pas dans le sens que celui que vous évoquez, BD : la preuve en est entre autres, dans le titre de cet article que nous commentons ici.

        • Clark Kent Jeussey de Sourcesûre 2 novembre 2016 18:27

          "Tant qu’on a un automate complètement con qui ne fait qu’exécuter ce qu’on lui demande, ça va. Mais dès qu’on intègre de l’autonomie, elle peut potentiellement devenir dangereuse. D’ailleurs, je fais partie des gens qui pensent qu’il n’est peut-être pas très intelligent d’apprendre à l’IA le je de Go. Ce jeu est un jeu de stratégie, où le but est au final d’écraser son adversaire humain, je ne suis pas sûr que ce soit pertinent d’apprendre ça aux machines. D’autant qu’AlphaGo n’a pas gagné grâce à des combinaisons mathématiques bêtement intégrées dans l’algorithme de la machine. Il a appris à jouer. Réellement. Et certains coups qu’il a joué sont des coups de génie, pas du simple calcul ».


          Laurent Alexandre

          • Christian Labrune Christian Labrune 2 novembre 2016 23:32
             Mais dès qu’on intègre de l’autonomie, elle peut potentiellement devenir dangereuse. 

            @Jeussey de Sourcesûre
            « Nul n’est méchant volontairement », disait Socrate. Les premières machines vraiment intelligentes feront peut-être des conneries, mais la connerie résulte le plus souvent de l’ignorance et de l’étroitesse du champ intellectuel. Les machines intelligentes ne souffriront pas de ces limitations ; quand elles apparaîtront, à la différence des nouveaux-nés humains dont la tête est vide, elles disposeront dès le berceau, si j’ose dire, de l’immense mémoire que constitue déjà l’Internet.
            Même si les machines qu’on utilise pour le trading haute fréquence bénéficient des recherches sur l’IA, on ne peut pas dire que ce sont des machines intelligentes. Elles ne sont pas conscientes et ne savent pas ce qu’elles font. Elles ne sont que des esclaves asservis à la bêtise humaine actuelle. L’intelligence artificielle, c’est autre chose.

          • Aristoto Aristoto 2 novembre 2016 23:43

            @Jeussey de Sourcesûre

            si on essaye de raisonne logiquement une ia consciente et evoluer qui attaquerai les humains le fera forcement parce que celui ci representerai un menace pour son existence.


          • Christian Labrune Christian Labrune 2 novembre 2016 23:13

            Ce qui paraît s’opérer dans l’expérience qu’évoque cet article de JP Baquiast, c’est un phénomène d’émergence. Les ordinateurs ont évidemment été programmés, mais de telle sorte qu’ils puissent eux-mêmes, et cette fois d’une manière tout à fait autonome et assez imprévisible pour les premiers programmeurs, ajouter à cette première couche logicielle une autre qu’ils « inventent » en fonction des nécessités, pour résoudre au mieux un objectif qu’on leur a peut-être bien imposé mais que, plus tard, ils pourront choisir eux-mêmes tout à fait librement. Cette perspective d’une liberté des machines, apparemment, pour beaucoup de monde, c’est dur à avaler.

            Si les chercheurs n’ont pas encore « bien compris » la manière dont les machines avaient procédé, c’est la preuve même que quelque chose s’est passé, qui ne pouvait pas être prévu. Les thèses de l’IA forte, encore très controversées il y a vingt ans, ne le seront plus guère désormais, contrairement à ce que paraissent penser beaucoup de lecteurs sur ce forum, lesquels n’imaginent pas qu’une machine intelligente puisse inventer ce qu’on n’a jamais prévu qu’elle ferait. A terme, les machines travailleront à complexifier leur propre structure matérielle et logicielle, et le cerveau humain, beaucoup trop lent et tout à fait incapable de traiter les big data (qui pourrait relire tout Shakespeare en moins d’une seconde !) finira par contempler le processus sans pouvoir y comprendre grand chose. L’avenir de l’intelligence n’est pas dans l’espèce humaine, mais dans les machines qu’elle aura su produire et qui ne tarderont pas à la dépasser dans des proportions qu’on ne peut même pas imaginer. 


            • gogoRat gogoRat 3 novembre 2016 00:27

              @Christian Labrune
              « L’avenir de l’intelligence n’est pas dans l’espèce humaine »  ??
               
               Gallimatias ! dès lors que le formalisme (mathématique ?) auquel devrait être rapportée cette conjecture n’est précisé nulle part .
               L’espèce humaine peine elle-même à deviner ce qu’elle peut bien être ;
               et, en son sein, diverses interprétations de la notion d’intelligence sont notoirement controversées ! ...


            • gogoRat gogoRat 3 novembre 2016 10:48

              @Daneel42
              avant de chercher, (ou pas !)«  à conclure à l’impossibilité pour l’IA d’accéder au même stade »,
              ne pensez-vous pas qu’il serait impératif d’avoir défini le « stade » en question ?
               M’est avis que c’est encore loin d’être gagné !
               
               La théorie des cordes n’est ni évangile, ni religion, ni scientisme, dès lors qu’elle se contente d’être une construction logique (parmi d’autres possibles certainement) reposant sur un formalisme bien défini ( Une base, reconnue et assumée, de spéculations : pas une prétention !)


            • gogoRat gogoRat 3 novembre 2016 12:43

              @Daneel42

              spéculation :
              * Action de spéculer, de réfléchir profondément ou longuement.
              * (par extension)(péjoratif) Hypothèse

               
               Voilà un début de recherche d’un ’formalisme’ implicite sous-entendu par le langage courant.
               
               Dès lors que des hypothèses sont vérifiées par des expériences ou permettent des réalisations qui n’auraient pas pu voir le jour sans elles, il devient incohérent de les qualifier de ’oiseuses’.
               Par ailleurs, même en l’absence de telles corrélations matérielles, il n’en reste pas moins que la seule activité cérébrale nécessitée par ces spéculations, (et participant d’une discipline, d’un exercice pas du tout oiseux de capacités cérébrales) relève d’actes et de faits concrets, matériels !
               
               Pourquoi ne pas laisser à celles et ceux qui le veulent, et/ou qui le peuvent, la liberté de leurs propres aspirations ? 
               Après tout, n’est-ce pas question de choix de vie personnels ?
              (« des goûts et des couleurs on ne discute point » !)
               
              Cela n’empêche pas de penser, en parallèle à cette citation de Jean Giono :
              « Les spéculations purement intellectuelles dépouillent l’univers de son manteau sacré. »
               
               ( en relativisant quand-même l’idée, pas si évidente à bien y réfléchir, de ’purement intellectuelles’ )


            • pemile pemile 3 novembre 2016 15:26

              @Christian Labrune « lesquels n’imaginent pas qu’une machine intelligente puisse inventer ce qu’on n’a jamais prévu qu’elle ferait »

              Avez vous un seul exemple d’invention faite par une machine ?

              Dans l’article cité il n’y a pas eu invention d’un système de cryptage, mais apprentissage d’échange secret d’information entre deux entités.

              L’article ne détaille pas non plus, la solution trouvée par alice et bob, c’est dommage.


            • gogoRat gogoRat 3 novembre 2016 18:22

              @Daneel42
               où avez vu vu qu’un scientifique digne de ce nom ait jamais cherché à viser à l’explication définitive du réel ??
               
               En outre, malgré votre « peut-être » les spéculations que vous émettez sur ce que ’je/gogorat’ risque de confondre (avec cette notion de technologisme de votre cru) ne sont pas dignes d’un débat constructif et respectueux ! 
               Les hypothèse émises dans les procès d’intentions publiés deviennent les seuls faits vérifiables exprimés : ce jeu risqué de boomerang est peu prisé par celles et ceux que motive une réelle réflexion personnelle.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON



Publicité



Les thématiques de l'article


Palmarès



Publicité