• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Société > Principes de guerre et intelligence artificielle

Principes de guerre et intelligence artificielle

Les développements en cours en matière d'intelligence artificielle vont fortement impacter les notions de guerre et de contrôle social. Il n'y aura pas de robots sympas. 

AI robots

La guerre fait partie de la société humaine, et même de certaines sociétés animales. Si c’est parfois l’ultime solution pour un accès à, ou le partage de ressources insuffisantes pour soutenir tout le monde, c’est le plus souvent un moyen d’étendre un pouvoir territorial. Toutes choses par ailleurs égales, la théorie militaire précise que la force d’un groupe armé augmente au carré de sa taille, d’où des stratégies basées soit sur le nombre, soit sur la technologie permettant de compenser un nombre inférieur de combattants mais dans les deux cas le but est soit d’atteindre un objectif, soit d’empêcher l’autre d’atteindre un objectif.

La première remise en cause fondamentale de cette approche guerrière classique fut l’avènement de la dissuasion nucléaire, le but n’étant plus d’empêcher l’autre d’atteindre un objectif mais de l’empêcher de même essayer. D’où l’intérêt évident pour les petites puissances type Pakistan, Corée du Nord, Iran de se munir de la bombe A afin de dissuader toute offensive de la part de puissances bien supérieures. Mais même dans le cadre nucléaire la décision d’action revient à l’opérateur humain, et des catastrophes ont été évitées du fait de la capacité de contextualisation d’un humain.

Ce fut JFK lors de la crise des missiles de Cuba de 1962, quand il fut capable de « rentrer » dans la tête de Khrouchtchev et de comprendre que le problème pouvait se résoudre en diminuant la pression militaire de l’OTAN envers l’URSS, menant ainsi à une période de détente. Ce fut Stanislav Petrov en 1983 qui refusa d’accepter telle quelle l’alerte d’une attaque nucléaire américaine lancée par le système anti-missiles soviétique. Il avait senti que le faible nombre de missiles et le manque de contexte pour une telle attaque pointaient vers une fausse alerte, ce qui était effectivement le cas.

Nous en sommes désormais à une seconde remise en cause fondamentale de notre manière de faire la guerre : le remplacement de l’opérateur humain, du soldat par des machines dotées d’intelligence artificielle (IA). Cette évolution et ses conséquences possibles ont déjà été présentées dans le billet « Intelligence artificielle, arme fatale du futur » (1), il s’agit ici de pointer plus précisément les deux éléments intrinsèques au développement de l’IA militaire : la logique de l’attaque préventive ou first strike, et la création de l’ennemi perpétuel.

L’objectif d’une IA de combat est l’identification des faiblesses de l’ennemi et l’optimisation du parti que l’on peut en tirer, optimisation menant logiquement à l’attaque dès lors que l’on sait qu’elle sera efficace. C’est ainsi que fonctionnent les drones tueurs autonomes qui survolent certaines zones de combat en Afghanistan et ailleurs. C’est ainsi que fonctionneront les systèmes militaires en général dans un futur proche, du simple fait qu’à partir du moment où deux systèmes à base d’IA se confrontent, les choses vont tellement vite qu’il n’y a plus de temps physique suffisant pour qu’un humain intervienne.

De ceci découle la conclusion logique qu’une IA autonome de combat n’aura d’autre solution que la destruction d’un opposant dès qu’il en percevra la possibilité, l’inaction risquant de mener à sa propre destruction. Nous sommes donc à l’opposé de la dissuasion nucléaire qui visait à contrer l’idée même de lancer des attaques, et en même temps à l’aube d’une nouvelle course aux armements à base d’IA.

Comme toujours le développement d’outils militaires se répercute au niveau civil. La militarisation de la police américaine (2) est directement liée au développement de méthodes et d’outils militaires dans le cadre des guerres menées par les USA et l’Occident au Moyen-Orient depuis près de vingt ans. Ce mouvement de militarisation policière existe partout, transformant les forces de police en forces d’occupation, des robocops armés et blindés opérant en « territoire ennemi » au sein de nos villes et campagnes.

Les drones de combat se retrouvent, dans une version certes moins létale, aux mains des forces de police tandis que les techniques de cyberguerre et d’espionnage sophistiqué, visant initialement les ennemis extérieurs, se retournent aujourd’hui contre l’ensemble des populations sous prétexte de « sécurité ». La Chine actuelle nous offre déjà l’image de notre futur proche : une surveillance omniprésente associée à un système de notation et de contrôle du comportement de chaque citoyen, une dystopie dictatoriale dopée à la haute technologie et à l’intelligence artificielle (3).

Tout comme un Etat policier considère, par définition, que l’ensemble de sa population constitue un risque, un système technologique de contrôle social considère l’ensemble de la population en tant que menace potentielle, créant ainsi le principe d’un ennemi perpétuel agissant aussi bien à l’intérieur qu’à l’extérieur de ses frontières. L’IA intégrée à ce type de système aura donc pour tâche principale de déceler toutes traces de comportement « dangereux » chez chaque individu, et d’agir ensuite pour éliminer ce danger.

C’est déjà ce que font aujourd’hui les services de police, mais l’IA promet de le faire avec une profondeur, une rapidité et une précision actuellement circonscrite aux rêves humides des technocrates. Ceci peut semble fabulateur et exagéré, mais il suffit de considérer un exemple très parlant pour se rendre compte que l’IA nous fait effectivement rentrer dans une nouvelle dimension : lors du tournoi de Go mené en 2016 entre l’IA DeepMind de Google et le champion du monde Lee Sedol (qui fut battu 4-1) (4), l’IA gagna une des manches en jouant un coup (le fameux « coup 37 ») totalement novateur, totalement imprévu par les observateurs ainsi que par Sedol lui-même.

On peut voir la surprise des observateurs lorsque l’IA joue cette pierre (l’IA est en noir), et on entend à la fin du clip que Sedol a carrément quitté la pièce, traumatisé par ce coup qu’il ne comprend pas.

 

L’IA a joué ce coup car il a pu déterminer statistiquement, sur base de la mémoire précise de centaines de milliers de parties qu’il a lui-même jouées et des parties que Sedol a jouées contre d’autres humains, que poser cette pierre à cet endroit allait par la suite lui permettre de gagner, et de fait. Aucun joueur humain ne l’aurait fait car aucun humain n’a la capacité d’analyser précisément autant de parties, et encore moins d’en tirer des statistiques en temps réel. Et ça c’est une IA de jeu de 2016, un bébé par rapport à ce que les IA militaires ou policières seront d’ici quelques années.

De chaque déplacement, de chaque retrait bancaire, de chaque promenade sur internet, de chaque publication sur les réseaux sociaux les IA policières tireront des schémas et des prédictions quand à nos motivations, nos petits secrets, nos petites ou grosses déviances par rapport à la norme et informera l’autorité en conséquence. Autorité qui pourra alors soit nous intercepter, soit nous manipuler. Et c’est déjà le cas, même si la manipulation est encore plutôt du fait d’intérêts privés ou politiciens (5) mais la contagion se répand comme un feu de forêt, chaque pays investissant de plus en plus lourdement dans l’IA – et notamment les pays à fort enjeu militaire et policier avec les USA, la Chine et Israël formant le trio de tête (6).

A cette vision un peu sombre on peut opposer l’idée que l’IA, étant au départ programmée par des humains, pourrait aussi faire la promotion du bien, de la liberté et de la paix mais ceci se heurte à un problème fondamental : les notions de bien, de vertu, de compassion, de liberté n’existent que dans un contexte civilisationnel composé d’êtres biologiques passablement irrationnels et sentimentaux, des concepts totalement étrangers à l’IA.

Certes on peut toujours programmer des systèmes de récompense au sein d’une IA qui la pousse à choisir une solution « humaine » plutôt que purement rationnelle, et ceci peut fonctionner dans des cas simples où il n’existe pas d’ambiguïté ni de conflits entre différentes « bonnes solutions », mais ces cas sont rares.

Les lois de la robotique d’Isaac Asimov ne sont qu’un vœu pieu car dès lors que des oppositions existent entre des solutions d’égal mérite moral, par exemple le droit de manifester contre le droit à la protection de la propriété privée, ou tuer un dangereux terroriste au prix de tuer en même temps quelques innocents, et dès lors que les décisions face à ces situations impactent d’autres situations que seule l’IA peut statistiquement prévoir, la décision de l’IA n’aura plus aucun lien avec une quelconque position morale humaine. Elle sera -comme le coup 37 de DeepMind – le fruit d’un processus qui nous échappe complètement.

L’IA ne fait malheureusement pas partie du débat politique ou médiatique mais il me paraît évident, désormais, que tout candidat politique aujourd’hui doit être précisément questionné sur ses intentions en matière de développement, de contrôle et de mise en oeuvre par l’Etat de systèmes à base d’intelligence artificielle, et a fortiori concernant les systèmes de combat et de police.

 

Notes :

(1) https://zerhubarbeblog.net/2018/03/03/intelligence-artificielle-arme-fatale-du-futur/

(2) https://zerhubarbeblog.net/2015/11/18/surarmement-policier-ou-le-risque-de-la-force-doccupation/

(3) https://zerhubarbeblog.net/2018/04/19/intelligence-artificielle-le-cas-chinois/

(4) https://zerhubarbeblog.net/2017/10/19/alphago-zero-le-futur-en-jeu/

(5) https://zerhubarbeblog.net/2018/04/12/de-facebook-au-brexit-la-course-au-profil/

(6) https://medium.com/@bootstrappingme/global-artificial-intelligence-landscape-including-database-with-3-465-ai-companies-3bf01a175c5d


Moyenne des avis sur cet article :  4.17/5   (12 votes)




Réagissez à l'article

22 réactions à cet article    


  • leypanou 25 septembre 2018 08:46
    On peut tourner les choses dans tous les sens mais l’IA ne remplacera jamais l’intelligence humaine.
    Certaines réflexions séquencées peuvent effectivement être mieux faites par une machine, où l’exemple du jeu de go ou des échecs est pertinent.

    Mais l’intelligence n’est pas seulement dans ce genre d’actions. Les « grandes » conjectures mathématiques par exemple ne seront jamais démontrées par l’IA : il y a tout un processus de réflexions que l’IA ne pourra jamais acquérir.

    • Vincent Verschoore Vincent Verschoore 25 septembre 2018 19:48

      @leypanou Remplacer non, au sens où l’intelligence humaine n’a jamais remplacé l’intelligence des fourmis non plus. Par contre prendre le contrôle de la destinée humaine si on lui en donne les moyens me semble être un risque réel.


    • zelectron zelectron 26 septembre 2018 10:40

      @Vincent Verschoore
      les robots sympa fabriquent des caramels mous avec un taux de sucre faible et bios


    • CORH CORH 27 septembre 2018 10:33

      @leypanou

      « l’IA ne remplacera jamais l’intelligence humaine. »
      ça dépend de qu’elle intelligence humaine on parle, pour certains elle ne dépasse déjà guère celle de leur smartphone.

    • CORH CORH 27 septembre 2018 10:54
      @CORH
      pour le reste, je suis d’accord et je trouve le mot « intelligence » insupportable, un robot ne fera jamais que ce pour quoi on l’a programmé, accesoirement pas trop mal ou accesoirement pas trop bien, le reste ce n’est que phantasmes puériles et ignorants
      ça n’empêchera pas non plus que la géneralisation et la sophistication de la robotique ne soit pas quelque chose d’inquiétant qui deja aujourd’hui, nous a montré ses effets inquiétants voire mortiféres. 

    • Vincent Verschoore Vincent Verschoore 27 septembre 2018 17:36

      @CORH Je pense que vous n’avez pas bien saisi le principe de l’IA. Personne n’avait programmé le coup 37 de Alphago.


    • pemile pemile 27 septembre 2018 18:23
      @Vincent Verschoore « Je pense que vous n’avez pas bien saisi le principe de l’IA. Personne n’avait programmé le coup 37 de Alphago. »

      Comme personne n’avait programmé la « route » tracée par la fourmi de langton ! smiley

    • CORH CORH 27 septembre 2018 21:41

      @Vincent Verschoore

      Bof je sais un minimum ce qu"est un ordinateur, même si je ne connais pas le coup 37

    • baldis30 25 septembre 2018 11:01

      bonjour,

      « l’intérêt évident pour les petites puissances type Pakistan, Corée du Nord, Iran de se munir de la bombe A »

      Et l’intérêt de celui qui les leur a vendues ? Parce qu’on ne me fera pas croire que tous ces pays ont maîtrisé l’une des deux métallurgies suivantes : soit l’enrichissement en U235 nécessitant une technologie métallurgique exceptionnelle en amont (fabrication des centrifugeuses ou diffusion gazeuse) , soit la maîtrise des caractéristiques physiques du Pu239 essentiellement variables selon .... !

      Alors qui a vendu les matériels ou le savoir ? Aucun des membres permanents du Conseil de Sécurité c’est évident ! ( ou alors des masochistes ...) ou peut-être ceux qui ne pouvaient pas essayer l’arme atomique chez eux ou discrètement .... (cela se détecte si bien par sismométrie qu’on ne se hasarde pas trop à faire savoir qu’on sait faire ...) !


      • HELIOS HELIOS 25 septembre 2018 16:40

        @baldis30
        ... presomptueux de penser qu’un iranien, un coréen ou un pakistanais est moins intelligent que l’un d’entre nous -europeen, americain etc-


        ... par contre, les moyens technologiques ne sont pas disponibles partout dans les mêmes conditions et de la même qualité. Là est la difference, mais que ne peut-on pas acheter ?

      • baldis30 25 septembre 2018 20:04

        @HELIOS
        bonsoir,

        « présomptueux de penser »

         hélas non .... contrairement à ce que vous croyez ! Seuls pays qui possèdent la bombe et qui peuvent l’avoir construite eux-mêmes : Inde et Israël ! car ils ont une capacité technique et SCIENTIFIQUE indiscutable ! Pour les autres il y a un pays qui a les capacités et n’a pas ( hum ... hum... hum..) le droit de l’avoir.... ce n’est pas le Japon .... il a eu sa ration ! 


      • titi titi 1er octobre 2018 00:47
        @HELIOS


        L’inde s’opposait à la Chine… devenant de fait l’allié de la Russie qui avait la bombe.
        Le Pakistan s’opposait à l ’Inde... devenant de fait l’allié de la Chine qui avait la bombe.

        Facile...



      • vesjem vesjem 25 septembre 2018 17:58
        @vincent
        excellente analyse ; merci

        • Jean Keim Jean Keim 25 septembre 2018 19:31

          Tout peut s’acheter et la guerre est une activité économique, produire des armes n’est pas suffisant, encore faut-il qu’il y ait des guerres pour les vendre.


          J’en reviens toujours à cette évidence, il ne peut y avoir de guerre faute de gens pour l’alimenter et/ ou y participer.

          • Vincent Verschoore Vincent Verschoore 25 septembre 2018 19:50

            @Jean Keim D’où l’intérêt des guerres entre IAs : pas trop de morts mais beaucoup de matériel.


          • Jean Keim Jean Keim 26 septembre 2018 07:53

            @Vincent Verschoore
            Désolé mais non ce n’est pas acceptable, outre le gaspillage de matière grise, de matière première, d’énergie, quelle sera l’issue d’une guerre, le vainqueur se contentera-t-il de lauriers ? Dans un « pacifique » match de foot, les gagnants se satisfont-ils des vivas des supporters ?


            Tant que la guerre sera admise dans les consciences, elle fera des dégâts sous une forme ou une autre, c’est le cas de la compétition économique qui fait des ravages tant humains que environnementaux.

          • Jean Keim Jean Keim 26 septembre 2018 08:25

            Mais vous avez raison, il y a des intérêts en jeu, et bien peu d’humanité.


          • zygzornifle zygzornifle 26 septembre 2018 09:18

            Skynet et son Terminator est « en marche » ....


            • Vincent Verschoore Vincent Verschoore 27 septembre 2018 17:43

              @zygzornifle Terminator devrait faire partie du programme de philo de terminale.


            • zygzornifle zygzornifle 26 septembre 2018 09:19

              Comme dit Moix , avec les flics qui se chient dessus ça sera robotcrotte ....


              • Vincent Verschoore Vincent Verschoore 27 septembre 2018 17:39

                @zygzornifle Les flics vont devoir choisir leur camp. L’histoire montre, malheureusement, que la professsion tend à choisir le mauvais camp.


              • Sergio Sergio 30 septembre 2018 22:15

                Si on continue comme cela, et que les machines deviennent plus intelligentes que nous, qu’elles nous remplacent dans leur processus de procréation, et puis dans le nôtre au point de tout simplement, nous faire disparaître. Existera-t-il des machines antispécistes pour nous défendre ?Que restera-t-il de l’humanité et qui posera la question existentialiste des machines ? « Qu’est ce qui est apparu en premier : l’homme ou la machine ? » C’est de l’imagination, mais c’est ce qui fait de nous, la différence.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON



Publicité



Les thématiques de l'article


Palmarès



Publicité