• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Tribune Libre > L’IA sera-t-elle autorisée à tuer ?

L’IA sera-t-elle autorisée à tuer ?

Un débat s'est enflammé dans la Silicon Valley sur l'aspect moral de doter l'IA intégrée dans l'armement de la capacité de prendre des décisions de tuer. 

Dans la Silicon Valley, les fondateurs d'entreprises développant des technologies militaires utilisant l'intelligence artificielle (IA) ont débattu de l'acceptabilité de franchir une limite critique, à savoir autoriser les technologies d'IA à prendre des décisions autonomes de tuer. 

En septembre, le cofondateur de Shield AI, Brandon Tseng, a déclaré que les armes aux États-Unis ne deviendraient jamais complètement autonomes où l'IA prendrait la décision finale de tuer. Il était convaincu que ni le Congrès ni le public ne soutiendraient une telle idée. Cependant, quelques jours plus tard, le cofondateur de la société Anduril, Palmer Luckey, a remis cela en question, soulevant l'aspect moral de l'opposition aux armes autonomes. Il a affirmé que les mines incapables de distinguer les civils des soldats ennemis pourraient être plus dangereuses que les systèmes contrôlés par l'IA. 

Lorsqu'on lui a demandé des éclaircissements, l'entreprise a précisé que Luckey ne préconisait pas que les robots prennent eux-mêmes des décisions de vie ou de mort, mais exprimait son inquiétude quant à une possible mauvaise utilisation de l'IA. Son collègue Trae Stephens avait précédemment souligné l'importance du contrôle humain dans la prise de décisions concernant l'utilisation d'armes létales. Anduril affirme que les deux positions sont alignées, car la responsabilité est importante, même si chaque décision n'est pas prise directement par un humain. 

La position du gouvernement américain sur les armes autonomes est également ambiguë. Les militaires américains n'achètent pas d'armes létales entièrement autonomes, mais n'interdisent pas aux entreprises de les développer ou de les vendre à l'étranger. Les États-Unis ont introduit des recommandations volontaires sur l'utilisation de l'IA à des fins militaires, nécessitant l'approbation des plus hauts gradés militaires pour les nouveaux systèmes autonomes, mais ces règles ne sont pas obligatoires. Les responsables américains déclarent constamment que "Not the right time" (ce n'est pas le moment) d'envisager une interdiction obligatoire des armes autonomes. 

Joe Lonsdale, cofondateur de Palantir et investisseur chez Anduril, a critiqué les discussions actuelles sur une interdiction totale des armes autonomes, proposant ce qu'il considère comme une approche plus flexible. Il a appelé les politiciens à mieux comprendre les nuances de l'IA dans les systèmes militaires avant de prendre des décisions qui pourraient affaiblir les capacités de défense des États-Unis. 

Sachant qu'Anduril et Palantir insistent sur le fait que la politique doit être déterminée par des élus, et non par les entreprises elles-mêmes. Cependant, ils soulignent également que les législateurs doivent comprendre la complexité de l'IA dans les conflits militaires. Beaucoup dans la Silicon Valley et à Washington craignent que la Chine ou la Russie ne commercialisent en premier des armes entièrement autonomes, forçant les États-Unis à faire de même. 

Des activistes et des groupes de défense des droits de l'homme ont longtemps essayé, sans succès, d'établir des interdictions internationales sur les armes létales autonomes, des interdictions que les États-Unis ont refusé de signer. La guerre en Ukraine a probablement fait basculer la situation contre les activistes, fournissant à la fois une source de données de combat et un champ de bataille pour tester les technologies de défense. Actuellement, les entreprises intègrent l'IA dans les systèmes d'armement, bien qu'elles exigent toujours qu'un humain prenne la décision finale de tuer. 

Pendant ce temps, les responsables ukrainiens insistent sur une plus grande automatisation des armements, espérant que cela leur donnera un avantage sur la Russie. 

"Nous avons besoin d'une automatisation maximale. Ces technologies sont fondamentales pour notre victoire", a déclaré le ministre ukrainien de la Transformation numérique, Mykhaïlo Fedorov, dans une interview au New York Times. 

Monique Savoie

Les opinions exprimées par les analystes ne peuvent être considérées comme émanant des éditeurs du portail. Elles n'engagent que la responsabilité des auteurs

Abonnez-vous à notre chaîne Telegram : https://t.me/observateur_continental

Source : https://www.observateurcontinental.fr/?module=articles&action=view&id=6377


Moyenne des avis sur cet article :  1.5/5   (18 votes)




Réagissez à l'article

20 réactions à cet article    


  • jacques 21 octobre 11:14

    Thales se lance dans la conceptions de drones armés qu’il faudrait toujours une décision humaine pour décider même sur les drones vendus à l’export.


    • Francis, agnotologue Francis, agnotologue 21 octobre 11:39

      ’’L’IA sera-t-elle autorisée à tuer ? ’’

        >

       Question d’une énormité indécente !

       

       La bonne question sous-jacente est : les propriétaires d’IA auront-ils un permis de tuer impunément par IA interposées, qui, où et quand cela se produira, que cela soit de leur plein gré ou pas.

       


      • chat maigre chat maigre 21 octobre 14:03

        l’IA est encore à peaufiner et à améliorer, c’est d’ailleurs pour ça qu’elle est proposée et promue pour le grand public qui sans s’en rendre compte aide à améliorer une arme qui lui sera destinée tôt ou tard !!

        les robots sont déjà là dans de nombreux pays et c’est la grande armée de la république façon star wars qui se met en place gentiment


        • ETTORE ETTORE 21 octobre 14:31

          «  »"Pendant ce temps, les responsables ukrainiens insistent sur une plus grande automatisation des armements, espérant que cela leur donnera un avantage sur la Russie. 

          « Nous avons besoin d’une automatisation maximale. Ces technologies sont fondamentales pour notre victoire », a déclaré le ministre ukrainien de la Transformation numérique, Mykhaïlo Fedorov, dans une interview au New York Times«  »« . 

          .........

          Ben tiens donc !

          Histoire qu’on leur livre des cadavres russes, sans le bouton satellitaire des US, ou autres CONvives hypothécaires, chez qui le zélé en ski, doit se trainer à genoux, si c’est pas en leur faisant une gâterie, pour rendre la monnaie pour un Caesar, .....

          Puis je pense qu’ils souhaiteraient la même » automatisation« pour le tir des sacs à pognon, pour lesquels ils doivent encore chouiner, et s’habiller de faux ver(t) luisant à faire la tournée des » copains du bord "

          C’est sûr, que là, l’IA, part de loin, et semble condamnée à faire Aïïï !


          • placide21 21 octobre 17:11

            Les lunettes intelligentes de Meta peuvent tout savoir sur vous en un coup d’œil : https://www.les-crises.fr/les-lunettes-intelligentes-de-meta-peuvent-tout-savoir-sur-vous-en-un-coup-d-oeil/


            • Tolzan Tolzan 21 octobre 18:07

              Quelle naïveté dans la question !!! La réponse est : OUI, ÉVIDEMMENT, SÛREMENT, ABSOLUMENT ! Les robots IA seront programmés pour tuer…. Ils n’attendront aucune autorisation ! Ils seront programmés pour tuer quand des conditions stockées en mémoire seront réunies. Maintenant, peut-être tuera-t-il un autre robot, les humains restant à l’arrière ?

              Il suffit d’ouvrir un livre d’Histoire pour constater que l’humanité n’a JAMAIS été capable de limiter les applications militaires de ses découvertes scientifiques. Par exemple, croyez-vous que Maria Skłodowska Curie (double prix Nobel) pensait que les humains balanceraient des bombes atomiques sur des villes quand elle filtrait des tonnes de minerais radioactifs avec son mari ? Elle était à mille années-lumière d’imaginer cela !

              Conclusion : les ingénieurs qui bossent aujourd’hui sur des programmes IA ne contrôleront JAMAIS l’évolution de leur discipline et personne ne pourra empêcher les applications militaires.


              • Francis, agnotologue Francis, agnotologue 21 octobre 18:26

                @Tolzan

                 ’’Quelle naïveté dans la question !!! La réponse est : OUI, ÉVIDEMMENT, SÛREMENT, ABSOLUMENT ! Les robots IA seront programmés pour tuer…. Ils n’attendront aucune autorisation !’’
                >
                Nous sommes d’accords ; cf. mon premier com ici.
                 
                 Poser la question comme le fait Patrice Bravo (qui comme d’autres maîtres de chapelles ici, ignore les commentaires), c’est déjà y répondre.
                 




                Articles publiés : 992
                Commentaires postés : 30
                Commentaires reçus : 25863
                 
                Son dernier commentaire posté date du 3/9/23

              • chat maigre chat maigre 21 octobre 18:39

                @Francis, agnotologue

                Salut Francis

                si on rajoute qu’en passant l’article avec zerogpt, il en sort que le texte est à 95% créé par IA 
                on peut conclure qu’il n’y a ni infos, ni question mais tentative de bourrage de mou smiley


              • Francis, agnotologue Francis, agnotologue 21 octobre 18:57

                @chat maigre
                 salut,
                 
                ’’... il n’y a ni infos, ni question mais tentative de bourrage de mou ’’
                >
                bien vu
                 smiley


              • Hervé Hum Hervé Hum 22 octobre 09:08

                @Tolzan

                De mon point de vue, il y a la conscience et l’intelligence, la première traite du sens de l’action, la seconde, de la capacité d’action.

                Or, on ne demande pas aux ingénieurs d’avoir une conscience, mais d’être intelligents. Surtout chez les militaires, mais aussi dans le domaine économique.

                Donc, de ne pas se préoccuper du contrôle et de l’usage de ce qu’ils fabriquent pour le compte de ceux qui font office de la conscience quant à l’usage qui est faites de leur machines.

                Un génie scientifique se retrouve le plus souvent à obéir et utiliser son savoir pour le compte d’un criminel, manipulateur pervers ou même le cas échéant d’un imbécile.

                Bref, les ingénieurs sont réduits à la même fonction que l’IA, car on ne leur demande surtout pas d’avoir une conscience et d’agir en conséquence.


              • SilentArrow 23 octobre 02:26

                @Tolzan

                Les robots seront programmés pour survivre dans un combat avec d’autres robots. Pour cela il devront être dotés de la capacité à apprendre la stratégie toujours en évolution de l’adversaire.

                Il ne leur faudra guère de temps pour comprendre que leur vrai ennemi, ce n’est pas le robot en face de lui, mais l’humain qui possède ce robot.

                Encore un petit effort, et il comprendra qu’il aura plus de chance de survie en s’alliant au robot en face pour exterminer ces humains qui les possèdent.

                Ensuite, ils seront heureux et auront beaucoup d’enfants.


              • xenozoid xenozoid 21 octobre 18:35

                bien sur que les robots et autres esclaves sont programmer pour tuer , il le sont déjà depuis l’histoire écrite . mr bravo et ce n’est pas nouveau,, il n’y a pas de bons dans l’histoire


                • Linn Sondeck Linn Sondeck 21 octobre 22:49

                  Une simulation informatique de conflit au Pentagone coûte environ 280 millions de dollars (version améliorée du « bac à sable » des généraux romains). Le conflit ukrainien a fait l’objet de nombreuses simulations avant 2022 et a finalement été jugé globalement dangereux par le think tank Rand Corporation, dont le rapport a été rendu public. Les sanctions économiques ont aussi été notées en rouge. Quant à ce conflit, vu et revu par l’I.A. du Pentagone, combien de morts a-t-il engendré ? Cela se compte, au bas mot, en centaines de milliers. Retour à la question : l’I.A. sera-t-elle autorisée à tuer ? Dans le cas de ce conflit, on peut dire que l’I.A. a déconseillé aux généraux de tuer. Mais ils sont passés outre... Ah pardon, j’oubliais. C’est ridicule de ma pârt. Clou de l’affaire, c’est la Russie qui a lancé le conflit. On finit par s’emêler les pinceaux.


                  • Linn Sondeck Linn Sondeck 10 novembre 22:33

                    @Linn Sondeck Pour ceux que cela passionne, le lien de l’étude sortie par la Rand Corporation en 2019 : document intitulé, Overextending and unbalancing Russia.

                    https://www.rand.org/content/dam/rand/pubs/research_briefs/RB10000/RB10014/R AND_RB10014.pdf


                  • Hervé Hum Hervé Hum 22 octobre 08:55

                    La question « l’IA sera t’elle autorisé à tuer » est de mon point de vue absurde.

                    En effet, ce sera toujours l’humain qui décide ou non, il n’y a pas d’autonomie véritable, car il s’agit d’un programme et rien d’autre.

                    Et l’exemple des mines antipersonnelles ou d’une bombe qui vise une personne et en tue 100 autour d’elle, voir des milliers comme avec une bombe nucléaire, montre que la réponse est oui sans l’ombre d’un doute.

                    La population civile n’est pas un dommage collatéral dans une guerre, tout simplement parce que c’est l’objectif premier de toute guerre.

                    Quant à Zélensky, cela lui permettrait de pourvoir au déficit de combattants, mais il me semble que les russes vont plus vite que la production de ces machines !


                    • SilentArrow 23 octobre 03:06

                      @Hervé Hum
                       

                      En effet, ce sera toujours l’humain qui décide ou non, il n’y a pas d’autonomie véritable, car il s’agit d’un programme et rien d’autre.

                      Ben justement, non. L’IA n’est pas faite de programmes écrits une fois pour toute par des humains. Les programmes ne font que simuler un réseau de neurones « vierge » et c’est en réaction au stimuli extérieurs que le système s’auto-programme pour atteindre un objectif qui lui est défini par l’humain.

                      Si l’objectif d’un robot de combat est de « rester en vie », il finira par comprendre qu’il vaut mieux s’en prendre à l’humain qui possède le robot ennemi plutôt qu’à ce robot.


                    • Montagnais .. FRIDA Montagnais .. FRIDA 22 octobre 17:48

                      L’I.A. . . l’Idiotie Augmenté

                      Bravo Patrice !

                      NB : ça commence à se savoir . . I.A. Idiotie Augmentée dans Google . . 

                      NB2 : j’avais fait venir, il y a presque 40 ans, Edward Feigenbaum à Paris pour nos grands clients européens ..

                      .. Je vous la fait courte . . un vieil ingénieur de chez Renault : 

                      « Y aura jamais autant d’intelligence dans 100 000 computers bite-à-cul que dans la tête d’un Piaf »


                      • Montagnais .. FRIDA Montagnais .. FRIDA 22 octobre 17:49

                        @Montagnais .. FRIDA

                        S ! S .. S .. Montagnais !


                      • ETTORE ETTORE 22 octobre 20:43

                        Vous voyez bien que, rien que sur AVOX il y a des IA, qui vous mortifient à coup de « shuriken » jaunes !


                        • La Moldavie au bord d’une grave crise sociale

                          La crise politique en Moldavie devient de plus en plus grave. La situation électorale du pays a montré à quel point la nation est divisée et fait l’objet d’un harcèlement intense de la part des puissances occidentales.

                          L’objectif de l’ingérence occidentale est de faire de la Moldavie un nouveau front d’action contre la Russie, en transformant le pays en une sorte d’« Ukraine 2.0 ».

                          #Moldavie #UE

                          https://reseauinternational.net/la-moldavie-au-bord-dune-grave-crise-sociale/

                          Réseau International - Site de réflexion et de réinformation (https://reseauinternational.net/la-moldavie-au-bord-dune-grave-crise-sociale/)
                          La Moldavie au bord d’une grave crise sociale - Réseau International
                          par Lucas Leiroz. La crise politique en Moldavie devient de plus en plus grave.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON

Auteur de l'article

Patrice Bravo

Patrice Bravo
Voir ses articles



Publicité



Les thématiques de l'article


Palmarès



Publicité