Selon l’un des créateurs de l’IA, celle-ci pourrait détruire l’humanité avant 2050 !
Déjà en 1992, le mathématicien et auteur de science-fiction Vernor Vinge prédisait que : « Dans les trente ans, l’humanité aura les moyens de créer une intelligence superhumaine. Peu après, l’ère de l’espèce humaine aura pris fin. »
Trente ans plus tard, comme le prédisait Vernor Vinge, nous constatons que l'intelligence artificielle est devenue une réalité incontournable.
Que dire de la seconde « prédiction » de Vernor Vinge, concernant la disparition de l'humanité ?
Le prix Nobel de physique 2024, le Britannique Geoffrey Hinton, considéré comme étant l’un des pères fondateurs de l’intelligence artificielle, n’exclut pas la possibilité que l’intelligence artificielle puisse détruire le monde dans moins de trois décennies.
Évidemment, Geoffrey Hinton n'est pas le seul à s'inquiéter d'un futur contrôlé par les IA. Yoshua Bengio, un autre précurseur dans ce domaine, avait déjà affirmé que l’IA était l’invention la plus dangereuse de l’histoire de l’humanité.
Alors avons-nous ouvert la boîte de Pandore ? La fameuse singularité technologique qui avait été annoncée pour les années 2030 est-elle déjà une réalité ?
Qu'est-ce que le point de singularité ?
La définition la plus courante se contentait de dire que l’invention de l’intelligence artificielle déclencherait un emballement du développement technologique qui aurait des conséquences imprévisibles pour les hommes.
Ou encore que l’intelligence artificielle pourrait atteindre un point d’auto-amélioration au-delà duquel nous serions confrontés à des bouleversements imprévisibles touchant l’ensemble de la société humaine.
Pourtant, dès 1965, le mathématicien Irving John Good, dit du point de singularité : « Mettons qu’une machine supra-intelligente soit une machine capable, dans tous les domaines d’activités intellectuelles, de grandement surpasser un humain, aussi brillant soit-il. Comme la conception de telles machines est l’une de ces activités intellectuelles, une machine supra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors sans conteste une « explosion d’intelligence », et l’intelligence humaine serait très vite dépassée. Ainsi, l’invention de la première machine supra-intelligente est théoriquement la dernière invention que l’Homme ait besoin de réaliser ».
La dernière invention que l'humanité ait besoin de réaliser !
Et cela sera effectivement peut-être la toute dernière invention de l'homme.
Ce que Irving John Good expliquait en 1965 a été oublié : « Une machine supra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors sans conteste une « explosion d’intelligence » et l’intelligence humaine serait très vite dépassée. »
Autrement dit, les intelligences artificielles, une fois devenues suffisamment intelligentes, seraient capables de s’améliorer et de se mettre à jour par elles-mêmes pour constamment améliorer leurs capacités. Elle évoluerait technologiquement à une vitesse incompréhensible pour les humains.
Le point de singularité est le point de départ de la croissance exponentielle des capacités de l'intelligence artificielle, capacité à se reproduire et à se reprogrammer toujours plus vite .
La théorie de la singularité affirme que lorsque la technologie progressera à un certain niveau, elle pourra entrer dans un cycle récurrent d’auto-amélioration. Cela conduirait à une explosion de l’intelligence, réduisant à néant toute l’intelligence humaine combinée, conduisant à une ère extrêmement instable.
Chaque nouvelle machine sera plus performante ( intelligente ) que sa créatrice. En quelques mois ou même en quelques semaines, les créateurs humains de la machina-ex-deus ne seraient plus en capacité de comprendre leur création. Nous aurons ouvert une fois de trop la boite de Pandore.
Comment pourrions-nous comprendre ce dieu issu de nos ordinateurs puisqu'il aurait la possibilité d'augmenter ses capacités « cognitives » de manière exponentielle ?
Atteindre le point de singularité, c'est le barrage qui cède ! L'horizon au-delà duquel nous n'avons plus aucune visibilité sur notre propre développement.
À l'heure actuelle, il n’existe aucune réglementation nationale ou internationale, aucun garde-fou, mis à part le timide texte de loi européen AI Act en vigueur depuis mars 2024. Mais aucun texte, aussi contraignant soit-il, ne sera en mesure de contraindre à la moindre précaution, les États ou les entreprises voulant prendre de l'avance sur les concurrents.
Aucune mesure gouvernementale n’empêchera le développement des IA hors de contrôle.
Nous sommes à la veille du point de singularité à partir duquel nos machines commenceront à se répliquer et à s'améliorer d'elles-mêmes en toute autonomie.
« Face à un enfant de trois ans, nous avons le contrôle. Or avec l’IA, c’est nous l’enfant de trois ans », rappelle Geoffrey Hinton.
« Nous serions confrontés à des bouleversements imprévisibles touchant l’ensemble de la société humaine » prédit un article de « trustmyscience », et c'est le moins que l'on puisse dire puisqu'à partir de ce point de basculement, l'existence de l’espèce humaine pourrait être remise en question. De manière définitive. Et il n'y aura pas de John Connor pour nous sauver.
67 réactions à cet article
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON