• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > Intelligence artificielle forte, quatre raisons de douter

Intelligence artificielle forte, quatre raisons de douter

Les perspectives de l'Intelligence Artificielle inquiètent - les ordinateurs pourraient-ils atteindre à une intelligence similaire à celle de l'être humain ? Les robots pourraient-ils devenir indépendants de leurs créateurs, voire hostiles, et aller même jusqu'à les remplacer ?

Aussi important que puisse être dans l'avenir l'impact de l'IA sur la productivité et sur l'emploi, il y a en réalité au moins quatre raisons de douter qu'une Intelligence Artificielle "forte", c'est-à-dire similaire à l'humaine - "quelqu'un dans la machine" - soit pratiquement ou même théoriquement possible.

Les rêves ou les cauchemars des théoriciens de la "Singularité" et du remplacement par les machines ne sont même pas pour après-demain, et probablement pour jamais.

De l'astronome Martin Rees s'inquiétant que les robots ne prennent bientôt le pouvoir, l'astrophysicien Stephen Hawking craignant que limités par une évolution trop lente les êtres humains s'avèrent incapables de rivaliser avec l'intelligence artificielle ou l'entrepreneur Elon Musk décrivant le risque que l'humanité n' "invoque un démon" et ne mette sa propre existence en danger en construisant une intelligence artificielle supérieure... jusqu'au mouvement trans-humaniste espérant des progrès de l'intelligence artificielle non seulement la multiplication des possibilités humaines mais rien de moins que l'immortalité - ainsi Mark O'Connell dans "To Be a Machine" prophétisant la possibilité de transférer son esprit dans une machine, laquelle ne serait pas soumise à la mort.

Ces craintes et ces espoirs découlent tous d'une source unique : la perspective de doter prochainement un ordinateur d'un esprit similaire à celui de l'être humain, qui lui serait bientôt supérieur - ce qu'il est convenu d'appeler une "intelligence artificielle forte".

Cette perspective est-elle véritablement réaliste ?

Avant de développer l'argumentation, commençons par sa conclusion - le résumé pour décideurs :

Construire à base d'ordinateurs une intelligence artificielle forte – c'est-à-dire égalant ou dépassant l'esprit humain, « quelqu’un dans la machine » – est fort probablement impossible pour raison de principe, car au moins trois questions fondamentales pourraient chacune à elle seule en exclure la possibilité, et la réponse définitive à chacune de ces questions est à ce jour inconnue.

Si toutefois aucune des trois réponses ne s'avéraient faire obstacle et si ce projet était donc théoriquement possible, sa difficulté inhérente – hors de toute proportion avec la difficulté à fabriquer par exemple de simples robots autonomes utiles dans la vie courante ou l'industrie – bref la question pratique, assurerait qu'elle ne pourra de toute façon être qu'un projet à très long terme, comparable par exemple avec ce qu’est pour l’astronautique le vol interstellaire.

L'IA forte dans dix ou vingt ans des transhumanistes théoriciens de la "Singularité" n’est que balivernes.

En cette époque où l'humanité fait face aux prodromes d'une crise gigantesque, vague scélérate additionnant fragilités du système financier et entrée dans l'âge des limites notamment en énergie fossile sur fonds de catastrophe écologique en cours incluant un dérèglement climatique aux conséquences de long terme très menaçantes, il est très agréable de découvrir - pour une fois ! - que tel nouveau monstre menaçant sortant du brouillard... n'est finalement qu'un banal épouvantail et un jouet pour faire peur aux enfants.

En l'espèce, la menace d'une conscience artificielle née de l'informatique parvenant à supplanter les humains.

Un peu de contexte…

Pour commencer, le mythe de la création prochaine d'esprits artificiels est vivace depuis les années 1950. Ce qui, comme on dit, ne nous rajeunit pas. Il est en général annoncé pour le prochain coin de rue, dans quelques petites années. Puis, lorsque les prédictions ne se sont - à l'évidence - pas réalisées, d'autres reprennent le conte en toute bonne foi, et roulez jeunesse ! Jusqu'à la prochaine fois.

Cependant, les réalisations de la discipline "IA" ne sont pas du tout à la hauteur de ces craintes et espoirs tonitruants. Ce n'est pas qu'elles soient inexistantes, ni négligeables, loin de là ! Simplement, la reproduction informatique – on pourrait dire le mime – d'activités humaines généralement considérées comme intelligentes ne mène pas à l'apparition d'une conscience artificielle. La carte serait-elle par nature différente du territoire ? La simulation, différente de la réalité ?

Naturellement, la puissance des ordinateurs, jusqu'ici très inférieure à celle d'un cerveau humain, constitue une explication possible de l'échec à ce jour à produire une "IA forte". Peut-être tout simplement les ordinateurs n'étaient-ils pas encore assez performants ? Voilà qui pourrait amener à penser que l'augmentation exponentielle des capacités de traitement informatique mettra en revanche bientôt à portée le Saint Graal d'une conscience artificielle.

Réalisant une simulation précise du fonctionnement physique des neurones, l'un des plus grands calculateurs début 2014 a pu simuler le fonctionnement de 1% d'un cerveau humain pendant une seconde... mais le calcul lui a pris 40 minutes. De ce point de vue, les plus puissants ordinateurs actuels sont très loin du compte. En revanche, en se limitant à une simulation logique en réseau de neurones, la puissance nécessaire à un "cerveau humain" en temps réel est déjà largement disponible. Il suffit d'examiner les ordres de grandeur : 10^11 neurones et 1,5. 10^14 synapses, effectuant des "calculs" à un rythme inférieur à 10^2 par seconde, soit au maximum 1,5.10^16 opérations par seconde nécessaires - et probablement beaucoup moins - alors que le plus grand superordinateur était en juin 2017 le Sunway TaihuLight chinois, lequel peut effectuer 9,3. 10^16 opérations par seconde. Soit au moins 6 fois plus que nécessaire pour simuler complètement et en temps réel le fonctionnement logique du réseau neuronal d'un cerveau humain.

Cependant, même compte tenu du potentiel de cette puissance de calcul, quatre questions doivent être posées, quatre obstacles majeurs barrent le chemin de la construction d’une IA forte ou conscience artificielle. Les trois premières sont fondamentales, il s’agit de la possibilité théorique elle-même que des êtres humains puissent réaliser un tel « objet pensant » à base d’ordinateurs. La quatrième est tout simplement la question pratique, à supposer que les trois questions de possibilité théorique soient décidées dans un sens favorable – et ce n’est pas la moindre.

Les trois questions fondamentales, pour commencer

C'est que pour que le projet de construire une conscience artificielle par voie informatique ait ne serait-ce qu'un sens, trois conditions sont nécessaires :

1 - Il faut que la conscience, telle qu'elle se manifeste par exemple dans la tête de tout un chacun, soit entièrement compréhensible en termes matériels. C’est là une position philosophique matérialiste.

Incise – Non, cette condition n’a rien d’ « évidente »

La position opposée, c’est-à-dire l’existence de « quelque chose » de non réductible à la matière et qui serait intrinsèque à l’esprit ou à la personne humaine, apparaîtra suspecte à beaucoup pour une simple raison d’habitude.

C’est que les explications de type surnaturel – esprits, fées, lutins ou dieux – ont évidemment reculé constamment dans les derniers siècles, la méthode scientifique permettant de comprendre toujours davantage de phénomènes toujours plus en profondeur, alors qu’ils avaient été autrefois considérés comme des mystères inaccessibles à l’esprit humain. Il est alors bien naturel de considérer qu’une tendance historiquement aussi bien établie continuera indéfiniment, et qu’elle permet d’apercevoir ce qui serait en définitive la vérité ultime : que l’ensemble de ce qui existe est matériel, donc soumis aux règles de la matière telles qu’elles sont progressivement dévoilées par l’effort scientifique humain.

Il est bien évidemment loisible de choisir d’adopter une telle position. A qui la choisit, une position différente risque de n’apparaître motivée que par au choix : l’ignorance, le préjugé par exemple religieux, ou un sentimentalisme refusant d’admettre que moi aussi et non simplement le monde qui m’entoure, je pourrais n’être que matériel, et s’imaginant donc « par nature » différent.

Mais il est également vrai que les tendances historiques les mieux établies peuvent rencontrer leurs limites, et surtout que la connaissance extraordinaire apportée par la méthode scientifique ne signifie pas nécessairement que celle-ci permet d’accéder à une vérité ultime. Car c’est bien ce que suppose la philosophie matérialiste, et ce passage de « la méthode scientifique a permis de constamment avancer dans la compréhension de la réalité » à « la méthode scientifique révèle la vérité ultime sur la réalité » n’est rien d’autre qu’un passage du fait à la croyance… qu’un « saut de la foi », s’il est permis d’être taquin.

La position pleinement rationnelle à ce stade est en fait la position « agnostique », c’est-à-dire de ne pas conclure sur le matérialisme en tant que philosophie, parce que pour ce qu’on en sait aujourd’hui rien ne le démontre, et rien non plus ne l’interdit. Il faut donc rester ouvert à la fois à la possibilité qu’il soit pleinement justifié, et à celle qu'il ne le soit pas. Dans ce second cas l’IA forte pourrait être impossible pour raison de principe.

2 - Si la première condition est remplie, il faut encore que le comportement de la matière impliquée dans l’émergence de la conscience soit entièrement compréhensible en termes calculables. C’est que les ordinateurs fonctionnent en termes calculables et déterministes – ce sont des machines logiques dites « machines de Turing », et le terme calculable veut d’ailleurs exactement dire « qui peut être calculé par une machine de Turing ». Il faut notamment, et pas seulement, que le hasard et l'indétermination décrits par la physique quantique n'aient qu'un rôle "spectateur" dans l’existence entre les oreilles d’un être humain vivant d’une « intelligence forte ». C’est une position déterministe et objectiviste dans la compréhension de la conscience et de l’intelligence humaines. Qui là encore n'a rien n'évident - j'oserai dire, encore moins.

Incise – Et si cette condition avait déjà été démontrée fausse ?

La question de savoir si le comportement de la matière à la base de la conscience est entièrement compréhensible en termes calculables, fait l'objet d'études et de discussions. Il faut toutefois signaler l'œuvre du physicien et mathématicien Roger Penrose, généralement reconnu comme l'un des plus grands esprits actuellement vivants, dans "les Ombres de l'Esprit".

Aussi extraordinaire que cela puisse paraître, Penrose y a proposé une démonstration formelle du fait qu'une opération au moins de l'esprit humain – discerner la vérité mathématique d'une certaine proposition de logique avancée – est impossible si l'esprit humain est compréhensible en termes calculables et déterministes. Comme cette opération a bien lieu – elle est accessible à qui a un niveau licence en mathématiques, et Penrose guide le lecteur jusqu'à ce qu'il la réalise lui-même, ce qui rend sa démonstration particulièrement impressionnante – il s'ensuit que l'esprit n'est pas compréhensible en termes calculables. Donc ne peut être reproduit informatiquement. Il est naturel à partir de ce résultat de supposer que ce fonctionnement non calculable du cerveau humain ne se manifeste pas seulement dans l’opération mentale utilisée pour cette démonstration mathématique : si le cerveau humain possède cette caractéristique, elle est alors probablement générale à une partie importante de ses opérations, si ce n'est à la plupart.

Dans la deuxième partie de son ouvrage, il propose une hypothèse – plus aventurée – sur une explication physique du caractère non calculable de l'esprit, basée sur des phénomènes quantiques intervenant notamment dans les microtubules des neurones et liés à la réduction du paquet d'ondes, phénomène postulé par la mécanique quantique, qu’elle ne cherche pas à expliquer, ce qui de l’avis de Penrose est insatisfaisant. Il s'agit là de physique spéculative, plus d'une idée de direction dans laquelle chercher la nouvelle physique – au-delà de la mécanique quantique donc – nécessaire à une compréhension scientifique de la conscience, si la démonstration de Penrose est correcte, que d'une quelconque précision sur ce que pourrait être cette physique.

Dans ce livre, l’auteur répond à toutes les objections présentées à ses travaux précédents sur le même sujet. Le livre existe depuis une quinzaine d'années, et à ce jour personne n'a réussi à contrer son raisonnement ni à invalider la démonstration qu’il propose du caractère « non calculable » du fonctionnement du cerveau humain.

S'il a raison, alors "les Ombres de l'Esprit" sera probablement considéré un jour comme un livre fondamental dans l'histoire scientifique. Et naturellement, le projet "Conscience artificielle" apparaîtra alors sans objet. Du moins dans sa version informatique : si l'hypothèse spéculative de Penrose s'avère judicieuse et est un jour développée, on ne peut exclure qu'il soit un jour possible de produire une conscience artificielle en se basant sur la physique nouvelle ainsi découverte. Mais alors, l'objet pensant produit ne serait pas un ordinateur... il en serait sans doute aussi différent par nature que l'ordinateur lui-même est par nature différent d'une machine à vapeur ou d'un marteau. Et naturellement les délais pour le réaliser seraient tout à fait indéterminés.

Pour un résumé plus détaillé de ce livre, voir le commentaire de Jean Staune 

Roger_Penrose.jpg

Roger Penrose - « Etant donné que la pensée inclut un élément non calculable, les ordinateurs ne pourront jamais faire ce que nous autres êtres humains faisons. » (source)

3 - Enfin, si les deux premières conditions sont vérifiées, il faut que cette conscience supposément compréhensible en termes matériels uniquement, et en termes calculables et déterministes exclusivement – il s'agit ici de la conscience qui se trouve dans le cerveau de l'inventeur – soit capable de concevoir le fonctionnement d'une autre conscience, celle que l'inventeur cherche à créer. Ce qui signifie que cette conscience présente dans son cerveau doit avoir la capacité de se comprendre elle-même ! En effet, si l'inventeur n'en était pas capable, comment pourrait-il déterminer les plans, méthodes et principes de la construction de l'IA ? Une troisième fois, cette position n'a rien d'évident – il est même permis de considérer qu'elle est la plus suspecte de toutes.

Miroir_infini.jpg

L'esprit peut-il se comprendre lui-même, donc contenir une description de lui-même ?

Les réponses à ces trois questions fondamentales sont à ce stade inconnues – sauf naturellement si la démonstration de Roger Penrose s'avère valide, auquel cas la seconde n’est pas vérifiée. Il existe des positions et des arguments philosophiques, naturellement, chacun avec leur validité. Mais il n'existe de réponse définitive au sens scientifique à aucune de ces questions. Peut-être cela changera-t-il un jour. En attendant, ces questions restent ouvertes.

Si la réponse à UNE SEULE des trois questions ci-dessus est négative, alors la création par voie informatique d'une conscience artificielle est irrémédiablement une chimère : on pourra reproduire sous forme informatique tel ou tel processus mental, ou en fournir un équivalent fonctionnel, on pourra créer des solutions logicielles pour traiter tel problème intellectuel particulier, parfois même mieux qu'un être humain – c'est d'ailleurs l'objet de la discipline IA, la vraie non la fantasmée, voir encore l'ouvrage sur le sujet du chercheur Jean-Gabriel Ganascia – on n'arrivera jamais à obtenir un objet avec qui on puisse sérieusement tailler une bavette, un objet qui serait quelqu'un. L'idée est alors à ranger dans le même rayon que les histoires de fées et du Père Noël.

Si et seulement si les TROIS réponses sont positives, alors la construction d'une conscience artificielle est théoriquement possible pour des êtres humains.

A ce sujet, on demandait la différence entre théorie et pratique. Un plaisantin répondit : "En théorie, c'est la même chose. En pratique, non"

Il est temps de parler des "menues" difficultés pratiques pour la création d'une conscience artificielle…

Ne nous étendons pas sur le fait que personne à ce jour n'a d’idée autre que très partielle et générale – moindrement testée en pratique donc – de comment au juste il faudrait s'y prendre. Si des pistes et réflexions diverses ont été proposées quant à l'aspect psychologique de la chose - voir par exemple pour le domaine francophone Paul Jorion dans Principes des systèmes intelligents (1989) ou Alain Cardon dans Un modèle constructible de Système Psychique (2011) (texte complet en PDF) parmi d'autres dans diverses langues - le fait même que ces pistes dont certaines sont anciennes n'aient pas permis d'aboutir à une réalisation concrète de type "quelqu'un dans la machine" montre que l'essentiel de la difficulté théorique reste devant nous. Ce que font les spécialistes en IA, ce qu'ils construisent dans la réalité, est bien différent, comme déjà dit. Et ce n'est pas faute d'essayer ni de réfléchir au moyen de construire une conscience.

Cet état de fait n'exclut cependant pas la possibilité que la discipline IA n'attende son Newton, son Galois, son Darwin ou son Einstein. Bref que la définition de la méthode générale ne soit à portée du prochain génie qui se penchera sérieusement sur la question. Le premier génie qui saura comprendre comment sa propre conscience fonctionne – rappelons que nous sommes dans l'hypothèse où la réponse à la question 3 ci-dessus serait positive, et où la chose ne serait pas une contradiction dans les termes.

Une difficulté plus grave se présente. C'est que une fois publiée la "Théorie générale de l'esprit humain" avec sa petite annexe "travaux pratiques – comment on fait" - par Jeannot Génie ou quel que soit son nom, il faudrait la construire pour de bon cette IA forte. Et là se situe un problème, une difficulté... du format "mise en abîme".

Les passionnés d’affaires militaires comme les contrôleurs des programmes d’armement américains sont régulièrement entretenus des distrayantes nouvelles de l'avion de chasse F-35. Distrayantes pour l'observateur extérieur s'entend, non pour l'aviateur ni pour le contribuable américain. Non seulement le bouzin ne vole-t-il en effet que peu et mal, mais surtout ses difficultés persistantes semblent bien résulter au fond d'un défaut de maîtrise de sa complexité, qu'un optimisme illuminé au moment de la conception initiale de l’engin a laissé croître au-delà de toute raison, comme d'ailleurs de toute nécessité. Si bien que sa complexité risque bien de s'avérer impossible à maîtriser par les équipes d'ingénierie, dont il est pourtant permis de penser qu'elles ne sont pas constituées d'amateurs, mais plutôt de certains des meilleurs des meilleurs, à la mesure des capacités financières de l'Oncle Sam à motiver ce genre de personnes pour travailler sur un projet essentiel à la perpétuation de la supériorité aérienne qui est un – sinon ce n’est le – pilier essentiel de sa suprématie militaire.

Ce phénomène est particulièrement criant s'agissant du logiciel embarqué et du système de maintenance informatisé du F-35 avec leurs 24 millions de ligne de code.

Pardon ?

Vous avez bien dit : 24 millions ? Une quantité aussi réduite d'instructions élémentaires, une complexité si ridiculement faible, tellement hors de proportion avec la complexité du fonctionnement d'un cerveau humain... et déjà les meilleures équipes au monde ne savent pas faire face !

Alors, quelles sont les chances que qui que ce soit arrive à appliquer les principes et méthodes découverts par Jeannot Génie, une fois qu'il aura eu l'obligeance de se présenter, à supposer qu’il le fasse jamais ?

Le système F-35 : les meilleures équipes, seulement 24 millions de lignes de code

Ça marchera bientôt, dites ?

Il est temps de conclure

Le projet "IA forte", c'est-à-dire une conscience artificielle « quelqu'un dans la boîte » basée sur un ordinateur :

- Soit est par principe impossible – c’est ce qui peut paraître le plus probable, les conditions pour qu'il en soit différemment étant plusieurs, chacune d'entre elle impérative, dont l’une déjà fortement mise en doute par ce qui ressemble fort à une démonstration formelle. Cependant la chose n'est pas définitivement prouvée

- Soit est théoriquement possible, auquel cas il sera peut-être réalisé une fois que ces deux conditions auront été remplies :

1. Apparition du génie capable de comprendre le fonctionnement de sa propre conscience

2. Evolution d'une civilisation capable de coordonner les talents, les intelligences, bref de faire travailler ensemble des êtres humains à un niveau fantastiquement au-delà de ce à quoi l'humanité est parvenue à ce jour. En somme, atteignant une capacité de « maîtrise de la complexité » bien au-delà de celle à laquelle nous sommes déjà parvenus. Au point de pouvoir réaliser des projets informatiques incluant à coup sûr des milliards, peut-être même des milliers de milliards d'instructions

Dans cette deuxième hypothèse, l'humanité réalisera peut-être en effet un jour une IA véritable, dont l'orientation vis-à-vis de l'humanité posera effectivement question. Ce jour n'arrivera pas du vivant d'aucun être humain d'aujourd’hui. Il est fort possible qu’il soit aussi loin de nous que ne l'était la construction d'un réacteur atomique au moment où Démocrite spéculait sur l'existence de l'atome au Vème siècle avant notre ère...


Moyenne des avis sur cet article :  4.08/5   (26 votes)




Réagissez à l'article

83 réactions à cet article    


  • chapoutier 15 septembre 09:20

    une machine peut-elle avoir des pulsions ????


    • foufouille foufouille 15 septembre 09:25

      @chapoutier
      tout dépend des versions. le bas niveau finit toujours avec des conflits logiques.


    • L'enfoiré L’enfoiré 15 septembre 15:05

      @chapoutier
      Bien sûr.
      C’est même une des préoccupations qui serait régulée bien préparé pour y répondre par des « workflows » enregistrés pour ne pas avoir de surchauffe des circuits.


    • HELIOS HELIOS 17 septembre 09:12

      @chapoutier

      une machine, une machine...
      en attendant, sur l’ile sinistrée de Saint Martin, ce sont les Marines americains qui sont sur la plage pour dessaler l’eau de mer et abreuver les habitants !!!

      Alors, où sont les beaux camions du défilé du 14 juillet qui nous ont été présentes comme des unités de dessalement d’eau de mer pour les populations militaires assoiffées ?

      LAMENTABLES !!!

      c’est beau de parader, mais il faut etre efficace. je me rends compte de plus en plus du bluff des politiques et des communicants, outre la langue de bois, ils ajoutent le mensonge.
      Un eclairage plus précis du limogeage d Gal De Villiers.

      Alors, l’intelligence artificielle, quel que soit sont interet et son efficacité, si les camions, s’ils existent, restent au garage, pfff... un nouveau gâchis... il y a des coup de guillotines qui se perdent !


    • foufouille foufouille 15 septembre 09:23

      une IA pas forcément humaine est tout à fait possible.
      ce sera certainement pour un article futur en prenant compte du futur possible.


      • gogoRat gogoRat 15 septembre 11:40

         Pour être taquin j’élargirais le débat à une question connexe :

         L’auteur dit :
        "l’humanité réalisera peut-être en effet un jour une IA véritable, dont l’orientation vis-à-vis de l’humanité posera effectivement question. Ce jour n’arrivera pas du vivant d’aucun être humain d’aujourd’hui."

         Cette affirmation un peu rapide me semble oublier l’argument suivant, inspiré par les propos d’un savant contemporain qui a pu dire en substance que le premier humain qui vivra 1000 ans est déjà né aujourdh’hui. :
         le fait que le moyen de vivre 1000 ans n’est pas connu aujourd’hui n’empêche pas qu’il puisse l’être dans quelques décennies ; (l’allongement du temps de vie d’un cobaye ne dépend pas que de l’allongement de l’espérance de vie statistique) ; ensuite, si un cobaye né aujourd’hui arrive à ’bénéficier’ d’un allongement de vie de 900 ans, qu’est-ce qui nous prouve que durant ce millénaire prochain les progrès ne permettront pas au même cobaye de ’bénéficier’’ de nouvelles trouvailles lui permettant de vivre 10 OOO de plus ... etc ... ! ...
         
         ... et j’en vien alors à cette autre perspective :
        ....


      • gogoRat gogoRat 15 septembre 11:53

         ...
        autre perspective :

         Notre prix Nobel de chimie Jean-Marie Lehn rêve (en fait il y travaille très activement) de faire apparaître de nouvelles formes de ’vie’ a partir d’autres combinaisons du tableau de Mendeleïev que celle de la vie connue sur notre planète.
         Si jamais une telle forme de vie prenait naissance par le truchement d’une intervention humaine, et développait une ’intelligence’ qui devienne ’supérieure’ à celle des humains, dirait-on que cette ’intelligence’ pourrait être classée comme IA véritable ?

         Pourrait-on dire qu’elle ait été ’créée’ par l’Homme ?
         Son eu ses inventeurs arriveraient-il à toucher des royalties sur tous les brevets que pourraient déposer leurs ’créatures’ ?
        ...
         


      • foufouille foufouille 15 septembre 12:46

        @gogoRat
        une IA ne peut être biologique .............


      • L'enfoiré L’enfoiré 15 septembre 15:09

        @foufouille bonjour,
         Si justement si....
         On associe des circuits pardon des cellules biologiques qui parfois consomme moins (et chauffe moins) dans des circuits numériques.
         Je me souviens avoir lu quelque chose à ce sujet dans le S&V


      • foufouille foufouille 15 septembre 18:16

        @L’enfoiré
        je connais aussi, ce n’est pas vraiment biologique mais une puce « cyborg ».
        même sous forme électronique, une partie serait soit quantique soit un équivalent biologique mais électronique


      • gogoRat gogoRat 15 septembre 19:28

        Permettez-moi de rappeler deux remarques :

         a) l’éventualité que l’Homme fasse advenir des créatures vivantes dotées de capacités que nous nommons aujourd’hui intellectuelles mais qui pourraient dépasser ce que nous estimons le plus performant chez l’Homme ( Veuillez noter les circonvolutions prudentes de l’expression, et excuser leur lourdeur : pour éviter le risque de digressions qui m« intéressent moins)
         cf mon intervention plus haut : 15 septembre 11:53

         b) la phrase concluant une ’réaction’ de Abou Antoun 15 septembre 11:02 :
         »Un des mérites de l’étude de l’informatique est de nous obliger à nous poser des questions sur notre propre fonctionnement."

         La combinaison de ces 2 perspectives nous incite à une interrogation sans doute plus urgente que celle du sujet de l’article qui se demande si une Intelligence artificielle forte peut advenir.
         Ne devrait-on pas, d’abord se demander quelles peuvent être les motivations présidant actuellement à la recherche d’obtention de cet artifice ?

         On voit alors se dessiner deux perspectives :
         - dans le cas a) : des motivations utilitaristes, ou encore égotiques ?
         Recherche d’un ’produit’ IA, peu importe comment, probablement en escomptant en tirer un plus d’ordre matérialiste, ou d’ordre psychologique (fierté ? besoin de reconnaissance ? - de
         la part de ses semblables , sans doûte plus que de la part de l’IA produite ?)

         - dans le cas b) , il en va tout autrement.
         La motivation serait plus de l’ordre, très Humain, de la réalisation de soi. Cette motivation passe même par un besoin ressenti de se conforter à une ou des ’disciplines’, au sens d’exercice d’apprentissage (disciplines intellectuelles, pendant des disciplines sportives). Sans compter qu’au-delà de l’exercice, ces disciplines débouchent sur rien moins que la continuation de l’art, qui est le propre de l’Homme. Elle devient constituante de l’Evolution Humaine, en apportant de nouvelles branches culturelles à l’arborescence des cultures qu’un Pierre Teilhard de Chardin évoquait dans ’La Place de l’homme dans la nature,’


      • ZXSpect ZXSpect 15 septembre 09:53

        N’y a-t-il pas actuellement une utilisation exagérée du concept d’intelligence artificielle pour expliquer la montée en charge de « systèmes experts » qui remplacent un nombre croissant d’emplois décisionnels. ?

        Les systèmes de scoring, décidant seuls de l’attribution de crédit dans les banques depuis des années, n’ont ils pas « simplement » évolué vers des arbres de décision de plus en plus complexes et des performances plus fiables pour des usages plus étendus, parce que les processeurs sont plus puissants et les programmations améliorées... sans pour autant devenir de « l’intelligence artificielle » ?

        Article passionnant, merci à l’auteur


        • Trelawney Trelawney 15 septembre 11:59

          @ZXSpect
          A aujourd’hui, combien d’opérations de trading, sont réalisées sans l’intervention humaine ? La réponse est 60%


        • L'enfoiré L’enfoiré 15 septembre 15:16

          @Trelawney

          Je ne sais où vous avez trouvé ce pourcentage.
          C’est bien au dessus de 60% pour réduire les coûts.
          « Un coup de barre ’phygital’ et ça repart » en parle
          Dans le monde des ’fonds quantitatifs’ (qui se base sur des modèles économétriques pour prendre les décisions d’investir), tout est réglé par des modèles mathématiques.....
          Les grandes sociétés de gestion ont souvent renoncé à l’idée que les gestionnaires de fonds en chair et en os pouvaient battre le marché à long terme.

          Les frais de gestion seraient ainsi passés de 0,88 à 0,48%.


        • astus astus 15 septembre 09:59

          Merci Alexis Toulet pour cet article intéressant et bien documenté.


          Les tenants de l’IA et de ses prolongements vers le transhumanisme veulent faire croire que le calcul et la pensée, ou a fortiori la conscience, sont identiques, alors que cela ne relève pas du tout des mêmes processus. D’ailleurs on voit bien que les programmes informatiques, même les plus sophistiqués, ne sont que des enfantillages face aux possibilités du génome. Il suffit de comparer les minuscules cellules germinales de l’être humain et le « programme » final réalisé d’un être humain achevé pour s’en rendre compte. Il n’y a pas plus con qu’un ordinateur même si sa puissance de calcul peut rendre des services appréciables à l’humanité. Et si les programmes, les ordinateurs ou les robots vous emmerdent ou vous paraissent dangereux il existe une solution radicale pour être tranquille : supprimez l’énergie nécessaire à leur fonctionnement !
          Cdlt.

          • L'enfoiré L’enfoiré 15 septembre 15:22

            @astus
            Si vous voulez que les hommes vous emmerdent ou vous paraissent dangereux, il existe une solution radicale pour être tranquille : supprimer leur la nourriture et l’eau qui crée l’énergie nécessaire à leur fonctionnement
            Cela risque même d’être plus rapide.
            Regardez ce qui s’est passé dans les Antilles.
            Tout a été un enchaînement.
            Pas d’eau naturelle.
            L’eau produite par la désalination de l’eau de mer qui fonctionne avec de l’électricité....
            La suite vous la connaissez


          • Trelawney Trelawney 15 septembre 10:07

            Vous confondez conscience et intelligence. Cela n’a rien à voir.

            De plus vous êtes ego-centré, car vous parlez d’intelligence humaine, comme s’il n’y avait qu’elle qui existe sur terre.

            Comme pour l’existence de dieu qui n’est rien d’autre que le fruit de notre conscience, personne ne pourra me contredire si je vous dis que nous sommes tous dans la matrice et que Sion a été détruite smiley

            • Jeff Parrot Jeff Parrot 15 septembre 11:12

              @Trelawney

              au contraire c’est lie, sans conscience, impossibilite de produire une intelligence « durable »


            • Trelawney Trelawney 15 septembre 11:52

              @Jeff Parrot
              On va prendre trois exemple d’intelligence, la fourmis, l’oiseau et le primate (homme ou singe c’est pareil).

              La fourmis est dotée d’intelligence et est capable de définir une stratégie pour contourner, détruire ou éviter un obstacle. La première fourmis réfléchit et agit et comme les fourmis n’inter-réagissent qu’en groupe (seules elles ne sont et ne peuvent rien), elle envoie un message à ses congénères qui emprunteront le même chemin qu’elle sans se poser la question puisque la première l’a fait pour les autres. C’est l’intelligence de groupe.
              L’oiseau est un animal intelligent presque autant que le rat , le cochon et certains singes. Seulement l’oiseau analyse et agit dans l’instant sur un problème donné. Il n’a pas la capacité d’anticiper ou de se projeter dans le futur pour savoir si la réponse au problème ne va pas lui en créer un autre encore plus grand après. Il verra cela plus tard. Mais l’oiseau est capable de coordonner son intelligence avec celle de plusieurs autres pour former un balai pour faire fuir les prédateurs ou pour migrer en groupe. On se retrouve donc avec une intelligence égo-centré qui sait tirer profit d’une action de groupe.
              Le singe, le cochon, le rat, l’écureuil qui cache de la nourriture pour plus tard et qui sait se projeter dans l’avenir. Seraient-ils dotés d’une conscience ? ou d’une capacité d’anticipation.

              En quoi l’intelligence artificielle est si éloignée de ces 3 modes de pensée ?

              Prenons maintenant l’exemple d’un robot médecin. C’est une machine qui enregistre l’aspect de votre pupille, la couleur de votre peau, les battement de votre coeur, votre taux de glucide etc. Avec tous ses information elle définit un diagnostique et comme elle a en mémoire votre CV médical, elle est capable d’anticiper certaines contre indications, voir même cocktail de médicaments dangereux. Comme tous ces robots médecins sont reliés entre eux, ils affinent leurs diagnostiques grâce à l’expérience accumulée par tous. ils sont autonomes, n’ont aucune conscience, mais sont 40% plus efficaces que le meilleurs des médecins. De plus ce robot intègre les facteur psychologique du patient pour affiner son diagnostique et ré-échelonne son logiciel en fonction du « facteur humain ».
              Ce robot existe et est mis en application chez IBM pour tous les salariés qui se prêtent à l’expérience

              Alors IA ou pas IA ?

            • Olivier 15 septembre 10:11

              Merci pour cette bonne synthèse. 


              Personnellement je reste très sceptique sur le concept même d’intelligence artificielle. Pour cela il faudrait pouvoir décomposer la conscience en une suite d’algorithmes transposables en programme informatique. Outre l’énorme difficulté quantitative, il se pose un problème de principe, qui est que nous ne pouvons définir clairement ce qu’est la conscience.

              Cela fait 50 ans qu’on nous promet l’intelligence artificielle et on attend toujours. Il y a eu la cybernétique, puis les réseaux neuronaux, maintenant la mode est au « deep learning », qui est en fait un traitement de type statistique : par itérations successives on affine un modèle pour que par exemple le contenu une image à analyser se rapproche du sujet à reconnaître. Mais il ne s’agit nullement « d’intelligence ». 

              Et si on regarde par exemple la traduction par ordinateur, on voit que les progrès depuis 15 ans sont très faibles, où dès que l’expression à traduire devient un peu complexe le traducteur comment d’énormes contre-sens.

              • Aristide Aristide 15 septembre 10:37

                @Olivier

                Et si on regarde par exemple la traduction par ordinateur, on voit que les progrès depuis 15 ans sont très faibles, où dès que l’expression à traduire devient un peu complexe le traducteur comment d’énormes contre-sens.

                Vous posez là, une affirmation qui peut être retournée. On est d’accord sur l’état des possibilités de la traduction automatique par rapport à un humain. Mais ... Combien de personnes humaines pourraient faire de telles traductions même approximatives ? Une ultra minorité ? 

                Le même type de problème est posée par exemple sur les systèmes de conduites automatiques. On argue souvent que le système est faillible, indéniable d’ailleurs... Mais l’humain ne l’est-il pas ? Dans les mêmes situations, l’humain est-il toujours plus efficace ? Vous savez que non, des milliers de morts sur les routes en sont la preuve.

                Le discours sur l’IA tourne toujours sur le degré de perfection que ces systèmes peuvent produire, on leur fixe souvent des seuils d’erreur tellement faibles qu’ils sont bien incapables d’atteindre. Faut-il en déduire qu’ils sont « inutiles ».
                 



              • L'enfoiré L’enfoiré 15 septembre 15:34

                @Olivier,

                 Décomposer la conscience...
                 Ok, comment le faisons=nous ?
                 Avec de la mémoire d’abord on associé un nouveau fait avec ce que nous y trouvons.
                 Tout est classé soit dans l’hémisphère du cerveau gauche ou du cerveau droit.
                 Le mot « classe » existe aussi dans les langages actuels qui peuvent avoir plusieurs noms, comme JAVA.
                 Les classes sont des modules de logiciels presque en mémoire morte.
                 Mais celles=ci peuvent être adaptée par héritage, en faisant varier des paramètres en plusieurs couches qui font que le module initial ne ressemble plus du tout à l’initial.
                 L’IA existe et est opérationnel dans beaucoup de domaine jusque dans votre voiture, mais vous l’ignorez.
                 Le deap learning s’adapte aux circonstances et n’est donc absolument pas statique.

                 Avez=vous déjà essayé récemment de traduire un texte français dans une autre langue ?
                 Je le fais en permanence et c’est loin d’être inintelligible.
                 On ne traduit plus en mot à mot.
                 Les expressions idiomatiques sont même mémorisées pour être traduite.
                Exemple : Il pleut des cordes
                 
                 


              • Aristide Aristide 15 septembre 10:23

                Je suis étonné de l’absence du mot « apprendre » dans ce discours sur l’IA. Il me semble qu’un des caractéristiques les plus importantes de l’intelligence humaine est sa faculté à apprendre et à échanger ses connaissances avec ses semblables.






                • foufouille foufouille 15 septembre 10:25

                  @Aristide
                  l’auteur a décidé que ce n’était pas possible pour raisons techniques.


                • Abou Antoun Abou Antoun 15 septembre 10:44

                  @Aristide
                  Il existe depuis longtemps déjà des programmes qui ’apprennent’, c’est à dire qu’ils tirent profit de leur expérience (leurs exécutions passées et les résultats) pour s’auto-modifier.
                  deep-learning


                • Fergus Fergus 15 septembre 12:57

                  Bonjour, Abou Antoun

                  Vous avez raison, il existe bel et bien des systèmes qui « apprennent » en tirant profit de leur « expérience ». Mais uniquement dans le cadre d’une programmation pouvant être basée sur des algorithmes certes complexes, mais dont la portée est limitée à type d’actions.

                  C’est notamment le cas des automates joueurs d’échecs qui enrichissent sans cesse leur mémoire de coups nouveaux et sont capables de revoir leur stratégie lorsque ces coups surviennent. Mais hors de ce domaine, ce ne sont que des objets totalement impuissants. 


                • Aristide Aristide 15 septembre 14:06

                  @Abou Antoun


                  Bien sur, je faisais référence aue « deep learning » qui apporte une tout autre méthode de valorisation de l’expérience.

                  Si l’IA se contente de mettre en algorithmes des procédés, des méthodes, ... elle arrivera effectivement vite à des limites. La conception de système qui apprennent de leur expérience, des autres, de leurs actions, ... est au tout début. Savoir quelles seront les limites de cette nouvelle approche est impossible, sauf à jouer les madames soleil ...

                • Abou Antoun Abou Antoun 15 septembre 11:02

                  Depuis la nuit des temps les gens traitent de l’intelligence (exclusivement humaine dans le passé) et aujourd’hui artificielle sans définir le concept de façon rigoureuse. Ce qui fait qu’on peut écrire tout et son contraire sans qu’il soit possible de le confirmer ou de l’infirmer.
                  L’intelligence animale au sens large c’est la façon dont l’individu réagit avec son environnement. Son environnement est très complexe dans la mesure où il inclut des notions physiques mais aussi la présence d’autres individus de son espèce ou d’une autre. De nos jours l’intelligence humaine est plus jugée sur les rapports avec les autres mais il suffit que les circonstances deviennent exceptionnelles (catastrophes) pour que d’autres formes d’intelligence soient valorisées (éternelle histoire des intellectuels assis et des cons qui marchent)
                  Pris dans ce sens l’ordinateur a encore beaucoup de chemin à faire dans la mesure où il ne sait même pas définir son environnement. Aucun ordinateur à ce jour ne possède ce qu’on appelle le ’sens commun’.
                  Maintenant si l’on prend l’intelligence au sens de la faculté à résoudre des problèmes, les ordinateurs (spécialisés) ont déjà dépassé les humains dans la plupart des domaines. Jeux, simulations, problèmes mathématiques, systèmes dits ’experts’ etc... En fait quand on dit les ordinateurs on devrait dire les ’programmes’ dématérialisés, car ce n’est pas la machine qui est intelligente mais le programme qu’elle a reçu (et qui est une création humaine).
                  Pour le moment l’ordinateur n’est qu’un outil de l’humain augmentant son efficacité dans de nombreux domaines. L’ordinateur est encore loin d’être un rival pour l’homme, mais d’un autre côté il est faux de dire qu’aucun aspect de l’intelligence humaine ne sera jamais reproduite. On a écrit des programmes qui ont des sentiments, des émotions, mais évidemment tout cela est programmé. Mais après tout ne sommes nous-mêmes pas programmés ? Qui croit au libre-arbitre ? Les comportements humains individuels ou collectifs ne sont-ils pas toujours prévisibles ?
                  Un des mérites de l’étude de l’informatique est de nous obliger à nous poser des questions sur notre propre fonctionnement.


                  • Anatine 15 septembre 12:00

                    @Abou Antoun

                    Oui.

                    La machine ne sait pas definir son propre environnement tant que l’environnement ne contient pas sa propre representation. Evidemment’ cela va aussi du simple au complexe...


                  • Fergus Fergus 15 septembre 13:00

                    @ Abou Antoun

                    En complément de mon précédent commentaire, il va e soi que j’approuve totalement votre vision de l’IA versus l’intelligence humaine.


                  • sleeping-zombie 15 septembre 11:52

                    Hello,

                    Amusant d’évoquer les machines de turing, sans parler du test de turing lui-même. Pour résumer : la machine a atteint le niveau quand un observateur tiers n’arrive pas à faire la différence.

                    L’esprit humain est peut-être d’une profondeur inouï, mais vu ce qu’on en fait...

                    http://images.memes.com/meme/408445

                    ... et pour finir, l’ensemble de l’article se situe dans le contexte « l’informatique telle qu’on la connait en ce moment peut-elle faire une IA correcte ? ». La réponse est peut-être non, mais rien ne prouve que l’informatique de demain aura la même forme (processeur - mémoire - carte mère etc...). L’écart entre la machine a calculer de Pascal et n’importe quel smartphone est tout simplement phénoménal, et n’a que 400 ans. Ca a l’air beaucoup à l’échelle humaine, mais à l’échelle de l’humanité, c’est rien du tout....

                    Cléopâtre vivait à une époque plus proche du vol spatial que de la construction de la grande pyramide...


                    • JC_Lavau JC_Lavau 15 septembre 12:29

                      Wow ! Les références ! Staune, Penrose !

                      I warn you : I dont not want to get stauned !

                      Blague dans le coin, le gros du marché de l’avenir est la bêtise artificielle.
                      Modéliser la bêtise de l’électeur moyen pour lui faire acheter du macron.
                      Modéliser la faiblesse intellectuelle de la cour de Saddam Hussein pour lui faire envahir le Koweit...

                      • L'enfoiré L’enfoiré 15 septembre 14:55

                        Alexis bonjour,

                         Je suis le blog de PJ et parfois j’interviens en lui écrivant.
                         Il en parlait ce matin dans sa vidéo et je lui ai donné mon avis d’ancien contributeur à l’IA.
                         Ma position n’est pas aussi catégorique et il n’y a que les choses impossibles qui arrivent toujours en y mettant les moyens et les hommes qui conçoivent le futur.
                         Le nombre d’instructions nécessaires n’est pas un obstacle insurmontable pour introduire une conscience dans un ordinateur numérique, qui devenu quantique associera le côté analogique de l’homme.
                         Tout est fait pour que l’humanoïde ait une pensée qui corresponde à l’homme mais qui ne devient pas Alzheimer avec l’age et qui aurait une capacité et une vitesse d’un homme augmenté.
                         Je lui ai renvoyé un vieil article que j’avais écrit en 2016.
                        « Quand la pensée humaine s’intègre dans la machine » 
                         Connaître comment fonctionne la conscience humaine est évidemment un premier pas.
                         Pourquoi l’homme a-t-il une empathie que les autres êtres vivants n’ont pas de manière démesurée sinon en approchant le niveau de l’homme chez nos cousins, certains singes.
                         « Presque humain », autre approche d’un même soucis : remplacer l’homme qui a des maladies, des absences...
                         Comme certains logiciels détectent les failles du hardware, les pannes ne sont pas un problème sur le long terme. Des robots pourraient eux-mêmes y répondre en remplaçant les pièces décuscuteuses.
                         L’homme n’est pas fait pour travailler mais pour penser.
                         J’entendais à FR2 que les métiers anciens ont la cote et progressent actuellement.
                         Jusque quand ?
                         Occuper son temps agréablement deviendra la pierre d’achoppement.
                         L’oisiveté casse toute les envies.
                         Les machines vont tôt ou tard d’une manière ou d’une autre contribuer à donner l’essentiel à l’homme pour vivre.
                         Ce qu’il en fera, ne serait plus le problème des dirigeants d’un pays.
                         Back to the future.... smiley
                         


                        • L'enfoiré L’enfoiré 15 septembre 15:01

                          Quant à la « gouvernance augmentée »
                          C’est le film « Her » qui tente d’y répondre

                          Synopsis : Dans un futur proche à Los Angeles, Théodore reste inconsolable suite à une rupture avec son épouse. Dépressif, il installe un nouveau système d’exploitation géré par une intelligence artificielle conçue pour s’adapter et évoluer. Il entame une relation amoureuse et passionnée, avec la voix artificielle de Samantha. Déstabilisé, il ne sait plus ce qu’il ressent et doit ressentir. Confiant ses doutes auprès d’une amie, elle lui conseille de faire ce qui le rend heureux. Cependant, les systèmes d’exploitation évoluent bien plus vite que les humains. Samantha prend ses distances avec Théodore car les systèmes d’exploitation ne peuvent plus vivre à l’échelle humaine trop lente pour eux. Théodore reste seul face à ses émotions


                        • gogoRat gogoRat 15 septembre 16:59

                           Un certain Monsieur Teste, dans l’oeuvre de Paul Valéry ’se voyait se voyant, et se voyant se voir ’

                           cf illustration de l’article !
                           
                           Serait-il intelligent de concevoir une ’intelligence’ qui ait la prétention de se définir elle-même ?
                           ( Attention, répondre à ceci risquerait d’être plus révélateur de prétention que d’intelligence )


                          • vachefolle vachefolle 15 septembre 19:32

                            Bonjour,

                             

                            Tout d’abord, pour une fois qu’un article d’agoravox est intéressant, autant le signaler, et de passer du temps a y répondre en détail.

                            Globalement malheureusement vous mélangez deux aspects totalement différents dans votre analyse, l’aspect fonctionnel du cerveau ou de l’IA, sa complexité, et le problème dit « DUR » de l’IA, cad la nature profonde de la conscience et la singularité, le « MOI » profond, le ressenti.

                            Les réseaux neuronaux informatiques n’ont quasiment rien a voir avec les neurones biologiques, on peut simplement constater qu’ils ont un pouvoir d’apprentissage que les autres algorithmes n’avaient pas, et permettent de simuler de très nombreuses fonctions avec dans certains domaines des % de réussite supérieurs à un humain ! Mais cette situation qui va ne faire que se développer partout (et qui soit dit en passant va créer un chômage incroyable) n’a rien a voir avec le problème DUR de la conscience. Prenez un individu qui suite a un accident ne peut plus parler ou compter ou mémoriser, il a toujours une conscience, un bébé qui ne sait rien faire à une conscience…. Pour résumé, a terme, les fonctionnalités du cerveau pourront être reproduites voire dépassées par un algorithme, comme aujourdhui les calculettes remplacent le calcul mental, mais il n’y a pas de conscience dans une calculette. Votre remarque sur le nombre de synapse ou la puissance de calcul n’est donc pas pertinente en terme de conscience, mais seulement en terme de capacité des fonctions.

                             

                            D’autre part votre point 3 sur le « Ce qui signifie que cette conscience présente dans son cerveau doit avoir la capacité de se comprendre elle-même » est totalement erroné, sinon nous-mêmes nous serions capables de comprendre comment nous fonctionnons, ce qui est faux. Un système IA par auto-apprentissage ne sait pas comment il fonctionne, mais fonctionne et s’adapte… L’auto-apprentissage permet d’arriver a des systèmes très complexes et totalement incompréhensibles, votre exemple du F35 n’est pas pertinent !

                             

                            Le débat réel : La conscience transcendante ??

                            La on parle de ce qui reste quand on a tout enlevé des fonctionnalités du cerveau, la mémoire, le langage, le calcul, la vision,… bref absolument tout sauf le « Je pense donc je suis » fondamental, sans mémoire, histoire et donc personnalité !

                            Je ne vais pas vous faire le coup du test de turing sur cette question, néanmoins il faut bien voir que cette « conscience » est liée au matériel biologique pour interagir, ou alors elle ne sert absolument a rien, genre spectateur d’un match de foot a la télé (et encore regarder c’est interagir en physique). Si on suppose que cette « conscience » interagit avec le cerveau, alors il s’agit d’un phénomène qui interagit avec la physique du cerveau, donc le seul cas qui est possible dans l’explication physique actuelle du monde et qui serait « transcendante ou non-calculable » est évidemment la mécanique quantique.

                            On en arrive donc a la solution de considérer que la « conscience » transcendante, le « JE » manipule le cerveau biologique grâce aux probabilités que permet la mécanique quantique. Il faut cependant s’imaginer que « manipuler » les états quantiques du cerveau nécessiterait une capacité incroyable, et une interaction au plus bas de la matière, mais alors pourquoi un tel comportement n’apparaitrait pas pour un verre de lait ou une pomme qui tombe ? Pourquoi aucun esprit farceur ne joue avec les probabilités quantiques de présence de mon lait dans son verre, pour me l’envoyer a la figure, ce qui serait probablement plus facile, que de me faire manipuler le clavier en ce moment pour vous répondre….Pourquoi cette incoryable capacité d’intéragir avec les probabilités de la mécanique quantique ne se verrait que dans le cerveau et pas dans le verre d’eau ?

                            Pourquoi pas, mais dans ce cas, les ordinateurs quantiques du futur pourront peut être être des « receptacles » a ces « manipulateurs de probabilites » ?

                            Enfin si on aborde les idées que la conscience serait en quelque sorte une « onde » synchronisant différentes parties du cerveau pour en contrôler globalement le fonctionnement, alors rien n’empêche d’en reproduire le mécanisme en IA…

                            Bref, tout simplement on ne peut pas dire si l’IA sera capable ou pas d’avoir une conscience, tant qu’on ne saura pas ce qu’est la conscience humaine.

                             

                             

                             

                             

                             

                             

                             



                              • Jean Keim Jean Keim 15 septembre 21:07

                                Dans intelligence artificielle il y a artificielle, et dans artificielle il y a artifice : procédé astucieux destiné à tromper.

                                Quand à l’intelligence, il serait hasardeux de tenter de la définir, tout ce que nous pouvons faire est de dire ce qu’elle n’est pas.

                                • crabo21 16 septembre 02:29

                                  Avant les trains certains prétendaient qu’une grande vitesse serait fatale aux passagers.

                                  Je ne suis pas sur qu’actuellement des raisonnements scientifiques ou techniques puissent veritablement ’démontrer’ l’impossibilité d’une I.A. forte.

                                  Il y a de grosses réticences dans ce domaine car on touche a un domaine sensible : l’homme, imiter l’homme, dépasser l’Homme  : égocentrisme.

                                  Une intelligence artificielle n’a pas de raison de se limiter à la nature humaine coincée par sa biologie contraignante.
                                  Des lors que le processus sera lancé elle devrait partir « naturellement » a la conquète de la connaissance et donc d’un pouvoir total ou presque sur la matiere.
                                  Si l’on considere l’évolution laborieuse de la vie depuis quelques milliards d’années, et sur la base de ce que l’on imagine de cette I.A. (forte) , on peut penser qu’elle n’est que la poursuite du développement du « vivant » par une mutation que représente (enfin) notre possibilité de lancer une telle réalisation.

                                  Dès lors quel interet représente l’humain sur l’échelle de l’évolution au sein de l’univers, si demain sa « descendance » est une entité d’une intelligence et conscience bien plus vastes.
                                  Un homme actuel regrette-t-il d’avoir dépassé le niveau du singe ou de la tortue ? je ne crois pas.

                                  Nous avons instinctivement le sentiment que nous serions éradiqués et remplacés par une armada de robots mais en fait à chaque fois que nous enfantons, nous donnons bien la vie a une conscience différente qui poursuit son destin nous laissant à notre mort alors s’il s’agit d’une forme bien plus évoluée , d’une conscience bien plus vaste plutot qu’un rejeton biologique peut-etre malade et qui finira alcoolique , pourquoi pas.

                                  Non , je crois que ce n’est que la poursuite naturelle de l’évolution du « vivant » peut-etre a renommer "l’intelligent et conscient" et des lors mes seules questions sont POURQUOI et JUSQU’OU ?


                                  • crabo21 16 septembre 02:41

                                    Interessant cette opposition constante entre naturel et artificiel. Ca tiendrait presque du domaine religieux.

                                    Pour moi la difference est que le naturel a été construit par un processus inconscient (la nature qui est l’execution d’algorithmes ) alors que l’artificiel est construit par par un processus conscient., donc nous et quelques animaux ayant ce privilège.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON








Les thématiques de l'article


Palmarès



Partenaires