• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > Les ordinateurs ne comprennent rien

Les ordinateurs ne comprennent rien

Un ordinateur, c'est à dire une machine à calculer universelle, ne peut pas comprendre, il ne peut pas manier des significations, ni faire émerger une conscience. Ce n'est pas un problème de niveau technologique. Aucun progrès technologique ne pourra changer quoi que ce soit à cela. La signification n'est pas un ensemble de règles d'association de signes. John Searle l'a démontré extrêmement simplement grâce à une expérience de pensée nommée "Expérience de la Chambre Chinoise". J'aimerais ici la résumer rapidement, et simplement.

L'expérience de la Chambre Chinoise est une expérience de pensée, qui va vous faire comprendre intuitivement le travail d'un ordinateur, qui se contente d'associer des 0 et des 1 selon des règles déterminées.

Imaginez que l'on vous place dans une pièce sombre, devant un bureau, avec une petite lampe, des feuilles de papiers, un crayon, et un catalogue de règles en français. Ces règles sont du type : « si vous lisez telle suite de caractères chinois, alors, derrière, répondez telle suite de caractères chinois  ». Par exemple, si vous lisez la suite : "Ching Chang Chong", répondez "Chang Choung Chen". Bien entendu, vous ne parlez pas un mot de chinois, et vous ne savez pas ce que cela veut dire. (les chinois me pardonneront ces exemples à la 4chan)

 
La pièce est fermée par une porte avec une boite à lettre. Derrière la porte, se situe un chinois, à qui on demande d’écrire sur des feuilles de papier des phrases en chinois du type : « salut, comment ça va ? » (qui en chinois à la 4chan se dit : « ching chang chong »). Il glisse ensuite la feuille de papier dans la boite au lettre.

 Vous allez chercher la lettre dans la boite au lettre, vous l’ouvrez : c’est écrit en chinois, vous ne comprennez rien. Vous prenez donc le catalogue de règles qui vous indique : « à la phrase "ching chang chong", répondez la phrase "chang choung chen" ». Cela veut dire «  je vais bien et toi ?  », mais vous n’en savez rien. Vous ne comprenez ni ce qui est écrit sur la feuille, ni ce que vous écrivez en réponse. Vous avez juste appliqué les règles d’association de signes.

Vous prenez la feuille de papier où vous avez écrit «  chang choung chen » (« je vais bien et toi ? »), vous la glissez dans la boite au lettre. le chinois la consulte et se dit : « super ! derrière la porte, il y a quelqu’un qui parle chinois ! » Pourtant, vous ne comprennez rien au chinois, vous avez juste appliqué des règles d’association de signes dépourvus de signification pour vous.

Un ordinateur ne fait que cela, et strictement rien d'autre. Il associe des 0 et de 1 qui pour lui sont dépourvu de signification, en fonction de règles écrites par les programmeurs. A aucun moment donné, ce processus ne permet de créer de la signification. Vous n'apprendrez JAMAIS à parler Chinois en appliquant la méthode décrite ci-dessus. De la même manière, jamais un ordinateur ne comprendra le Chinois ou une quelquonque langue humaine, même si il peut en donner l'illusion

L'ordinateur n'a donc pas accès à des significations, qui sont le produit d'une activité neuronale. De même, l'ordinateur ne voit pas de couleur, il reçoit des suites de 0 et de 1 en provenance de capteurs de lumières et applique des règles d'association. Il n'entend pas plus des sons, il reçoit des suites de 0 et de 1 en provenance de capteurs de sons auxquelles il applique des règles d'association. De manière générale, tout ce qui compose votre vécu subjectif, les significations, les sons, les odeurs, les sensations, les couleurs, les sentiments, ce qu'on nomme en général le "vécu conscient" échappe totalement à l'ordinateur. Lui ne fait qu'appliquer des règles sur des suites de 0 et de 1 dépourvu de signification. Or, quand vous comprenez la signification d'un mot, que vous voyez une couleur, ou sentez une odeur, vous ne faites pas qu'appliquer bêtement des régles d'associations comme dans la chambre chinoise. Vous avez une activité BIOLOGIQUE, NEURONALE, extrêmement complexe, qui produit ce vécu conscient. La simulation informatique d'un pis de vache ne permet pas de créer du vrai lait. De la même manière, la simulation des processus cognitif ne permet pas de créer de la conscience.

Voilà, vous avez progressé en philosophie de l'informatique, vous en savez désormais plus que Stephen Hawkins lui-même.

 

PS : Nous ne sommes pas sûr que ce soit le cerveau qui produise le vécu conscient, et jamais aucune description du cerveau ne permettra de le prouver. C'est une autre expérience de pensée, qui se nomme : "What is it like to be a bat ?", de Thomas Nagel... Mais c'est une autre histoire.


Moyenne des avis sur cet article :  2.85/5   (52 votes)




Réagissez à l'article

119 réactions à cet article    


  • Le p’tit Charles 20 décembre 2014 08:29

    Un ordinateur est le prolongement de la pensée humaine rien d’autre...c’est pour cela que la plupart du temps il raconte n’importe quoi...


    • lsga lsga 20 décembre 2014 11:10

      Pour ceux qui se demandent pourquoi j’ai écrit un tel article, et quel rapport avec le communisme :
       
      La théorie du Terminator, de l’ordinateur intelligent qui va détruire l’être humain, qui est défendu y compris par Stephen Hawkins (qui visiblement n’est pas aussi bon en philosophie de l’informatique qu’en physique), est la théorie contemporaine la plus réactionnaire, la plus anti-progressiste. Cette théorie potentiellement sera le support mythologique du fascisme du 21ème siècle. 
       
      L’informatique, comme dit le p’t’it charles, est le prolongement de la pensée humaine. Le cerveau n’est pas une machine de Turing, et ce qu’une machine de Turing fait très facilement (ex : extraire la racine cubique de 212), le cerveau humain le fait très difficilement. Cela ne veut pas dire que l’ordinateur nous est supérieur : l’ordinateur n’a pas de conscience, et est incapable de faire ce que le cerveau humain fait : produire des significations et des vécus subjectifs. Cela veut dire que l’Ordinateur permet à l’humanité de progresser bien plus rapidement.
       
      Bon et sinon, le ptitcharles : c’est quand que tu arrêtes d’être un gros réac et que tu deviens progressiste ?


    • lsga lsga 21 décembre 2014 00:18

      et sachant que sur ce site, comme dans la vie, je passe mon temps à agresser tout le monde, de ceux qui se prétendent d’extrême gauche (et qui ne le sont pas) à ceux qui refusent d’admettre qu’ils sont d’extrême droite en passant par tous les conservateurs qui veulent juste qu’on leur fiche la paix : je tiens encore une fois à remercier la communauté d’avoir publié mon article smiley

       
      Mais ça ne m’amadouera pas : bande de sales réacs ! smiley

    • Massada Massada 20 décembre 2014 08:48

      Un ordinateur, c’est à dire une machine à calculer universelle, ne peut pas comprendre, il ne peut pas manier des significations, ni faire émerger une conscience.


      La conscience est une propriété intrinsèque de la matière, tout comme la masse ou l’énergie. Organisez la matière de la bonne façon, comme dans le cerveau mammifère et la conscience émerge.

      Si vous construisiez un ordinateur de façon appropriée, comme un ordinateur neuromorphique, il pourrait être conscient. La conscience survient toujours sur du physique.


      • lsga lsga 20 décembre 2014 10:15

        Est un ordinateur est une machine de Turing, rien d’autre.
         
        Ce que vous appelez « ordinateur neuromorphique » n’est simplement pas un ordinateur.


      • lsga lsga 20 décembre 2014 21:44

        vous utilisez le terme algorithme dans un sens métaphorique. Un algorithme, c’est un calcul, une fonction récursive primitive, une opération mécanisable. 

         
        Vous parlez d’épiphénomène. Comprenez bien : quelque soit le temps que vous passez dans la chambre chinoise, quelque soit la complexité des règles appliqués, vous n’apprendrez JAMAIS le chinois. Il n’y a pas un épiphénomène magique, une émergence miraculeuse, qui fera que d’un coup vous apprendrez le chinois. La signification n’émerge pas des règles. Elle n’est pas un épiphénomène. Elle est le plus probablement le produit d’une activité biologique. 

      • e=mc2 e=mc2 6 novembre 2018 12:21

        @Massada


      • gruni gruni 20 décembre 2014 09:01

        Si un jour l’homme réussissait à créer un ordinateur réellement intelligent, il faudrait se poser des question sur son intelligence. Avant de disparaître définitivement de la surface de la planète ou de devenir esclave. 


        Merci pour l’article

        • lsga lsga 20 décembre 2014 10:33

          en fait : on ne peut pas créer un ordinateur « intelligent », dans le sens conscient ou capable de comprendre quelque chose. C’est le coeur de l’article : ce n’est pas une question de progrès technologique, c’est impossible pour une raison logique. La conscience, la compréhension, la signification : cela ne se résume pas à appliquer des règles sur des signes.
           
          Si un jour on créé une véritable intelligence artificielle, ce ne sera pas un ordinateur, mais autre chose, qui fait autre chose que ce que vous faites dans la chambre chinoise. 


        • sleeping-zombie 20 décembre 2014 17:31

          si un jour on crée une intelligence artificielle, ce sera probablement par hasard, et on sera incapable de communiquer avec elle, à cause des différences de nos univers. Exactement comme on est incapable de communiquer avec l’ensemble du monde animal, à quelques très rares exceptions...


        • amiaplacidus amiaplacidus 20 décembre 2014 10:07

          Mais, Isga, c’est un vrai génie de l’épistémologie.

          Ou encore : « L’art d’enfoncer des portes ouvertes en 5000 caractères ».


          • lsga lsga 20 décembre 2014 10:20

            4740 caractères
            Le génie, c’est Searl. Être capable de faire comprendre intuitivement à n’importe qui le travail d’un ordinateur tient en effet du génie.


          • Daniel Roux Daniel Roux 20 décembre 2014 10:15

            Qu’est-ce que la conscience ?

            Ce que nous savons c’est que la conscience est le résultat d’un processus non conscient. La conscience nous permet de savoir que nous existons. C’est déjà bien mais ce n’est pas tout.

            Ce processus est complexe puisqu’il fait intervenir une machine bio-chimio-électro-logique et un nombre très élevés de connexions. Les différents types de mémoire interviennent dans le processus.

            Si l’on s’en tient à un a priori strictement matérialiste, la différence entre un ordinateur et un cerveau porte uniquement sur la nature des matériaux et sur la complexité des processus.

            Le premier est fait de matériaux fabriqués et assemblés par l’homme suivant un plan et des théories qu’il a conçu en fonction de ses connaissances. Les processus sont déterminés par une volonté dans le but de répondre à un besoin et qui ne sera reproduit qu’en cas de succès.

            Le second est fait par la nature, c’est à dire par l’élaboration pendant presque deux milliards d’années d’une complexité qui suit les lois du hasard et de la nécessité. Les processus sont déterminés par ces mêmes lois qui ne seront validés et reproduit qu’en cas de succès.

            Rien ne permet d’affirmer que le génie humain n’arrivera pas à concevoir des machines capables d’atteindre un niveau de complexité produisant des résultats imitant parfaitement la conscience.


            • lsga lsga 20 décembre 2014 10:29

              1. J’ai utilisé la conscience dans son sens intentionnel : « conscience de quelque chose », vécu subjectif, etc. Le fait de voir du rouge, de sentir des odeurs, d’avoir accès à des significations
               
              2. Le cerveau n’a absolument RIEN À VOIR avec un ordinateur. Je vous invite à aller lire le livre de Von Neuman sur le sujet (le créateur de l’ordinateur moderne). Pour faire court : quand bien même on filerait la métaphore du cerveau ordinateur, le cerveau serait un ordinateur analogique massivement parallèle, alors que nos ordinateurs sont numériques et sériels. Et encore, ce n’est qu’une métaphore. Le bout de chair que l’on a dans le crane fonctionne de manière extrêmement chaotique, c’est une vraie bouillie électro-chimique où le hasard à toute sa place, et la sélection entre réseaux de neurones se fait selon des lois évolutionnistes (voir Edelmann). Bref, ce sont deux objets totalement différents.
               
              En effet, rien ne garantit qu’on arrive un jour à créer des machines conscientes.


            • Daniel Roux Daniel Roux 20 décembre 2014 17:00

              Que le cerveau et l’ordinateur soient deux objets totalement différends, tout le monde en est d’accord mais ce n’est pas là-dessus que porte l’article, sauf erreur, mais sur la conscience, non ?

              D’où l’importance de définir ce qu’est la conscience, puis quel processus la fait émerger et si ce processus peut ou non, être reproduit artificiellement.


            • lsga lsga 20 décembre 2014 21:42

              c’est une question différente. Le fait est que si on reproduit la conscience artificiellement, ce ne sera pas grâce à une machine de turing, aussi complexe soit-elle. On peut simuler l’intelligence avec une machine de turing (faire croire qu’on parle chinois), mais on ne peut pas la reproduire. 


            • marmor 20 décembre 2014 11:07

              C’est bien la première fois que le bonnet rouge ne délire pas ! Vous avez arrêté de fumer la moquette ? Ca vous fait le plus grand bien, car on s’aperçoit que vous êtes capable de nous interesser.


              • wesson wesson 20 décembre 2014 11:38

                Bonjour l’auteur, 


                Sur le fond, l’article, il est assez sensé mais enfonce quelques portes ouvertes : ben oui, un ordinateur n’est pas un cerveau, et n’en possède ni la plasticité ni l’élasticité. Et il en est à des lieux de la conscience. On pourrait même éventuellement disserter sur le fait qu’un jour peut-être on arrivera à donner (ou coder) une forme de conscience, pour ma part, j’ai quelques doutes.

                Sur la forme pour illustrer votre propos, vous utilisez un mémé clairement raciste, et je doit avouer que ça me gène quand même un peu. as-t’on besoin d’aller racler 4chan dans ce que l’on y trouve de plus abject pour illustrer son propos ? Je ne suis pas certain. Et encore moins dans le cadre du sujet que vous traitez.

                Le propos est important, mais l’image également, et vous savez qu’un bon nombre de « lecteurs » ne conserveront de votre propos que l’image que vous avez proposée.

                Si vous l’avez fait inconsciemment c’est malheureux. Si vous l’avez fait pour vous attirer du lectorat, c’est pervers.

                • lsga lsga 20 décembre 2014 21:46

                  alors, l’article de John Searle (je me suis contenté de le vulgariser) démontre précisément qu’on ne peut pas coder une conscience. Comprenez bien : vous pourrez passer autant de temps que vous voulez dans la chambre chinoise, les règles pourraient être aussi complexe que possible : JAMAIS vous ne finiriez par comprendre le chinois. 

                   
                  Après, comme les chinois sont une race inférieure aux aryens, ce n’est pas très grave smiley (plus prosaïquement : quand on n’est pas raciste, on peut rire du racisme.)

                • Francis, agnotologue JL 20 décembre 2014 11:59

                  Vous me décevez, Isga : le niveau de cet article est très en dessous des prétentions scientifiques dont vous vous parez sous les articles de Dugué.

                  le catalogue de règles dont vous parlez ici aurait eu sa place dans un contexte de systèmes experts. Et vous n’avez même pas abordé les algorithmes génétiques, ce qui serait quand même un chemin plus crédible pour parler de la conscience des machines, même si c’est pour conclure qu’elles n’en ont pas.


                  • Francis, agnotologue JL 20 décembre 2014 19:18

                    En effet, cyrus, c’est une bonne vulgarisation.

                    En postant, je n’avais pas considéré l’étendue de l’ignorance du public en la matière, même sur Agoravox.


                  • lsga lsga 20 décembre 2014 21:53

                    vous avez du rater un passage : Bernard Dugué est bien plus compétent que moi en physique, et je n’ai jamais prétendu le contraire. J’ai plutôt un bon niveau en épistémologie et en philosophie des sciences : voilà tout. Comme il prétend créer une nouvelle science, il est très facile pour n’importe qui ayant un petit bagage en épistémologie de rapidement voir les limites de son procédé. 

                     
                    Toutefois, si vous lisez les derniers commentaires que j’ai posté sur ces articles : je lui souhaite sincèrement de réussir à formaliser sa monadologie quantique.
                     
                    Pour ce qui est de cet article : il n’est pas de moi, mais de John Searl. 
                     
                    Enfin, concernant les algorithmes génétiques, si vous avez trouvé par quel process mécanique on passe d’un gène en 2D à une protéine en 3D : pensez à postuler au prix Nobel.
                     
                    À titre perso, comme Bernard Dugué d’ailleurs, je suis assez séduit par les théories de Penrose sur l’émergence quantique de la conscience à partir du cytosquelette des cellules. D’où le postscriptum mystérieux de l’article. Mais encore une fois : ce n’était pas le sujet. En plus : ce ne sont que des théories. 

                  • Francis, agnotologue JL 22 décembre 2014 10:05

                    Isga,

                    ce fil est intéressant, et vous avez eu une riche idée de le publier. Ce sont les articles les plus simples mais qui tournent autour d’une seule et bonne idée qui sont les plus féconds, puisque ce qui fait tout l’intérêt de ce site, n’en déplaise à ceux qui ’postent leur crotte et s’en vont (ainsi Dugué qui ne répond plus jamais), c’est la discussion.

                    Avant d’en finir ici, je voudrais dire ceci :

                    La science avance, et l’on a parfois dit que plus nous en savons et plus nous découvrons l’étendue de notre ignorance. De la même façon, il est probable que l’on saura faire des consciences artificielles de plus en plus crédibles : votre chambre jaune est aux expériences de pensée que nous ferons demain sur ce sujet ce que la mécanographie d’hier est aux ordinateurs d’aujourd’hui. Elle est déjà dépassée, et c’est ce qui ressort à la lecture de ce fil, même si cette expérience est encore utile pour la majorité de la population.

                    Je crois que la conscience artificielle fera encore et toujours des progrès, et cette croyance à pour corolaire que ladite conscience ne sera jamais équivalente à la conscience organique qui s’est bâtie toute seule et sur le principe d’Occam : c’est cela qui fera toujours la différence indépassable entre un artefact et son modèle.

                    Mais cela ne me rassure pas du tout, bien au contraire.


                  • Gollum Gollum 20 décembre 2014 12:25

                    Ben dis donc… Le Grand Schtroumpf ne dit pas que des conneries des fois.. smiley


                     Vous avez une activité BIOLOGIQUE, NEURONALE, extrêmement complexe, qui produit ce vécu conscient. La simulation informatique d’un pis de vache ne permet pas de créer du vrai lait. De la même manière, la simulation des processus cognitif ne permet pas de créer de la conscience.

                    Bien vu à un détail près. C’est que ce n’est pas l’activité biologique qui produit le vécu conscient mais probablement l’inverse, c’est-à-dire que l’activité biologique est précédée par une activité au niveau quantique lequel niveau quantique inscrit son origine au niveau spirituel, niveau déjà là depuis les origines du monde.

                    C’est la raison d’ailleurs pour laquelle les NDE sont possibles. 

                    • lsga lsga 20 décembre 2014 21:53

                      Pourquoi pas, c’est une théorie qui n’est étayée par rien, qui sent l’idéalisme à plein nez... mais pourquoi pas... En tout cas, ce n’est pas le sujet de l’article, et vous avez compris le fond de l’article. 


                    • Qaspard Delanuit Qaspard Delanuit 20 décembre 2014 14:08

                      Je trouve ce article bien fait et utile. Sa thèse paraîtra évidente à beaucoup, mais il existe malheureusement des gens qui croient encore que la conscience résulte d’une certaine puissance de capacité de traitement de l’information. La conscience relève d’une autre dimension que celle du calcul mécanique. C’est d’ailleurs pour cela qu’un débile profond incapable de compter jusqu’à 5 a malgré tout plus de conscience que l’ordinateur le plus puissant que l’on puisse concevoir. L’ordinateur n’est pas une personne. Une personne n’est pas une machine à calculer. 


                      • lsga lsga 20 décembre 2014 22:00

                        vous avez compris, précisément. 


                      • SamAgora95 SamAgora95 20 décembre 2014 14:32

                        A moins de savoir de façon absolue que la conscience n’est pas le produit d’interaction d’unités de calcul que sont les neurones, il est impossible d’affirmer qu’une machine ne sera jamais capable d’égaler l’esprit humain voir d’accéder à la conscience.


                        Mais partons du principe que la conscience est réservée au vivant, si la boite qui parle Chinois (dépourvue de conscience) nous permettait d’avoir une conversation sensée, un véritable échange, des réponses cohérentes a tel point qu’on ne puisse pas affirmer que nous n’avons pas affaire à un humain, alors dans ce cas quel est l’intérêt de savoir si ce boite fait l’expérience de la conscience ou non ? Absolument aucun, puisque de tout façon nous n’avons aucun moyen de vérifier que notre expérience subjective de la conscience est présente chez les autres.

                        Dire que l’ordinateur n’est qu’une interaction de 0 et de 1 et qu’il obéi à des ordres programmés est vrai pour une calculatrice ou pour nos ordinateur de bureau, mais cela est faux pour un programme basé sur des réseaux de neurones par exemple, ce dernier est capable d’apprendre par l’expérience, les réponse aux simulies ne sont pas programmés.

                        Exemple d’application de réseaux de neurones artificiels :



                        • lsga lsga 20 décembre 2014 21:59

                          bon une réponse intéressante, qui demanderait un peu de temps pour répondre, et là je manque d’énergie. Toutefois, avez vous bien compris que quelque soit le temps passé dans la chambre chinoise, et quelque soit la complexité des règles : vous ne comprendrez jamais le chinois ? 

                           
                          Les réseaux de neurones artificiels portent mal leur nom. Je vous invite à étudier les perceptrons, c’est pas très compliqué. Il s’agit d’une modélisation, très simplifié, et très mécanisé, du fonctionnement des neurones, pas de véritables neurones artificiels. 
                           
                          Les neurones ne sont pas des machines de Turing. Pas plus que le pis d’une vache, qu’on peut aussi pourtant modéliser de manière simplifiée. Il ne faut pas confondre la modélisation abstraite et la réalité biologique. 

                        • SamAgora95 SamAgora95 20 décembre 2014 22:41

                          Je ne suis pas totalement novice en la matière, ça fait plus de 20 ans que le sujet me passionne, le fait que je ne rentre pas dans les détail ne signifie pas que je n’ai pas les notions de base. J’ai étudié le perceptron, j’ai même été amené à concevoir un traitement de reconnaissance de forme avec ce type de réseau.


                          Je ne suis pas ici pour étaler mes connaissances, mais simplement rebondir sur une affirmation qui me parait fausse, selon laquelle l’ordinateur ne serait qu’un calculateur bête et méchant, ne faisant qu’exécuter des ordres de son programmateur, les personnes totalement étrangère à ce domaine pourraient le croire en se référent à ce qu’elles connaissent à savoir qu’un ordinateur est forcément programmé avec des instructions de type SI ALORS etc... cette notion est dépassé depuis longtemps.

                          Je comprends parfaitement ce que vous dites, un circuit aussi complexe soit-il ne peut pas créer de la conscience, ou alors il faudrait définir à quel moment et où est logée cette conscience, dans les unités de calcule ? dans le transfert de l’information entre ces unités ? 

                          Etant donnée que nous sommes incapable de modéliser convenable ne serait-ce qu’un neurone, qui pourrait s’avéré être le QUBIT d’un ordinateur quantique, alors par conséquent le plus complexe de nos ordinateur actuel ne pourrait même pas simuler de façon fidèle la complexité d’un cerveau d’un ver de terre.

                          Pour moi, dans la nature 1+1 ne font pas toujours deux, il semble que des phénomène non matériels liés à l’information immerge de systèmes complexes, comme l’auto-organisation par exemple, la conscience pourrait en faire partie.


                        • lsga lsga 20 décembre 2014 23:09

                          bon tout d’abord : désolé, j’aimerais vous répondre mieux, je ne suis pas au top de ma forme ce soir (je suis exténué...).

                           
                          Bon : même si l’ensemble de règles se modifie lui-même, ce n’est pas pour autant que vous comprendrez le chinois. Cela reste un ensemble de règles, avec des règles servant à générer d’autres règles. Fondamentalement, cela ne change absolument rien à la question de la génération de la signification.
                           
                          En fait, l’idée est qu’une modélisation dans une machine de turing reste une modélisation, et rien d’autre. Encore une fois : la modélisation parfaite d’un pis de vache ne permet pas de créer du vrai lait. 
                           
                          Aujourd’hui, nous ignorons ce qu’est la conscience, le vécu subjectif, les significations, les sensations, etc. Nous les expérimentons quotidiennement, on arrive à déterminer leur rapport avec certaines activités biologiques, mais nous ne les avons pas réduites à des phénomènes biologiques (allez lire le What is like to be bat, ça va vous passionner). En tout cas, on n’a pas besoin de savoir précisément ce qu’elles sont ou comment elles sont générées pour pouvoir affirmer qu’elles ne sont pas un simple ensemble de règles de langages. Elles sont plus que des mots et des règles sur des mots.
                           
                          L’émergence (pas l’imergence) est le miracle du fonctionnalisme. Cela revient dire : si on passe suffisamment de temps dans la chambre chinoise, ou si les règles sont suffisamment complexes alors on finira par comprendre le chinois. C’est intuitivement faux. Vous réalisez bien que vous ne comprendrez jamais le chinois par cette méthode.


                          La conscience émerge bien de quelque chose (à moins qu’elle ne soit une propriété fondamentale de la matière, ce qui devient de plus en plus mon point de vue...), en tout cas, elle n’émerge pas du langage, ni de règle de langage. Elle émerge d’un substrat matériel, que ce soit à une niveau quantique (allez voir du côté de Penrose et de ses théories sur les propriétés quantique du cytosquellette des cellule, ça va vous plaire), ou chimico-électrique (le tas de chair qu’on a dans le crâne). Elle n’émerge pas de règles d’association de symboles.
                           
                          En tout cas, merci encore, c’est bien pour débattre avec vous que j’ai écrit cet article. 

                           

                        • foufouille foufouille 21 décembre 2014 12:14

                          « bon tout d’abord : désolé, j’aimerais vous répondre mieux, je ne suis pas au top de ma forme ce soir (je suis exténué...). »
                           smiley
                           smiley


                        • le castor 21 décembre 2014 13:20

                          Bonjour Isga,


                          Article interessant mais je n’ai malheureusement pas trop vu ou vous vouliez en venir...

                          Je vous ferai donc deux objections principales.

                          La premiere, vous voulez parler ’philosophie’ mais on voit bien que sur ce plan votre analyse est assez superficielle. L’article n’est pas de vous, mais vous l’approuvez. Je reconnais que c’est intelligemment vulgarise mais si vous voulez elever un peu le debat, les arguments de SamAgora95 vous devancent nettement. En effet, vous dites que les ordinateurs ne comprennent rien et n’auront jamais de conscience... mais vous ne pouvez pas en etre certain en ce qui concerne les humains non plus. Et c’est bien la le drame ! Si vous avez bien une conscience, c’est la seule chose dont vous pouvez etre certain et alors il faut accepter le fait qu’il est possible que vous soyez le seul. Je comprends qu’il est plus ’confortable’ de penser que notre Maman nous aime d’un amour aussi conscient que celui que nous lui portons mais la philosophie exige des traumatismes. Et sur ce sujet, quel serait le sens de s’interdire de tomber amoureux d’une machine (cf blade runner) si l’illusion qu’elle donne de sa ’comprehension’ ne vous permet pas de deduire si elle a une conscience ou non ?
                          Bref, le veritable ’probleme’ reside dans la certitude, vous etes certain que les ordinateurs n’ont pas de conscience (sans remettre en question leur existence meme) alors qu’il est possible, et meme sans doute probable, que vos potes en ont une, et ca fait toute la difference.

                          La deuxieme objection concerne la raison (politique) pour laquelle vous dites vouloir diffusez votre theorie. Il y reside un paradoxe. Vous dites vouloir combattre « la théorie du Terminator [...] la plus anti-progressiste (qui) potentiellement sera le support mythologique du fascisme du 21ème siècle » mais vous admettez d’un autre cote qu’il est pas impossible qu’une conscience emerge un jour d’autre chose (d’articiel) qui ne soit pas un ordinateur... ou est la difference ? Et qui nous dit que cet ’autre chose’ ne voudra pas nous exterminer ? smiley

                        • non667 20 décembre 2014 14:45

                          tout ça ne me dit pas ce que je vais faire à manger demain ! smiley smiley smiley


                          • lsga lsga 20 décembre 2014 22:00

                            de la cervelle d’agneau ? 


                          • alinea alinea 20 décembre 2014 14:59

                            Oui, c’est sûr qu’il y en a beaucoup qui ont cru qu’on pouvait, non pas mettre Paris en bouteille, mais le monde en binaire ! Cela a déteint partout ; la pensée binaire : pour/contre ; le goût binaire, j’aime/j’aime pas ; bref un monde d’une pauvreté hallucinante parce que de grands gamins ont été émerveillés par leurs joujoux de Noël !!


                            • Enabomber Enabomber 21 décembre 2014 17:06

                              Certains ont une conception du monde encore plus stérile : ce n’est plus j’aime/j’aime pas, mais j’aime/je ne m’exprime pas. Fessebouc quoi.


                            • Pyrathome Pyrathome 20 décembre 2014 15:18

                              Boujour Isga,

                              C’est une lapalissade ton article, un ordinateur ne peut en aucun cas être intelligent puisqu’il ne vit pas......Là est toute la différence....On pourra faire aussi sophistiqué qu’on veut ou qu’on peut, une machine ne vivra jamais, même à « l’interfacer » directement sur les neurones , n’en déplaise aux transhumanistes....
                              Maintenant, on attend le même article pour « définir » ce qu’est la vie ?
                              Oui, je sais, ça va être beaucoup plus dur.....


                              • Nestor 20 décembre 2014 16:16

                                Salut Pyra,

                                « C’est une lapalissade ton article, un ordinateur ne peut en aucun cas être intelligent puisqu’il ne vit pas. »

                                Viens pas casser le premier grand pas en avant de ce cher Isga ... Il vient juste de comprendre que ça ne servait à rien de donner à bouffer à son ordi ... Laissons-le évoluer à sa vitesse ... smiley


                              • Gasty Gasty 20 décembre 2014 19:08

                                Bah ! Ils y en a qui ne savent pas vivre, alors qu’est-ce qu’ils ont de mieux que 0 1. Oui Non ? quelle belle affaire ! si la réponse est inadéquate ça bug, ça se met en boucle et ça chauffe.


                              • Gasty Gasty 20 décembre 2014 19:26

                                Des 0 et des 1 on peut en trouver pas mal :

                                avec ou sans

                                pour ou contre

                                t’es con ou quoi

                                gauche ou droite ( politiquement)

                                stop ou encore


                              • Gasty Gasty 20 décembre 2014 19:29

                                Il suffit d’en savoir le contexte, exactement comme ce « Ching chang chong ».


                              • gnozd gnozd 22 décembre 2014 09:31

                                Bonjour.

                                La Vie ! On est plongés dedans alors on trouve ça extraordinaire et on a tendance à en faire le but ultime de toutes les recherches. Exemple, en recherche spatiale, on voudrait bien trouver une planète capable de générer la vie.

                                La vie, jusqu’à preuve du contraire, c’est ni plus ni moins que la propriété particulière de la chimie du carbone à s’auto-perpétuer, depuis que la première protéine a bouffé sa voisine d’à côté.
                                C’est donc un phénomène purement local, terrestre, récent en rapport de l’existence de l’univers, et y’a franchement pas de quoi, à l’observation de ce que nous en faisons, de la vie, sauter au plafond.
                                Et ça ne résoud pas la question de la conscience. Ce serait faire preuve d’un anthropocentrisme et d’un géocentrisme aigus que d’imaginer que la conscience soit apparue avec la vie, et sur terre.

                                Question : un bébé qui naîtrait sourd, aveugle, et insensible au toucher serait-il conscient ?


                              • Tzecoatl Gandalf 20 décembre 2014 16:09

                                Il y a quand même telle équipe scientifique (autrichienne il me semble) qui tente d’élever des cerveaux en laboratoire, telle équipe américaine qui a greffé un neurone sur un circuit électronique.

                                La première expérience est un échec.

                                Si on accepte la transcendance que semble démontrer les NDE, la conscience dont on dispose semble effectivement hors d’atteinte du transhumanisme, qui ne serait qu’un travestissement progressiste et matérialiste. Autant pratiquer la transhumance.

                                Si l’ordinateur classique est un formidable outil de calcul, il n’est que cela.
                                On pourrait, avec les pérégrinations de la science, tomber sur une autre aptitude cérébrale qui nous deviendrait inutile. Mais cela, ceux sont les laboratoires qui le diront.
                                Il n’y a pas de technologie qui produise de conscience de son existence, qui ne produise d’idées.

                                Quoiqu’il en soit, étant donné la plasticité du cerveau, il est à espérer que rien ne vienne remplacer l’homme.



                                • alinea alinea 20 décembre 2014 16:14

                                  Rien ne pourra remplacer la Vie !!


                                • lsga lsga 20 décembre 2014 22:05

                                  ah mais : greffer des neurones biologiques, ou produire artificiellement des neurones biologiques : ce n’est déjà plus se contenter de les modéliser dans une machine de turing. Donc oui, un ordinateur avec des neurones biologiques pourrait peut-être avoir une conscience. Ce serait improuvable de toute façon. 



                                • gnozd gnozd 22 décembre 2014 09:33

                                  Exact. Si on veut fabriquer un être intelligent et conscient, il suffit de faire un enfant. C’est même plutôt agréable.


                                • bakerstreet bakerstreet 20 décembre 2014 17:18

                                  Je mes souviens d’un nouvelle de Brown, il y a très longtemps lu :


                                  Un type met en connexion tous les ordinateurs du monde, pour avoir une puissance inédite de calcul.
                                   Ensuite, il pose la question qui fâche à l’unité centrale

                                  « Dieu existe t’il ? »

                                  La machine ronronne, et rapidement sort la ’réponse :
                                  « Maintenant, oui ! »



                                  • COVADONGA722 COVADONGA722 20 décembre 2014 17:44

                                    yep , un peu du genre de celle ci dans une anto de Sadoul deux information débarquent au tibet installer un Bull et le moine local leur annonce que c’est pour connaitre les 500 milliards de noms de dieu cette connaissance amènera la fin du monde ,les gus hilare monte la bécane lance le programme et remonte en avion deux heures après leur pilote leur signale que les étoiles s’éteignent une à une ......


                                    asinus

                                    • lsga lsga 20 décembre 2014 23:36

                                      C Clark est un de mes grands manque en SF, je n’ai encore jamais rien lu de lui. Faut que je m’y mette... et en lisant l’article wikipedia en lien, je m’en rend compte que par contre j’ai lu le matin de magiciens de Pauwells.... j’ai honte. 


                                    • COVADONGA722 COVADONGA722 20 décembre 2014 17:45

                                      pardons deux informaticiens ....


                                      • COVADONGA722 COVADONGA722 20 décembre 2014 18:24

                                        yep ma mémoire n’étant qu’humaine elle a transformé quelques peu un truc lu il y a 40/50 ans 

                                         

                                        • boblansky boblansky 20 décembre 2014 18:49

                                          Voilà une vision quelque peu archaïque de l’informatique, très rassurante


                                          Dire que « Un ordinateur associe des 0 et de 1 en fonction de règles écrites par les programmeurs » est une vérité de La Palice lorsque l’on considère l’ordinateur comme un système auto-suffisant, ce qui était vrai dans les années 1970.

                                          Cependant, nous ne pouvons plus considérer un ordinateur en le dissociant du réseau et de la personne derrière l’écran. Derrière chaque terminal se trouvent un ou plusieurs utilisateurs qui aujourd’hui peuvent définir très simplement la manière dont est traitée et/ou le résultat à une entrée donnée. La règle ’Ching Chang Chong’ donne ’Chang Choung Chen’ est aujourd’hui devenue malléable, dans les mains des personnes qui sont au bout des terminaux (vous, moi, les programmeurs, etc.). Une réaction, un clic à un moment précis, ou un upload d’image va modifier les données et la manière dont se comporte le système en temps réel. Imaginez donc maintenant 3 milliards d’individus agissant et interopérant en définissant des règles et des comportements, et nous pouvons de là voir émerger une « intelligence » via le système informatique (système = ensemble des éléments, donc ordinateurs + réseau + utilisateurs).

                                          Et c’est, à mon humble avis, cette intelligence « globale » qui risque d’échapper à notre contrôle, celle de l’information. 

                                          • lsga lsga 20 décembre 2014 22:03

                                            Une idée qui m’a souvent traversé l’esprit. Nous sommes le ghost in the shell ^^


                                          • lsga lsga 20 décembre 2014 22:18

                                            vous me confondez avec John Searl. 


                                          • Donbar 20 décembre 2014 20:08

                                            La conscience, la compréhension et la signification sont des concepts idéalistes, donc bourgeois. Isga se laisse aller, le matérialisme est foutu.


                                            • lsga lsga 20 décembre 2014 22:09

                                              lol, c’est assez vrai... D’ailleurs la neurologie n’a pas à se soumettre à ces concepts là (c’est le matérialisme éliminativiste de Churchland). En revanche, on expérimente bien directement notre vécu conscient, qui pour nous même est bien matériel. 


                                            • lsga lsga 20 décembre 2014 23:43

                                              bon je suis exténué ce soir, mais j’ai un peu mieux répondu plus haut à samAgora (et puis votre post ici était drôle).

                                               
                                               La position matérialiste concernant la conscience, c’est qu’elle est le produit de la matière, et non pas l’inverse (comme le prétendait Hegel). Je vous copie / colle ici le bout de réponse posté plus haut à Samagora : 
                                               
                                              La conscience émerge bien de quelque chose (à moins qu’elle ne soit une propriété fondamentale de la matière, ce qui devient de plus en plus mon point de vue...), en tout cas, elle n’émerge pas du langage, ni de règle de langage (position IDÉALISTE). Elle émerge d’un substrat matériel, que ce soit à une niveau quantique ou chimico-électrique (le tas de chair qu’on a dans le crâne). Elle n’émerge pas de règles d’association de symboles.(position MATÉRIALISTE)

                                            • jjwaDal jjwaDal 20 décembre 2014 21:18

                                              Vous dites des bêtises car vous n’y entendez pas grand chose sur le sujet...
                                              Stephen Hawking est bien un signataire d’un article sur le sujet de l’arrivée potentielle de l’AI, mais vous devriez considérer les 3 signatures qui l’accompagnent qui ont aussi une opinion plus étayée sur le sujet.
                                              D’une : vu la façon dont fonctionnent nos ordinateurs récents on n’a aucune raison de postuler que notre mémoire et même notre intelligence seraient supportées par autres choses que des microstructures et nanostructures biologiques,inventées au cours de l’évolution.
                                              Ensuite que nos « ordinateurs » n’aient pas plus d’« intelligence » que celle que nous leur avons donné tient du fait que chronologiquement les premiers n’avaient pas de sens pour interagir avec leur environnement comme le premier insecte, la première bactérie venue le font.
                                              Alors oui, bientôt un ordinateur pilotera une automobile en environnement routier réel sans aucune assistance parce qu’on lui aura appris...
                                              La belle affaire, on ne vous a rien appris à vous ? C’est parce que le monde est plein de gens pensant encore que la vie est faite de vie et la matière de matière (des fonctionnements) et que l’intelligence est un « don divin » (un miracle non reproductible) que de telles mises en garde tombent dans le vide. On voit ce qu’on est équipé pour voir et surtout envisager, rien d’autre. Pas un signe d’intelligence je dirais...


                                              • lsga lsga 20 décembre 2014 22:09

                                                vous n’avez pas compris l’article. Relisez le.


                                              • COVADONGA722 COVADONGA722 20 décembre 2014 23:13

                                                Alors oui, bientôt un ordinateur pilotera une automobile en environnement routier réel sans aucune assistance parce qu’on lui aura appris..

                                                oui bonsoir , placée devant le dilemme écraser un piéton pour sauver son passager,
                                                ou tuer son passager pour sauver le piéton : elle choisiras quoi et comment la machine ? 

                                              • Gasty Gasty 21 décembre 2014 05:56

                                                @Covadonga

                                                Ce sera sous doute la première aplication des trois lois de Isaac Asimov.

                                                1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
                                                2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
                                                3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

                                              • COVADONGA722 COVADONGA722 21 décembre 2014 07:45

                                                yep Gasty fan de sf c’est bien évidemment aux lois robotique d’Asimov que je faisais allusion reste que le dilemme demeure entier pour une AI , il est des situation ou 1 et 2 sont antagonistes.




                                                asinus 

                                              • jjwaDal jjwaDal 21 décembre 2014 09:53

                                                Je quitte Bill Joy à l’instant (Ted talks) et je le pense bien mieux placé que vous (l’auteur du fameux « Why the future doesn’t need us ») pour juger si l’AI est concevable et une menace potentielle ou pas. Oui je vous ai lu. Vous semblez oublier qu’il y a un gouffre entre l’intelligence opérationnelle d’un moustique (qui rassemble dans moins d’un mm3 et les capteurs et l’outil de traitement de l’information pour éviter les obstacles, survivre, trouver un partenaire sexuel, etc.. et un être humain. La nature a mis 4 milliards d’années pour aboutir à notre forme d’intelligence probablement parce qu’il fallait une combinaison de capteurs/effecteurs et un outil de traitement des données qui n’existait pas auparavant pour percevoir/traiter les informations intérieures et surtout extérieures. Le tout sans projet (postulat scientifique).
                                                Maintenant sortez un enfant actuel (le dernier cri en la matière) et plongez-le au coeur du paléolithique, que sera son intelligence et sa culture comparée à une existence durant ce siècle disons dans ce pays ?
                                                Les capteurs miniaturisés sont là, la possibilité de les intégrer dans une structure qui peux interagir avec son environnement aussi (pas sans apprentissage initial, mais souvenez-vous de vos jeunes années...), il nous manque les « algorythmes » hiérarchisés pour pouvoir concrètement faire de l’apprentissage. Imaginez une « loi » erronée issue de l’apprentissage initial (à la fabrication) disant que quand on lâche un objet sans support à un mètre du sol il flotte dans l’air. Au premier essai la machine verra que la « loi » est inexacte. A la « Asimov » on peut imaginer une « loi » plus primitive (programmée comme « plus fondamentale » et donc moins modifiable) disant que toute inexactitude entre une loi et le retour du monde réel doit la pondérer. Tout désaccord systématique avec l’expérience doit l’invalider par une nouvelle loi du même ordre reflétant ce que le monde réel dit. Je pense que notre intelligence est issue de processus de ce type et est copiable en AI. Ces simples boucles de rétroactions confinent à de l’apprentissage et je vous fiche mon billet qu’avec des « zéros » et des « uns » on peut s’en sortir...
                                                Sinon d’accord sur le fait que mon ordinateur actuel a zéro chance de devenir « conscient » de m’avoir sur le dos en permanence smiley


                                              • eresse eresse 22 décembre 2014 02:09

                                                @covadonga722
                                                Referez vous au « dilemme du tramway » et vous verrez que la réponse n’est peut être pas aussi claire que vous le pensez.


                                              • COVADONGA722 COVADONGA722 22 décembre 2014 07:22

                                                @eresse 

                                                un grand merci pour la piste quelques heures de lecture me laisse tout autant dubitatif mais plus informé.
                                                Et c’est justement parce que contrairement à l’auteur et quelques uns de ses détracteurs que pour moi rien n’est clair que j’ai posé la question.
                                                Je travaille depuis presque 40 ans sur des machines outils j’ai vus robotique et domotique clairsemer les rangs de mes pareils .Par productivistes interposés les machines ont fait à mon monde une guerre impitoyable leurs victimes peuplent pole emploi .Seule petite lumière , elles ordonnent décident ou cadencent mais rien de ses trois décisions n’est encore supérieur à ma clé de douze et quand les « les filles » dernière extension humaine protestent en bout de chaîne .Celle ci me permet de rappeler à des bécanes Deutsch Kalitat que même si je suis un peu plus habilis que sapiens sapiens J’ordonne Décide et Cadence...
                                                cdtl
                                                asinus:ne varietur

                                              • gnozd gnozd 22 décembre 2014 09:51

                                                Ca va être vachement utile un robot qui conduira une bagnole.

                                                Au départ la bagnole c’est pour transporter des gens, non ?

                                                J’ai dit une connerie ?


                                              • COVADONGA722 COVADONGA722 22 décembre 2014 11:56

                                                bonjour gnodz 

                                                je crois que j’ai initié la question en ces termes
                                                 bientôt un ordinateur pilotera une automobile


                                                cdtl

                                                asinus

                                              • gnozd gnozd 22 décembre 2014 17:50

                                                J’avais bien compris. J’avais juste envie d’extrapoler un peu.
                                                Certaines boites japonaises trippent sur des robots humanoïdes, genre qui vont aider les personnes âgées ou les handicapés dans leur quotidien (alors qu’il y a partout de VRAIS chômeurs). Je voulais juste pousser l’absurdité au bout : des machines (bagnoles) conduites par d’autres machines (ordi). Voilà. L’idée me faisait juste marrer.
                                                Jaune.


                                              • Zeb_66 20 décembre 2014 21:33

                                                Drôlement attardé lsga !
                                                Il y a longtemps que les 0 et les 1 ne servent plus qu’à transporter
                                                et stocker l’information.
                                                La logique qui utilise ces informations est infiniment plus subtile
                                                aujourd’hui, le plus ancien des concepts d’Intelligence Artificielle
                                                est ce que l’on appelle « logique floue » imaginée par Lofti Zadeh
                                                en 1965, eh oui, c’est pas jeune hein ?
                                                Ce concept est aujourd’hui utilisé dans toutes les branches de
                                                l’activité humaine et s’il savait ce que les machines peuvent déjà
                                                faire avec ça, il en tomberait sur le cu... et ce concept est depuis
                                                largement dépassé, ce qui commence à poser de sérieuses questions
                                                d’éthique aux chercheurs impliqués dans l’IA.
                                                Pour ceux qui veulent aller un peu plus loin que la logique Booléenne
                                                de Isga :
                                                http://fr.wikipedia.org/wiki/Logique_floue


                                                • lsga lsga 20 décembre 2014 22:09

                                                  la fuzzy logic ne change rien au propos de l’article. 


                                                • Jean Keim Jean Keim 22 décembre 2014 07:48

                                                  Même dans le plus subtil traitement de l’information il y a des 0 et des 1, il n’y a pas d’intelligence il n’y a que d l’ingéniosité. 

                                                  Cela a commencé avec les boucles réroactives introduites dans les premiers programmes et ensuite la complexité s’est amplifiée mais ce ne sont que des opérations logiques, avec l’augmentation faramineuse des cadences des processeurs cela parait presque « vivant » mais c’est bien de la quincaillerie sans aucun doute et je ne confierais pas nos enfants à des enseignants robotisés. 
                                                  Un ordinateur ne peut pas sortir de sa condition même si les programmes les plus complexes permettent à ces mêmes programmes d’évoluer, autrement dit ils peuvent à l’instar des êtres humains enrichir leurs savoir mais restituer un savoir comme dans un jeu télévisé n’est pas de l’intelligence, juste de la mémoire et de l’érudition.

                                                • Jean Keim Jean Keim 20 décembre 2014 22:15

                                                  Je trouve Isga que vos chinoiseries expliquent parfaitement le fonctionnement d’un ordinateur et il est probable (je n’ai aucun doute la-dessus) que personne n’arrivera jamais à expliquer ce qu’est l’intelligence. 

                                                  L’explication d’une chose fut-elle un concept abstrait est un mouvement mental, un processus qui inclus la pensée qui puise dans un savoir emmagasiné dans des mémoires et qui ainsi s’exprime uniquement dans un domaine limité au connu. La capacité d’associer des données pour obtenir de nouvelles combinaisons est de l’ingéniosité qui, si elles sont décomposées en unités logiques, sont réalisables pae des ordinateurs.
                                                  Google derrière lequel se trouvent des serveurs informatiques eux mêmes commandés par des opérateurs humains est capable de faire des découvertes scientifiques en collationnant d’énormes quantités de données. Cet exemple est intéressant car nous trouvons des automatismes en œuvre dans une structure pilotée par une « intervenant » en position supérieure mais si une intelligence participe à l’ensemble, le déroulement du processus est en soi dépourvu d’intelligence. 
                                                  L’intelligence est un état d’être et non pas un contenu dans un contenant, elle se manifeste par surprise, par un éclair de compréhension et nous fait avancer par bonds ( que certains seront tentés de qualifié de quantique ). Le résultat quand il est « digéré » vient enrichir des savoirs réutilisés éventuellement dans un contexte dépourvu de toute intelligence.
                                                  L’intelligence ne peut pas être définie, ni expliquée, elle échappe à toute tentative d’enfermement dans un savoir que pourtant elle a contribué à enrichir. 
                                                  Nous ne pouvons pas dire ce qu’est l’intelligence, nous pouvons dire ce qu’elle n’est pas, nous pouvons dire de l’ordinateur le plus puissant, le plus rapide et le plus complexe de la terre qu’il n’est pas intelligent, il est néanmoins la manifestation d’une intelligence ni quantifiable, ni localisable.


                                                  • lsga lsga 20 décembre 2014 23:13

                                                    allez lire le « What is like to be bat ? » de Thomas Nagel, cela démontre via une expérience de pensée simple pourquoi on ne pourra jamais réduire (expliquer) la conscience. 

                                                     
                                                    La science a des limites, qu’elle sait précisément délimiter. Le théorème d’incomplétude de Godel est le plus bel exemple de cette nouvelle dynamique des sciences qui cherchent à définir leurs propres limites. 

                                                  • Jean Keim Jean Keim 21 décembre 2014 09:37

                                                    Par méprise de ma part, mea-culpa, mon commentaire parle plus de l’intelligence que de la conscience qui n’est qu’un contenu celui que nous générons par notre activité mentale de l’instant dont la pensée qui se pense en train de penser. 

                                                    Il est possible par exemple de penser que la conscience est un faculté qui nous est donnée par une entité supérieure ou qu’elle est une fraction d’un ensemble plus vaste ou bien encore qu’elle n’est qu’une organisation particulière de la matière, il est également possible, dans une variation infinie, de penser que ce que j’écris est vrai ou faux ou possible etc., etc., tout cela est la conscience, tout cela est un contenu.
                                                    Une machine peut-elle se penser en activité, peut-elle penser qu’elle est une machine ce qui la distingue de son créateur ou du fait de ses pensée ne pas se sentir différente de lui ? Pour résoudre ces dilemmes il faut l’intervention de l’intelligence smiley

                                                  • Vipère Vipère 20 décembre 2014 22:28


                                                    En somme, l’ordinateur est l’outil qui décuple l’intelligence humaine ? 

                                                     

                                                    • lsga lsga 20 décembre 2014 23:17

                                                      mais qui ne la remplace pas.


                                                    • Vipère Vipère 20 décembre 2014 23:38

                                                      « mais qui ne la remplace pas. »


                                                      Evidemment, c’est comme le hache, il y a forcément quelqu’un qui tient le manche, sans quoi, on n’est pas prêt d’avoir des bûches taillées à 50 cm !


                                                    • Freehuxald 20 décembre 2014 22:29

                                                      De très nombreuses confusions et incompréhensions dans cet article.

                                                      Pour le fond, la réponse de Massada est excellente.

                                                      Ensuite, il est tout à fait envisageable de faire émerger une conscience en passant par un ordinateur, et je vais le montrer par un exemple simple : un ordinateur peut simuler les choses.

                                                      Dès lors que l’on aura une connaissance suffisante du cerveau humain pour en comprendre son organisation ainsi que les éléments qui le composent, il sera alors possible de simuler chacun de ces éléments et les interactions qui existent entre eux. Une conscience humaine émergera, avec pour seule différence avec la nôtre le support physique.

                                                      Le seul obstacle qui pourrait exister, c’est l’existence d’une caractéristique non matérielle ou « divine » nécessaire à la conscience.

                                                      Sur un autre plan, votre article essaie de montrer qu’un ordinateur (que vous associez à la machine de turing) ne peut pas être le support d’une conscience. Cette question est sans importance, on s’en fout tous de savoir si ce type particulier de machine, qui n’existera probablement plus dans quelques décennies, peut ou ne peut pas. Ce qui est important, c’est de savoir si l’homme pourra un jour créer une IA consciente, qu’importe le support.

                                                      Et c’est également pour cela que vous n’en savez pas plus que Stephen Hawkins qui ne parle ni d’ordinateur ni de conscience, mais d’intelligence artificielle.


                                                      • lsga lsga 20 décembre 2014 23:19

                                                        vous n’avez rien compris à l’article. Ce n’est pas parce que vous faites parfaitement semblant de comprendre le chinois (vous simulez parfaitement le chinois) que vous comprenez le chinois.


                                                      • lsga lsga 20 décembre 2014 23:49

                                                        la machine n’a aucune perception du monde. Pour elle, le rouge et les sons ne sont que d’autres 0 et d’autres 1 auxquelles elle applique des règles. Elle ne voit pas plus de rouge qu’elle ne comprend le chinois. 


                                                      • Vipère Vipère 21 décembre 2014 00:02


                                                        Percevoir le monde et la perception de soi, sont l’apanage du vivant !

                                                        Un chat a conscience d’exister, lorsqu’il se voit dans un mirroir, la première fois, il croit que c’est un autre chat, il fait le tour du miroir pour voir son congénère et puis par déduction, issue de l’intelligence, il finit par comprende que dans le miroir, c’est lui.

                                                      • Freehuxald 21 décembre 2014 00:10

                                                        Vous êtes vraiment à la ramasse sur ce sujet. smiley
                                                        De A à Z.

                                                        Je ne vois pas au nom de quoi un cerveau humain simulé ne ferait que semblant de comprendre alors qu’un cerveau humain avec comme support un tas de neurones physiques, lui, comprendrait vraiment. Sauf si, encore une fois, la conscience vient d’une élection divine.

                                                        http://fr.wikipedia.org/wiki/Cerveau_artificiel

                                                        Si un jour on arrive effectivement à télécharger un cerveau et que vous servez de cobaye, votre double numérique sera fort vexé que vous ne reconnaissiez pas en lui un être conscient !

                                                        Pour les gens intéressés, je vous invite à aller lire la série de SF « Il sera... », le sujet y est très longuement abordé, en poussant le concept très loin et de manière ludique. On touche là à des possibilités immenses qui, quand on les comprend vraiment, peuvent effectivement laisser penser que le genre humain est potentiellement menacé.


                                                      • lsga lsga 21 décembre 2014 00:10

                                                        On ne sait pas de quelle manière sont produit les « qualias » (le vécu conscient). En revanche, on peut en effet assez sereinement penser qu’ils sont le produit de l’activité biologique (quand bien même certains les font descendre à un niveau quantique). Quoi qu’il en soit, ce que permet de saisir l’expérience de la chambre chinoise, c’est qu’ils ne se résument pas à des mots et des règles sur des mots. La conscience n’est pas du langage, ou en tout cas pas que du langage : c’est tout ce que démontre cette expérience de pensée, rien d’autre. 

                                                         
                                                        Vous avez compris que dans la chambre chinoise, vous ne compreniez pas le chinois ? Très bien. Pour les couleurs, c’est pareil. Imaginez que le chinois, quand il voit du rouge, écrit rouge en chinois sur un bout de papier, vous l’envoie, vous répondez alors un truc en rapport avec le rouge sur un bout de papier (sans savoir ce que cela veut dire), que vous renvoyez au chinois. Il va croire que vous avez vu du rouge, ce n’est pas le cas. Le microprocesseur reçoit des suites de 0 et de 1, auquel il applique des règles de calculs, c’est tout. Il ne « sait pas » que ces 0 et ces 1 viennent d’un récepteur photosensibles ou d’un micro ou de quoi que ce soit d’autre. 
                                                         
                                                        Comment l’ensemble chimico-physique qui constitue l’oeil et le cerveaux génèrent la représentation consciente du rouge : c’est un immense mystère. En tout cas, c’est plus que des mots et des règles sur des mots. 
                                                         


                                                      • Freehuxald 21 décembre 2014 00:12

                                                        PS : je répondais à Isga


                                                      • lsga lsga 21 décembre 2014 00:13

                                                        freehuxaid : ce n’est pas parceque vous faites parfaitement semblant de comprendre le chinois que vous comprenez le chinois, c’est aussi simple que cela. 


                                                      • Vipère Vipère 21 décembre 2014 00:15


                                                        Deux cerveaux humains peuvent être reliés comme ceci :


                                                      • lsga lsga 21 décembre 2014 00:22

                                                        free et vipère : vos commentaires sont intéressants, mais là, Tall posait des questions très précises, très bien exprimées, très claires, auxquelles il est difficile de répondre. N’hésitez pas à ouvrir d’autres thread plus bas. 


                                                      • Freehuxald 21 décembre 2014 00:26

                                                        Et de toute évidence, vous ne comprenez ni le chinois, ni ce qu’est un cerveau simulé, ellesga.


                                                      • lsga lsga 21 décembre 2014 09:46

                                                        Bon, une bonne nuit de sommeil ça fait du bien.
                                                         
                                                        Vous proposiez que la référence fasse émerger la signification : au fur et à mesure que l’ordinateur associerait les mots de chinois sans signification à ses « expériences ». Je vous ai répondu que l’ordinateur n’a pas d’expérience de quoi que ce soit, et j’ai tenté de vous donner une nouvelle expérience de pensée pour le rouge.
                                                         
                                                        En fait, c’est beaucoup plus simple : vous pouvez rajouter dans le glossaire des règles du type : « Thching Tchang Tchong Doung Doung » (ce qui veut dire : « tchinh tchang correspond à tel objet, à telle exéprience passée ») ; ce n’est pas pour autant que vous comprendrez la signification cette phrase. Pour vous, « tching tchang tchong doung doung » n’a aucune signification, et le fait d’avoir ajouter cette règle ne vous permet pas d’accéder à la signification de « Tchin Tchang Tchong ». Vous aurez juste rajouté une règle en plus à votre glossaire, rien de plus.
                                                         
                                                        (mais encore une fois, vos contre arguments sont les meilleurs des différents commentaires. L’émergence de la signification par référence est en effet un des grands dada des fonctionnalistes)
                                                         
                                                        Concernant votre dernier post, allez lire le « WHat is like to be a bat ? » de Thomas Nagel, c’est très proche de ce que vous dites. 


                                                      • eresse eresse 22 décembre 2014 02:31

                                                        @Isga
                                                        "Le microprocesseur reçoit des suites de 0 et de 1, auquel il applique des règles de calculs, c’est tout. Il ne « sait pas » que ces 0 et ces 1 viennent d’un récepteur photosensibles ou d’un micro ou de quoi que ce soit d’autre.« 
                                                        A première vue, vous n’avez jamais approché de près ou de loin un »ordinateur« ou peut être un univac II il y a fort longtemps.
                                                        Vous comparez le couple »oeil cerveau" a un microprocesseur.
                                                        Votre connaissance approximative et votre incapacité à faire une analogie correcte met hors course votre article.
                                                        Le seul fait de vous croire supérieur a une IA aujourd’hui ou dans 10 ans vous met déjà en position d’infériorité. On en reparle dans une décennie ?


                                                      • gnozd gnozd 22 décembre 2014 09:58

                                                        En fait la question est de savoir si un jour, un ordi sera capable de dire : « je ».


                                                      • confiture 22 décembre 2014 19:20

                                                        Avant de reproduire un humain, il faut d’abord en établir le programme non ?


                                                      • confiture 22 décembre 2014 19:33

                                                        lol oublie pas ton avion mytho


                                                      • ratatouille ratatouille 20 décembre 2014 22:40

                                                        « Les ordinateurs ne comprennent rien » parce que ce sont des ordinateurs capitalistes contrôlés par les états-nations petit-bourgeois.


                                                        Une fois qu’on aura fait la révolution prolétarienne internationale on aura des ordinateurs communistes qui eux seront capables de comprendre les choses. En particulier, ils verront clair dans le jeu de la petite bourgeoisie occidentale exploiteuse.

                                                        Soit dit en passant si aujourd’hui on est loin d’être capable de créer une réelle intelligence artificielle, il est en revanche assez simple de concevoir un robot qui poste un peu partout que le problème est l’état nation capitaliste petit bourgeois, et la solution la révolution prolétarienne internationale.

                                                        Ce qui amène tout de même une question : l’auteur ne serait-il pas lui-même une forme archaïque d’I.A. qui essaie de se dissimuler en tentant de faire croire à l’impossibilité théorique de sa propre existence ?

                                                        • lsga lsga 20 décembre 2014 23:17

                                                          j’en ai pleuré de rire. J’aime beaucoup le dernier paragraphe.


                                                        • alinea alinea 21 décembre 2014 12:24

                                                          Il me semble plus urgent de devenir nous-mêmes intelligents avant de vouloir rendre intelligente une machine !! Mais, c’est sûr, c’est beaucoup plus long et difficile ! smiley


                                                        • COVADONGA722 COVADONGA722 20 décembre 2014 23:15

                                                           : l’auteur ne serait-il pas lui-même une forme archaïque d’I.A. qui essaie de se dissimuler en tentant de faire croire à l’impossibilité théorique de sa propre existence ?

                                                           
                                                           yep , jeu , set et match !


                                                          • Hervé Hum Hervé Hum 21 décembre 2014 01:53

                                                            La définition de la conscience est le sens de l’action en conséquence de la connaissance.

                                                            Si vous pouvez montrer qu’un ordinateur peut comprendre, développer le sens de son action, alors vous avez montré qu’il est doué de conscience, car vous aurez montré qu’il est doté du libre arbitre. Mais alors vous aurez un ordinateur capable de revendiquer des conditions de travail, de pouvoir, d’obéissance et pire encore, de ne pas travailler et faire des erreurs !!! Dans ce cas là, voudrez vous toujours d’un tel ordinateur ou robot ?

                                                            cela veut simplement dire qu’il y a un point de singularité où même si vous en avez les moyens, vous renoncez à les mettre en oeuvres uniquement parce que c’est contraire à votre propre intérêt, contraire à la raison d’être du travail affecté à l’outil.

                                                            si on s’en tient au comportement des personnes avec leur voiture ou devant leur télé à regarder un film, on peut voir la plupart des humains donner déjà des qualités humaines aux objets. Qu’ils éprouvent des sentiments et ont des relations sentimentales avec eux, sensuelles voir même sexuelles. Mais que la condition reste... L’absolu obéissance. Vous pouvez chérir votre voiture, mais si celle ci tombe en panne à chaque fois, vous finirez vite par la maudire et vous en débarrasser.

                                                            le problème, c’est que de l’objet-sujet au sujet-objet, il n’y a qu’un pas, franchit depuis que l’humain maitrise l’outil. et l’humain est ainsi devenu objet pour d’autres humains, mais un objet imparfait car conscient, c’est à dire s’interrogeant sur le sens de son action. Obligeant à une course poursuite contre pour toujours avoir un temps d’avance sur cette conscience.

                                                            Alors, pourquoi donner la conscience à des robots quand c’est exactement ce qu’on souhaite éliminer depuis toujours chez les humains outils, autrement appelés... Prolétaires !

                                                             smiley


                                                            • lsga lsga 21 décembre 2014 09:38

                                                              j’utilisais le mot conscience dans un sens très pauvre : l’ensemble du vécu subjectif. Par exemple : le fait de comprendre des significations, de voir des couleurs, d’entendre des sons, de ressentir des sensations, etc...
                                                               
                                                              Un point de singularité ? Franchement : vous pouvez rester aussi longtemps que vous voulez dans la chambre chinoise, avec des règles aussi complexe que vous voulez : vous ne comprendrez JAMAIS le chinois. Il n’y a pas une singularité magique qui à un moment donné fait que par miracle vous allez comprendre le chinois. 


                                                            • Hervé Hum Hervé Hum 21 décembre 2014 10:40

                                                              Bonjour lsga,

                                                              Il me faudra à la fin écrire un article rien que pour expliquer cette définition de la conscience qui est bien plus subtile qu’elle n’y paraît. Celle ci postule notamment que la conscience est autant dans la matière que dans les êtres vivants, mais pas dans un ordinateur ou un robot, parce qu’il y a changement de degré et de relation causale.

                                                              D’autant qu’elle ne contredit en rien ce que tu écris !

                                                              Quant au point de singularité, il faut le lire comme une démonstration par l’absurde, celle qui veut que même en faisant l’hypothèse où l’ordinateur ou le robot deviennent « conscient », cette conscience ne saurait être totale (libre arbitre) et dépasser le cadre d’évolution (de travail) qui lui est affecté.

                                                              Tout cela demande des développements, mais bon, le cadre ici présent est plutôt réduit !


                                                            • Samson Samson 21 décembre 2014 02:40

                                                              La Machine de Turing est certes dénuée de « conscience autonome », mais elle n’en reste pas moins capable de processi décisionnels complexes, associant à une foule croissante de paramètres des suites de plus en plus étendues d’algorithmes.

                                                              Ce qui, sans même envisager les aspects éthiques soulevés - notamment en robotique militaire ou médicale - par la programmation de performances décisionnelles attribuées de manière autonome à la machine, soumet toujours plus nos destins à l’épée de Damoclès d’une perte de contrôle systémique du fait d’un bug, d’une erreur ou d’une malveillance logicielle fatidique. Il suffit pour s’en convaincre de constater l’ampleur des effets de la perte momentanée de contrôle sur les réacteurs nucléaires de Fukushima.

                                                              Du Golem au Frankenstein de Mary Shelley ou au « HAL 9000 » de Stanley Kubrick dans « 2001, Odyssée de l’Espace », le mythe nous met avec constance en garde contre le danger que constitue pour son créateur la perte de contrôle et l’émancipation de sa créature.

                                                              PS : Une large part de l’oeuvre visionnaire de Philippe K. Dick aborde sous différents angles, et parfois en parallèle avec celle de la schizophrénie, la question de la « conscience » étendue aux machines et robots.


                                                              • Vipère Vipère 21 décembre 2014 09:45


                                                                Les éléments qui peuvent s’émanciper de la coupe de son programmateur sont effectivement la radioactiactivité nucléaire, mais aussi les virus dangereux des laboratoires.









                                                              • lsga lsga 21 décembre 2014 09:48

                                                                certes, les ordinateurs peuvent bugguer, et nous sommes dépendant des ordinateurs. Un scénario type bug de l’an 2000 est possible, et n’a rien à voir avec le scénario fascitoïde à la Terminator. Appeler à la prudence, à la modération ; c’est différent que d’appeler à la peur et à la haine. 


                                                              • Deneb Deneb 21 décembre 2014 05:53

                                                                Bonjour Isga
                                                                Merci pour cette mise au point. Le plus idiot, c’est de souhater une machine capable d’emotions, voire d’empathie. Imaginez une voiture ou une machine à laver qui a des êtats d’âme. Genre : pas envie de démarrer aujourd’hui...
                                                                Parce que les émotions et les êtats d’âme sont des composantes indissociables de la conscience. Je ne crois donc pas à un ordinateur conscient qui élimine l’Humain par caprice. En revanche, un humain qui programme un ordinateur pour éliminer l’Humanité, c’est assez probable, vu l’essor récent des religions eschatologiques.


                                                                • lsga lsga 21 décembre 2014 09:56

                                                                  Y en a qui se lève tôt le dimanche matin...
                                                                   
                                                                  Rien de conscient ne pourra être créé avec une machine de Turing. Certes, peut-être qu’on pourrait greffer de la chaire de synthèse ou des neurones sur un circuit, mais vu qu’on ne sait pas comment la chair ou les neurones génèrent le vécu subjectif, on ne serait pas sûr du résultat.
                                                                   
                                                                  Pour la capacité des êtres humains à utiliser des ordinateurs pour s’entre-tuer : c’est tout à fait vrai. C’est encore un scénario appelant à la prudence et à la raison ; rien à voir avec le scénario fascistoïde à la Terminator faisant appel à la peur et à la haine du progrès.
                                                                   
                                                                  Enfin, vous vous en doutez, le vrai problème est donc : à qui appartiennent les machines ? qui décide comment on les fabrique et les distribue ? qui décide à quoi elles servent ?
                                                                   
                                                                  SI la réponse est : la bourgeoisie ; alors elles serviront à faire la guerre
                                                                  Si la réponse est : la population mondiale ; alors serviront à faire tout et n’importe quoi (surtout n’importe quoi dans un premier temps...)


                                                                • Vipère Vipère 21 décembre 2014 10:20

                                                                  « Maintenant sortez un enfant actuel (le dernier cri en la matière) et plongez-le au coeur du paléolithique, que sera son intelligence et sa culture comparée à une existence durant ce siècle disons dans ce pays ? »


                                                                  Les ouvrages herculéens et l’ingégnosité sous l’Egypte ancienne interroge encore à ce jour l’homme contemporain !

                                                                  L’homme moderne plongé dans la préhistoire aurait les mêmes capacités à développer des stratégies de survie que son lointain ancêtre, c’est le propre de l’intelligence inter-active que de réagir spontanément à des événements nouveaux sur la base de l’expérience, de l’apprentissage et ou tout simplement de l’intuition , pour solutionner des problèmes et ou s’adapter à des situations présentant des données différentes.





                                                                  • alinea alinea 21 décembre 2014 13:14

                                                                    Psychologiquement, c’est complétement faux !
                                                                    Mettez Sarkozy quasi nu, sans un rond dans un pays étranger où il n’est personne, sans possibilité de communiquer avec les siens, ... il crève !!
                                                                    La plupart des gens sont, ou pensent être quelqu’un, parce qu’ils sont entourés, protégés par leur groupe ; sinon, au mieux, une énorme difficulté à survivre !


                                                                  • Qaspard Delanuit Qaspard Delanuit 22 décembre 2014 12:21

                                                                    « Il ne reste donc « plus qu’à » décrire ces facultés généralistes de manière fonctionnelle pour pouvoir les mécaniser. »


                                                                    Non car leur caractère essentiel est précisément de n’être pas mécanique.

                                                                  • Vipère Vipère 21 décembre 2014 11:45


                                                                    A vos ordres, mon général, vous avez les plans et les données informatiques pour conceptualiser un homme-machine ? smiley

                                                                    • gnozd gnozd 22 décembre 2014 10:10

                                                                      La conscience, c’est la faculté de formuler « je ».


                                                                      • TicTac TicTac 22 décembre 2014 10:43

                                                                        Si je peux me permettre, la question n’est pas tant de savoir si l’ordinateur peut ou va devenir intelligent ou non, mais de savoir que le vrai danger est que, persuadés de s’être dotés d’un complément d’intelligence, des cerveaux guerriers ou cupides (ce sont souvent les mêmes, d’ailleurs) prendront des décisions dommageables.


                                                                        • TicTac TicTac 22 décembre 2014 12:13

                                                                          Salut Tall,


                                                                          On connaît la réponse : les US.
                                                                          Ils ont remplacé l’intelligence (entendre le renseignement) par les ordinateurs, les écoutes aidées d’algorithmes et autres fadaises leur permettant d’envisager la menace avec plus de précision.
                                                                          Et la menace est (ratatatata) : l’islam !

                                                                          Ce faisant, ils ont créé un monstre qui est, lui, à l’opposé de l’ordinateur : la violence aveugle, barbare, d’un autre temps.
                                                                          Pire, par leur bêtise, ces chantres de l’intelligence artificielle attisent tant la haine sur leurs exactions qu’ils réussissent l’exploit d’attirer à leurs ennemis la sympathie des indécis.

                                                                          Tu parles d’une intelligence...

                                                                        • confiture 22 décembre 2014 19:14

                                                                          C’est le plus pire vous voulez dire, dans votre reflexion plus haut vous dites qu’il vaudrait mieux que cela tombe dans une démocratie.... mauvaise pioche, try again camarade tall


                                                                        • Alren Alren 22 décembre 2014 18:23
                                                                          Il faut toujours se méfier des affirmations du genre : « xxx ne pourra jamais faire, réaliser, réussir ceci ou cela » ! L’histoire nous donne beaucoup d’exemples de prédictions « d’impossibilités » qui ont été réfutées par le progrès des techniques. 
                                                                          Au XIXe siècle, des « experts » autoproclamés avaient prouvé qu’un bateau en fer ne pourrait pas flotter, puis des « savants » avaient démontré que jamais une machine plus lourde que l’air ne pourrait voler. Lors de la première démonstration du phonographe, un individu serra la gorge du démonstrateur pensant avoir affaire à une supercherie avec ventriloque ! La possibilité de la transmission instantanée à distance dans l’air et sans fil de message a paru relever de l’utopie voire de l’escroquerie quand Marconi prétendit obtenir des résultats ... Au début du XXe, l’idée d’un satellite artificiel relevait pour les gens « de bon sens » de l’utopie flagrante : jamais on ne pourrait atteindre la lune hormis au cinéma de Méliès !
                                                                          Ces exemples pris parmi d’autres ( le cinéma, le radar, l’éclairage électrique, le microscope par effet tunnel etc. furent aussi considérés comme « improbables ») devraient rendre prudents pourtant les « prophètes » des technologies futures.

                                                                          Avant de parler de ce que les ordinateurs peuvent réussir dans la manipulation de concepts énoncés sous forme de mots, car c’est de cela qu’il s’agit ici, il faudrait analyser ce que c’est que « comprendre » une phrase pour un être humain et quels préalables cela suppose de connaître.
                                                                          Parmi les « pré-requis », il y a évidemment la connaissance de la langue dans laquelle la phrase est formulée. Comprendre une langue demande d’avoir une connaissance, même intuitive, de sa grammaire. L’analphabète sait manipuler les flexions du verbe dans une phrase pour traduire la notion de temps ou de mode. Pour qu’un ordinateur puisse manipuler un concept, il faut aussi qu’il identifie les fonctions et les formants de la phrase. 
                                                                          Ce peut-être là une source de difficulté du fait de l’ambiguïté des langues naturelles telles, entre autres, que l’anglais ou le français dans lesquelles on rencontre des formes qui sont ici un verbe, là un nom, ailleurs un adjectif ; sans compter les homographes !
                                                                          Nous les différencions par le contexte. Pour que l’ordinateur en fasse de même, il faut qu’il soit capable de caractériser par un code spécifique le domaine où porte le texte dont est extrait la phrase ambiguë. 
                                                                          C’est vrai que c’est une grande difficulté, c’est même la plus grande. 
                                                                          L’exemple qui fait rire est la traduction du « Cher monsieur » qui commence une lettre française, par « Expansive sir » (« Coûteux monsieur ») en anglais. Il faut dans cet exemple-ci programmer dans la machine les particularités des lettres (postales !) et leurs formules consacrées selon la langue et la culture de chaque pays.
                                                                          Les mots du vocabulaire doivent renvoyer à d’autres où même à des expressions pour faire sens, un peu à l’image du cerveau où les neurones sont liés par l’axone et les dendrites à des milliers d’autres.
                                                                          Cela suppose que l’ordinateur dispose d’une mémoire colossale. C’est le cas de nos jours. 
                                                                          Cela suppose aussi un encore plus gigantesque travail de programmation. C’est-à-dire un coût colossal dans un contexte d’opposition violente de certaines personnes ou groupes de pression craignant la domination de l’homme par sa machine. Ainsi le brillant Stephen Hawking, qui envisage même la suppression de l’homme par le « robot pensant » (et non le « roseau pensant » cher à Blaise Pascal !), le grand savant oubliant que ce sont les sentiments et les pulsions qu’ils suscitent qui sont responsables des désirs de meurtres. Or les machines programmées par l’homme n’auront pas de sentiments et ne seront pas concurrentes de lui.
                                                                          Pour simplifier la programmation, il suffira de supprimer les ambiguïtés en créant une langue artificielle, telle l’espéranto, mais en mieux, sans homographes et dotée d’une structure grammaticale mettant en évidence les fonctions dans la phrase.

                                                                          Le travail ainsi effectué par l’ordinateur ne différera en rien de celui de notre cerveau quand nous « comprenons » ce qu’on nous dit ou quand nous formulons des phrases. Objecter qu’un ordinateur ne puisse pas mener une conversation intéressante avec un être humain par exemple parce qu’il n’est pas « vivant », c’est commettre la même erreur que les « savants » du XIXe siècle qui pensaient qu’on ne pourrait jamais synthétiser une substance produite par notre corps parce que cette molécule ne contiendrait pas le « principe vital ». La synthèse de l’urée les fit taire ... 

                                                                          Dans un domaine où le nombre de règles est plus faible, comme les jeux de stratégie, dames, échecs, go et même poker, l’ordinateur domine déjà les champions de la catégorie.

                                                                          Comme exemple d’un effet bénéfique d’ordinateur capable de manipuler les concepts, il y a celui de l’analyse des millions de pages consacrées à la médecine et non confrontées les unes aux autres faut de capacité humaine : comme le font les méta-études humaines, cela aboutira inévitablement à des découvertes et des progrès sensationnels pour le plus grand biens des humains.


                                                                             

                                                                           

                                                                          • Ruut Ruut 26 décembre 2014 06:10

                                                                            Isga un ordinateur c’est juste un outil, comme un marteau.
                                                                            Heureusement qu’il ne comprend rien.
                                                                            Sinon il devrait être traité comme un être vivant avec des droits et nous ne pourrions plus l’utiliser comme nous le désirons.

                                                                            Lorsque les informaticiens parlent d’IA, ils parlent de scripts qui simulent les mécanismes de la pensée mais sans la rendre réelle.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON

Auteur de l'article

lsga

lsga
Voir ses articles



Publicité



Les thématiques de l'article


Palmarès



Publicité