Fermer

  • AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > Comment l’on numérise le monde... étape suivante

Comment l’on numérise le monde... étape suivante

Notre monde, tout préoccupé de numérisation, subit des hoquets de plus en plus rapprochés.

Pour comprendre ces difficultés, souvent occultées par la promotion du nouveau, il peut être utile de voir comment procède cette numérisation (tant vantée par M. Berry dans sa conférence inaugurale, au Collège de France) et notamment sa progression par vague successive. Chacune démarrant lorsque la précédente a verrouillé le processus et les habitudes qu’elle a permis de mettre en place.

Dans un premier temps, la numérisation n’est pas totale.

L’exemple de la musique permet de mieux s’en rendre compte.

Après être parvenu à coder (début de la démarche) le son de façon analogique (pour simplifier : un mouvement en créant un autre du même genre), la numérisation proprement dite a consisté, à partir de l’échantillonnage (c’est-à-dire d’une "ressemblance trouée") à transformer ce son en une grille comportant suffisamment de barreaux colorés pour donner l’illusion du son premier.

Le son n’est pas créé à la ressemblance du premier (principe de l’analogie), mais abstrait du premier par une loi de correspondance.

Cette étape permet de faire des économies importantes (le but principal de la manœuvre), mais celles-ci restent limitées.

On s’en rend bien compte (... certaines oreilles non orthogonalisées par l’habitude d’entendre un son carré) en passant d’un son codé par exemple en .WAV (CD audio) à celui correspondant, en .MP3, plus "léger", mais qui cogne de façon plus nette à l’oreille.

Cette première phase conclue, il est alors possible d’aller bien plus loin.
Car la numérisation totale n’est pas échantillonnage du réel, elle est son imitation (voir L’Intelligence artificielle) par d’autres procédés.

C’est précisément ce que proposent des chercheurs d’une université américaine :

________________________________________________________

Sciences et technologies de l’information et de la communication
De la musique 1 000 fois plus légère que le MP3

http://www.bulletins-electroniques.com/actualites/53940.htm

Dans la quête du volume minimum de données nécessaires au stockage d’un morceau de musique, les chercheurs de l’University of Rochester ont réussi à encoder numériquement un solo de clarinette de 20 secondes dans un fichier de moins d’un kilooctet soit près de 1 000 fois plus compressé que ne le permet la compression MP3.

Le système repose sur une reproduction synthétique du son par l’ordinateur. Ainsi, les informations contenues dans le fichier ne sont pas constituées d’un échantillonnage de fréquences, mais d’une sorte de partition spécifiant les actions à effectuer par un instrument pour reproduire le morceau. En jouant la musique, l’ordinateur reproduit littéralement la performance originale à partir de toutes les connaissances acquises sur la clarinette et la façon d’en jouer. L’équipe du professeur d’ingénierie informatique et électrique Mark Bocko a donc mesuré chaque aspect ayant un impact sur le son produit par la clarinette ; de la pression exercée dans l’anche pour chaque doigté à la façon dont le son rayonne de l’instrument. Un modèle informatique de la clarinette a ensuite été réalisé pour créer un instrument virtuel construit entièrement grâce à des mesures empiriques.
(../..
____________________________________________

Economies d’importance puisqu’à terme ce n’est rien moins que l’instrument ET l’instrumentiste qui seront "économisés".

On peut penser, dans le cas évoqué par l’article que, dans un premier temps, comme le plus souvent, ce sera "la nouveauté en marche vers un progrès plus grand encore" que l’on vendra.
Biais indispensable pour faire oublier le caractère très approximatif du résultat (en dépit de ce qu’affirment ses promoteurs).

Le projet annoncé en fin d’article est de "traiter ainsi la voix".

En fait, à cela, l’homme travaille depuis assez longtemps, et l’on en trouve des ébauches dans l’orgue de barbarie, puis dans la musique midi, où chaque note est définie par ses paramètres puis reproduite par un synthétiseur supposé contenir le modèle de production du son par l’instrument.

C’est ce que propose, à quelques nuances près, le travail cité.

Et les limites de celui-ci sont de même nature que celles qu’a rencontrées la musique midi en présence du monde des musiciens.

Dans le domaine des hautes technologies, il en va comme dans tout projet :
à partir d’un certain niveau de qualité, on atteint une limite au-delà de laquelle le rendement est décroissant d’une manière qui rend quasiment impossible la poursuite de son amélioration.
Chacun connaît (ou devrait connaître) les échecs des prétentions de l’Intelligence artificielle des années 50, puis 70, (...) de la reconnaissance vocale, des tuteurs intelligents, supposés créer des environnements d’apprentissage interactifs pour nos bambins, etc.

Il en est de même pour la numérisation lorsqu’elle prétend à la synthèse (seconde phase) dans des domaines complexes comme l’art, ou plus généralement la vie.

Pour s’en convaincre il suffit d’écouter le son numérisé de la première manière (puisqu’il s’agit d’un fichier MP3 transmis informatiquement**)



Cliquer sur le casque pour entendre


et de le comparer au son que les scientifiques sont parvenus à rendre 1 000 fois moins encombrant (transformé ici en MP3 pour l’audition, mais le procédé dans ce cas n’a pas occasionné de perte de qualité)




Cliquer sur le casque pour entendre


"la méthode marche plutôt bien et il est difficile de discerner la musique synthétisée de l’originale", déclare en guise de conclusion le Dr Bocko.



Et vous qu’en pensez-vous ?

Evidemment, au-delà de l’aspect promotionnel, il faut reconnaître que, contrairement à ce qu’affirme le "Dr Bocko" la route est encore longue...

Assurément, pour gagner la moitié de la qualité qui sépare un son de l’autre, le procédé perdra au moins la moitié de son avantage et le gain ne sera au mieux que d’un facteur 500*** ... et ainsi de suite.

En effet, le nombre de paramètres qu’il faudra prendre en compte, pour rétablir un peu de cette présence "clarinette" est important, et les variables correspondantes peuvent être très gourmandes (d’où une perte encore plus sensible au niveau du facteur gain).
On connaît bien cette progression géométrique et sa conclusion (
c’est celle de la légende du jeu d’échec).

Très vite, le procédé devra alors réduire ses prétentions.
Deux choix se présentent :
- il est abandonné ;
- il aura suffisamment modifié les habitudes d’écoute**** pour que la qualité atteinte, sans trop perdre de son "gain" de place, soit acceptable et devienne la nouvelle norme d’écoute.

C’est ce qui s’est produit, en informatique, dans le domaine de l’enseignement, où massivement chacun s’est replié sur les outils à interaction minimale que sont les générateurs de QCM, les générateurs de simulations mécaniques, les gestionnaires de flux d’information (un outil, synthétisant ces pratiques, a le vent en poupe : il s’agit du Tableau numérique interactif, muni à présent de boîtiers de réponse façon QPUC*****).

Un doute subsiste pourtant :
toutes ces technologies n’ont-elles pas également un rendement terriblement décroissant du point de vue de leur composition-organisation ? (Lorsqu’elles s’ajustent les unes aux autres et doivent être gérées à différents niveaux.)

La montée en charge de la numérisation administrative, dans la plupart des pays, nous le dira.

Avec déjà quelques indications (exemples du quotidien).

Lecture d’un agenda par reconnaissance de caractère et synthèse vocale

ou

(Message d’erreur sur le site de la Caisse d’allocation familiale, qui renvoie précisément à l’adresse en erreur.)
Cliquer sur l’image

Ce bambin (souhaitons-lui que sa mère parvienne à trouver la bonne adresse de la Caisse d’allocations familiales) aura peut-être la réponse à la question posée, pour laquelle on peut oser le pronostic : comme pour le couteau électrique acquis par tous les ménages qui le pouvaient dans les années 1970, certains usages de l’informatique iront sagement se ranger au font d’un placard, tandis que d’autres, correspondant réellement à des besoins, dans des fourchettes de coût et des conditions de réalisation admissibles, se verront banalisés et deviendront partiellement insensibles aux effets de mode, tout comme la forme définitive du marteau.


* Bien sûr, lorsque c’est l’effet recherché (certaines musiques en jouent, il vaut mieux se faire l’allié de ses handicaps), tout va bien. C’était le cas pour l’image numérique qui a tant vanté la disparition du grain dans sa transformation en lumière pure cernée de contours aussi nets que ceux des dessins animés.
Ce n’est pas toujours le cas et, de plus, peu à peu, les oreilles (et les yeux finissent par se rendre compte du manque de grain... et, même en rajoutant, par le calcul, un peu de désordre, la gêne subsiste).
** L’original est hors de portée de notre oreille... présentement.

*** Plus précisément se verra "enfler" de plus de la moitié de sa taille.


**** Tant de personnes regardent des images déformées sur leur écran 16/9e sans être choquées en quoi que ce soit de la distorsion.


***** Questions pour un champion. La compensation s’est faite, comme au cinéma, dans le domaine des effets spéciaux, c’est-à-dire au niveau de la forme.


Moyenne des avis sur cet article :  3.88/5   (25 votes)




Réagissez à l'article

15 réactions à cet article    


  • Fernando Pessoa 18 avril 2008 14:55

    J’ai l’impression que vous faites pas d’amalgames et prenez également plusieurs raccourcis.

     

    Concernant la musique, finalement la musique synthétique dont vous parlez existe depuis 25 ans, c’est les fameux .MID utilisée par les synthétiseurs, c’est la prise DB15 de la carte son.

     

    Si le synthétiseur est mauvais la reproduction est mauvaise, par exemple les premières cartes son sur PC AdLib, puis la première SoundBlaster avec chip OPL-3.

     

    Or pour reproduire une musique, il faut un timbre d’instrument particulier, qui ne correspond qu’à une musique, et lorsque l’on essaye de jouer sur le même synthétiseur un autre type de musique avec le même instrument le résultat est mauvais. Le but n’est d’ailleurs pas tant de remplacer l’original que de fournir un aperçu de la musique facilement manipulable pour un ordinateur.

    Pour la voix, le problème sera probablement encore plus difficile à résoudre que pour un instrument de musique.

    Maintenant de là à comparer la numérisation de la musique et de l’enseignement vous allez à mon avis trop loin.


    • Le bateleur Le bateleur 24 avril 2008 18:35

      Vous avez raison mais il me semble que c’est ce que je dis dans l’article ("En fait, à cela, l’homme travaille depuis assez longtemps, et l’on en trouve des ébauches dans l’orgue de barbarie, puis dans la musique midi, où chaque note est définie par ses paramètres puis reproduite par un synthétiseur supposé contenir le modèle de production du son par l’instrument.")

      Il se trouve que je pratique cette musique depuis 25 ans,
      l’Atari 520 puis 1024 - l’en ai encore deux au grenier - était tout à fait révolutionnaire avec son interface midi intégrée (du jamais vu depuis ... hors mis l’amiga) qui se combinait parfaitement avec une série d’expandeurs (modules synthétiseurs possédant des sons - DW800 de Korg et ses belles napes, le petit FB01 de Yamaha et ses sons d’orgues, le MT32 de roland avec une palette assez complête) et un clavier maitre.

      Précisément, c’est cette tentative qui a échoué pour les raisons évoquées que l’on perçoit lorsqu’on écoute le morceau.

      Même une excellente Carte son (elles préfèrent à présent ne pas embarquer les sons, mais, à la manière d’un échantillonneur, être capable de les charger en mémoire) ne peut synthétiser que très localement dans un registre précis (on comprend le choix ici d’une clarinette jouée un peu comme un clavecin, avec assez peu de dynamique).

      Sinon, le but de cet article est précisément de montrer la numérisation à l’oeuvre un peu partout, et l’exemple choisi, pour peu qu’on le parcourt et l’illustre d’un peu de quotidient piqué dans l’environnement proche (le votre) me sembe pertinent.

      Une petite recherche sur "industrialisation de l’enseignement" donne d’autres illustrations de ce qui est devenu un des enjeux majeurs des pays développés : stocker et (re)produire le savoir comme on le fait pour un objet technique.

      Le résultat est assez catastrophique ... pour la même raison que dans le cas de la musique,
      ce qui est sacrifié est précisément ce qui donnait vie.

       


    • thomthom 20 avril 2008 23:24

      Commentaire intéressant et pertinent, mais si je peux me permettre, vous aussi vous faites un amalgame : vous confondez échantillonnage et compression

      La qualité d’échantillonnnage se caractérise uniquement par le nombre d’échantillons par seconde (exprimé en multiples du Hz) et la précision de chaque échantillon (définie en nombre de bits).

      Le mp3 n’est qu’un format de compression. Un peu comme le .zip. Sauf que le zip n’est pas destructif (il compresse peu, mais à la décompression, on retrouve exactement les données telles qu’elles étaient avant compression) alors que le mp3 est un format destructif (comme le jpeg pour les images) : le signal est légèrement dégradé , selon des algorytmes tres perfectionnés qui permettent d’augmenter considérablement la compression en détruisant sélectivement les informations peu ou pas perceptibles par nos sens "humains", et pas les autres. Mais bien sur, la qualité résultante dépend quand même des paramètres de compression (plus ou moins forts) et la perception de la qualité rendue dépend de la sensibilité de celui qui écoute : certains seront insensibles à la perte de certaines nuances, et d’autres non. La qualité du matériel d’écoute joue ausis évidement. Tout ca n’a rien à voir avec l’échantillonnage, et n’intervient que dans un second temps.


    • Le bateleur Le bateleur 24 avril 2008 19:26

      Dans l’article le midi est comparé au "cylindre de l’orgue de barbarie"

      Ce sont ces deux niveaux qui font la numérisation totale.

      Coder le jeu (la note, la vélocité, ..., les écarts)
      Coder le son lui même
      (on se heurte très vite au fait qu’un son aïgu et un son grave ont des approximations fonctionnelles très différentes ... et difficilement intégrable sans élagage - voir le logiciel "Vienna" qui permet de gérer les soundfont - banques de son - )

      Dans l’expérience donnée la tentative concerne les deux

      Alors que dans le domaine musical, jusqu’à ce jour, on part de l’analogique à savoir de l’interprétation par un humain (d’où une moindre perte de sens)

      Le but de la technologie sur tous les fronts, est le synthétique, et notamment dans le domaine de la vie, et tout particulièrement de l’art (cela fait trente ans que (pour) l’ordinateur (on) prétend à la création littéraire (les poèmes informatiques qu’évoquait en 1980, la revue TEM -Texte En Main - )

      Il suffit de lire Olliviers Dyens ("La condition Inhumaine" propagande pour la fusion de l’homme dans la technologie, à feuilleter ... plus qu’à acheter) pour voir ce spectacle des "a-peu-près synthétisés" devant lesquels le plublic est invité à s’émerveiller ... et Dyens (et tant d’autres) s’émerveillent.

       


    • Bobby Bobby 18 avril 2008 17:02

      1000 fois..... dix-mille fois Hélas ! nous payerons de plus en plus cher (en numéraire et en qualié de vie) nos sauts technologiques qui diminuent la qualité de notre vie en en augmentant les effets parasites. C’est bien là l’image de toute notre société qui s’étale !

       

      Afallés devant les images de syntèse, buvant un erzast de jus de fruits édulcoré à l’aspartame, les hommes moyens habitués dès l’école freudienne à ne pas analyser, ne verront tout simplement pas les géants de la finance les engloutir... tout crus !

       

      "Smört" disait Yves Montant dans un de ses films !


      • Traroth Traroth 18 avril 2008 17:37

        Vous prenez délibérement un exemple où la synthèse vocale est utilisée dans un but d’économie, pour appuyer votre démonstration. Mais la synthèse vocale permet des choses qu’on ne peut pas faire avec une voix humaine. Par exemple, la lecture de documents texte : les aveugles disposent ainsi de systèmes de synthèse vocale qui leur lisent les pages web.

        Plus généralement, vous avez choisi un axe d’analyse, le coût, et à un moment de votre analyse, vous avez postulé qu’il était le seul, mais c’est faux : on peut envoyer un échantillon sonore par mail, on peut le modifier si on est un peu musicien, on peut le stocket de manière pérenne (bien plus que n’importe quel support analogique) et j’en oublie sûrement.

        Et la même chose vaut pour les photos, vidéos et textes.

        De plus, vous postulez plus ou moins implicitement que l’économie réalisée par ce coût moindre était forcément quelque chose de négatif, quelque chose du style "ces grosses majors qui nous proposent un son de plus en plus pourri et qui se remplissent les poches", mais là aussi, ça n’est pas forcément la seule manière d’envisager la chose. La numériasation permet par exemple l’émergence de tout un nouveau pan de patrimoine humain, le contenu libre : textes, photos, musiques et vidéos libres. C’est toute une nouvelle manière d’envisager les choses qui apparait. Et je trouve particulièrement amusant que vous fassiez paraitre cet article justement sur Agoravox, puisque sans la numérisation, un média citoyen n’aurait aucune chance de connaitre le succès : sa production, sa conservation et sa diffusion exploitent à fond les possibilités du numérique.


        • Le bateleur Le bateleur 24 avril 2008 19:37

          Il ne s’agit absolument pas de nier les bienfaits de la technologies (entre autres choses)
          notamment en rapport avec des pathologies et des handicaps.
          ou lorsqu’il s’agit de soulager le travailleur d’un effort trop coûteux.

          Mais précisément
          ce qui devient génant c’est lorsque le modèle que l’on choisit pour l’humain est le handicapé

          d’où le suréquipement qui commence dès l’enfance
          et la suppression des éléments du réel au profit de produits de synthèse
          plus commodes à utiliser.

          Cette synthèse vocale, si approximative, sert aux aveugles et c’est une très bonne chose

          Mais la numérisation d’un trajet par le moyen du GPS par exemple, réduit précisément l’acte qui avait un sens, (mais des contraintes certes) à une série de données qui n’en ont plus (ou bien moins)
          avec par dessus tout des gestes et modalités techniques qui n’ont rien à voir (aucun sens commun) avec ce qui se joue et contribuent donc - un peu plus - au morcellement fonctionnel de l’individu.

          Sinon, pour revenir à la musique
          il est un musicien, compositeur interprète, qui au sommet de sa gloire s’est intéressé pour son malheur à l’informatique musicale - alors même qu’il était entouré d’accompagnateurs particulièrement talentueux - depuis, il a eu énormément de mal à revenir à l’oreille du public, et semble avoir perdu son talent (il lui reste sa voix)

          Je vous laisse deviner qui est cet utilisateur des premiers mac (de apple) ...


        • Traroth Traroth 18 avril 2008 17:40

          A

           

          Ceci n’est pas un A (ben oui, regardez avec un loupe, vous verrez, ça ressemble à un A, mais ça n’en est pas vraiment un...)


          • Traroth Traroth 18 avril 2008 18:03

            Tout ça pour dire que la représentation des caractères sur un écran d’ordinateur n’est pas plus adaptée à la représentation d’une calligraphie de Shitao que la synthèse vocale n’est adaptée à une réstitution du Crépuscule des Dieux de Wagner, mais ça n’a pas d’importance, car ce n’est pas l’objectif poursuivi. Un texte comme cet article sert à transmettre une information, tout comme le répondeur des Allocs, pas à nous faire profiter de la beauté de la voix ou de l’écriture. Moi, si l’utilisation d’un répondeur exploitant une technologie de synthèse vocale me permet de gagner troix quarts d’heure quand je téléphone à une administration, je dis banco !


          • Le bateleur Le bateleur 24 avril 2008 19:44

            pareil !

            sauf qu’il y a loin de la coupe aux lèvres

            Ce qui caractérise la technologie à plusieurs couches (celle dont une partie est inaccessible, derrière l’interface utilisateur) c’est que lorsqu’elle ne fonctionne pas, c’est insupportable !

            C’est la rupture du contact et du sens qui fait qu’en cas de dysfonctionnement, celui qui "n’en peut mais" se retrouve face renvoyé à lui même ("carte illisible" ... alors que c’est l’appareil qui est en dérangement) et ne peut que se retrouver avec un excès de soufle à l’intérieur qui ne parvient à sortir que par la porte de la colère.

            Oui, la technologie est utile, mais le problème est qu’actuellement personne ne se pose réellement la question de "ce que doit être cette interface utilisateur"*

            * Alors que la réponse qui va de soi (? !) me semble être

            "Cette interface se doit de recréer un environnement analogique qui permet au sens de se construire de par et d’autre et empêche l’irruption du code pur.


          • Méric de Saint-Cyr Méric de Saint-Cyr 18 avril 2008 21:44

            Bon l’article est bien long et les commentaire critiquent la démarche conclusive. Il n’empêche, entre la clarinette échantillonnée (très mal) et son clone modélisé, il n’y a pas photo (je devrais dire "phono"). Le clone est IMMONDE. C’est aussi mauvais qu’un simple fichier midi pilotant un unique échantillon de clarinette.

            Alors j’ai une bonne nouvelle : ce n’est aps encore demain que le VRAI clarinettiste et la VRAIE clarinette seront remplacé par des modélisations.

            De toute manière la copie du réel sera toujours une contrefaçon. Ensuite, qu’il y ait des utilités transversales comme la synthèse vocale pour les aveugles, je ne discute pas, mais on est bien d’accord que le but n’est pas de remplacer le vrai par le faux, même s’il y a un peu de ça. Car lorsqu’on chasse le naturel, il revient toujours.

            Je n’ai jamais entendu un reproduction musicale meilleure que l’écoute acoustique, quelle que soit la qualité des enceintes.


            • thomthom 20 avril 2008 23:37

              Pour rebondir sur votre remarque concernant la qualité des enceintes, tout est une question de technologie.

              Tout entregistement , numérisation et traitement apporte son lot de dégradation du signal. Cependant avec les technologies les plus récentes, il est tout à fait possible de réaliser ces opérations avec une qualité telle que ces dégradations soient imperceptibles à l’oreille humaine (on échantillone auourd’hui à 192 kHz, ce qui signifie que l’on peut enregistrer/reproduire des fréquences de 96kHz, soit bien bien plus que ce que peut percevoir l’oreille humaine, et pareil pour la précision de l’échantillonage qui peut atteindre 24 bits).

              Il en est tout autre de la restitution.

              Les études menées à l’IRCAM (institut de recherche et de création Acoustique/musique) montrent que la directivité de la source y est pour beaucoup dans la perception des différences entre un instrument réel et le même son reproduit sur une enceinte, même de très bone qualité, et même avec un enregistrement et une numérisation à priori irréprochables. concretement, ca veut dire quoi ? ca veut dire qu’un instrument ne produit pas le même son (ne serait-ce qu’en intensité, mais pas uniquement) selon la direction. Ce sont ces nuances que nos oreilles percoivent lors d’un performance "accoustique" et qu’aucune enseinte de technologie courante (meme très haut de gamme) ne peut reproduire, puisque l’enceinte, comme tout instrument dispose de sa propre directivité.

              L’Ircam a donc créé une enceinte expérimentale, équipée de hauts parleurs orientés dans toutes les directions, et pilotés de manière à "imiter" la directivité de l’instrument reproduit. Il parrait, bien que le dispositif ne soit que très expérimental, que l’effet est saisissant et permet de se rapprocher bien plus de la réalité qu’avec un système Hi-Fi classique.

              Bref, le problème n’est pas dans le principe même de la numérisation, mais dans le fait que le process et la méthodologie d’enregistrement/archivage/restitution présente encore des imperfections... qu’il y a toujours espoir d’améliorer.


            • Le bateleur Le bateleur 24 avril 2008 19:06

              Aucune oreille (sauf erreur de ma part) n’est capable de se souvenir d’un son plus de quelques secondes.

              C’est ce qui rend si difficile la comparaison de deux enceintes (comparables... notamment dans leur parti pris de "couleur") en passant d’un auditorium à un autre.
              comme vous le dites tout ce passe dans le relatif.

              Après cela, il y a bien sur des moyens techniques pour faire davantage plaisir à l’oreille.

              Je reviens tout de même à cette question de la numérisation, il me semble que l’on néglige beaucoup d’aspect du son lorsqu’on ne se préoccupe que de l’oreille consciente.

              Les jeunes qui se couchent sur les HP en savent quelque chose, on entend le son par l’ensemble du corps et une partie importante (comme l’air que l’on respire) vient d’ailleurs que de ce que mesurent les capteurs du scient.

              Oui le numérique audio parvient à tromper les sens ... conscient

              Tout comme le numérique vidéo flatte l’oeil en lui donnant à voir une image plus lisse, plus tranchée
              (bientôt on rajoutera de la texture aléatoire comme en musique ...)

              M’est d’avis que de ce côté là, il y a encore des surprises à attendre

              D’ailleurs, pourquoi échantillonne t’on "mieux" alors que l’argument de vente du CD était précisément qu’il ne supprimait que ce que l’oreille n’entend pas  ?


            • Jules 19 avril 2008 10:14

              Einstein a dit : "l’important, ce n’est pas de trouver les bonnes réponses, mais de trouver les bonnes questions". J’aime beaucoup cet article qui prend du recul par rapport au "progrès" du numérique. Il me fait penser aux Deep Purple, qui ne voulaient pas être enregistrés en Live, au motif que l’enregistrement ne serait pas parfait. Ils ont maintenant été numérisés, compressés, et vitupérés dans des oreillettes de téléphones portables sans que les auditeurs n’y voient rien à redire sur la qualité du son. On cherche d’ailleurs toujours à compresser le son alors que les disques durs dépassent le téraoctet et les cartes mémoire atteignent une capacité de 50 Cds en wav non-compressé.

              Les mêmes personnes, effectivement, regardent sur leur télé en 16/9 les émissions en 4/3 sans s’en rendre compte. J’en ai vu qui me vantaient les plus de la haute définition sur leur écran plasma alors qu’ils étaient toujours branché sur leur antenne rateau.

              Je crois, plus simplement, que les gens, dans leur très grande majorité, sont devenus essentiellement réceptifs aux sirènes du marketing et ne se réfèrent plus à leurs sens. C’est ainsi que le Blu-ray se vendra très cher alors qu’il est déjà totalement obsolète et que Sarkosy sera peut-être réelu.

              La remarque qui n’intéresse le plus est celle concernant la digitalisation du savoir dans les systèmes d’enseignement automatisé. Il y a là une dérive potentielle évidente. J’ai travaillé à la conception de systèmes d’éducation à distance et le problème n’est pas encore de mise, mais le danger est réel dans tout ce qui touche les sciences humaines. Je serais moins formel pour les sciences dites exactes.

              Quant aux générateurs de Questionnaires à Choix Multiples, je ne suis pas d’accord. Le QCM est un instrument de vérification des connaissances extrêmement puissant quant il est bien utilisé. Il est très mal connu en France et parfaitement conceptualisé aux Etats-Unis.

              Je crois que vous devriez reprendre cet article et aller plus en profondeur sur les dérives en matière de transmission des connaissances. C’est là que ça aura le plus d’impact sur le futur. Le reste n’est qu’affaire de marketing.


              • Le bateleur Le bateleur 24 avril 2008 18:54

                Merci de me donner l’occasion de préciser.

                J’ai développé des séquences d’apprentissage pour lesquelles j’ai utilisé le QCM. Et je suis bien d’accord avec vous sur deux points

                - c’est un système d’évaluation qui donne de bon résultats statistiques

                - il est très sous utilisé en France, pays où les élèves (notamment jusqu’au lycée) n’osent pas répondre tant qu’ils n’ont pas la certitude de "ne pas avoir faux", même s’ils savent que la règle du jeu n’est pas le zéro faute mais la bonne performance (et que dans ce cas, si l’on est parvenu à éliminer deux choix IL FAUT REPONDRE comme on fait une impasse à la belote lorsqu’il ne reste plus qu’un joueur derrière soi)
                Il y a en France un vrai travail à faire à ce niveau.

                Ce que je voulais dire en citant l’outil c’était évoquer cette descente dans les prétentions à l’interactivité, due à deux facteurs

                - les difficultés croissantes (rendement décroissant des technologies de l’intelligence) de ceux qui prétendaient à

                - le peu d’enjeu réel, dès lors que les buts de l’enseignement eux-même se réduisent à l’acquisition de savoirs en brique facilement évaluable à peu de frais (la croix dans la case de l’élève de maternelle "sait quitter ses parents sans pleurer" ou "aligne cinq gommettes d’une même couleur en faisant au plus une faute"...

                Sinon, oui il y a de nombreux développements à faire à propos du numérique
                (notamment autour des notions d’information chaude - Deep Purple "Made in Japan" en live - et froide - les même enregistrés et écoutés ... trop souvent)
                mais peu de public pour l’entendre,
                l’heure est à l’émerveillement et au faux effroi racoleur

                (Ca sent la trouille monsieur Dyens - (La condition inhumaine) )

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON






Les thématiques de l'article


Palmarès