• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Tribune Libre > Quand la technologie était artisanale...

Quand la technologie était artisanale...

Je ne suis pas, bien sûr, de la génération des vrais pionniers de l'histoire de l'informatique. Elle fut marquée par une concentration, progressive dans le temps, des évolutions de la technologie des machines, prenant ses racines dans la nuit des temps. L'histoire avec un H est longue ; elle ne peut être que bien générale. Ce petit texte à la marge et à la première personne, pour témoigner d'un temps pourtant très particulier que certains ont pu vivre. D'un début et d'une fin.

Il faut resituer le contexte pour bien comprendre. Je parle d'un temps où il n'y avait pas d'intégration de la technologie dans les usages quotidiens. Tout au plus une télévision et une machine à laver. D'un temps où la notion de service n'était pas omniprésente. D'un temps où on pouvait donc trouver une machine, muette, sans qu'on puisse dire à quoi elle pouvait bien servir.

Et je l'ai donc trouvée là, un matin de noël, posée entre un magnétophone à cassettes et un poste de télé noir et blanc.

Je l'ai allumée. Écran blanc sur lequel on pouvait distinguer quelques agitations électromagnétiques, avant que ne s'affiche, quelques secondes plus tard, un petit carré noir en bas à gauche de l'écran.

Rien de plus. La machine était là. Mon père m'a dit qu'on pouvait lui parler. Je parlais aux gosses de mon âge, à mon chien, et à mon chat aussi. Mais parler à une machine...

J'ai immédiatement trouvée l'expérience extraordinaire. Elle ne disait rien. Elle attendait. Personne ne savait. Pas une pub, pas un mot dans les cours d'école. Alors je la regardais en silence, en me posant la seule question qu'on peut se poser dans un cas aussi inédit, surtout quand on a 10 ans : qui y a t-il derrière à attendre ?

Bien sûr j'ai appris à lui parler. Un langage simple qu'il fallait connaître d'abord, pour que le résultat soit là. Infaillible. Constant. Par nuit, vent, hiver. Mon premier programme fut de lui faire deviner mon âge. Qui se serait aussi méticuleusement intéressé à mon âge ? J'ai compris que je pouvais jouer avec elle. Qu'elle était là pour ça.

 

 

Le langage sous le voile

Le temps passant je me rendais compte qu'il y avait quelque chose qui n'allait pas. Les instructions, je savais lui donner. Elle les comprenait. Pourtant je ne lui disais pas comment les comprendre. Elle le faisait toute seule. Ah.

Ce n'est pas l'école qui m'a fait me diriger (c'est aussi une autre histoire) vers le rayon livres des boutiques avec autant de faim. Rosae rosarum. C'est précisément le besoin de combler l'ignorance d'un phénomène que j'avais sous les yeux. Qu'on se le dise de la manière la plus claire : le désir d'apprendre commence aussi par la rareté de l'information.

Et c'est bien un livre qui m'a appris qu'il existait un langage sous le voile : un langage machine. Que jusqu'alors je n'avais utilisé qu'un intermédiaire, basique (c'est le mot ^^). Le langage direct n'était pas adapté à une utilisation humaine. Il fallait, pour parler à la machine, contourner l'interface qu'elle proposait à nous autres, humains. Plier le système pour le détourner et entrer au cœur des choses.

Un hack historique du ZX81 permettant d'utiliser le langage machine par détournement de l'interface, 1982. Par analogie et pour les plus anciens, on peut comparer cela à la transformation de l'interface en carte perforée représentant en ASCII le code machine inséré.

 

 

La limite et la liberté

Les ressources de ces premiers ordinateurs étaient pauvres. Et pourtant c'était une mine d'or. Je parle d'un temps où les PC n'existaient pas encore. Les machines de l'époque étaient d'une ouverture exceptionnelle. La puissance ne pouvait être le facteur fonctionnel. Alors les ingénieurs avaient misé sur autre chose. Et j'apprenais leur langage.

Au fil des soirs et en entrant plus profondément dans le système, je découvrais l'écriture. L'art de parler à une machine. Ce langage était écrit dans une mémoire figée, pour que la machine puisse redémarrer à l'identique après une extinction. Les ingénieurs avaient écrit là quelque chose. Quelque chose qui tournait au fond de l'attente.

La machine, pourtant très limitée, était un livre écrit avec une intelligence exceptionnelle. A 14 ans, vous n'en croisez jamais. Ce fut un éblouissement.

Les limites devaient pouvoir être contournées. Certainement parce que la faible puissance calculatoire contraignait à une meilleure inventivité. Mais aussi parce que la technologie n'était pas encore devenue un produit de consommation à obsolescence programmée. Les ingénieurs n'avaient que faire des commerciaux. A l'université, on faisait de la recherche, on ne vendait pas des cravates.

A force de temps, vous pouviez vous insérer dans le système, le détourner à votre guise. Rien à voir avec les "fonctionnalités" prévues des systèmes actuels (qui ne sont que le reflet du nième cahier des charges pris dans une méthodologie de production). Le système n'était pas là pour vous rendre service. Il y avait bien sûr un service minimal, pour vous dépatouiller, vous souhaiter discrètement bienvenu, mais l'essentiel, si vous vouliez comprendre, vous était donné autrement. C'était un édifice sans copyright. Avec patience, l'architecture devenait lisible. Et une fois lue, vous étiez comme un maçon libre de faire couler une rivière dans le salon alors qu'il n'y avait pas d'eau. Une machine n'était pas un système de vente de services, mais un moyen - et ceci de fond en comble.

Bien sûr tout devait se faire bas niveau, comme on dit. Parler la langue du 0 et 1 était nécessaire. La machine par exemple ne savait pas faire des multiplications (encore moins des divisions), mais quand on avait remarqué qu'en décalant d'un bit vers la gauche une valeur numérique on la multipliait en fait par deux (et on la divisait dans l'autre sens), on commençait à entrevoir quelques petits moyens de faire sans, avec un temps de calcul qui ridiculisait n'importe quelle méthode apprise sur les bancs des écoles.

Et de faire quoi, sans ? On avait 1 kilo-octets de mémoire. Près de cinq fois moins d'espace que ce texte n'en prend, sous sa forme la plus brute, jusqu'à ce mot ci.

Aller plus loin. Précisément parce que nous n'avions que très peu de choses sous la main. Cet ordinateur qui fut le mien vit la naissance d'un jeu d'échec, qui consommait plus de 100 fois moins de mémoire qu'il en faut pour stocker une recette de cuisine dans un bouquin à la mode. Alors qu'il existe 20 puissance 116 parties possibles (2 avec 116 zéros derrière). Comment ?

 

 

Un bug, youpi !

Le plein accès à la machine, sans police de violation, était un vrai déclencheur. La simplicité des architectures nous permettait, en plus du langage machine, central, de s'intéresser aux composants électroniques qui entouraient le cœur.

Ceux-ci sortaient des usines sans être destinés à un type de machine. Ils n'étaient donc pas figés. Il suffisait de reprogrammer l'un deux pour essayer de comprendre son fonctionnement.

Ils entraient alors parfois dans des modes non documentés (nous n'avions au mieux que les specs techniques). Ou buggués. En tâtonnant, en contrôlant la déviance, il devenait parfois possible de réaliser des choses qui n'étaient pas imaginables par les constructeurs eux-mêmes. Une autre forme de pensée, aucun doute.

Je me souviens par exemple d'une machine qui était vendue avec 3 modes d'affichage. Le premier était en monochrome (deux couleurs possibles seulement), en contrepartie du fait qu'il proposait la meilleure définition. En se synchronisant de manière fine, on pouvait savoir où était le rayon électromagnétique chargé d'allumer à toute vitesse les pixels un à un sur l'écran. Il suffisait alors, une fois synchronisé avec la position, d'envoyer un ordre au composant spécifique au moment voulu, lui faisant croire que tout l'écran était rose, pour lui dire, quelques nanosecondes plus tard, qu'en fait non, il s'était trompé, l'écran était bleu. Le temps qu'il réagisse, on avait déjà gagné deux couleurs. Il n'y avait plus qu'à recommencer pendant les quelques millisecondes du balayage de l'écran, en attendant les bonnes nanosecondes pour le placement. Et il disait quoi, le composant ? "Ok, roule ma poule, c'est fun ici".

Et ça donnait ça :


Synchronisation de la commande et du balayage ("raster") dans un mode à deux couleurs seulement, réalisée sur Amstrad CPC 464, par Longshot/Logon System, 1989.

 

 

"Do It Otherwise" : le Do It Yourself du démuni

Bien des détournements ont été exploités sur diverses machines. Pour vous donner un exemple : on faisait chanter un Amstrad, lui qui ne disposait que d'un générateur de bruit et d'ondes sonores carrées ou sinusoïdales simples. En gros des "tsssshhh" pour la batterie et des "biiip" à fréquences programmables.

Comment transformer un tel truc en voix humaine ? Et bien déjà en se disant qu'avec ça et la puissance de calcul à dispo, on n'y arriverait pas.

La logique devait donc être autre. Le truc, découvert en s'amusant un soir avec le composant à bip ; en envoyant une simple commande d'ouverture de volume sur ce composant, la membrane du haut parleur se mettait à vibrer légèrement. C'était un souffle constant : en le répétant rapidement, il devenait aigüe. Plus lentement, il devenait grave. Et voilà. Inutile de perdre du temps de calcul pour générer des ondes : on avait une membrane qui en créait, et des naturelles, avec un simple bit.

J'ai alors passé une cassette audio dans mon magnétophone. Renaud Séchan. Puis j'ai écrit un petit programme qui récupère les données du magnéto au fil de la lecture de la cassette. Des 0 et des 1.

J'ai ensuite écrit un autre programme qui lit ces données, précieusement stockées en mémoire, et pour un 1, envoit le signal d'ouverture du volume, et pour 0, l'éteint. Le mouvement de la membrane suivait donc les fréquences des données... et mon ordinateur, pour lequel il était impossible d'imiter un bruit de casserole, chantait du Renaud ! De quoi être une petite star de l'informatique dans ma cours d'école, en plus de vendre les premiers jeux que je crackais sous pseudo pour un paquet de goldo (qu'on fumait à la campagne dans la cabane faite l'été d'avant, sous le soleil couchant, heureux et déjà nostlagique en pensant à l'école du lendemain).

J'avais lu une partie du programme de la licence informatique à 16 ans. C'était simple après tout ça mais pourtant j'étais un novice. Car je voyais, aux rencontres et aux productions qui circulaient, des gamins de 15 ans coder des choses qui pour certaines sont restées pour moi des énigmes. Je jure que les conditions matérielles et logicielles que je décris formaient une astuce frôlant le génie. Et je sais à quoi comparer de nos jours.

J'insiste, nous n'avions rien. Internet n'existait pas. Nous devions tout découvrir par nous-mêmes, aidés en tout et pour tout d'un ou deux livres techniques et de magasines qui divulguaient de temps en autre quelques secrets que les "swappers" et les "crackers" faisaient circuler des mois - ou des années - avant, dans le réseau confiné et pourtant si concrètement européen pour les ados dont je parle. Vous leur auriez donné un smartphone, ils vous hackaient le minitel (chose qui se produisait d'ailleurs de temps à autre ^^) depuis la Suède.

Nous nous attaquions à des animations interdites par les capacités matérielles. Nous calculions des cosinus sans un seul nombre à virgule. Nous inventions des fractales. Nous pouvions animer une infinité d'objets pour le coût de calcul et d'affichage d'un seul. Nous écrivions du code capable de se modifier tout seul. Nous tracions des courbes dansantes avec des algorithmes qui ne traçaient que des lignes droites. Nous faisions apparaître des couleurs inconnues des circuits imprimés. Nous faisions de la musique avec le vent du volume sur une machine. Et ça marchait, parce que nous détournions sans cesse les choses.

Ce que nous voyons n'est pas le réel, et pourtant nous le voyons. Nous en comprenions, à 14 ans, toute la portée concrète. Nous étions des hackers.

 

Siècle technologique

Il y a toujours un début et une fin. Cette époque d'entrée d'une technologie contrainte à l'ouverture par son manque de puissance est révolue. Il reste parfois l'esprit, mais plus aucune nécessité. La technologie ne peut plus être une rencontre du 3ème type pour les générations futures. Nous sommes cernés par la facilité technologique dès la petite enfance.

Personnellement, après que Bill Gates ait fait entrer ses machines par effraction et pris dans un hold-up outrancier tous les marchés par le bout de l'informatique d'entreprise, je n'ai que rarement codé sur le restant par plaisir, ou par simple curiosité.

Certains ont encore la fibre. On bricole sur de l'arduino, et on fait des démos en 64 kilo-octets. Ceux-là savent de quoi je parle, bien qu'ils utilisent des modèles et des outils largement éloignés de l'aspect extrêmement sommaire des premiers ordinateurs.

Dans ce siècle qui glorifie sans cesse la technologie, ce sont des machines qui développent des machines. Allez lire leur code, vous n'y trouverez plus aucune intelligence, plus aucune finesse. Juste de la performance. Et très peu de lisibilité.

En 1969, un ordinateur moins puissant qu'un smartphone conduisait sur la lune. Quand aux ordinateurs actuels connectés pour aller sur facebook, ils consomment par année et par individu le coût d'un aller-retour Paris-New York en avion. Qu'est-ce que la puissance technologique ?

Je me limite à ne parler que d'un aspect de ces choses. Les plus avisés comprendront qu'elles en rejoignent d'autres. Il y avait une rareté bien pensée. Dorénavant, les jeunes informaticiens sont formés à des surcouches qui s'empilent sur les systèmes comme dans une archéologie qui ne pourrait plus rien savoir du sous-sol. L'essentiel dans ces métiers est désormais de savoir faire bouillir l'eau avant de mettre les pâtes, tant pis s'il faut pour cela une usine logique incommensurable, que seuls quelques experts peuvent comprendre de bout en bout. Certains sont bien sûr plus ou moins doués à la cuisson. Mais de cela, Ada Lovelace, celle qui proposa la méthode algorithmique en 1840, en avait dit l'essentiel. Le fil du temps n'est pas celui d'une évolution constante.

La technologie a connu l'artisanat. Le rempailleur a mis les clés sous la porte parce que l'enseigne ne pouvait pas suivre le design de masse. Peu savent qu'il peut y avoir une grande beauté dans quelques lignes de code. Une intention et un geste d'une grande précision réalisés avec un matériau primitif. La trace d'un artiste. Lorsque, dans la technologie, il y avait encore une œuvre.

 

Merci pour votre lecture !


Moyenne des avis sur cet article :  5/5   (6 votes)




Réagissez à l'article

114 réactions à cet article    


  • mmbbb 23 septembre 17:43

    " En 1969, un ordinateur moins puissant qu’un smartphone conduisait sur la lune. " Bemol Neil Armstrong dut reprendre les commandes de l aigle puisque la memoire de son ordinateur ( memoire a tore ) était saturé et évita ainsi de s ’écraser. il est vrai qu a l Epoque un ingenieur comme Korolev et Von Braun savaient a merveille manipuler la règle à calculer. Quant à moi j avais repondu a une annonce concernant d un ordi dans les annees 1987 . Une femme voulut me vendre un ordi a 27 000 francs de l epoque qui ne pouvait pas faire grand chose . Sauf a voir de gros pixel sur un ecran bleu violace et apprendre le DOS et les lignes de programme Je n ai jamais eu un grand plaisir a manipuler ces disquettes au travail et a m emmerder avec des disques souples . A 4117 euros aujourd hui vous avez une superbe machine . Si votre article bien qu un peu long est intéressant, il a tout de même cet inconvénient d etre un peu passéiste .


    • Ciriaco Ciriaco 23 septembre 18:22

      Pourquoi parler du passé aujourd’hui serait un inconvénient ?


    • mmbbb 23 septembre 18:43

      @Ciriaco non j ai connu des informaticiens ayant utilisé la carte perforée ( systeme etabli par Hollerith ) les memoires a tores dont les cycles d hystérésis les rendaient moins fiables qu une meoire a transistors actuelles . Ces informaticiens connurent les bandes et les gros ordinateurs etc etc 
      Vous pouvez remonter au triodes et au ordinateurs d Eckert cella ne me gene pas Mais c est de l archéologie informatique . La seule utilisation actuelle des triodes est du domaine de la HI FI . De nombreux utilisateurs dont les japonais utilisent des lampes. Belle restitution beaucoup moins cliniques que les transistors


    • Ciriaco Ciriaco 23 septembre 18:58

      @mmbbb
      C’est pour cela que j’ai écrit cet article : un autre son de clocher, une autre réalité, dans la très répandue vision utilitariste (et marchande) de la technologie.


    • mmbbb 23 septembre 19:37

      @Ciriaco toutes les technologies evoluent et il est un domaine ou la science et la technique ont apporte des resultats remarquables l informatique couple a la physique Je pense notamment a la medecine et l imagerie medicale Prenez les images des années 1990 et celles d aujourd hui un
      bon en avant Quant au langage nous en sommes au raisonnement artificielle et l ordinateur a pu battre le meilleur joueur de GO , Quant a la technologie sa finalité est d etre utilitaire je regarde un tableau au Louvre je lis un livre mais bon je ne vais pas me pamer devant un ordi quoique je trouve les anciennes triodes belles


    • L'enfoiré L’enfoiré 24 septembre 10:17

      @Ciriaco

      Exact. Il y a une règle très capitaliste qui se trouve derrière l’idéologie numérique : toujours faire plus avec moins de moyens.
      Mais de cela tout est passé au bleu, puisque les bénéfices sont plus importants et sont peut-être en relation avec les pénuries de notre Terre à fournir plus...
      Le numérique est aussi écologique dans ses fondements.


    • L'enfoiré L’enfoiré 24 septembre 10:24

      @mmbbb,

       Les prix des machines...
       Un domaine en chute libre.
       On n’achetait pas une machine, on la louait.
       On partageait le temps machine et on le vendait ... souvent pendant la nuit.
       Le DOS, les cartes perforées taille rectangulaire et puis carrée.
       Les caractères alphabétiques en deux perforations.
       Les prix ont chuté avec les compatibles.
       Les PC n’ont plus été rentables.
       Beaucoup de sociétés ont disparu corps et bien ou ont changé de nom pour « rajeunir »..
       Digital, PDP, Compaq,.. Qui s’en souvient encore ?
       Et, dans les périphériques ?. 
       Souvenirs, souvenirs...


    • barbarossa 25 septembre 15:32

      @mmbbb

      les lampes sont utilisées entre autres pour des motifs de défense nationale, car les transistors peuvent être inhibés par bombardement (ce n’est pas le bon terme, celui-ci m’échappe) électronique, une méthode développée par l’URSS dans les années 70.

    • sarcastelle sarcastelle 23 septembre 19:35

      J’imagine qu’il y a des logiciels pouvant sur mon ordinateur actuel simuler une machine des années 80 ? 


      • Self con troll Self con troll 23 septembre 21:44

        @sarcastelle
        Message subliminal aux humains masculins : il vous fallait la machine pour commencer à simuler.


      • Self con troll Self con troll 23 septembre 21:46

        @sarcastelle
        Et aussi, si vous n’êtes pas sûre que votre ordi est sans virus, la réponse est non.


      • Ciriaco Ciriaco 24 septembre 02:05

        @sarcastelle
        Oui, il y a eu des évolutions très classes de ce côté là. Du bon boulot (et un boulot difficile car les émulations récentes respectent un détail technique hallucinant), fait sans aucun doute de la part de personnes très imprégnées par leur expérience de la technologie.


        Ceci dit, et juste pour la convers, je ne fais pas qu’allusion à la seule technique, qui se trouverait isolée. Je parle aussi de rapports dans un contexte particulier et qui n’est plus, évidemment, le même.

      • baldis30 23 septembre 22:06

        Très bel article,

        Il faut avoir vécu cela pour en comprendre toute la portée ... l’accès au langage interne de la machine ....par exemple ..

         Et encore l’auteur avait un écran ...

        Le premier tenait plus de la calculatrice (moyennement) élaboré n’avait qu’ne impression à partir d’un rouleau .. et combien en étions nous fiers pour mener en quelques minutes bien des calculs qui auraient pris des semaines à la main et à la règle à calcul ... la puce était un 4004 !


        • Ciriaco Ciriaco 24 septembre 02:10

          @baldis30
          Grave smiley


        • Self con troll Self con troll 23 septembre 22:44

          Ici, sur Avox, vous auriez pu développer un constat politique : pour son hold-up, Bilou a trouvé la complicité consciente ou non des gens de pouvoir, trop contents qu’en freinant les applications de l’électronique il évite qu’ils ne soient dépassés, et de la veulerie générale, toujours prête à gober les sucreries du système (je plagie clostra.)

          Pour le présent, je voudrais parler de la perennité de nos données. Pas de virus en ces temps anciens (le code du moniteur et le microcode du processeur étaient disponibles.) Plus quelques dispositifs (comme le bit de parité sur les mémoires) pour garantir au maximum que soit la machine ferait ce que le programmeur avait agencé, soit elle s’arrêterait. Aujourd’hui, même ce qu’on croirait « en dur » dans la machine semble pouvoir être détourné. Or, il est techniquement possible de créer des machines à base de composants programmables dont nous maîtriserions le fonctionnement (le schéma d’interconnexion.)
          C’est tout pour la parano.

          Pour le fun, je signale qu’écrire du code qui produit du code est un jeu toujours d’actualité avec le xsl. Drôle de type, dit Ada


          • Ciriaco Ciriaco 24 septembre 02:30

            @Self con troll
            Bilou rêvait de réussite commerciale. Je crois que la plus belle arnaque est de le faire passer pour un geek dans son garage.


            J’aurais pu parler de beaucoup de choses à partir de ce levier. Mais qu’aurais-je à dire à un individu normal et censé qu’il ne sache déjà ? Que les enjeux technologiques sont bien sûr politiques et économiques ? J’ai préféré mettre en valeur un temps particulier, celui de l’arrivée des machines dans le grand public. Et comment certains ont pris les choses.

            Pour la sécurité, je crois que les problèmes viennent plus d’un accroissement des interactions. Les interactions, ça penche quand même vers une nature analogique. Cela ne se maîtrise pas vraiment (en fait on a toujours un filtre de conversion pour passer au quantifiable, au maîtrisable).

            Mais pour le fun, préférez l’ods smiley 

          • Self con troll Self con troll 24 septembre 09:39

            @Ciriaco
            l’ods, ça a un rapport avec calc ?

            Sinon, je ne vous fais pas un reproche de ne pas développer ce que je serais bien incapable de présenter moi-même. Je suis moins optimiste que vous sans doute. Il y a un terme mal connu du public, qui résume une stratégie commerciale : FUD (fear, uncertainty and dubt.) Le concept a été développé bien avant Bilou (IBM ?) Il mériterait de faire un peu plus le buzz.

            C’est très intéressant votre rapprochement interactions/analogique. C’est vrai qu’il n’y a pas que le hasard qui, injectant un parasite improbable entre deux transistors, peut faire dérailler mon algorithme ; il y a aussi les autres qui peuvent remettre en cause mes certitudes.


          • bob14 bob14 24 septembre 07:50

            C’est loin le temps ou « programmeur » chez IBM La Gaude, il fallait percer des cartes...de 80 colonnes... !


            • bob14 bob14 24 septembre 08:39

              @Shawford....salut ...Le modèle le plus courant de cartes perforées, breveté par IBM en 1928, était la carte dite à 80 colonnes. Il s’agit d’une feuille de bristol mince de forme rectangulaire, dont un coin était tronqué, où les caractères alphanumériques (BCD, EBCDIC ou ASCII) étaient traduits par des perforations rectangulaires (au nombre de 1, 2 ou 3 par caractère) disposées en colonnes parallèles à la largeur (80 colonnes) et sur 12 lignes parallèles à la longueur. Ces cartes étaient stockées par boîtes de 2 000, et le coin tronqué servait de repère pour les insérer dans le bon sens dans un chargeur de cartes ou pour les remettre à l’endroit quand la boîte tombait par terre. Ce fut une étape notable dans la définition du codage de caractères (BCD, EBCDIC ou ASCII)...faudrait penser à évoluer un peu...


            • rocla+ rocla+ 24 septembre 08:52

              @bob14


              J’ ai connu ce genre de carte  en 1970 ....

            • bob14 bob14 24 septembre 09:38

              @rocla+...c’était le bon temps..ou nous avions (encore) le temps... !


            • L'enfoiré L’enfoiré 24 septembre 10:14

              @bob14,

               Les métiers de l’informatique qui ont disparu : les encodeuses, les opérateurs et demain... d’autres métiers qu’on ne connait même pas aujourd’hui, vont apparaitre.


            • L'enfoiré L’enfoiré 24 septembre 10:31

              @bob14,

               Un gag pour bleus à l’époque... quand les cartes tombaient parterre :
               Demander de trier les cartes sur la couleur avec la trieuse..... smiley


            • nono le simplet nono le simplet 24 septembre 08:18

              mon premier ordi était un Thomson MO5, avec une RAM gigantesque : 48 k  avec un lecteur de K7 smiley

              de quoi faire mumuse en basic ...

              • baldis30 24 septembre 09:22

                @nono le simplet
                bonjour,

                Privilégié ! ....  smiley

                j’avais 8k et péniblement on est passé à 16 et par un effort inouï ( vu le prix ...) à 32....


              • L'enfoiré L’enfoiré 24 septembre 10:33

                @baldis30

                48 Kb, mais c’était Byzance...
                J’ai commencé sur un 4KB et des séries de floppis disks de 360 Kb pour sauver mes billes....


              • Ciriaco Ciriaco 24 septembre 12:27

                @nono le simplet
                MO5, c’était pas mal ce ptit ordi ^^ Aussi le choix de l’Éducation Nationale à l’époque ! Il s’est fait un peu éclipsé par Amstrad et Commodore... les produits français et la technologie, ça a fait rire. Pourtant il était de la famille et tenait honorablement sa place dans le meilleur magasine du siècle ^^


              • Ciriaco Ciriaco 24 septembre 13:49

                @baldis30
                Faut dire aussi un truc : les parents faisaient de gros efforts pour nous payer ça. C’était l’économie d’une année qui partait pour le gamin. Et le cadeau était intelligent, il nous faisait des souvenirs pour la vie.


              • nono le simplet nono le simplet 24 septembre 19:47

                @baldis30

                bonjour Baldi,
                qques années plus tard j’ai acheté un Amstrad avec plein de jeu à la Camif, un ordi « réparé » mais comme neuf avec une IMPRIMANTE,le must smiley
                je me souviens d’un jeu, Boulder, que j’adorais, un petit gars qui creusait des galeries dans un labyrinthe... 

              • Nestor Nestor 24 septembre 20:28

                Salut nono le simplet !

                Boulder Dash excellent jeu où il fallait récupérer des diamants sans se prendre les boules de rocher sur la gueule !

                J’ai testé il y a peu de temps une version plus moderne ce n’était pas un plus un petit bonhomme mais une marmotte je crois ...

                Pour les jeux il y avait aussi Montezuma’s Revenge qui était un bon jeu ...

                Ma Machine de l’époque un Atari 800 XL ...


              • Nestor Nestor 24 septembre 20:38

                Sinon un jeu où on pouvait jouer à deux et que j’adorais → Trailblazer ... Un ballon sur des pistes dans l’espace un Wipeout avant l’heure ...


              • nono le simplet nono le simplet 25 septembre 00:20

                @Nestor
                salut nestor

                mon fils m’a parlé de cette version moderne de Boulder ... j’aimais bien l’ancienne, c’était assez lent pour que je puisse gagner de temps en temps, lui, à 5 ans , était meilleur que moi smiley

              • nono le simplet nono le simplet 25 septembre 00:23

                ça devait aussi être un Atari ...


              • sarcastelle sarcastelle 24 septembre 08:34

                A l’époque où j’ai construit dans mon hangar un ordinateur Babbage complet on n’imaginait pas l’internet, en sorte que je l’ai démonté sans prendre de photos. Désolée. 


                • Self con troll Self con troll 24 septembre 09:18

                  @sarcastelle
                  Qui a démonté qui ?


                • L'enfoiré L’enfoiré 24 septembre 10:12

                  Bonjour ciriiaco,

                  J’ai beaucoup aimé votre billet.
                  « La technologie a connu l’artisanat »
                  Cette époque-là, je l’ai bien connue.
                  La beauté de la recherche du moindre espace, du moindre gain de temps pour obtenir le plus d’efficacité à la limite des moyens comme la réentrance.
                  Pourtant on parvenait a créé grâce à des artifice à exécuter une comptabilité. mais sans le user-friendly qui lui a nécessité d’énormes moyens supplémentaires pour créer des Windows....

                  Vous ne parlez pas de votre âge, mais c’était un temps de pionnier. L’Assembler, le langage machine, les dumps mémoires pour découvrir le bug, là où la machine avait décidé de s’arrêter sur une instruction.
                  Puis les langages spécialisés comme le Cobol, le Fortran, le PL1 se sont ajoutés avant de comprendre qu’il fallait rationaliser et sortir des complexités en créant des outils comme Java.
                  Oui, il y avait la compilation des instructions, mais cela ne voulait rien dire pour autant. Il fallait sortir des boucles au moment opportun. J’ai participé à de grands projets, pour émuler de gros ordinateurs comme un IBM 360 de l’époque, sur de très petites ordinateurs (bien avant le PC années 70) sur des machines où les bits étaient vraiment coupés en deux.
                  Maintenant on parle de double-words au minimum.
                  Une époque de pionnier où l’écran était limité à 10 cms de large, 4Kb de mémoire.
                  On ne parlait ni de numérique, ni de connexion par internet.
                  Une époque où bien sûr l’année ne pouvait prendre que deux chiffres pour gagner de la place.
                  Tout cela je me suis amusé de l’écrire dans une histoire de l’informatique insolente et insolente.
                  Une histoire de professionnels exclusivement avant les PC du Traitement de l’Information brute, parce qu’après tout a explosé avec le « C » qui s’est ajouté pour former les TICs.. .
                  C’est le seul domaine qui est entré dans tous les autres.
                  Et nous ne sommes qu’au début, à l’orée du bois de cette explosion révolutionnaire.
                  Comme vous dites, "Peu savent qu’il peut y avoir une grande beauté dans quelques lignes de code. Une intention et un geste d’une grande précision réalisés avec un matériau primitif. La trace d’un artiste. Lorsque, dans la technologie, il y avait encore une œuvre".

                  Aujourd’hui l’informatique est devenu un outil et plus une fin en soi.
                  Un iPhone est tellement entré dans les moeurs.
                  Bien à vous


                  • Christian Labrune Christian Labrune 24 septembre 11:06

                    "Peu savent qu’il peut y avoir une grande beauté dans quelques lignes de code. Une intention et un geste d’une grande précision réalisés avec un matériau primitif. La trace d’un artiste. Lorsque, dans la technologie, il y avait encore une œuvre« .

                    @L’enfoiré
                    C’est tout à fait vrai, en effet : il est rare qu’on puisse du premier coup concevoir un algorithme ou une suite de fonctions parfaitement optimisés du point de vue de la durée d’exécution et de l’utilisation de la mémoire. Quand tout cela se trouve parfaitement dégraissé, c’est aussi beau que ces démonstrations que les mathématiciens disent »triviales". La seule démonstration connue du théorème de Fermat est encore loin de l’être, mais ça viendra peut-être.


                  • Ciriaco Ciriaco 24 septembre 12:32

                    @L’enfoiré
                    Merci pour ce très intéressant retour !


                  • Christian Labrune Christian Labrune 24 septembre 10:54

                    Votre article rappelle de bons et de mauvais souvenirs. Je me souviens de ma première machine : un apple II - Euro + que j’ai encore en haut d’un placard. 48Ko de ram, et l’OS sur une douzaine de kilo-octets de rom, avec des disquettes d’une capacité gigantesque  : 125 Ko !!!.
                    Comme il n’y avait pratiquement pas de programmes disponibles si ce n’est un tableur et un traitement de texte adaptés au clavier américain, il fallait programmer en basic, ce qui devenait très vite impossible au-delà d’une certaine longueur de développement, et on arrivait évidemment à l’assembleur du 6502. Des cartes apparurent, de quelques centaines de Ko, divisées en plusieurs bancs de mémoire entre lesquels il fallait switcher puisqu’ils correspondaient les mêmes numéros d’adresses. Quand les programmes qu’on avait patiemment mis au point furent en état de fonctionner, enfin, Apple passa à un autre processeur sans assurer la compatibilité ascendante.
                    Le même problème ne s’est pas posé avec les PC, du moins pas tout de suite : chaque nouveau processeur acceptait ce qui avait été programmé pour un autre ; on ne programmait plus guère qu’en C++, mais quand les processeurs ont été conçus pour traiter des mots de 64 bits, la nouvelle version du C++ de Microsoft ne pouvait plus assembler le code source de la version 6 sans des modifications si considérables sur un gros programme qu’il valait mieux tout recommencer en adaptant les anciennes fonctions.

                    Tout semble avoir été fait, effectivement, dans l’industrie du hard et du soft, pour faire en sorte que les utilisateurs soient découragés de comprendre ce qui se passe à l’intérieur et d’utiliser la machine à leur guise. L’apparition de Linux aura été encourageante, mais il faut bien reconnaître que l’ergonomie des assembleurs en ligne de commande, quand on a eu l’habitude du visual C++, c’est un peu comme s’il fallait jeter son briquet pour allumer sa pipe en heurtant des silex !

                    L’apparition des micro-contrôleurs, avec les cartes Arduino que vous évoquez, a quand même bien ranimé la passion des bricoleurs de l’informatique : on peut désormais fabriquer à peu près n’importe quelle machine, pour peu qu’on consente à passer quelques centaines d’heures à étudier ces cartes pour être à même, dans des systèmes un peu complexes, de les faire communiquer entre elles d’une manière vraiment efficace. Allumer des diodes, faire tourner des moteurs, c’est facile, mais ça ne va pas bien loin. Quand on voit le niveau assez faible des sites internet qui traitent en France de ces questions, bien plus faible que celui des sites américains, on se dit que beaucoup d’utilisateurs finiront aussi par se décourager.

                    Mais l’essentiel, ce serait quand même que nos contemporains comprennent un peu mieux ce que sont ces gadgets qui les fascinent de plus en plus, qu’ils passent leur temps à tripoter n’importe où et même dans le métro, et avec lesquels ils entretiennent une relation au fond très archaïque et primitive, de l’ordre de la pensée magique.
                     


                    • Ciriaco Ciriaco 24 septembre 13:00

                      @Christian Labrune
                      Personnellement j’ai été vite rebuté par l’adressage de la mémoire sur les processeurs Intel. On pouvait pressentir qu’il y avait là un moyen d’assurer une certaine compatibilité dans le temps, mais on perdait pas mal en élégance. Quand on comparait avec les 68000 de Motorola, on faisait vite son choix... Même sur du Linux vous savez, faire de l’Intel, ça m’a toujours freiné. C’est autre chose que j’ai apprécié sur ce système (le seul qui a botté le cul à MS d’ailleurs ^^).


                      L’arduino est sympa, oui, carrément. Tous les informaticiens ne partagent pas ce goût cependant. Nous passions par une voie obligatoire de frugalité, et c’était s’emparer de quelque chose, et comprendre de quoi nous parlions. Il y aurait beaucoup de choses à faire dans l’Éducation Nationale avec ce truc, mais les dirigeants français, qui se prélassent en général dans la béatitude sur ces questions, ne comprennent absolument rien à la technologie et à sa capacité de formation.

                      De nos jours le routage d’un smartphone, acheté pourtant, est contractuellement illégal !

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON








Les thématiques de l'article


Palmarès