Fermer

  • AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > Les premières années de l’informatique

Les premières années de l’informatique

Le marché des équipements de traitement de l’information a commencé à évoluer en 1960. J’ai tenté ici d’en retracer l’historique en faisant appel à mes seuls souvenirs. Cet article n’est donc pas le résultat d’une étude exhaustive ; il peut aussi comporter quelques inexactitudes. Merci aux lecteurs de les rectifier.

 Un bref historique

Jusqu’en 1960, les calculateurs électroniques vendus par IBM n’avaient que des programmes câblés, des programmes qu’il fallait construire à la main sur un tableau électrique. Les Américains avaient nommé cette machine « electronic computer » tandis que les Français lui avaient déjà donné ce nom inventé par le linguiste Jacques Perret : « ordinateur ».

C’est précisément cette année-là que la Compagnie des Machines Bull a révolutionné le marché des ordinateurs en commercialisant le Gamma 60, fruit de trois années d’études. Les programmes n’étaient plus câblés, mais enregistrés sur une mémoire centrale de 96 K. Parmi les nombreuses innovations de cette machine, on peut citer aussi des circuits imprimés équipés de transistors et des mémoires matricielles à tores magnétiques. Les concepteurs du Gamma 60 avaient bien conscience d’être à l’origine d’une nouvelle science, c’est pourquoi ils ont inventé le mot « informatique », tellement courant aujourd’hui.

1960, c’était aussi le premier essai nucléaire français en Algérie. Le général de Gaulle, obsédé par l’indépendance militaire à l’égard des Etats-Unis, négligeait tout ce qui pouvait assurer notre indépendance civile. Il n’a donc pas vu l’importance stratégique du Gamma 60, et il a refusé de donner à la Compagnie des Machines Bull les crédits dont elle avait besoin. La compagnie française est achetée à vil prix par General Electric en 1964, ce qui permet à IBM de s’imposer sur le marché des ordinateurs, notamment avec la série 360, en s’inspirant des percées technologiques de son concurrent, et profitant en outre de fabuleux contrats avec l’armée américaine.

En 1967, le général de Gaulle prend enfin conscience de son erreur et veut la réparer en créant le « Plan Calcul ». Des milliers d’ingénieurs sont embauchés, des milliards de francs sont dépensés, mais il est trop tard. L’industrie informatique française est définitivement morte.

La vie d’un informaticien en 1970

Les principaux « langages de programmation » sont l’assembleur, le Basic, le Fortran et le Cobol. L’assembleur est le plus proche du code binaire, son emploi est difficile, et ceux qui programment en assembleur sont regardés avec respect. Les operating systems sont programmés en assembleur. Le Basic est principalement utilisé pour des applications simples, le Fortran pour des applications scientifiques et le Cobol pour des applications de gestion. Ce dernier a le grand avantage d’être très bien structuré, ce qui n’est pas le cas des premières versions du Fortran.

La programmation commence avec un papier et un crayon. Ensuite il faut porter son travail à l’atelier mécanographique où des dizaines d’opératrices perforent des cartes dans un bruit assourdissant. Une carte par ligne de programme. Le lendemain, on va chercher son bac de cartes à la mécano pour le porter au centre de calcul, une grande salle climatisé avec de nombreuses armoires et des imprimantes énormes. C’est là que se fait l’assemblage de votre programme. Le résultat, c’est un gros listing qui souvent annonce des « bugs ». On reprend son papier et son crayon. Il faut généralement plusieurs retours à la mécano, puis au centre de calcul, pour avoir enfin un programme qui tourne correctement.

C’est vers 1978, je crois, grâce aux microprocesseurs 16 bits, que la programmation a pu s’affranchir des cartes perforées. Le temps de mise au point des programmes d’application en a été considérablement raccourci. On pouvait enfin écrire un programme et le déboguer en restant devant son écran. Mais à cette date, j’avais quitté le métier de l’informatique. 


Moyenne des avis sur cet article :  3.6/5   (20 votes)




Réagissez à l'article

76 réactions à cet article    


  • L'enfoiré L’enfoiré 1er février 2010 10:08

    Céphale,
     Il ne faut pas croire que l’histoire de l’informatique commence avec sa propre histoire.
     Cela remonte bien plus haut dans le temps.
     Vous en voulez plus c’est ici
     Mais c’est vrai, dans la suite de l’histoire qui suit, j’ai dévié vers le côté humain de l’informatique par l’intérieur du business. smiley


    • french_car 1er février 2010 10:21

      Bonjour, bon résumé des temps préhistoriques, nostalgie pour les vieux croutons que nous sommes en train de devenir.
      Quel enfant de 10 ans pourrait penser que nous allions au palais de la découverte pour jouer au morpion avec une machine qui ressemblait à un frigo flanqué de 2 machines à laver ?
      Je ne pense pas que l’on debuggait à l’écran en 1978. On programmait, on lançait des batchs de compilation/link, on lançait des runs. On debuggait éventuellement en truffant le code de « WRITE » pour voir le contenu des variables.
      Jusqu’au début des années 1990 j’ai souvenir que l’on sortait des dumps de mémoire centrale (adressage sur 3 octets sur S370) sur listing et que l’on tentait le désassemblage pour voir qui avait écrit dans le code ou pourquoi l’optimiseur avait viré du code !
      On se disait « BR 14 » en guise d’adieur ou bien « BALR 14,15 » pour débrancher etc ...
      Petite remarque : l’industrie de l’informatique « hardware » est morte - quoique SMT Goupil avait failli la ressuciter - mais le soft ne l’est pas avec quelques fleurons :
      - Dassault-Systemes leader mondial de la CAO, du PDM et du calcul
      - Business Objects et Ilog qui se placent correctement dans les secteurs du décisionnel et de l’Intelligence Artificielle


      • L'enfoiré L’enfoiré 1er février 2010 16:25

        Salut French,
         Désolé de contredire, ce qui est dit ici, n’a rien à voir avec la préhistoire.
         Cela fait partie d’une histoire déjà en marche depuis longtemps.
         Les PC, je dirais même que ce sont de jeunes bécanes.
         
         Vieux croutons ?
         Je me suis toujours ressenti comme un dinosaure en fin de course.
         Vous savez ce genre de bestiole qui mange plus qu’il ne devrait parce qu’il avait morceau d’expérience dans la chasse.
         Je ne sais s’ils mangeaient des croutons, ceux-là. A mon avis, non.
         Jouer au morpion avec la bécane, cela n’a jamais été mon truc même à 20 ans.
         Avant cela le jeux de morpions, cela se passait sur papier bien loin du numérique.
         WRITE au départ, c’était « PUT » qui se conversissait en 6 bytes.
         Un code (1) et des adresses avec des bases de registres.
         Des USING pour associer tout cela.
         Non, je répète, cela n’a rien à voir avec du Basic.


      • french_car 1er février 2010 16:32

        Bonjour Guy, je parlais de jouer au morpion car c’était ce que l’on pouvait faire au Palais de la Découverte à Paris c’est en bas des Champs-Elysées, un musée qui fut longtemps à la pointe de la techno avant que ne s’ouvre la Cité des Sciences de la Villette. C’est également là que j’ai pu entendre ma voix la premiere fois car il y avait un ... magnétophone public.
        Il me semble que ce n’était pas PUT mais FPUT en basic ? Voyez alzheimer me gagne...
        Oui oui la préhistoire c’est Internation Business Machine qui dès avant guerre vendait ses trieuses à Mr Hitler pour gérer le fichage des déportés...


      • french_car 1er février 2010 16:44

        International Business Machines pardon


      • L'enfoiré L’enfoiré 1er février 2010 16:47

        French,
        "au morpion car c’était ce que l’on pouvait faire au Palais de la Découverte à Paris c’est en bas des Champs-Elysées, un musée qui fut longtemps à la pointe de la techno avant que ne s’ouvre la Cité des Sciences de la Villette. C’est également là que j’ai pu entendre ma voix la premiere fois car il y avait un ... magnétophone public."

        Ma première approche avec l’informatique date de 1958 à l’expo universelle de Bruxelles.
        IBM avait un pavillon et des machines qui permettait au badaud de recevoir tous les événements qui s’étaient passés lors de sa date de naissance.
        Super utile une machine à l’époque, hein ?
        Comme quoi, agir sur le subconscient et les petits péchés de l’égocentrisme des gens, cela marche toujours smiley 

        Il me semble que ce n’était pas PUT mais FPUT en basic ? Voyez alzheimer me gagne...
        Oui oui la préhistoire c’est Internation Business Machine qui dès avant guerre vendait ses trieuses à Mr Hitler pour gérer le fichage des déportés...


      • L'enfoiré L’enfoiré 1er février 2010 16:48

        J’oublie de répondre. Je ne parlais pas de Basic mais d’Assembler.


      • L'enfoiré L’enfoiré 1er février 2010 16:55

        International Business Machine ?
        Chut, entre nous, on appelait cela « Imitation Business Machine »
        J’ai dit, entre nous, pas répéter, hein... smiley


      • Marc Bruxman 1er février 2010 19:18

        "Jusqu’au début des années 1990 j’ai souvenir que l’on sortait des dumps de mémoire centrale (adressage sur 3 octets sur S370) sur listing et que l’on tentait le désassemblage pour voir qui avait écrit dans le code ou pourquoi l’optimiseur avait viré du code !"

        Le désassemblage je l’ai encore vu faire sur PC bien après l’an 2000 ! C’est (très) rare mais cela sert encore :

        • Dans le rare cas ou vous êtes tombés sur un bug du compilo C++. (Dès que vous utilisez des templates les démons de l’enfer peuvent être libérés la plupart des compilateurs ne respectant pas le standard du langage).
        • Dans les cas plus fréquent ou vous avez tout codés en C++, qu’après avoir passé un profiler vous avez identifiez la fonction que vous souhaitez optimiser. Et dans ce cas la vous traitez cette fonction au désassembleur pour gagner quelques précieux cycles. (Ce qui n’est pas simple à cause du pipeline). 
        • Dans quelques cas lié à la sécurité informatique. (Ingénierie inverse, ...).


      • L'enfoiré L’enfoiré 2 février 2010 14:15

        Bonjour Marc,
        "Jusqu’au début des années 1990 j’ai souvenir que l’on sortait des dumps de mémoire centrale (adressage sur 3 octets sur S370) sur listing et que l’on tentait le désassemblage pour voir qui avait écrit dans le code ou pourquoi l’optimiseur avait viré du code !"

        En fait les dumps mémoire sortaient dès la première erreur et l’adresse de l’instruction fautive permettait de remonter la filière jusqu’à l’origine. Enfin, cela pouvait être moins facile que de l’écrire ici.
        Les dumps étaient présentés en hexadécimal sur Siemens.


      • Céphale Céphale 1er février 2010 11:13

        Merci french_car

        Eh bien... vous m’apprenez qu’en 1990 on ne débuggait pas encore à l’écran ! Je n’étais plus là pour le voir. L’accélération du soft a été fantastique dans les années 90. Quelle époque !

        • Bertrand Damien Bertrand Damien 1er février 2010 11:54

          Chez IBM uniquement on débuggait encore comme ça. C’était les dinosaures de l’informatique départementale et des mainframes. French_car apparemment ne connaissait pas encore très bien la micro informatique. Dès 1988 il existait des programmes de tests, des correcteurs de syntaxes et des débuggers divers et variés. Et bien avant ça, depuis des années, sur des machines Unix, on débuggait à l’écran. C’est avec le langage C qu’on a commencé à faire ça proprement. Un petit printf() bien placé, et hop. En 1987 je travaillais sur des serveurs Unix, et on avait pas besoin de décompiler de l’assembleur. Ca, c’était chez mon père, à Honewey Bull. Et encore.


        • L'enfoiré L’enfoiré 1er février 2010 16:29

          Céphale,
           « . vous m’apprenez qu’en 1990 on ne débuggait pas encore à l’écran ! »
          Faux. On débuggait bien avant les PC sur écran.
          Hors les PC, c’était en 1980-1.
          Comment croyez-vous que l’on faisait ?
          Je vous laisse réfléchir. smiley


        • L'enfoiré L’enfoiré 1er février 2010 16:37

          Bertrand,
          "Chez IBM uniquement on débuggait encore comme ça. C’était les dinosaures de l’informatique départementale et des mainframes."
           La micro-informatique, je la connais depuis le Cogar sur lequel j’ai simuler l’assembler, le RPG, et le Cobol.
           Machine avec des instructions à 1 ou 2 bytes de 8 bits chacun. Le choix de compter en bianire, en hexadecimal ou en octal.
           Un MOVE, un IF se faisait par une boucle.
           4K de mémoire. Faut dire que chercher à gagner de la place c’était autre chose que du gadget.
           Quelle époque en effet.  smiley.


        • french_car 1er février 2010 16:40

          Effectivement on pouvait debugger à grand coup d’écritures mais il n’y avait pas de debugger à proprement parler. Pas possible de mettre de point d’arrêt dans la méthode chose de la classe truc pour les djeuns. Et le moyen le plus simple de trouver les raisons d’un plantage était d’avoir un dump de la mémoire sur papier au moment d plantage. Parce que malgré tout se taper 128m de mémoire à l’écran n’était pas pratique. De branch en branch on montait et descendait de qq dizaines de pages. Le fin du fin était de découvrir un beau tableau de réels ou mieux une chaine de caractère au milieu du code, avec un peu de chace on savait désigner le fautif qui avait écrit complètement à côté de la mémoire qui lui était allouée et écrabouillé le code du voisin qui se sentait visé puisque c’était lui qui plantait.
          On appelait ça un « cépachémoi » !
          Et effectviement ensuite vint UNIX, puis le C, les éditeurs pleine page, puis les debuggers, 100 fois plus efficace mais tellement moins drôle. Il existe encore des fans de vi et dbx pour qui emacs est un gros mot et pour qui Visual n’évoque rien.


        • french_car 1er février 2010 16:49

          J’ai commencé à développer en 1983 et jusque 1988 je n’ai connu que le S360 (370 ?) sous MVS et TSO.
          On n’avait pas un écran par tête de pipe, il fallait préparer son petit bout de papier, faire la queue pour disposer d’un terminal, lancer compil/link/exe, attendre devant la console master de voir quand son job était terminé et demander un petite place pour voir le résultat sans refaire trop la queue ...
          A partir de 1988 on a commencé à faire du portage sous UNIX en fait IBM-AIX sur une machine 6150 d’une lenteur déprimante.


        • L'enfoiré L’enfoiré 1er février 2010 16:50

          Cogar, s’il ne s’était pas crashé en avion aurait pu devenir le Bill Gates avant l’heure.
          Comme quoi, l’informatique ne crée pas la sécurité à cette époque. smiley


        • L'enfoiré L’enfoiré 1er février 2010 17:15

          Une autre histoire des plus comique.
          Dans notre petite société, nous avions acheté un 360 d’occasion.
          Rien que pour l’installer dans la cave et ensuite planter dans le jardin un pieu dans le sol pour la prise de terre, cela a été un gag. Je m’en souviens encore.


        • Marc Bruxman 1er février 2010 19:23

          @french_car
          EMACS : Eight Megabytes and Constantly Swapping !


        • plancherDesVaches 1er février 2010 14:25

          Vous vous rappellez mal et faites un gros mélange.

          81 : arrivée du Z80. (machine Sinclair ZX81 et ZX Spectrum)
          Machines 8 bits. Equipées d’une fonction de translation de plages mémoire redoutable utilisée dans les jeux pour un rafraichissement d’écran immédiat.
          83 : arrivée du 8086 et de son co-processeur arithmétique 8088 en 16 bits et instructions longues.

          Jusque là, la programmation en language machine était possible et permettait un traitement de l’information bien plus rapide car ne s’occupant pas des IRQ ainsi que d’une gestion graphique lourde.

          A partir du 80286, ça a été le bordel.


        • Bertrand Damien Bertrand Damien 1er février 2010 16:47

          Ha oui. Mon premier PC, un AT 286 avec 20 Mo de disque dur, c’était en 1986 je crois. Mais en même temps, j’ai eu mon premier Mac dans les mains, un double-disquettes mega gonflé : 128 Ko de RAM !!! Depuis, j’ai toujours eu des Macs, et de temps en temps un PC pour la forme parce que mon employeur m’en mettait un d’office. Mais même quand je bossais pour Intel (6 ans, jusqu’en 1999), j’étais regardé de travers parce que je ne voulais me servir que de mon Mac portable. Mais y’avait pas photo entre les deux. Depuis, mon meilleur pote qui est resté chez Intel, patron des ventes processeurs Europe du Sud... a fini par craquer pour un Mac portable, et maintenant, il se demande comment il a pu supporter les Winbouzes pendant aussi longtemps. Oui, bon, je sais, ça nous éloigne de l’assembleur et des cartes à trous.


        • plancherDesVaches 1er février 2010 17:03

          Je m’attendais à des réactions de « pro-mac », mais pas suite à mon commentaire.

          Le mac est la « rolls » du PC. Soit une machine tournée vers les boeufs qui ne vont considérer que l’aspect graphique (plus des « super-belles-machines-avec-des-coques-qui-tuent » appelées aussi CONviviales et qui coutent une fortune.)

          Cela est complètement débile lorsque l’on est assez intelligent pour gérer correctement un PC qui coûte beaucoup moins cher.
          Mais bon : il n’y a pas de différence entre une BMW et des hémoroïdes, non.. ??


        • plancherDesVaches 1er février 2010 17:20

          Sans vouloir dire que j’ai la plus longue qui va vous chatouiller les hémoroïdes, en 87, je sortai de l’école, et en 90, je branchai le premier modem sur un AS400 pour relier une agence commerciale.

          Certes, quand je vois arriver des jeunes cons qui ne connaissent l’informatique que par les jeux et les « belles » images, cela me fait doucement marrer.


        • Bertrand Damien Bertrand Damien 1er février 2010 21:07

          Dans un Mac, y’a un Unix béton qui ravira tous les adeptes de commandes sudo. Et comme 99% des utilisateurs d’ordinateurs n’y entravent que dalle, il y a surtout un OS convivial, efficace, et qui ne plante pas. Ce n’est pas parce que je peux manipuler des pointeurs dans un tableau en C que je vais perdre mon temps à écrire des bouts de Shell. Ce qui compte, c’est l’usage créatif et productif. La techno pour la techno, c’est de la masturbation.


        • Bertrand Damien Bertrand Damien 1er février 2010 21:14

          Et j’ai branché des modems et des PADs X25 sur des IBM 6150.
          Et j’ai eu des tas d’articles de journaux en 1988 (y compris des généralistes comme Télérama et Libé) pour avoir développé le premier serveur audio-vidéotex en France (en ayant l’idée de piloter un commutateur A/B Philips TRT/TI en frontal d’un modem et d’une carte vocale.
          Et j’ai fait les premiers serveurs vocaux interactifs en France en 1989 pour les Caisses d’Epargne, et pour Libération.
          Et ça n’empêche que perdre son temps à s’arracher les cheveux sur des dll foireuses et des machines à blue screen cycliques, c’est un non-sens. Moi, j’aime les ordinateurs et les softs qui marchent. Parce que je n’aime pas perdre mon temps.


        • Bertrand Damien Bertrand Damien 1er février 2010 21:19

          Et pour finir, je l’oubliais celle-là, mais c’est celle qui m’a permis de prendre ma retraite anticipée pour faire de la musique (OUI, SUR MAC), je fais partie des 12 mecs qui ont créé fin 99 la boite qui a développé et déployé les softswitchs de VoIP qui contrôlent toute la téléphonie sur IP des Livebox en France. 6 ans plus tard, on était 500. Et tout ça sous des clusters Linux en Load Balancing.

          Mais pour faire de la zic sous Linux, faut bien s’accrocher les gamelles au c....


        • french_car 1er février 2010 21:58

          Damien vous avez oublié ça : depuis j’ai un peu mal aux chevilles mais je me soigne smiley


        • non667 1er février 2010 22:58

          à plancher
          le 8088 n’était pas le n° du coprocesseur mais celui d’un faux 16 bits (2 instructions 8 bits regroupées et traitées ensemble ce qui divisait sa vitesse par 2 .comme le faux 64 d’intel par rapport au 64 d’ amd je pense ?


        • Croa Croa 2 février 2010 00:01

          Disons qu’en 78 les machines de bureau commençaient à être au point !

          Parce qu’en 74 ça existait déjà... Sans être très efficace ! Par exemple la machine ALVAN avec un énorme tambour en guise de disque dur et des dérouleurs de cassettes (modèle « mini-K7 », si, si smiley mais en plus rapide ) lesquels tombaient régulièrement en panne ! Sachant que le ruban des cassettes s’emmêlait souvent il n’y avait pas intérêt à oublier les sauvegardes !

          Des machines de bureau qui valaient environ 25 000 francs pièce (Le franc de 1974 est presque équivalent à l’euro de 2000) mais vue les problèmes smiley je pense que ça a dû finir en échec commercial.


        • Bertrand Damien Bertrand Damien 2 février 2010 10:27

          Bof. Présenter la connexion d’un modem sur un AS400 comme un exploit qui prouve les arguments du Monsieur, ça me fait un peu rigoler, alors je me suis un peu défoulé.
          Faites un petit Google sur « Netcentrex », vous verrez si c’est de la fanfaronnade.
          Et moi vous me trouverez là par exemple (ça date un peu, 2003) :
          http://www.journaldunet.com/itws/it_chauvet.shtml


        • Céphale Céphale 1er février 2010 13:23

          Il faut distinguer la micro-informatique et la mini-informatique. 

          La micro-informatique est apparue vers 1980 avec les premiers microprocesseurs à un prix abordable (par exemple le Z80 de Zilog). Elle s’est développée avec Microsoft d’un côté et Apple de l’autre. C’est une informatique grand public.

          La mini-informatique est plus ancienne. C’est une extension de l’informatique professionnelle basée sur le système UNIX. Dans les années 80, le leader de la mini-informatique était la DEC (Digital Equipment Corporation).

          • goc goc 1er février 2010 13:32

            Au début des minis (années 70), on ne parlait pas encore d’OS comme on l’entend actuellement, surtout que la capacité des minis ne permettait pas d’héberger un OS aussi gros qu’Unix , chacun se faisait son petit OS, parfois temps réel pour les applications industrielles.
            j’ai travaillé sur des mini Digital (pdp8) et Telemecanique (T2000 et solar) puis sur Bull (mini6), mais pas trop longtemps, car déjà les micros commençaient a prendre le pas - je travaillais sur des applis industrielles


          • finael finael 1er février 2010 13:50

            Les PDP étaient (et sont toujours ... il en reste) basés sur un système appelé RSX, un DOS évolué (en fait c’est le DOS qui est tiré de RSX). RSX était écrit en octal.

            J’ai travaillé plus de 20 ans sur machines DEC : PDP, VAX, Alphas.


          • L'enfoiré L’enfoiré 1er février 2010 16:43

            DEC, absolument. Les minis de l’époque.
            Bizarre, que l’on ait oublié les ordinateurs analogiques.
            Peut-être réapparaitront-ils plus tard avec la force de calcul.


          • Bertrand Damien Bertrand Damien 1er février 2010 16:51

            En 1988, je travaillais sur un mini sous Unix, avec seulement 1 Mo de RAM et des TTY partout. On était 5 dessus en mode terminal, et ça marchait très bien !


          • goc goc 1er février 2010 13:24

            moi j’ai commencé en 1975, sur des « mini » grand comme des armoires normandes et contenant des disques de 512koctets (il fallait être 2 pour porte le disque tellement ils étaient lourds et imposants)
            par contre le debuggage se faisait aux clés, c’est à dire qu’on pouvait visualiser les contenus des mémoires sur des voyants, et modifier ce contenu à l’aide de clés (la mémoire contenant aussi bien les instructions que les données)
            autant dire qu’il fallait connaitre par cœur le code binaire de chaque instruction.
            C’était tellement rudimentaire qu’a cette époque quand on démarrait une machine pour la première fois, il fallait rentre le boot (en gros le noyaux du bios actuel), « à la main », c’est a dire entrer aux clés les 15 instructions permettant de lire la bande perforée qui chargeait le programme permettant le lire et installer les autres programmes.

            A propos de bug, pourquoi quand on répare un programme on dit qu’on le « debug » ?. Cela vient de l’époque des premiers ordinateurs à lampes, ou les programmes s’arrêtaient, parce que des insectes venaient dans l’ordinateur et provoquaient des court-circuits, alors on enlevait ces insectes (bug en anglais« , donc on »dé..bugguait" le programme


            • morice morice 1er février 2010 13:56

              excellente vaccination de rappel ! félicitations ! Chez Siemens, en bas des trieuses à carte il y avait une.... manivelle : quand il n’y avait plus de courant, on l’activait pour faire... dynamo : c’est bien ça le cap entre mécanique et électronique !! 


              • zelectron zelectron 1er février 2010 14:02

                De Gaulle n’a pas fait que cette erreur : les semi-conducteurs (aujourd’hui STMicroelectronics est le seul survivant et encore grâce aux Italiens !) et tant d’autres technologies...
                Ses successeurs non plus n’ont pas été brillants c’est un doux euphémisme et l’actuel président détient le ruban bleu de l’incompétence économique : il ne sait même pas que les chevaux se battent à l’écurie quand il n’y a pas assez de foin, mais la sagesse paysanne...il s’en fout !

                p.s. Et le Micral !!!


                • goc goc 1er février 2010 14:10

                  les responsables de l’échec de l’informatique (hard) française, sont, certes DeGaulle, mais surtout les technocrates qui ont lancé les plans « 100 000 micros pour l’école » qui au lieu de proposer d’etre une locomotive a l’industrie française, en ont ete les fossoyeurs en cherchant a avoir des micros au prix le plus bas possible, tout en exigeant le même service que les autres clients, et du coup, ils ont poussé la plus part des sociétés choisies au dépôt de bilan.


                • zelectron zelectron 1er février 2010 16:31

                  hélas : 100 000 microdaubes !

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON







Palmarès