Fermer

  • AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > « Linternux » : Linux 2.0 avec le Web 2.0 comme plate-forme (...)

« Linternux » : Linux 2.0 avec le Web 2.0 comme plate-forme ?

Le terme Linternux est une invention de mon cru (Google ne trouve aucune citation sur ce terme à ce moment).

Je veux synthétiser par ce nom la fusion entre les concepts de système d’exploitation Open Source (avec Linux comme emblème), mashups & web 2.0.

C’est à David Berlind de ZDNet qu’il faut attribuer la paternité
de cette fusion.

Je parle abondamment de ces concepts depuis plusieurs mois en étant conscient (voir fin du billet) de ne pas arriver à les lier de manière cohérente.

En 2 schémas comparatifs, D. Berlind (plus efficace que moi !) crée "le chaînon manquant" en faisant le bon parallèle sur 3 couches entre le présent et le futur.

le système d’exploitation classique

linternux

Donc,
  • les applications restent les mêmes (plus ou moins...). Elles sont justes logées dans le navigateur et utilisent la puissance d’AJAX et de DHTML (HTML dynamique) au lieu d’utiliser le système GUI de l’ordinateur. Linternux n’est donc pas qu’une plate-forme technique mais un vrai système qui rend(ra) les services fonctionnels attendus.
  • Ces applications utilisent l’ensemble des API du web 2.0 (déjà abondantes !) pour rendre leurs services sous forme de mashups basiques ou de "vraies" applications structurées comme Zimbra. Linternux est donc aussi doté d’un ensemble de services libres d’accès à des développeurs tiers pour y créer un écosystème (prospère ?).
  • elles vont chercher la puissance de calcul, les données stockées ou des services plus complexes à travers l’Internet avec des protocoles / architectures comme REST ou SOAP. Internet devient le bus interne de Linternux

En outre, D. Berlind met en avant l’avantage spécifique de Linternux : un système 100% ouvert à l’innovation qui lui rappelle le papier séminal de E. Raymond, la Cathédrale et le Bazar (à lire impérativement !).

J’ai extrait en fin de ce billet 2 passages de ce papier qui me semblent (surtout le premier) bien refléter l’ouverture complète de Linternux : personne n’a besoin de sélectionner (comme la communauté Linux doit le faire pour ses distributions) les API et services inclus dans Linternux.
Les API et les services sont tous égaux au départ, i.e. accessibles par un appel interactif au-dessus du Web. La sélection darwinienne du Web 2.0 fera le reste pour déterminer ceux qui doivent survivre !

Dion Hinchliffe a construit sur cette première vision de D. Berlind pour fournir un schéma plus complexe qui met en place les interactions entre les couches internes de Linternux.

Elles mettent en lumière la complexité naissante de Linternux : quand on voit les interdépendances, on peut s’inquiéter de la fiabilité !

Mais, finalement, ce sont quand même les immenses progrès dans ce domaine de ces dernières années qui permettent d’oser envisager puis publier de telles visions. Tout n’est pas à 100% parfait aujourd’hui, il faut juste laisser encore un peu de temps au temps !

PS : extraits de la Cathédrale & Le Bazar

extrait 1
"Le style de développement de Linus Torvalds - distribuez vite et souvent, déléguez tout ce que vous pouvez déléguer, soyez ouvert jusqu’à la promiscuité - est venu comme une surprise. À l’opposé de la construction de cathédrales, silencieuse et pleine de vénération, la communauté Linux paraissait plutôt ressembler à un bazar, grouillant de rituels et d’approches différentes (très justement symbolisé par les sites d’archives de Linux, qui acceptaient des contributions de n’importe qui) à partir duquel un système stable et cohérent ne pourrait apparemment émerger que par une succession de miracles."

extrait 2

"Linus cherchait directement à maximiser le nombre de personnes-heures jetées dans la bataille du débogage et du développement, au prix éventuel d’une certaine instabilité dans le code et de l’extinction de sa base d’utilisateurs si un quelconque bogue sérieux se révélait insurmontable. Linus se comportait comme s’il croyait en quelque chose comme :

8. Étant donné un ensemble de bêta-testeurs et de co-développeurs suffisamment grand, chaque problème sera rapidement isolé, et sa solution semblera évidente à quelqu’un."


Moyenne des avis sur cet article :  3/5   (58 votes)




Réagissez à l'article

48 réactions à cet article    


  • (---.---.43.89) 15 mars 2006 12:53

    Sprintfile et Linus T. Le Finn:Le Metre & son apprenti L.T.


    • Brisefer (---.---.54.137) 15 mars 2006 13:30

      Donc, si j’ai bien compris, je n’ai rien compris...

      Pourriez-vous vulgariser svp ? j’espère que je ne suis pas seul à m’interesser à ces questions et à ne rien entendre au vocabulaire technique informatique.


      • Didier Durand Didier Durand 16 mars 2006 06:19

        Bonjour Brisefer,

        Désolé si j’ai tapé à côté de la plaque en publiant un billet très spécialisé sur une plate-forme plus généraliste.

        J’ai essayé de faire mon maximum en faisant beaucoup de liens sur Wikipedia et autre (cachés sous les termes techniques par hyperliens) mais peut-être que cela ne suffit finalement pas.

        Je crois que j’aurais du mal à expliquer le concept autrement qu’avec quand même pas mal de termes de jargon technique.

        Mea culpa !

        didier


      • Didier Durand Didier Durand 16 mars 2006 10:08

        Bonjour Demian,

        Je dois m’avouer inculte sur l’histoire de la construction des cathédrales. J’avais (bêtement)fait confiance à l’analogie de E. Raymond dans son article. Ce texte garde quand même moi toute sa valeur pour la partie informatique

        Merci donc de votre précision

        didier


      • Didier Durand Didier Durand 17 mars 2006 10:02

        merci pour les fleurs (appréciées) ! cordialement didier


      • Thucydide (---.---.101.8) 15 mars 2006 15:13

        Votre concept est très intéressant en théorie, mais en pratique, il promet d’être une usine à gaz vouée à faire les délices des informaticiens, mais pas du grand public. Malgré ses indéniables avantages, Linux à lui seul reste réservé aux spécialistes ou aux accros de la chasse aux lézards. Alors, un tel bouzin interactif, ça risque d’être coton à maîtriser. Ceci vu à court terme.

        Sur le long terme, et après stabilisation, peut-être êtes-vous visionnaire. Peut-être que, comme vous le suggérez, le darwinisme informatique sélectionnera cet organisme de bits et d’octets comme étant le plus performant. Mais j’ai des doutes sur sa capacité à devenir un vrai organisme, et non une simple tumeur offerte à tous les parasitismes.

        Déjà, quand vous voyez la quantité de trucs qu’un bête PC fait dans votre dos sans vous demander votre avis, vous pouvez avoir des doutes sur l’utilité d’accentuer le phénomène. Mais peut-être qu’à l’avenir, tout un chacun zigzaguera dans les méandres de l’informatique avec la même aisance qu’un livreur de pizza dans la circulation parisienne. Donc, je ne dénigre pas, mais je demande à être convaincu.


        • Didier Durand Didier Durand 16 mars 2006 09:52

          Bonjour Thucyde,

          Comme écrit, il faudra laisser du temps au temps pour vous convaincre.

          Merci en tout cas de m’accorder le bénéfice du doute quant au potentiel (futur) de l’idée...

          cordialement

          didier


        • DecIRC (---.---.148.35) 17 mars 2006 02:22

          Bon, je reconnais qu’il y a une grosse odeur de Troll, mais estimer que Linux est réservé aux spécialistes ou aux accros de la chasse aux lézards, me semble aussi démodé et dépassé comme concept que de considérer le téléphone portable réservé aux chefs d’entreprise. Le monde évolue, Linux aussi... et je m’occupe de personnes du troisième âge qui découvre l’informatique avec Linux (avec ou sans première expérience sous Windows) et qui sont ravies de la simplicité de l’ensemble....

          Courage... et évoluez...


        • corine (---.---.184.33) 15 mars 2006 15:46

          je ne suis qu’une menagere de moins de 50 ans et je n’ai rien compris a votre article !Domage que vous ne situez pas vos propos dans un contexte plus global où vous presenterez les enjeux d’une maniere simple avant d’entrer dans le jargon ’informaticien’... corine


          • Didier Durand Didier Durand 16 mars 2006 06:22

            Bonjour Corinne,

            Comme écrit à Brisefer dans mes autres réactions sur votre commentaire, je pense ne pas avoir choisi la bonne plate-forme pour publier cette article finalement trop spécialisé

            J’aurais dû finalement seulement le laisser sur mon blog.

            Je pensais qu’il y avait quand même une place sur Agoravox pour un article spécialisé...

            désolé

            didier


          • Fab (---.---.142.179) 15 mars 2006 16:11

            Microsoft a déjà intégré le navigateur au sein d’un OS, Internet Explorer... Et remplacer l’OS par internet ?! Je ne suis pas sur d’avoir compris... Vous voulez remplacer l’OS par un serveur web bourré de modules ?


            • Didier Durand Didier Durand 16 mars 2006 06:24

              Bonjour Fab,

              Oui, c’est grosso modo l’idée qui se dégage actuellement : le Web devient l’OS et le navigateur = le GUI.

              Comme écrit, il faut cependant encore laisser un peu de temps au temps mais (à mon avis) on va dans cette direction

              cordialement

              didier


            • jb33 (---.---.206.205) 15 mars 2006 16:52

              ca ne serait pas une reprise de l’idée de Sun (The Network is the machine) ?

              Ceci dit, on se bat encore avec quelques millions de ligne de COBOL pour le remplacement desquelles on n’a ni le temps ni l’argent, sans parler des utilisateurs à qui il va falloir apprendre de nouvelles interfaces..... (et je ne parle pas des problèmes de sécurité)

              Ceci le concept est bien, tres Open Source et Free (as in free speech, not free beer.....)


              • Didier Durand Didier Durand 16 mars 2006 06:31

                Bonjour jb33,

                merci pour le qualificatif sur le concept !

                PS : je termine actuellement un projet de conversion automatique vers l’Open Source de 4 millions de lignes de Cobol. Si vous voulez, on en parle...

                cordialement

                didier


              • bj33 (---.---.206.205) 16 mars 2006 07:31

                Sur que professionnellement c’est quelque chose qui m’interesse, si l’on arrive à lever certaines rigidités et lourdeurs.......


              • Didier Durand Didier Durand 16 mars 2006 10:09

                En cas de besoin, mon email est sur mon blog


              • GS (---.---.47.124) 15 mars 2006 19:35

                Rien compris non plus.

                A qui s’adresse cet article ?

                Avec les niveaux de complexité atteints par les logiciels d’aujourd’hui, je pensais naïvement que les informaticiens devaient être capables d’esprit de synthèse. Des dieux de la structuration de la pensée.

                En lisant cet article, j’ai l’impression d’une grande confusion.


                • Didier Durand Didier Durand 16 mars 2006 06:30

                  Désolé GS,

                  Comme écrit plus haut à Brisefer et Corinne, je n’ai pas choisi la bonne plate-forme pour cet article.

                  Tout une partie de l’audience d’Agoravox ne semble effectivment pas intéressées par ce genre de « divagations ». Mea Culpa !

                  Mais, 2 points : - les idées émergentes ne sont pas toujours faciles à synthétiser : c’est quand elles ne le sont plus (émergentes) qu’elles paraissent lumineuses... - je vous assure que cet article veut dire quelque chose pour les gens du domaine smiley)

                  Je ne connais pas votre profession, mais je ferai une analogie avec les médecins : les trouvez-vous toujours lumineux quand ils vous expliquent ce dont vous souffrez ? moi pas...

                  cordialement

                  didier


                • J2C (---.---.194.9) 15 mars 2006 22:03

                  Aux personnes qui n’ont pas compris le Web 2.0.

                  Le Web 2.0 est une reflexion sur ce que deviendra le web. L’idée est que votre browser (celui-qui vous permet de lire ces lignes) serait le client ultime, dans une approche client/serveur. Concrêtement, au lieu de vous connecter sur de ’bêtes’ site web, vous vous connecterez sur des sites applicatifs. Exemple le site ’http://calcul.openoffice.org’ vous permettra d’acceder à un tableur. Et tout est intégré dans votre browser. Je vous laisse réfléchir aux implications qui en découlent.

                  Cordialement

                  J2C


                  • Didier Durand Didier Durand 16 mars 2006 09:50

                    Bonjour J2C,

                    Merci de votre aide par un exemple concret !

                    Selon les autres commentaires, je suis visiblement resté trop abstrait et théorique

                    didier


                  • (---.---.162.15) 15 mars 2006 22:21

                    Je ne crois pas du tout à l’évolution que vous décrivez, sauf peut-être pour certains publics professionnels spécifiques.

                    D’abord, vous ressortez une chimère qui a déjà existé il y a environ 8 ans quand le navigateur Netscape rêvait de devenir un système d’exploitation utilisable sur toutes les machines. Ca a fait un grand plouf. Il y a 4 ou 5 ans, Oracle a aussi été dans le sens d’un système d’exploitation déporté, ça s’appelait le NetPC ou quelque chose comme ça. Encore un grand plouf.

                    Ensuite, je crois que « philosophiquement », si je puis dire, vous avez tort. Je pense qu’il y a entre l’homme et « son » ordinateur une relation spéciale qui fait que l’homme a un désir de « contrôlabilité » de sa machine. C’est « son » disque dur, « son » bureau, « sa » puissance. Ce sont surtout « ses » données qu’il tient à maitriser seul. Il ne voudra donc pas déporter la gestion de « ses » informations sur des machines qu’il ne contrôle pas.

                    L’indépendance numérique est un acquis auquel nous ne sommes pas prêts de renoncer.

                    Am.


                    • Didier Durand Didier Durand 16 mars 2006 10:05

                      Bonjour,

                      2 points de ma part sur votre commentaire :

                      - la chimère : peut-être qu’effectivement, cela en est une nouvelle (Netscape bis) mais il y beaucoup d’inventions / progrès passés qui ont dû vivre plusieurs itérations avant de percer... Aujourd’hui, l’infrastructure Internet et la puissance des machines n’a aucun rapport avec celle de l’époque Netscape( « j’y étais » aussi). C’est peut-être ce tour-là qui sera gagnant ou peut-être le suivant !

                      - l’indépendance numérique : argument très juste ! merci de l’avoir apporté. Cela retardera (voire empêchera) surement l’universalité de la solution mais il y aura quand même à mon avis des morceaux de notre univers numérique personnel qui vont quitter notre PC préféré pour se trouver exporter par cette architecture à mon avis.

                      cordialement

                      didier


                    • Steph (---.---.254.173) 15 mars 2006 23:29

                      Bonjour Je trouve que c’est un bon concept, vous n’auriez plus besoin de windows (ou de MacOs ou linux) mais seulement d’un ordinateur qui trouverait sur internet tout ce dont il a besoin pour fonctionner. Exit les monopoles des éditeurs... Mais mais mais il me semble évident que les grands éditeurs, si le vent devait tourner en ce sens, seraient les premiers à vouloir placer leurs propres logiciels dans ce principe. De plus certaines applications nécéssitent une grande quantité de calcul et je doute encore que les réseaux soient assez solides pour permettre un travail sur une image en 3D ou sur une affiche de 4mx3m en 300 dpi... On en reste au traitement de texte en quelque sorte.

                      ps : l’inénarrable désastre DW a encore réussi à nous asséner le suplice de sa prose.


                      • (---.---.162.15) 16 mars 2006 07:27
                          je ne m’adresse qu’à ceux qui ont choisi de me lire

                        Non, Demian West, quand on écrit sur Agoravox, on s’adresse à tous les lecteurs, comme lorsqu’on parle à la radio (auditeurs) ou à la télévision (téléspectateurs). Les lecteurs, auditeurs, téléspectateurs sont certes volontaires mais par rapport à la page ou ou l’émission, pas par rapport aux intervenants.

                        Vous n’avez pas moyen ici de ne vous adresser qu’à quelques personnes triées, nous sommes tous obligés de vous lire, même si, pour certains habitués, cela peut-être très partiel à cause de redondances reconnues dans votre manière de vous exprimer. Auquel cas, il y a tout de même une certaine lecture et une certaine prise en compte de vos propos.

                        Contrairement à ce que vous venez d’écrire, votre lecture est donc bien contrainte.

                        Am.


                      • Didier Durand Didier Durand 16 mars 2006 09:58

                        Bonjour Steph,

                        D’accord avec vous sur 2 points :

                        a) ce n’est pas la panacée : le 3D par ex restera effictement local pendant longtemps

                        b) les grands éditeurs vont effectivement se placer dans ce nouveau jeu : - Microsoft a publié sa stratégie sur le sujet : voir mon blog http://media-tech.blogspot.com/2005/11/nouvelle-stratgie-microsoft-la-vision.html - Yahoo est actif http://media-tech.blogspot.com/2006/03/yahoo-ouvre-les-vannes-web-20-avec-4.html - Google aussi http://media-tech.blogspot.com/2006/03/writely-o-sur-le-product-framework.html

                        Donc, une vraie tendance qui ne sera sûrement jamais universelle et idéale mais qui va quand même exploser !

                        cordialement

                        didier


                      • brch90 (---.---.181.233) 16 mars 2006 11:38

                        Tout ça ne tient pas debout.

                        1) Les serveurs ne sont pas assez puissants pour faire tous les calculs en cours afin de satisfaire aux clients 2) Les réseaux ne suivent pas en débit et fiabilité 3) Vulnérabilité du procédé : centralisation : réseau en étoile. 4) Problèmes de confidentialité des données 5) Intérets financiers contradictoires : si le serveur paie la license du tableur, l’entretien etc (par exemple) il faudra bien repporter les coûts sur les utilisateurs ... Et il vaut mieux vendre, pour l’éditeur, 12 millions de license que 1... On préfère payer, pour l’utilisateur, notre license une fois que la louer x fois et finalement payer plusieurs fois la même license ... 6) Problème de décision : qui va décider sur quel serveur et où va être implanté le tableur ? Quand on voit déjà les discordances sur la gouvernance de l’internet et les actualités chinoises ... 7) Problème de paiement : comment payer sans se faire arnaquer ? Avec toutes les fraudes ... 8) Que rapporterait un tel réseau par rapport à la structure lente mais fiable d’Internet actuel ?

                        Enfin si les informaticiens (ou plutot ceux là) projetent de construire ce ’’Web2’’ comme expliqué dans l’article alors pas de soucis à se faire... Personne n’y comprendra rien, ni les banquiers, ni eux !


                      • brch90 (---.---.181.233) 16 mars 2006 11:50

                        PS : Tout le monde n’a pas Internet et si l’on dit que 50 % l’ont cela signifie que 50 % ne l’ont pas ...


                      • J2C (---.---.194.9) 16 mars 2006 14:48

                        Je rajoute mes petites remarques :

                        >1) humpf, pour une question de puissance brute, tu n’as qu’a attendre. Celle-ci monte de 50%/an et donc c’est un faux problème. Rien n’empeche de detacher une partie de la charge CPU, sur le client. >2) Je dirai plutot que c’est le problème de latence qui est important. La fiabilité du réseau a largement été eprouvée en cas de catastrophe, .. . Le probleme de fiabilité que tu vois, et + lié à celui de l’hébergé qui n’a toujours les moyens pour redonder son service. >3) Comment ça ?, le web a une architecture centralisée smiley >4) Il existe des solutions, (cryptage...). Le probleme est plutot de l’utilisation que peut en faire le site. Mais ce problème, existe avec toutes données nomminatives, (celles de ton banquier, ...). >5) Je suis d’accord le modele économique de l’éditeur de logiciel est en porte-a-faux avec celui de Web 2.0. Mais il est déjà entrain de se faire tailler des croupieres avec l’opensources. >6)  ??? faudrait que google demande a la gouvernance d’internet ou il a installe ses serveurs. >7) Pour moi, deux sources de paiement.
                        - publicité
                        - aquisition >8) Une plus grande maitrise des flux de données, sinon une interface plus réactive.

                        Cordialement

                        J2C


                      • brch90 (---.---.1.13) 17 mars 2006 12:08

                        Cela fait x années (>10) que l’on dit que la puissance des cpu augmente de x % mais comme les logiciels sont autants et même plus gourmands alors il n’y a pas de changements. Par exemple , pour éditer un texte ou pour une simple feuille de calcul on ne va pas plus vite aujourd’hui qu’avec un tableur Lotus en mode clavier sous DOS (ancêtre de Windows, vers année 90 pour les non initiés), quand il n’y avait pas de souris (Si ça existait !) Comparez les ressources utilisées ...

                        Confidentialité : le cryptage consommera encore plus de puissance machine. Plus la vitesse cpu augmente et plus il sera facile de décoder les chiffres donc il faudra encore augmenter le cryptage etc, le serpent se mort la queue !

                        Avec les nouveaux Windows, la seule différence : plus de 25 tâches de fond (mini) en permanence avalent la puissance de la machine et encore j’ai enlevé toutes celles en trop qui ne servent à rien ou juste ouvrent des trous béants dans la sécurité du pc... Mais il est vrai qu’il n’y aura plus rien à protéger puisque tout sera lisible sur le serveur et le réseau ...

                        Pour détacher un peu de puissance sur le Client cela signifie rester en l’atat actuel ! Donc Web 2 -> mort né

                        Si le Web a une architecture centralisé c’est une découverte pour moi !, révise donc l’histoire d’Arpanet et tu verras qu’il est capable de se débrouiller sans les serveurs centraux 8-))

                        Si la publicité suffisait a tout financer cela se saurait -> voir l’histoire de la bulle Internet et se demander pourquoi on paye des license 8-)) De plus le plupart des utilisateurs ne veulent pas passer leurs temps à voir la pub - d’où l’invention des proxys - ils veulent travailler et pas regarder la télévision.

                        L’Opensource, comme Linux, est une usine à gaz. Je le sais par expérience. Pour installer le moindre programme il faut faire également des mises à jours (pour les dépendances) comme pour Windows. L’explication du fonctionnement est nébuleuse. Pour celle accessible en ligne des pages Web qui en appelent d’autres etc ... Les livres sortis sont désuets (évolution trop rapide) ou hors sujets : O’Reilly vous parle encore de emacs et de Mutt ; tout le tin-touin alors que la plupart des gens utilisent le serveur graphique X et se fichent complettement du moteur, de la compilation du noyau, d’aptitude etc ...

                        Comme si les tous les conducteurs d’autos étaient des spécialistes en mécanique smiley La plupart se savent même pas changer une ampoule (pas toujours facile) : regardez la nuit le nombre de voitures avec un oeil, mais là on est hors sujet !

                        Pour connaître le rôle de chaque dépendance il faudrait plusieurs vies et lire toute la bibliothèque d’Alexandrie (si celle-ci est à jour smiley Ces dépendances sont comme des dll de Microsoft ! Et je ne parle pas de BeOS, FreeBSD et autres systèmes plus ou moins exotiques etc mais que je ne connais pas vraiment, il est vrai. Le résultat est le multiplication des versions Linux. Imaginez que pour utilisez votre feuille de calcul tableur vous soyez contraint de convertir son format à chaque fois ! (et rarement sans risque). Il faudrait donc choisir son tableur préféré.

                        Ensuite on ne peut pas parler de ’croupières’ puisqu’on a pas de données financières (Linux est gratuit) et à ce que je sache personne n’a pratiqué l’inventaire des OS sur toutes les machines du monde. Il est facile d’être juge et partie. Même Microsoft ne connait pas exactement le nombre de machines équipées avec son OS (entre les vieilles versions, les nouvelles, les bétas, les pirates etc ...)

                        De plus Linux est trop orienté serveur et web et trop peu bureautique et ce même s’il a fait des progrès il est vrai ces derniers temps : Mandriva (payant !), Linspire, etc ...

                        Finalement avoir une interface plus réactive avec des ’temps de latence’ plus long ? je ne comprends pas bien. L’utilisation sera plus lente et donc plus réactive ? Je sais qu’il faut prendre son temps pour les bonnes choses smiley) mais il y a un moment où on aime que cela accélère non ? 8-))

                        Ce concept de Web 2 rejoint les anciennes architectures ou les clients ne sont que des terminaux plus ou moins avolués (les écrans verts ne vous rapellent rien ?, AS400 ?)


                      • J2C (---.---.194.9) 16 mars 2006 11:25

                        On peut rajouter quelques remarques sur l’emergence du Web2.0. Celle-ci est facilité par l’utilisation de protocole ouvert, uniformisé (XML, ...), ainis que l’augmentation de la bandes passantes pour le particulier (ADSL). Pourquoi maintenant et pas avant ? parce que les technologies infrastructures étaient inexistantes (fallait etre soit riche, soit vivre dans une université smiley ). Alors en paraphrasant ’Am’, a t’on besoin de son disque dur, son cpu, sa machine, je dirais non, si ce matériel peut être virtualisable. Cela commence avec le stockage (voir gSpace and Co.). Mais cela devrait être flagrant dans 5/10ans, il reste encore quelques problematiques a résoudre.
                        - sécurisation des données (si le site est hs, pas de données)
                        - vie privée (cryptage des données au vol)
                        - Debit (qqc Mo/s pour 60-80 pour des DD)
                        - Latence (qqc s pour des ms pour les DD).

                        Cordialement

                        J2C


                        • nO (---.---.128.14) 16 mars 2006 11:28

                          La transition se fera en douceur a mon avis, car petit a petit les internautes deleguent a internet de plus en plus de chose entre les web mails les serveurs de stockages et autres blogs.

                          Dans les entreprises le systeme client serveur est majoritaire et les employers l’utilisent chaque jour. les grands acteurs sont deja en train de prepare leur armes et l’augmentation tres rapide des capacite de connection permet deja d’imagine ce que sera demain.

                          De plus la guerre aux pirates lancé par les ayants droits ce fera beaucoup plus facilement grace a ce type de systeme. les correction de bug et autres virus informatique ne pouront plus utilise la meconaissance des internautes pour trouver des machines ou des failles persistent.

                          Comme tout systeme il ses avantages et ses limites. un plus grand control sur le reseau implique des instances pour le controler.


                          • Didier Durand Didier Durand 17 mars 2006 05:44

                            bonjour NO,

                            D’accord avec vous sur la transition progressive : l’offre et la demande doivent encore les 2 mûrir.

                            didier


                          • (---.---.162.15) 16 mars 2006 12:01

                            Une instance de contrôle instaurée par RDDV et nos députés, ce serait bien !

                            Am.


                            • Didier Durand Didier Durand 17 mars 2006 05:42

                              Bonjour Am,

                              C’est de l’humnour ou une erreur dans la procédure de commentaire d’un autre article ?

                              Bon, je vais quand même y réfléchir smiley


                            • (---.---.162.15) 18 mars 2006 07:16

                              C’est de l’humour sur le thème « Moins il y aura d’instances de contrôle, mieux ce sera ». N’oublions pas que la Loi commune s’applique aussi à Internet, je ne crois pas qu’il y ait besoin d’instances spécifiques, le risque d’aller vers des solutions RDDV est trop grand.

                              Am.


                            • bj33 (---.---.206.205) 16 mars 2006 12:07

                              un dernier commentaire : que se passera-t-il pour les 5 à 8% de la population qui, comme moi, habitent à plus de 4 km d’un répartiteur et qui ne verrront jamais l’ADSL, et qui en plus, grace a la géographie (forêt landaise, collines ardéchoises etc) ne croient pas trop au WiMAX.


                              • Didier Durand Didier Durand 17 mars 2006 05:40

                                Bonjour BJ33,

                                Pas d’inquiétude : cette solution si elle émerge finalement ne sera jamais universelle pour diverses raisons (voir d’autres commentaires plus haut).

                                Ce sera un complément aux systèmes actuels : elle en remplacera peut-être certains dans des situations bien précises à 100% mais il restera pendant très longtemps encore les « bons vieux PCs »

                                cordialement

                                didier


                              • corine (---.---.211.23) 17 mars 2006 20:00

                                Finalement je comprends mieux les enjeux du Web2.0, les inconvenients et les avantages.On pouurait envisager des mini-ordinateurs inferieur a quelques centaines d’euros, qui auraient des caracteristiques techniques tres faible, deleguant la logique applicative au WEB.Quelles perspectives pour les pays du tiers-monde ou autres !... Tous le monde n’a pas envie de faire des jeux 3d. Les services les plus courants pourraient tout a fait etre realisable via cette architecture client tres leger, serveurs puissants : appliquer un filtre sur une photo sera fait par le serveur (plus besoin de photoshop ..), etc .. Je serais interrese si quelqu’un faisait la synthese de nos remarques et fasse de cet article une reference.


                                • Didier Durand Didier Durand 18 mars 2006 06:25

                                  Bonjour Corine,

                                  Effectivement, c’est le but : plus de travail sur le réseau dans des endroits spécialisés et moins sur le pc qui se simplifie et peut donc coûter moins cher.

                                  PS : pourquoi ne vous lanceriez-vous pas dans la synthèse que vous suggérez ? Elle alimenterait ainsi la discussion par un 2ème point de vue.

                                  didier


                                  • Thucydide (---.---.103.223) 18 mars 2006 07:44

                                    Merci, Didier, de ne pas avoir mal pris mes réflexions. Je m’aperçois à la lecture de la réaction de DecIRC que j’ai employé un langage trop vert, qui risque d’être mal perçu.

                                    Pour en revenir au fond du problème, je pense qu’il est dans l’éternel débat client lourd contre client léger. Pour les non informaticiens, je précise qu’il s’agit de choisir entre avoir un maximum de choses présentes sur le PC et un minimum à distance, ou l’inverse, un PC complètement allégé, mais vous téléchargez à la volée tout ce qui s’y exécute. Le principe d’internet et du navigateur est, à l’origine, conçu comme un client léger. L’avantage, c’est que vous êtes en permanence à jour dans ce que vous utilisez, l’inconvénient, c’est que vous subissez des mises à jour parfois indésirables et que vous êtes tributaire de l’état du réseau et de sa disponibilité.

                                    Par expérience, je préfère le client lourd, avec mise à jour interactive ou manuelle, au choix de l’utilisateur. Tout simplement parce que la puissance croissante des ordinateurs et leurs capacités de stockage sont plus disponibles que le réseau, et que vous pouvez choisir, en fonction de vos besoins.

                                    Et pour répondre à DecIRC, non, ce n’était pas un troll. Je ne dénigre absolument pas Linux, mais vos personnes âgées, elles n’ont pas à le configurer et le dépanner elles-mêmes, j’imagine. Linux, c’est comme acheter une voiture en kit. Si vous aimez la mécanique et avez le temps et les connaissances, vous vous ferez certainement plaisir pour un coût nul et pas mal d’autres avantages. Autrement, vous devrez vous contenter d’utiliser celle que d’autres auront montée à votre place. Certes, maintenant, avec les kits de base, vous avez déjà un linux en ordre de marche. Mais difficile à configurer tout de même, car vous vous retrouvez dans un monde encore cloisonné peuplé surtout d’informaticiens.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON






Les thématiques de l'article


Palmarès