• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Médias > La stratégie des fous à lier : les enjeux du journalisme de (...)

La stratégie des fous à lier : les enjeux du journalisme de liens

 

Cette affaire de « journalisme de liens » semble en troubler certains qui se demandent pourquoi nous sommes quelques « fous à lier » [1] à nous exciter à ce point là-dessus. C’est que l’affaire est loin d’être aussi simple que de seulement remettre au goût du jour le genre traditionnel de la revue de presse, dans un format adapté au web...

Dans « cette économie du lien », selon l’expression chère à Jeff Jarvis, se nouent en effet quelques-uns des enjeux majeurs du nouveau régime de l’information sur internet. C’est d’abord un enjeu d’audience déterminant pour les sites web. C’est ensuite un enjeu professionnel crucial pour les journalistes qui cherchent à retrouver en ligne un rôle, aujourd’hui perdu, de recommandation et de hiérarchisation de l’information. C’est surtout l’enjeu fondamental de la remise en cause du monopole acquis par Google dans la distribution de l’information en ligne : le pouvoir de lier donne le contrôle de l’information et c’est une clé de l’audience sur internet et de sa monétisation.

J’ai mis longtemps pour réussir à « sortir » ce billet qui me travaille depuis des semaines. C’est que cette réflexion fait appel à des notions qui sont parfois « contre-intuitives » et passablement difficiles à expliquer clairement, surtout quand on n’est pas soi-même un spécialiste de la question, pas plus qu’un expert en pédagogie. Je vais donc tenter de rester simple et accessible en essayant d’expliquer comment le journalisme de liens est en mesure (c’est son projet en tout cas) de bouleverser le classement des résultats fournis par Google, en inondant le « marché » de l’« économie du lien » avec des liens à très forte valeur (c’est à dire à fort Page Rank), qui ne sont pas mis en circulation aujourd’hui. Il ne s’agit, rien de moins, que de provoquer une vaste « Google Dance »...

Le développement massif de « journalisme de liens » dans les très gros sites de médias, c’est... une bombe atomique. Mais les blogueurs sont les premiers d’entre les « fous à lier ». Ils n’ont peut-être pas dit leur dernier mot...

Laissez-les partir, ils reviendront plus nombreux

Le premier enjeu est celui de l’audience. Je l’ai déjà abordé sur novövision : « Le journalisme de liens : une vraie stratégie d’audience ». Donc je n’y reviens pas en détail. Je rappelle juste que cette réflexion de Scott Karp (Publishing 2.0) s’appuye sur l’anayse du remarquable succès d’audience du site politique conservateur américain Drudge Report, qui n’est pourtant rien d’autre qu’une page de liens renvoyant vers d’autres sites du web, sans apporter aucun contenu qui lui soit propre, sans même apporter le moindre commentaire sur ces liens, qui sont présentés uniquement avec un titre cliquable. Et pourtant ça marche du tonnerre !

J’insiste juste sur ce point que souligne Scott Karp, sur journalism.co.uk : « c’est un aspect contre-intuitif du web », mais renvoyer ses lecteurs vers l’extérieur, plutôt que de les tenir captifs sur son site, est le meilleur moyen de les faire revenir. Il s’agit de transformer des sites web qui ne sont que des lieux de destination, c’est à dire des « culs-de-sac du web », en points de passage, bien placés sur le circuit de distribution de l’information en ligne.

Il s’agit, et toujours selon Scott Karp, de se placer au bon bout de la chaîne de valeur du web, ce que des sites comme Google et Digg sont parvenus à faire, devenant des passages obligés du web, et ce à quoi ont échoué les sites des grands médias d’information. C’est un enjeu clairement économique : augmenter l’audience, c’est accroître le revenu publicitaire.

Deux canaux de distribution : recherche et recommandation

On vient d’en voir un premier aspect avec cette stratégie d’audience, mais ça va en réalité beaucoup plus loin que ça... Le « journalisme de liens » est au coeur de la question fondamentale du nouveau régime de l’information en ligne : le contrôle de sa distribution.

La distribution de l’information auprès du public, dont les médias traditionnels avaient autrefois le monopole, emprunte en ligne deux canaux principaux : un canal ou l’internaute est demandeur, c’est la recherche, et l’autre où il est receveur, c’est la recommandation. Le premier est dominé par les algorithmes des moteurs de recherche, le second par les blogueurs et les internautes. Les journalistes sont absents sur les deux terrains.

Le « journalisme de liens » permet de reprendre pied sur le terrain de la recommandation, mais aussi, et c’est plus subtile, dans celui de la recherche...

Publish2, une arme fatale ?

Le « journalisme de liens » est un enjeu professionnel pour les journalistes. Scott Karp, toujours lui, le manifeste clairement à travers son projet Publish2 (auquel participe également Jeff Jarvis). J’en ai longuement parlé sur novövision également : « Publish2, l’arme fatale du journalisme de liens » (et précédemment « Des journalistes en réseau, pour contrer Digg et Google »).

Emmanuel Parody (ecosphère et Mediachroniques), se montre sceptique sur ce projet, en commentaire sur novövision :

J’aime beaucoup Publishing 2.0 que je suis aussi depuis longtemps mais je dois dire que ce projet me paraît largement survendu. Tout ça ressemble à une usine à gaz qui accoucherait d’un Delicious privatif. Je crois qu’on a besoin de valider des sources plutôt que des articles. Quant à l’idée qu’une profession qui a déjà du mal à citer ses sources se mettrait tout d’un coup à les commenter, les enrichir de tags et les partager, je ne peux m’empêcher de sourire.

Ca ne veut pas dire que ce n’est pas pertinent en soi mais qu’on est en train de réintroduire des coûts inutiles dans une partie de la chaîne de fabrication qui n’en mérite pas. Au mieux cela peut se concevoir au sein d’un service partagé de documentation interne.

Quant à tirer des revenus du module à afficher sur le web, là je suis stupéfait, Scott Karp était bien plus pertinent quand il démontait le modèle économique des sites croupions à la web 2.0.

Sans présager du succès de Publish2 dans sa double - et en effet considérable - ambition (devenir la plate-forme professionnelle de partage de liens de l’ensemble des journalistes américains ; intégrer cette plate-forme au coeur de la chaîne éditoriale des rédactions des grands médias), la réflexion de Scott Karp sur le rôle perdu des journalistes dans la sélection et la hiérarchisation de l’information en ligne reste valable.

Des journalistes redevenus recommandables

« Le journalisme de liens » est bien un projet qui vise à ce que les journalistes se réapproprient un rôle de recommandation de l’information, qui n’est aujourd’hui assuré en ligne que par les blogueurs, qui diffusent des liens dans leurs blogs, les internautes, quand ils votent pour des articles dans des sites d’agrégation automatisée tels que Digg ou quand ils s’échangent des liens sur Twitter ou dans les réseaux sociaux, ou encore par les algorithmes des moteurs de recherche. Mais pas par les journalistes, qui ne placent pas (ou si peu) de liens dans leurs articles et sur leurs sites...

Les journalistes auront mis du temps à le comprendre, mais ça commence à venir : le rôle de sélection et de hiérarchisation de l’information est en ligne au moins aussi important, si ce n’est plus, que d’apporter un contenu nouveau qui existe déjà à profusion.

Les journalistes ont cru un temps, à l’image des « Unes » des journaux d’antan, que les pages d’accueil hiérarchisées des sites d’info rempliraient ce rôle. Sauf que cette sélection ne porte que sur le seul contenu de leur propre site, quand Google, Digg et la blogosphère ouvrent à leurs lecteurs l’ensemble du web, avec un avantage quantitatif et qualitatif déterminant.

Cette petite révolution culturelle des journalistes est enfin engagée : les journalistes se mettent enfin à placer des liens externes dans leurs propres articles, vers les sites concurrents, mais aussi vers toutes les autres ressources du web, et notamment les blogs. Ils proposent aussi, depuis peu, des revues de web sur les pages d’accueil de leurs sites, et des pages de liens sur un thème ou sur un sujet particulier.

Après les grands sites américains, les sites d’information français s’y mettent à leur tour (et le figaro.fr aussi depuis peu). Et le projet original Vendredi développe la même démarche sur le papier, en même temps qu’il met en ligne netreader, son propre site de recommandation de liens, sélectionnés par sa rédaction.

Des journalistes au défi : pertinence, vérification et déontologie

Reste à voir si les internautes seront convaincus et s’ils accorderont autant d’attention aux liens recommandés par des journalistes professionnels qu’à ceux des blogueurs qu’ils connaissent et des membres de leur réseau social. L’enjeu relève ici du pari : les journalistes vont pouvoir vérifier par la pratique le niveau de crédibilité que leur consentent les internautes. C’est une vraie mise à l’épreuve de la question de confiance !

Le défi est double pour les journalistes. Démontrer d’abord, alors qu’ils sont tard venus à cet exercice, qu’ils sauront être aussi pertinents à dénicher sur le web le contenu le plus intéressant, pertinent et original, en concurrence avec des blogueurs et des internautes rompus à cette pratique de la veille en ligne et maîtrisant parfaitement les outils qui la facilitent. Démontrer ensuite la valeur ajoutée spécifique que peut apporter le journalisme dans cette veille, à travers la vérification de l’information et la garantie apportée par le respect d’une déontologie. Ce chantier ne fait que s’ouvrir... et les blogueurs ont une longueur d’avance !

« Web sauvage » et « web filtré »

L’une des conséquences de cette approche, si elle se révèle un succès, c’est à dire si les lecteurs accordent une prime significative aux liens recommandés par des journalistes par rapport aux autres (ce qui reste à démontrer), c’est de déboucher sur la création d’un web à deux vitesses : un « web sauvage » d’un côté, et de l’autre un « web domestiqué », filtré selon des normes professionnelles.

Une telle offre pourrait se révéler profiter d’un avantage décisif pour ceux qui sont à la recherche de sécurité et de fiabilité dans leur information, je pense notamment au monde éducatif et à de nombreux secteurs professionnels pour lesquels la fiabilité de l’information est importante.

Google, porte d’entrée des sites de médias

Sur l’autre « versant » de la distribution de l’information, celui de la recherche et des algorithmes, le « journalisme de liens » est aussi en mesure de jouer un rôle déterminant, qui pourrait, toujours selon Scott Karp renverser le rapport des forces avec Google.

Google s’est installé aujourd’hui au coeur du système de distribution de l’information en ligne, et sur le versant de la recherche il est aujourd’hui dominant. C’est manifeste pour les sites de presse qui voient 50%, 60% et pour certains même 80% de leur trafic apporté par le moteur de recherche. Et celui-ci prélève au passage une partie de la manne publicitaire, au détriment des sites de presse qui ont bien des difficultés à trouver dans ces conditions un équilibre économique. Google est même le seul à avoir trouvé un véritable modèle économique rentable, après lequel tous les sites de médias courent encore.

Une affaire entre Google et les blogueurs

Au coeur de la « mécanique » de Google se trouve une technologie au nom un peu ésotérique, le Page Rank. C’est par une utilisation habile des propriétés de ce Page Rank que Scott Karp explique comment le « journalisme de liens » pourrait permettre aux sites des médias de « regagner des parts de marché » dans la distribution de l’information.

Quelques notions d’« économie des liens » et quelques explications sur le fonctionnement de Google seront peut-être utiles aux non-spécialistes (dont je suis moi-aussi) pour comprendre.

Google est au carrefour de la distribution de l’information par les pages de résultats qu’il fournit aux requêtes des internautes, quand ils effectuent une recherche. Il fournit donc des liens. Ces liens, ce sont ses robots qui sillonnent la toiles qui les ont découverts, et Google les enregistre sur ses serveurs pour les restituer à la demande. Google a donc besoin d’être nourri lui-même de liens pour fonctionner. Il ne les crée pas lui-même. D’autres le font pour lui. Qui ? Mais les blogueurs pardi, puisque les journalistes ne le font pas !

Le processus de distribution de l’information en ligne est ainsi dominé par le couple Google+blogosphère : les blogueurs « épluchent » le web et sélectionnent des contenus qui retiennent leur attention, vers lesquels ils placent des liens dans les pages de leurs blogs. Les robots de Google « épluchent » les pages du web à la recherche de ces liens. Ils les suivent jusqu’aux pages de contenus. Puis Google analyse le contenu de ces pages, en y cherchant les termes les plus significatifs qui peuvent « décrire » ce contenu. Il indexe ces pages en fonction de ces termes, qu’il enregistre comme des mots-clés, et il renverra vers ces pages si l’on interroge son moteur sur ces mots-clés.

Google ne renvoie pas n’importe comment les liens dans ses pages de résultats : il les classe. Ce classement est effectué par Google en fonction de la « qualité » qu’il attribue au lien qui mène à telle page, et cette qualité dépend pour lui de l’« autorité » de la page dans laquelle il a trouvé ce lien. Chaque page dans laquelle les robots de Google découvrent des liens se voit attribuer par Google un indice d’autorité, qu’il a décidé de nommer Page Rank et qui se présente sous la forme d’une note de 0 à 10. Ainsi, entre plusieurs pages qui semblent aussi « pertinentes » pour la requête effectuée, en raisons des mots-clés que Google a trouvés à l’intérieur, celle qui a le Page Rank le plus élevé apparaîtra en tête sur la page de résultats, et aura plus de chances d’être consultée. [2]

Cet indice d’autorité est calculé en fonction de liens qui conduisent à cette page, selon le principe qui veut qui si une page est largement citée sur le web, c’est que son contenu est reconnu comme intéressant par de nombreuses personnes. On suppose donc que les liens contenus dans cette même page ont des raisons d’être intéressants eux-aussi. C’est le postulat de Google... [3]

Celui qui agit, c’est celui qui lie

Deux points sont donc particulièrement importants à retenir dans cette « économie des liens » :

• Celui qui compte dans le système, c’est celui qui place les liens, car c’est lui qui permet à Google de calculer le Page Rank, qui sera ensuite déterminant dans l’accès aux contenus. Sans liens, pas de Page Rank. [4]

• D’autre part, ce Page Rank se « transmet » de la page contenant les liens à la page vers laquelle conduit ce lien. Une page qui est très liée aura un fort indice d’autorité (fort Page Rank). La page qu’elle lie va hériter d’une partie de cette autorité, qu’elle va à son tour redistribuer à d’autres pages, à travers les liens qu’elle contient.

Dans ce système, Google ne « décide » de rien, il se borne à calculer des Page Rank, en suivant les liens et en analysant les pages de départ et d’arrivée. Il fournit ensuite des résultats de recherche classés selon le Page Rank qu’il a calculé. Celui qui « agit » dans ce système, c’est donc bien celui qui « nourrit » Google en lui donnant des liens à mâcher, digérer, et recracher...

Sur un net, c’est le Page Rank qui fait l’audience, mais ce sont les liens qui font le Page Rank, et ce sont les blogueurs qui font les liens...

Un système en déséquilibre

L’« économie des liens », dans le domaine de la recherche d’information d’actualité, fonctionne ainsi de manière déséquilibrée : les contenus sont produits par des journalistes qui ne créent pas de liens, les liens sont créés par des blogueurs qui s’intéressent à l’actualité, mais ne produisent eux-mêmes que peu de contenu original. Google, de son côté, repère les contenus des journalistes, en suivant les liens placés par les blogueurs, et il agite le tout dans son shaker à Page Rank.

Dans ce système, le vrai « prescripteur de lecture » n’est pas Google, qui se borne à canaliser les lecteurs par ses résultats de recherche. Ce sont les blogueurs qui, en plaçant collectivement des liens vers ce contenu, déterminent son classement dans la page de résultats de recherche proposée par Google. Ils « décident » donc de sa visibilité effective, et déterminent au final le niveau de son audience.

Les médias thésaurisent et gaspillent leur Page Rank

Le paradoxe de cette affaire, c’est que les sites de presse sont très lus, et donc liés, par les blogueurs. Ils bénéficient ainsi de très fort Page Rank (PR), ce qui correspond à la qualité reconnue de leurs contenus par rapport aux autres, par exemple à celui des blogs [5].

Mais ce Page Rank est « perdu ». Il n’est pas redistribué, puisque les journalistes ne placent pas de liens dans ces pages très liées.

En poursuivant l’analogie avec l’économie monétaire, les sites de médias pratiquent la « thésaurisation » de leurs Page Rank élevés. Ils les stockent sur leurs pages sans rien en faire, sans exploiter la richesse qu’ils représentent dans l’« économie des liens ». Tous les liens placés dans une page à fort Page Rank sont en effet en mesure de redistribuer une partie de ce Page Rank vers les pages qu’ils relient. Ce sont des liens de grande valeur. Celui qui possède la possibilité de placer ces liens dispose, par ce seul fait, d’un grand pouvoir de recommandation sur le web : les pages qu’il lie seront toujours mieux placées que les autres dans les résultats de Google et recevront donc plus d’audience que les autres. Un véritable trésor inexploité !

C’est ce « gaspillage » de Page rank que le « journalisme de liens » propose de faire cesser, et les conséquences de cette remise sur le marché de ces liens à fort Page Rank inexploité sont potentiellement considérables...

 

Entrer dans la « Google Dance de Saint-Guy »

Scott Karp, sur Publishing 2.0 (« Mainstream News Organizations Entering the Web’s Link Economy Will Shift the Balance of Power and Wealth ») explique son plan :

Si les médias comme le New York Times, le Washington Post et les sites de centaines de journaux se mettent à lier très largement vers les informations et les autres contenus sur le web, sur leur page d’accueil (comme le NYT envisage de le faire) et à travers leur site, cela aura un impact très important sur l’économie du lien. Ces médias ont été lents à réaliser comment les liens pilotent la distribution des contenus, et l’allocation de l’attention et de la ressource publicitaire. (...)

Imaginez que le NYT, Washington Post, CNN, MSNBC, et tous ces autres grands sites, qui dominent toujours l’information sur le web, entrent tous dans le jeu du liens. (...) Et imaginez l’impact sur Google.

Est-ce vraiment sérieux ? J’ai interrogé Jean Véronis, sur Technologies du langage, à ce sujet :

J’ai en tête une remarque de Scott Karp à propos des sites de presse américains (avec de très forts PR), mais qui sont très peu liants (même si ça s’arrange avec le développement du linkjournalism). Il se demande quel serait l’impact dans « l’économie des liens » et donc dans les résultats de recherche de Google, si ces gros sites se mettaient à lier massivement, en redistribuant sur le web des liens à très fort PR aujourd’hui « thésaurisés ». Il estime que le bouleversement dans le classement des résultats de recherche de Google serait considérable. Partagez-vous son avis ?

Jean Véronis me répond en commentaire, sous le billet « Trop de liens tue le lien » :

(...) Scott Karp — Oui, il a levé un lièvre. Ceci étant reste à savoir comment faire sans tout péter (imaginons Google un beau matin qui se prend une Google Dance de Saint-Guy où plus personne ne retrouve ses repères...). A travers les modifs que je fais faire sur Wikio je vais dans ce sens : plus de rotation, de mouvement, de redistribution. Mais j’y vais mollo : je ne veux pas jouer l’apprenti sorcier. Il faut continuer à discuter, à réfléchir. Les pistes nous apparaîtront au fur et à mesure.

Le développement massif de « journalisme de liens » dans les très gros sites de médias est donc bien une bombe atomique. Son usage est en mesure de transformer en profondeur le régime actuel de la distribution de l’information en ligne. Non, le « journalisme de liens » ce n’est pas qu’une petite affaire de revues de presse en ligne...

Un bonbon double effet

Pouvoir de recommandation directe par les liens placés dans les articles et les sélections de liens dans des sites à forte audience, qui est - en lui-même - générateur d’audience, pouvoir de recommandation indirecte par le fort Page Rank transmis aux pages que l’on lie, qui leur assure un bon référencement et donc une bonne audience : le « journalisme de liens » tient deux des clés de l’audience... donc du revenu publicitaire.

Pour Scott Karp, sur journalism.co.uk :

Les organes de presse traditionnels pourraient avoir un impact énorme en entrant dans ce que Jeff Jarvis appelle l’« économie des liens » car ils disposent toujours d’une énorme crédibilité et d’un énorme accès à l’audience.

Maintenant qu’ils commencent à comprendre comme l’utiliser : en route pour la prochaine « Google Dance » !

Epilogue

Et les blogueurs ? Ont-ils dit leur dernier mot ?

Ils sont toujours les plus forts pour trouver les liens, car ils maîtrisent mieux et depuis longtemps la pratique de la veille en ligne et ses outils.

Ils jouissent d’un fort crédit auprès des lecteurs et donc d’un très fort pouvoir de recommandation, car ils savent nouer avec leur audience une relation de connivence fondée sur l’interaction et un rapport d’égalité (ce que les journalistes des médias ne parviennent toujours pas à établir).

Les blogueurs sont donc toujours en mesure de distribuer des liens à forte valeur ajoutée. Mais il leur manque la force de frappe, car ils n’agrègent pas leurs forces qui restent dispersées.

Et s’ils se mettaient à le faire ? S’ils se fédéraient pour agréger leurs propres flux de liens recommandés ? Justement, à l’ère du post-média, ils y travaillent...

[1] copyright de cette expression : Jean Véronis

[2] Comme le signale même Fred Cavazza sur son blog, « l’attention est maintenant fortement concentrée sur les trois premiers résultats », en tête de la première page de résultats. Les autres sont ignorés.

[3] On peut discuter de la validité « scientifique » de ce postulat, en soulignant que ce système ne mesure en réalité jamais la pertinence des contenus eux-mêmes par rapport à la recherche effectuée, mais il se cantonne à enregistrer des indices de popularité de ces contenus. Il n’en reste pas moins que Google, tel qu’il fonctionne, joue un rôle central aujourd’hui dans l’accès à l’information...

[4] Au passage, le chercheur Jean Véronis, sur son blog Technologies du langage, souligne qu’il y a sur le web une véritable « pénurie de liens » et que Google est affamé. De plus cette pénurie est inégalement répartie selon les langues, et probablement selon les thématiques :

J’ai calculé la proportion de liens présents en septembre 2008 sur les blogs des différents pays dans la base Wikio. Le résultat est clair : les Etats-Unis sont largement en tête, avec 0,17 lien par billet, soit un lien pour 6 billets. Viennent ensuite l’Allemagne, le Royaume Uni, puis la France avec deux fois moins de liens qu’aux Etats-Unis (0,08 lien par billet, soit un lien pour 12 billets). Viennent ensuite, bons derniers, l’Espagne et l’Italie...

Il y a ainsi sur le web beaucoup de « pages orphelines ». Aucun lien ne mène à elles, elles contiennent pas de liens : pour Google, elles n’existent même pas, puisqu’il est incapable de les trouver.

[5] Le Washington Post à un PR de 8/10, The New York Times de 9/10, et Le Monde de 8/10, alors que celui de novövision n’est que de 4/10.


Moyenne des avis sur cet article :  4.43/5   (14 votes)




Réagissez à l'article

4 réactions à cet article    


  • ASINUS 18 novembre 2008 14:42

    tiens un lecteur du professeur Morice


    • La mouche du coche La mouche du coche 18 novembre 2008 15:48

      Quelle marmelade cet article ! smiley Le "journalisme de lien" ? Ben c’est Google (ou Yahoo) Actualités, c’est tout,

      Ca existe dèjà depuis un moment. Voilà voilou. On ne va pas y passer la nuit. smiley


      • Guillaume Narvic Guillaume Narvic 19 novembre 2008 01:01

         Pour information : ce billet tiré de mon propre blog est re-publié sur Agoravox à l’initiative de la rédaction d’Agoravox, à qui j’ai accordé, à sa demande, l’autorisation de le faire pour les billets qui l’intéressaient. Même si je ne suis pas tout à fait sûr que ces billets aient chaque fois leur place sur un site généraliste plutôt que sur le blog spécialisé pour lequel il ont été rédigés.

        Je n’assure en tout cas ici aucun suivi des commentaires, que je ne lis pas, et je n’y apporterai donc pas de réponse.

        Surtout qu’après une certaine pratique d’Agoravox et des commentaires qu’on y lit, je n’estime pas avoir jamais pu y engager une réelle conversation constructive dans le respect d’autrui. Je suis définitivement vacciné. Les commentaires y sont régulièrement méprisants, faciles et péremptoires, du simple dénigrement sans argumentation. Un exemple malheureusement tristement banal ci-dessus. smiley


        • Nathan Nathan 19 novembre 2008 12:55

           Excellent. C’est de la science du web. On comprend mieux pourquoi il faut toujours mettre un minimum de liens dans un article web. Sinon il fonctionne comme une sorte de trou noir qui aspire l’esprit (et donc encore pire pour un blog, sans liens extérieurs ....).
          Mais moi je m’interroge sur une chose, car à l’origine j’étais contre le fait de devoir absolument inclure des liens dans le sens ou certains écrits, se voulant analytiques, n’ont pas forcément de raison à renvoyer vers l’extérieur : s"ils se suffisent à eux même ... ce n’est pas égoïste, les livres et journaux papiers fonctionnent ainsi !! Donc je m’interroge sur une chose : la différence d’attractivité ou d’absorption purement physique (visuelle) entre les articles web et les articles papiers ou les livres. Pour cela il faut analyser la luminosité de l’écran, la réflexion de la lumière mais AUSSI l’objet même de "l’ordinateur" qui fonctionne comme un confinement, un cocon, un jardin secret une fois que l’internaute se connecte ...
          Ce que je veux dire au final, c’est que mettre des liens, c’est bien et c’est vrai que c’est nécessaire, mais il y a des bonnes et des mauvaises raisons. La bonne c’est l’ouverture, la mauvaise c’est l’oeil avachi de l’internaute qui se goinfre d’information en laissant au final internet ANALYSER l’information à sa place et donc ne pense plus. Voilà ... vaste programme smiley

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON






Les thématiques de l'article


Palmarès