Fermer

  • AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > Peut-on faire confiance à Google et aux fournisseurs d’accès internet (...)

Peut-on faire confiance à Google et aux fournisseurs d’accès internet ?

Google truque-t-il son moteur de recherche pour mettre en avant ses propres services ? Et peut-on faire confiance aux opérateurs télécom pour préserver l’égalité d’accès à des réseaux menacés de congestion ? Pour les entreprises dont la rentabilité, sinon la viabilité, dépend de plus en plus du référencement sur la toile, comme pour les citoyens qui s’informent majoritairement aujourd’hui sur internet, la question de la « neutralité du net » pourrait bien devenir un enjeu central, à la fois sur le plan économique et éthique.

Alors que la question de la neutralité du net se pose depuis plusieurs années aux Etats-Unis, le débat vient de connaître un nouveau rebondissement avec la décision de la Commission européenne d'ouvrir une enquête anti-trust sur Google. Contrairement à ce que pourrait laisser entendre le terme « anti-trust », ce n'est pas la position ultra-dominante de l'entreprise américaine sur le marché des moteurs de recherche qui est mise en cause par d'autres acteurs comme Yahoo ou Bing (la filiale de Microsoft) mais le fait que Google pourrait bien abuser de son quasi-monopole sur ce marché pour privilégier ses services et reléguer en 4e ou 5e page les prestations concurrentes des siennes.

Pour mieux comprendre la portée de cette accusation, il faut savoir que le moteur de recherche ne constitue que la partie la plus visible du business de Google, l'entreprise ayant agrégé à cette activité deux gammes de prestations. La première se compose d'une cinquantaine de services et de programmes (dont la liste fluctue en fonction des époques et des pays) mais dont les plus connus - et les plus utilisés - sont entièrement gratuits comme Google Image, Gmail, Google Actualités, Google Map ou You tube (1). Même si des rumeurs courent régulièrement sur l'intention de Google de rendre certains de ces services payants et même si certains le sont déjà en partie (comme Google Earth qui propose une « version pro »), l'intérêt stratégique de ces services est de renforcer la position dominante de Google sur la toile pour développer le coeur de son business model : la vente de publicité en ligne.

L'activité publicitaire de Google est regroupée au sein de deux filiales : Google AdWords qui propose aux entreprises de « gagner des nouveaux clients » tandis que Google AdSense offre aux bloggeurs la possibilité de « gagner de l'argent avec leur site web ». A priori les choses sont claires. Si vous faites une requête sur Google, le classement des pages s'affiche au centre selon un critère de fréquentation, tandis que les « annonces » en lien avec l'objet de la recherche figurent comme telles dans la colonne de droite. De même si vous tapez « cadeaux de noël », les liens commerciaux sont bien distingués des résultats de la recherche dans un encadré tramé figurant en haut de la page.

En réalité, si un problème de neutralité existe, il ne réside pas dans une éventuelle ambiguïté entre ce qui relèverait de l'information et de la publicité mais dans la neutralité même du résultat de la recherche. Pour promouvoir ces services, Google n'hésiterait pas à les faire figurer en première page au détriment de services concurrents. Pour étayer cette thèse, un chercheur de Harvard, Ben Edelman, a montré que sur certains mots clé, les services de Google arrivent en tête alors qu'ils seraient loin d'être les plus fréquentés (notamment par rapport à ceux proposés par Yahoo). Toujours aux Etats-Unis, Google fait l'objet d'une procédure engagée par trois entreprises, le britannique Foundem (à l'origine de l'ouverture de l'enquête de la Commission européenne), et les entreprises américaines myTriggers (moteur de shopping) et SourceTool (plate-forme de recherche de fournisseurs), ces trois entreprises se plaignant de voir leurs sites arriver trop bas dans le moteur de recherche, ce qui aurait une incidence sur leur activité (2).

Classement automatisé ou classement partiellement influencé par des des considérations commerciales ? Officiellement, Google nie intervenir au gré des circonstances sur le résultat des requêtes. Selon l'entreprise, la recherche fonctionnne exclusivement à base des formules mathématiques appliquées de façon uniforme sur toute la toile. Mais le discours officiel laisse parfois entrevoir que les choses sont loin d'être aussi claires comme en 2007 lorsque la vice-présidente de la recherche et des services admet que Google Finance et Google Maps ont été placés comme premier lien sur le moteur « à l'occasion de leur lancement ». Maladresse dans la formulation ou lapsus révélateur, au début de ce mois-ci (décembre 2010), Google précise dans un communiqué avoir développé une solution identifiant, « selon [son] opinion » les sites qui « apportent une expérience pauvre aux internautes ». « opinion », « expérience pauvre », des expressions qui ne font que renforcer le soupçon ambiant.

La polémique a au moins un mérite : celle de renvoyer à la pertinence des critères utilisés par les moteurs de recherche. Si les fameux « algorythmes » de Google font partie de ses secrets de fabrication, il est probable que la recette reste largement fondée sur la fréquentation et le multiréférencement (entre les pages d'un même site et entre les sites eux-mêmes). Mais un moteur comme Google a-t-il la possibilité de requêter correctement une toile dont l'expansion est devenue phénomènale ? Après tout, face à cette complexité croissante, la solution ne consisterait-elle pas à orienter la fréquentation du web dans le sens d'une plus grande simplicité ? La question ne se pose pas pour des acteurs comme Apple qui sélectionne ouvertement. Elle se pose en revanche eb des termes beaucoup plus délicats pour un moteur de recherche comme Google. Dès 2007, un spécialiste français du net, Jean Véronis (5), note que « le bon vieux temps de l'algorithme PageRank est révolu ». Selon lui, « la plus grande partie du Web est désormais de nature volatile et éphémère », ne serait-ce que parce que, »sauf exception, les billets et dépêches d'actualité sont très peu liés. » Face à un paysage devenu aussi gigantesque qu'extrêmement mouvant, la tentation peut donc consister à privilégier des « valeurs sûres » comme « Wikipedia, quelques autres sites de référence, comme Doctissimo, Allociné » ou encore des « sites des grands quotidiens (La Tribune, Le Monde, Le Figaro, etc.) ». Par facilité technique pour un moteur comme Google. Par confort et par habitude pour les internautes. APrès tout, ni Yahoo ! ni les smartphones ne se gènent pour référencer les applis stars.

La question de la « neutralité » du net ne concerne pas que Google : elle implique aussi les fournisseurs d'accès (les FAI) souspçonnés de vouloir réguler le flux des connexions. Face à un encombrement croissant des réseaux notamment mobiles - et en attendant des investissements que les différents acteurs du net ne sont pas pressés de financer - les fournisseurs sont tentés de gérer la pénurie en ne donnant pas le même accès à tous les internautes. Aux Etats-Unis, les grands opérateurs comme Cox Communications et Comcast ne s'en sont pas privés. Attaqué en justice par une class action, Comcast s'est résolu à verser 16millions de dollars pour un règlement amiable. Ce type d'incidents n'est pas limité à l'Amérique du Nord. En août 2007, les abonnés français de Neuf Cegetel se sont vus interdire ou brider l'accès au site de partage de vidéos Dailymotion. L'incident a conduit à la formation d'une Association des services Internet communautaires (Asic) pour défendre les intérêts des éditeurs de sites dans ce combat. Victimes potentielles de cette régulation par les FAI ? Yahoo ! allié dans cette bataille avec... Google. Déjà l'idée d'une régulation par le prix pointe son nez. En France, SFR propose déjà des forfaits ne permettant l'accès qu'à certains sites Internet (Google, Youtube, etc). Mais l'intervention sur le contenu ne peut être exclue. Les images gourmandes en bande passante ne sont pas seules concernées. En 2005, au Canada, l'opérateur Telus a bloqué l'accès vers des sites de syndicats à l'occasion d'un mouvement social interne. De son côté, Apple refuse la diffusion de contenus que l'entreprise juge immmoraux et dégradants.

Le ver est dans le fruit. Pas vraiment dans la pomme d'Apple qui ne s'est jamais caché vouloir limiter au maximum la concurrence et qui assume clairement ses « choix éditoriaux » mais, plus embêtant, dans ce qui s'est imposé aujourd'hui comme le premier point d'accès mondial à l'information. Bien sûr, on peut toujours soutenir, comme le fait Fabrice Epelboin, que « les algorithmes des moteurs de recherches ne sont pas, par définition, neutre » qu'ils « discriminent leurs résultats », que « c'est tout leur intérêt » et que « vouloir obtenir la transparence de ce même algorithme est tout aussi ridicule que de vouloir obtenir la formule de Coca Cola » (3) mais, si ce point de vue était aussi évident, on se demande bien pourquoi Google met autant d'énergie à défendre l'objectivité de son moteur de recherche. Autre façon de relativiser : prédire la fin inéluctable de Google. Non parce que le moteur serait soupçonné de plus en plus de partialité mais à cause l'architecture développée par les smartphones, et notamment par Apple. C'est en tout cas la thèse soutenue par un Américain, Chris Anderson, en octobre dernier (6). Pour lui, « la manière [qu'ont les iPhones et les iPads] d'utiliser internet est diablement simple : il s'agit d'accepter de payer pour une appli (....), des aplis dont les plus utilisées sont services peer-to-peer, les messageries, les intranets d'entreprise, les appels émis par Skype et autres, les jeux en ligne, les tchats et la vidéo en streaming. Bien que ces environnement soient souvent fermés et sous licence privés ». Dans une telle configuration, plus besoin de Google. Selon Chris Anderson, « les pages consultées sur les navigateurs ne représentent plus qu'un quart du trafic, et celui-ci ne fait que diminuer ».

En attendant, pour le créateur du logo de Google, la neutralité figure bien dans l'ADN du célèbre moteur de recherche. Racontant les origines de l'identité visuelle de l'entreprise, celui-ci confirme que Google souhaitait se présenter « avant tout comme un moteur de recherche (et seulement un moteur de recherche) à l'inverse de ses concurrents qui étaient d'abord des portails à vocation commerciale et ensuite des moteurs (...) Par ailleurs, si leur moteur utilisait des algorithmes complexes, les liens visibles dans la page des résultats étaient présentés de manière simple et devaient être dignes de confiance. » (4) Confiance : un capital que Google va désormais devoir s'employer à défendre sans mettre en danger sa rentabilité. Au-delà de ce cas particulier, jamais l'avenir d'un modèle économique n'aura autant reposé sur des considérations éthiques et sur un étonnant retour du problème lié à la hiérarchisation de l'information.

(1) Nicol@s : « Les services de Google les plus utilisés »- multi-hardware.com ; les services ggogle en version française  

(2) « Vers un démantèlement de Google  ? »Journal du net 

(3) Fabrice Epelboin » Les lobbies font leur loi : de la neutralité des moteurs de recherche » - fr.readwriteweb.com

(4) La véritable histoire du logo de Google - Denis Dimartino

(5) Jean Véronis : « Moteurs : comparaison Google-Yahoo »

(6) Chris Anderson : « Le web est mort » - Wired (version française : GQ, décembre 2010, pp. 130-131)


Moyenne des avis sur cet article :  5/5   (16 votes)




Réagissez à l'article

6 réactions à cet article    


  • Gemini Gemini 15 janvier 2011 10:48

    Vous abordez des points très intéressants, qui auraient, à mon sens mérités d’être séparés en deux articles distincts tant il y a à dire sur chacun de ces sujets : un premier le problème de l’accès à l’information au travers des moteurs de recherche, et un autre sur la neutralité des réseaux mise en danger par les appétits des fournisseurs d’accès à internet. D’un autre côté, un article synthétique tel que celui-ci est utile pour mieux saisir les deux faces d’un problème qui au final est le même.

    Maintenant, pour répondre à votre question, la réponse est clairement non, tout comme, à mon sens il est tout simplement impossible de faire confiance à n’importe quelle entité privée. Son seul objet est de gagner de l’argent, et elle mettra en œuvre tout ce qui lui est nécessaire pour y parvenir. Toutes les autres considérations ne sont que du flan pour tromper les utilisateurs/clients potentiels.

    Pour rester sur le cas précis des moteurs de recherche, je ne vois qu’une seule approche qui puisse être un minimum fiable et digne de confiance : les moteurs de recherche communautaires et pairs à pairs, tel que ce que le projet Seeks est en train de mettre en place.
    Afin de bien aborder le problème, il faut tout d’abord bien comprendre que le moteur de recherche le filtre par lequel presque tout les utilisateurs passent pour accéder à l’information. Ainsi, ils ne peuvent voir et consulter que ce que le moteur de recherche porte à leur connaissance. Celui-ci a donc un pouvoir énorme pour filtrer l’information. Laisser ce pouvoir à une entité privée en situation de monopole ou presque (aujourd’hui Google) revient à donner les pleins pouvoirs de censure à cette organisation.
    À l’inverse, un moteur communautaire tel que Seeks donne ce pouvoir aux utilisateurs eux mêmes, ce qui me semble beaucoup plus sain.

    Maintenant, concernant la neutralité des réseau, cet aspect étant peu abordé dans l’article, je ne m’étendrais pas dessus : en résumé, il est clair que là non plus, nous ne pouvons pas faire confiance à notre FAI. Déjà, à ce jour, en France, ils sont en train de faire le forcing auprès du législateur pour que ce qui soit appelé neutralité du net ne soit rien de plus qu’une coquille vide. Leur objectif étant bien sûr d’être eux-même fournisseur de contenu en plus de fournisseur de tuyau, et de s’assurer que leurs abonnés consultent et consomment en priorité leurs propres contenus, voir, comme c’est indiqué dans l’article, de n’autoriser la consultation que de certains sites. Ceux qui savent ce qu’est l’internet comprennent où je veux en venir : celà signifie ni plus ni moins que la mort d’internet, car ce n’est pas celà internet. Ce serait à la limite Orange-Net, SFR-Net, etc. Bref, un énorme retour en arrière vers un minitel en couleur au final. Certains on appelé ça le Minitel 2.0. J’invite ceux qui veulent creuser un peu à chercher ce terme sur leur moteur de recherche favoris. Ils pourront y trouver une conférence passionnante du président de FDN, le seul FAI français à être une association loi 1901 et à réellement vouloir offrir à ses membres un véritable accès à l’internet. (Encore que, de nouveaux FAI sont en train de se créer sur le même principe mais le mouvement débute tout juste)


    • danlef 15 janvier 2011 12:00

      La confiance ? un faux problème. Quant on ne connait ni les tenants ni les aboutissants, avoir ou ne pas avoir confiance ne veut rien dire. A tous les niveaux, la seule solution, difficile il est vrai à mettre en oeuvre, c’est le contrôle démocratique, c’est à dire celui du plus grand nombre. En économie comme en politique l’existence de contre-pouvoirs est une nécessité absolue. Le moins qu’on puisse dire, c’est qu’il reste beaucoup à faire.


      • Deneb Deneb 15 janvier 2011 12:23

        Pour une fois, une article intelligent sur Google. Une analyse lucide et une critique saine sans la diabolisation, c’est franchement rare, surtout sur AV. Bravo à l’auteur.


        • non666 non666 15 janvier 2011 14:49

          Une preuve fort simple de la partialité DES moteurs de recherche US, et pas seulement de Google, peut etre faite en quelques secondes par n’importe quel internaute :

          Cherchez un article sur un sujet et tapez les mots .
          Dans la liste de première page, s’il existe un sujet dans wikipedia, il sera la...
          Il y a effectivement une promotion des sites devant assurer LA VERITE (pour le grand public) et un classement au fond pour les articles qui ne doivent surtout pas etre lus...

          D’ailleurs dans la campagne de 2007 , il etait de notoriété publique que l’UMP avait « acheté » certains mots clefs pour etre en « tete de gondole ».
          C’est simple , chaque mot de chaque page est repertorié et lié a un site avec un numero d’ordre du mot dans la page.

          Mais qui decide du « Order BY » ?
          Il y a forcement un champs qui definit la priorité d’une page par rapport a une autre.
          C’est ce champs la qui s’achete, pour les besoins de la pub.

          Mais en dehors de ces considerations mercantiles, qui ne peuvent s’appliquer aux sites comme wikipedia, a priori, il y a une volonté evidente de prendre le controle des vérités officieles.
          Wikipedia, fort decrié a sa naissance vu ses geniteurs a bien vite montré patte blanche en laissant les internautes ameliorer officielement eux meme les articles.
          Sur 99 % des sujets, il y a peu de polémiques.
          Mais il faut toujours qulequ’un pour trancher sur le 11 septembre, la biographie de Sarkozy ou la religion de Carla dans la version française du site....

          Hierarchiser l’information n’est pas neutre.
          Dissimuler certains faits pourtant ecrits dans les journaux n’est assurement pas innocent.
          Qui retrouvera les articles de TOUS les journaux français à l’epoque ou Ezer Wiezmann est venu a Paris, demander l’aide de notre pays pour integrer l’Union Europenne...
          Cretaines choses doivent disparaitre, depuis 2005 et le referendum ou la question Turque avait été abordée...
          Imagniez l’effroi des populations en apprenant que l’UPM de sarkozy n’est qu’un cache sexe pour faire entrer Turquie et israel en douce , par la porte de derriere ?

          Moteurs de Recherche, Serveurs racines , droit de debrancher les pays qu’ils veulent sur simple initiative du gouvernement US (comme l’Irak, la Corée ou la Lybie a certains moments...).
          Rajoutons y les « failles » maintes fois reproduite dans les OS des systeme d’exploitation US , a chaque version et vous comprendrez pourquoi le renseignement electronique est un des plus gros budget de la defense et du renseignement US.

          Controler le NET EST L’ENJEU le plus Important aujourd’hui car il echappe a ceux qui controlent deja la TV, La radio et les journaux.
          Ce n’est pas un hasard si derriere SFR il y a desormais vivendi qui appartient a 40 % a lagardere...





            • Ruut Ruut 28 janvier 2011 09:53

              A moins de voir un état indépendant neutre et économiquement indépendant qui n’a aucun lien avec les polices mondiales qui héberge des serveurs internet, et des serveurs DNS, la censure du net, existera toujours.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON






Les thématiques de l'article


Palmarès