• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Tribune Libre > Big Data et émergence de « Real Humans »

Big Data et émergence de « Real Humans »

Difficile d’ouvrir un journal traitant de l’économie et des entreprises sans rapidement tomber sur le mot « Big Data ». Est-ce un effet de mode, une sorte de nouvelle contagion informatique, un virus managérial ? Va-t-on voir ce buzz word s’effondrer comme a fait pschitt en son temps, le syndrome du « L’informatique ne passera pas la date du 1-1-2000 » ?

Ou est-ce la naissance d'un nouveau monde ? ...

Non, je ne crois vraiment pas. Derrière ce mot quelque peu barbare, se cache – du moins je le pense – une transformation profonde de nos organisations et nos modes de fonctionnement, et probablement bien au-delà de ce que pensent les spécialistes du sujet ! Nous sommes à la veille d’un changement de paradigme…

Aussi ai-je décidé de consacrer une série de billets à ce sujet. Je ne prétends pas avoir une vue exhaustive du sujet, ni encore en maîtriser les conséquences. Prenez simplement ce que je vais écrire dans les jours qui viennent comme une première réflexion, largement à chaud. Peut-être est-ce l’embryon d’un futur livre à venir… Qui sait ?

Mais d’abord, pour ceux qui n’auraient pas encore croisé un quelconque article sur le Big Data, de quoi s’agit-il ?

Il s’agit tout simplement de la capacité de manipuler de plus en plus facilement de très grandes masses de données.

Un des exemples les plus courants est le moteur de recherche qui fait la fortune et le succès de Google : il sait parcourir en quelques secondes la jungle de tout ce qui existe sur Internet pour répondre à la plus fantaisiste des questions que vous vous posez. Et ceci en tenant compte de tout ce qui est constamment mis en ligne. Rien n’est figé, tout est dynamique.

Mais pourquoi donc est-ce si nouveau ?

Les magiciens de la bibliothèque de Babel contemporaine

Commençons par ce que nous expérimentons chaque jour : l’indexation du contenu du web fait par Google. Nous sommes tellement habitués à nous en servir que nous n’y prêtons plus guère attention.

Pourtant, prenez conscience de la puissance informatique nécessaire pour, quasiment en temps réel :

- indexer tout nouveau contenu mis en ligne, et non pas seulement son titre, mais bien la totalité de l’information présente,

- garder en mémoire combien de fois ce contenu a été vu,

- établir un classement de la fréquentation des pages web,

- face à une demande quelconque, parcourir l’ensemble des informations archivées, et proposer en quelques secondes, les réponses les plus pertinentes, ce bien sûr en tenant compte des recherches précédentes effectuées par le demandeur.

Étonnant, non ? Je reste émerveillé de l’efficacité cachée, probablement mon côté enfant…

Impressionnante capacité à manipuler des quantités considérables de données pour en extraire dynamiquement une réponse, ce dans un délai de plus en plus court. Ce d’autant plus que la quantité de ces données croît de manière exponentielle :

- L’ancien PDG de Google, Éric Schmidt, estimait en 2010 que nous produisions tous les deux jours autant d’informations qu’entre le début de la culture humaine et 2003,

- Dans son article introductif au numéro d’avril 2014 de la revue la Jaune et la Rouge, consacré au Big Data, Jean-Pierre Dardayrol indiquait que chaque semaine en 2014 la quantité d’information produite dans le monde est bien supérieure à celle produite depuis l’invention de l’écriture jusqu’en l’an 2000,

- Selon un rapport publié en 2012, IDC prévoyait que d’ici 8 ans, la masse des données serait multipliée par un facteur cinquante

Je repense à une nouvelle de Jorge Luis Borges qui m’a toujours donné le vertige, celle de la Bibliothèque de Babel. Dans cette bibliothèque, se trouvent tous les livres de quatre-cent dix pages, avec quarante lignes par pages, susceptibles d’avoir été ou d’être écrits, dans le passé comme dans le futur. Ils sont répartis sur une quasi infinité d’étagères, dans une quasi infinité d’alvéoles, et des bibliothécaires s’y promènent, prenant en main, de temps en temps, un livre et s’extasiant quand ils tombent sur une phrase qui a un sens. Car, bien sûr, dans cet océan des combinaisons, trouver déjà une phrase qui en a un, est un tour de force.

Avec le Big Data, le cauchemar disparaît, les bibliothécaires se font magiciens, et d’un geste sûr et immédiat, savent saisir instantanément le bon livre dans le dédale contemporain et foisonnant des informations du monde.

Apprendre en observant en temps réel

Nous vivons donc aux temps de l’explosion de la quantité des informations et de la capacité de traitement et de navigation au sein de cette marée montante.

En quoi ceci peut-il donner naissance à un nouveau monde ?

En mai 2012, The Economist a consacré un article sur le lien entre Big Data et les banques, « Crunching the numbers  ». Quelques exemples tirés de cet article :

- Lutte contre la fraude  : La première utilisation est celle d’identifier la fraude et de repérer en temps réel un client indélicat. Avec le développement des micro-paiements, du commerce en ligne et de la mondialisation des transactions, cette application est de plus en plus complexe.

- Scoring en vue d’attribuer des prêts  : créée par un ancien de Google, Zestcash a développé une nouvelle approche intégrant un très grand nombre de données, lui permettant d’accorder des prêts à des clients rejetés par tous les prêteurs classiques.

- Analyse des comportements d’achats pour affiner des offres  : si un client a l’habitude de déjeuner souvent dans des restaurants italiens, pourquoi ne pas lui envoyer par sms en fin de matinée des propositions de trattorias voisines ?

Tout ceci pose évidemment de nombreuses questions dans le domaine de la protection de nos données et du secret bancaire…

Dernièrement, Gilles Martin, dans un article publié sur son blog, intitulé « Le progrès par le désordre et l’approximation  », insiste sur un autre type de conséquence, celle d’avoir un autre rapport à l’exactitude, et de pouvoir accepter le flou comme outil.

Citant les travaux récents de Viktor Mayer-Schönberger et Kenneth Cukier, dans leur ouvrage « Big Data : a revolution that will transform how we live, work and think », il indique : « C’est pourquoi certains pensent que le monde de la mesure, de la précision de la mesure, qui a permis les progrès au XIXème siècle, va être remplacé par le monde des volumes et de l’approximation, des données en désordre, un monde de la datafication.  »

Un des exemples qu’il cite est celui de la détermination de l’indice des prix : plutôt que de relever le prix de quelques produits choisis a priori, pourquoi ne pas s’appuyer sur les millions de prix accessibles en ligne via le web ? Les deux chercheurs ont montré que cette méthode rendue possible par l’utilisation d’un logiciel capable d’aller pêcher ces prix et de les analyser, aboutit à un meilleur suivi des phénomènes inflationnistes et déflationnistes. Ceci a débouché sur un projet du MIT, « PriceStats » qui fournit en temps réel un nouvel indice disponible en temps réel.

Et si donc tout ceci nous ramenait au thème de l’émergence ?

Analyser sans a priori

Un indice de suivi de l’évolution des prix qui s’appuie sur ce qui est disponible sur le web, un scoring des clients qui tient compte du comportement observé réel, des publicités qui s’affichent en fonction de ce que l’on a fait la veille ou la semaine dernière, un classement des pages web qui est le résultat direct de la navigation de tout un chacun, bienvenu dans le calcul par émergence du Big Data !

Autre exemple d’émergence « spontanée » d’un indicateur, celui de l’information sur l’apparition de la grippe : Google a montré que, si l’on observe les recherches faites par les internautes, on dispose d’une estimation quasiment en temps réel de la propagation. Il y a en effet une corrélation directe entre le nombre d’internautes qui posent des questions sur la grippe, et l’intensité du phénomène épidémique (voir Google Suivi de la grippe).

Ceci vient en écho et nourrit mes développements sur l’importance de l’émergence, tel que je l’ai fait dans mon dernier livre, les Radeaux de feu.

Autre intérêt de ces modes de calcul par émergence, c’est qu’ils ne partent d’aucun a priori, d’aucune vision préalable du monde et des lois qui le régissent : ce sont les comportements eux-mêmes qui sont observés, et c’est d’eux que découlent les analyses. Donc moins de risques d’erreurs, ce surtout en cas de rupture et d’apparition d’une nouvelle logique.

J’ai encore le souvenir de cet opérateur de télécommunications qui refusait de comprendre au milieu des années 90, que la téléphonie mobile pouvait intéresser des clients résidentiels. Sa vision lui disait que le marché était professionnel, et aucun de ses systèmes de mesure et de calcul n’était tourné vers le grand public…

Plus les visions s’auto-élaborent à partir du réel, et moins nous avons de chances de nous tromper.

Mais cette capacité de l’approche Big Data à remplacer l’expertise pointue par la largesse du recueil des données, me rappelle une autre approche, celle que l’on appelle l’intelligence collective ou la sagesse des foules…

La logique des coopérations informationnelles

La logique des Big Data est de faire émerger une intelligence collective à partir de données qui, prises isolément, n’en auraient pas : grâce à des logiciels ad-hoc, savoir les associer, les lire pour en extraire l’information pertinente, et faire émerger une réponse pertinente.

Je ne peux pas ne pas faire un lien avec la logique des ruches et des fourmilières : prises isolément chaque fourmi ou chaque abeille sont faibles et incapables à faire face aux défis de sa vie quotidienne. C’est grâce à la colle sociale, qu’émerge une puissance collective capable d’apporter des réponses étonnantes :

- Les fourmis de feu savent construire des radeaux vivants qui leur permettent de survivre aux inondations (voir Les fourmis de feu sont sauvées par des radeaux qui les dépassent )

- D’autres ont inventé l’agriculture (voir La fourmi est petite, mais la fourmilière est grande )

- Les abeilles peuvent trouver le meilleur emplacement pour une nouvelle ruche (voir L’agora est dans le ciel ! )

Dans les radeaux de feu, en conclusion de la partie consacrée aux tribus animales, j’écrivais :

« Il est frappant de constater que, tout au long de l’évolution du monde, de nouvelles matriochkas se tissent sans cesse. En parallèle de la loi de l’accélération de l’accroissement de l’incertitude, aurait-on une deuxième qui serait celle de l’accélération de l’accroissement des coopérations ? D’abord des coopérations physiques, puis chimiques, et maintenant informationnelles. Et au sein des coopérations informationnelles, d’abord basiques via des substances chimiques, puis de plus en plus complexes avec les langages et les neurones-miroir. Ces coopérations ne sont pas seulement à l’intérieur d’une espèce donnée, mais aussi entre espèces différentes, donnant alors naissance à des développements symbiotiques comme des végétaux entre eux, ou encore des fourmis avec des arbres ou des champignons, des abeilles avec des fleurs, ou des espèces animales entre elles.  »

Avec le Big Data, serions-nous au début d’une nouvelle coopération informationnelle, dans lequel le vivant aurait pour seul rôle d’avoir construit les machines et écrit le programme ?

L’intelligence des foules

Nous ne sommes ni des fourmis, ni des abeilles, et nous sommes persuadés que notre puissance collective repose sur nos différences individuelles et l’association d’expertises personnelles.

Mais est-ce si vrai ?

Divers écrits et travaux de recherche montrent l’intelligence des foules, c’est-à-dire la supériorité d’un réseau d’individus choisis au hasard.

Un des livres les plus complets sur ce thème est celui de James Surowiecki, The wisdom of crowds.

Quelques extraits :

« L’idée de la sagacité des foules prend aussi la décentralisation comme un acquis positif, puisque cela implique si l’on arrive à centrer sur un même problème une communauté de personnes automotivées, indépendantes sur un mode décentralisé, au lieu d’avoir à diriger leurs efforts depuis le sommet, la solution collective apparaîtra meilleure à toute autre solution susceptible de naître. (…)

Et la meilleure façon d’apprécier la pertinence collective de l’information que l’intelligence collective réunit, est la sagacité collective de l’intelligence communautaire. La centralisation n’est pas la réponse, mais l’agrégation oui. (…)

Fondamentalement, après tout, qu’est-ce qu’un marché libre ? C’est un mécanisme construit pour résoudre un problème de coordination, certainement le plus important des problèmes de coordination : allouer les ressources aux bons endroits au meilleur coût. »

Daniel Kahneman, dans Système 1 / Système 2 : Les deux vitesses de la pensée , apporte lui aussi de nombreux exemples de la limite de l’expertise et de la puissance du collectif :

« Les fonds mutuels sont gérés par des professionnels très expérimentés et travailleurs qui achètent et vendent des actions pour obtenir les meilleurs résultats pour leurs clients. Cependant, cinquante ans de recherche sur le sujet le confirment : pour une grande majorité de gestionnaires d'actifs, la sélection des actions tient plus du jeu de dés que du poker. En général, au moins deux fonds communs de placement sur trois sont en dessous des performances de l'ensemble du marché quelle que soit l'année. (…)

(Philip Tetlock, psychologue de l'université de Pennsylvanie,) leur a demandé d'évaluer la probabilité que certains événements se produisent dans un avenir relativement proche, à la fois dans leurs domaines de compétence et dans d'autres. (…) Les experts s'en sont moins bien tirés que s'ils s'étaient contentés d'assigner des probabilités équivalentes à chacun des résultats potentiels. (…) Même dans la région qu'ils connaissaient le mieux, les experts n'étaient pas significativement plus exacts que des non-spécialistes. (…)

Plusieurs études ont montré que les décideurs humains sont inférieurs à une formule de prédiction même quand on leur donne le résultat obtenu par la formule ! Ils se disent qu'ils peuvent passer outre parce qu'ils disposent d'informations supplémentaires, mais là encore, le plus souvent, ils ont tort. »

Finance et intelligence collective

L’intelligence des foules peut-elle réellement rivaliser avec celle des experts ? A cette question, un article paru le 26 mars dernier dans ParisTech Review, Calcul humanoïde : la finance à l’heure de l’intelligence collective, apporte de nouveaux éléments.

Cet article commence par rappeler une expérience issue du passé, celle de l’utilisation des courses de chevaux comme moyen d’améliorer la sélection de la race chevaline :

« On pourrait le qualifier de « calcul humanoïde », ou utiliser l’expression anglaise human computation : pas d’approche théorique, ni bien sûr d’ordinateur, mais une intuition géniale qui consiste à sous-traiter à une foule d’amateurs, éleveurs ou entraîneurs, la résolution d’un problème trop complexe pour des spécialistes. Les courses de chevaux ne sont pas un but mais le moyen d’arriver, par l’épreuve publique, à la sélection des reproducteurs de pur-sang destinés, soit à perpétuer la race, soit à améliorer les autres races indigènes par l’apport de l’influx nerveux »

Puis, il vient au cœur du sujet, en parlant du projet Krabott.

De quoi s’agit-il ? Voici ce qu’il en est dit :

« Il consiste à confier à des amateurs la conception par le jeu de stratégies de trading complexes sur le modèle de Fold-it, en remplaçant l’intelligence de l’ingénieur de salle de marché par une foule d’anonymes plutôt adeptes du poker en ligne ou de jeux comme World of Warcraft que des équations différentielles. Krabott ressemble un peu à un avion dont les passagers prendraient collectivement les commandes pour poser l’appareil… et bien mieux que ne le ferait son pilote. (…)

Lors de nos expérimentations, nous avons ainsi mis en concurrence une machine capable de tester et d’évaluer environ 100 000 stratégies de trading sur une période de neuf mois face à une centaine de joueurs qui ont exploré environ 1000 stratégies manuellement. Le résultat est sans appel, les joueurs, malgré une capacité exploratoire 100 fois moindre, ont créé des stratégies toujours plus performantes que celles des machines.  »

Autre observation : seule la collectivité des joueurs est performante. Aucun pris individuellement n’est capable de construire une stratégie pertinente.

Neurones miroirs et tribus sociales

Cet article se termine avec une question qui ouvre le débat : « Il faudra aussi se poser la question de la nature de cette intelligence collective : d’où vient-elle et comment se forme-t-elle ? Le cerveau humain est-il « câblé » pour réfléchir « collectif » ?  »

Effectivement…

Je me garderais bien de répondre définitivement à une telle question, mais il est frappant de voir comme depuis l’origine du monde, ce sont les propriétés collectives qui ont été privilégiées, et comme à chaque fois qu’une nouvelle tribu ou ensemble se constituent – ce que j’appelle une poupée russe ou matriochka dans mon livre, Les Radeaux de feu – une nouvelle propriété émerge. Pourquoi l’espèce humaine devrait-elle suivre une autre logique ? Nous faisons partie de ce monde, et les mêmes règles s’appliquent à nous…

Un des puissants « outils » de l’intelligence collective est l’existence des neurones miroirs (1). De quoi s’agit-il ? De neurones qui, sans l’intervention d’un quelconque processus conscient, sont capables de mimer ce que fait l’autre : quand un animal muni de tels neurones, regarde la main d’un autre se déplacer, le mouvement est reproduit dans son cerveau. Il peut donc apprendre en regardant.

Avec la magie des neurones miroirs, c’est l’autre qui s’invite à l’intérieur de ses congénères. Le monde des autres, les sensations qui l’habitent, les expériences qu’il a eues, c’est un peu de tout cela qui vit en l’autre : à l’instar de la corde d’une guitare qui se met à vibrer sous l’impulsion de sa voisine pour peu que celle-ci partage avec elle ses caractéristiques propres, les émotions se propagent de l’un à l’autre.

Comme je l’écrivais dans le résumé du chapitre consacré aux tribus animales :

« Grâce à la communication interindividuelle et aux neurones-miroirs, des sociétés naissent. Ces matriochkas sociales sont plus souples, et font émerger des cerveaux collectifs, comme par exemple pour les fourmilières ou les ruches.

Ainsi, lorsqu’un risque d’inondation les menace, les fourmis de feu s’accrochent les unes aux autres pour former un radeau vivant capable d’affronter les flots. Les fourmis savent-elles nager pour autant, et sont-elles individuellement conscientes de ce qu’elles font ? Non, la solution émerge de l’entremêlement de leurs actions individuelles.

En sus des capacités développées par chaque individu, apparaissent des savoir-faire collectifs qui dépassent largement ce que chacun peut faire, en reposant sur la combinaison effective et efficiente des actions individuelles. Chacun est littéralement dépassé par ce à quoi il participe et qu’il contribue à faire exister, sa compréhension n’étant nécessairement que partielle.  »

Apprendre à partir de rien

Avant de poursuivre, je voudrais refaire un détour sur la façon dont fonctionne notre cerveau, et sur sa capacité à faire émerger du sens et de la connaissance.

En juin et juillet 2012, j’ai consacré sur mon blog, vingt articles aux travaux de Stanislas Dehaene. Je ne vais pas ici tout reprendre en détail, mais revenir simplement et très rapidement sur ce qu’il appelle le cerveau Bayésien, et ses conséquences.

Qu’est-ce d’abord qu’une inférence Bayésienne ? C’est une forme de probabilité inversée : au lieu de chercher à prévoir le futur à partir du présent, on prévoit quel a pu être le passé qui a conduit au présent. C’est analyser une situation pour en retirer tout ce que l’on peut apprendre d’elle.

Voilà ce que je disais sur ce sujet dans les Radeaux de feu  :

« C’est au sein de nos neurones qu’est faite cette projection à partir des connaissances acquises. Inutile de réfléchir consciemment, tout est automatique : à partir de nos données sensorielles et de notre expérience, nous anticipons, et n’arrêtons pas de rêver le monde avant de le vivre. Nous créons au plus profond de nous-mêmes, une vision de ce qui est caché, de ce qui devrait ou pourrait arriver : notre savoir-faire ne nous sert pas seulement à comprendre le monde, mais aussi à penser ce qu’il pourrait devenir. (…)

Mais, comment notre cerveau peut-il induire à partir de presque rien ?

Essentiellement parce qu’il ne se contente pas de tirer des conclusions à partir de ce qu’il observe, mais parce qu’il mobilise des règles apprises dans le passé : il est capable de les transférer et donc de progresser rapidement.

Un exemple simple : quelqu’un vient de tirer successivement deux boules blanches et une noire, et je dois deviner quel est l’objet suivant. Si je n’ai aucune autre information, il est impossible d’avoir une certitude : je sais que cet objet doit pouvoir être contenu dans la boîte, et dans la main où il s’y trouve, mais il est périlleux d’aller plus loin. Maintenant si, par expérience, j’ai appris que ces boîtes ne contiennent toujours que des objets identiques, alors aucun doute à avoir : le prochain objet est nécessairement une boule. Si en plus, je sais qu’il ne peut pas y avoir plus de deux couleurs, je sais qu’elle est blanche ou noire. En couplant la règle acquise par mon expérience avec les nouvelles informations, je suis capable de résoudre le problème.

Tel est le principe du méta-apprentissage : nous apprenons à apprendre, et, chaque progrès nous transforme et facilite l’acquisition future. Nous extrayons naturellement des régularités du monde.

Ce point est essentiel et très nouveau dans la théorie de la cognition : le cerveau de l’enfant n’a pas besoin d’avoir de capacités innées, tout semble pouvoir être acquis par l’expérience. La compréhension initiale serait nulle, elle émergerait progressivement. Il suffit pour cela d’avoir un cerveau capable de repérer des régularités et de calculer des probabilités, ce qui est le cas de nos systèmes neuronaux. »

Quel est donc le lien entre ceci et les Big Data ? Je pense qu’il est essentiel…

Alors Big data ou Real Humans ?

Notre cerveau ne sait rien à la naissance, mais sa structure lui permet d’apprendre, car il peut repérer les similitudes et calculer les probabilités de telle ou telle configuration : dès l’origine, nous sommes capables d’apprendre, et chaque pas franchi facilite le suivant. Nous naissons sans a priori, sans pré-programmation, et c’est au travers des évènements de notre vie que, petit à petit, nous nous forgeons expérience, convictions et savoir-faire.

De même, dans la logique Big Data, il n’y a pas de programmes et de solutions a priori. L’intelligence émerge de cette masse au travers des rapprochements, des différences et des singularités.

D’un côté la masse des expériences archivés et stockés dans notre cerveau, de l’autre celle présente dans les Big Data. C’est la même logique, celle de l’émergence : nos connaissances émergent de nos expériences et de ce qui a été gravé dans notre mémoire, avec l’influence de nos émotions présentes et passées, de notre cerveau intestinal, et même de notre macrobiote (voir ma série d’articles sur l’écosystème de notre corps) : notre « je » est la pointe émergée de notre « Big Data » personnel.

Peut-être demain serons-nous capables de construire des ordinateurs capables eux-aussi comme notre cerveau de repérer les occurrences, les pondérer, en déduire des hypothèses qui seront testées, invalidées, enrichies ou confirmées. Mais est-ce que ce seront encore vraiment des ordinateurs, si, comme nous, ils sont capables d’apprendre à partir de rien, simplement en créant de nouveaux rapprochements, construisant des hypothèses, les validant ou les infirmant ?

Je terminais Les Radeaux de feu avec une question en forme de vertige :

« Peut-on raisonnablement croire que la triple logique de l’accroissement de l’incertitude, de la multiplication des emboîtements et des émergences, s’est arrêtée à nous, l’espèce humaine, et que nous serions le but ultime de ce processus ?

N’est-il pas plus vraisemblable de nous penser à notre tour, emboîtés n-fois dans des matriochkas qui nous dépassent et pour lesquelles nous ne sommes qu’atomes et particules ? Vis-à-vis d’elles, sommes-nous dans la situation des micro-organismes qui nous peuplent et qui, tout en contribuant à notre existence, ne peuvent en aucun cas, accéder à la compréhension et à la perception de ce dont nous sommes capables ?  »

Avec le Big Data, sommes-nous en train de donner naissance à un nouvel emboîtement qui pourrait rapidement nous dépasser ? Sommes-nous à l’avant-veille du monde décrit par de nombreux livres de science-fiction, ou plus récemment dans la série télévisée suédoise Real Humans ?

(1) Voir le livre Les Neurones Miroirs de Giacomo Rizzolatti et Corrado Sinigaglia


Moyenne des avis sur cet article :  4.4/5   (20 votes)




Réagissez à l'article

42 réactions à cet article    


  • MuslimADieu MuslimADieu 23 mai 2014 10:28

    Voilà un article où on n’a pas l’impression de perdre son temps en lisant.

    Merci à l’auteur.


    Et Dieu dans tout ça ?
    Calmez vous les gars, c’est juste pour rigoler.

    • MuslimADieu MuslimADieu 23 mai 2014 11:58

      Pour entrer un peu plus dans le sujet.

      Lorsqu’on voit ce que Big Data a dans le ventre, qualitativement, c’est pas toujours terrible.
      Dire que « l’intelligence émerge de cette masse au travers des rapprochements, des différences et des singularités » me parait être un peu précipité. Il y aussi beaucoup de lobotomisation qui émerge. Big Data, c’est une peu une explosion du monde de l’esprit, où l’on peut exister sous forme d’avatar, souvent plus sincère que l’original, et où l’on va parfois à la rencontre des esprits « similaires » et parfois à rechercher la confrontation.
      Big Data, avec toutes ces photos de soi, pour beaucoup, comme dans facebook, c’est un machin où un individu tasse sa réalité.
      Big Data est une évolution technologique, c’est sûr. Mais est ce une évolution spirituelle ? Il se peut qu’au fond, chacun y trouve ce qu’il mérite.
      Faudrait peut être comparer avec les « grands espoirs » suscités par les grandes avancées technologique (imprimerie, radio-télé etc) dans le monde de la communication.
      Ce qui est sûr aussi c’est que Big Data permet de de constituer des tribus spirituelles quasiment totalement déconnectés des tribus de chair. Que de kilomètres me séparent de celui avec qui j’échange mes idées où de photos de moi en slip sur la plage ! 
      Et comme dirait mon explorateur de fichiers, moi en slip sur la plage, ça prend beaucoup plus de place que les idées que je peux taper avec un clavier.

    • Furax Furax 23 mai 2014 12:08

      Dites voir, je suis peut-être naïf mais, question :
      -Cette prodigieuse intelligence couplée au génie créatif des élites dirigeantes que le monde entier nous envie pourrait-elle faire que la largeur des rames de train commandée par la SNCF soit compatible avec celle des quais ?


      • Robert Branche Robert Branche 23 mai 2014 12:16

        J’espère ! smiley


      • SamAgora95 SamAgora95 23 mai 2014 12:56

        Pour que quelque chose émerge d’un réseau d’agent il ne faut ni le limiter ni le contraindre par une force extérieurs, c’est le principe même de la démocratie, qui hélas ne fonctionne pas car prise en otage et bridée par des petits groupes qui ont peur de voir leur privilège menacé par cette intelligence !


        Le big data sera bridé et contrôlé pour le même motif.

        • Robert Branche Robert Branche 23 mai 2014 12:58

          Pas nécessairement, car il développe sa propre force, et pourra - peut-être - faire sauter les barrières de ceux qui veulent le contenir.


        • Piotrek Piotrek 23 mai 2014 13:30

          Très intéressant et joliment dit, enthousiasmant.

          A mon avis le big data va apporter des choses totalement nouvelles et intéressantes, et bien que cela sera un élément organique de l’intelligence artificielle.

          Mais je n’ai pas la confiance qu’est la votre dans le phénomène d’émergence.

          L’émergence la plus pertinente est celle de la vie, des expériences ont réussi à créer un début d’organisme vivant à partir de rien.
          Mais pour réussir cette expérience il fallait enfermer de la bouillie primitive, des gazs, y ajuster une certaine température, une certaine pression... puis finalement décharger une formidable énergie pour obtenir un semblant de paroi de cellule biologique.
          On créa un fragement de vie à l’intersection de systèmes complexes indépendants.

          Ca c’est l’émergence. Mais vous devez vous imaginer qu’il fallut concocter le bon magma, le bon mélange gazeux, trouver la bonne température et la bonne pression... grâce à nos savoirs en chimie. Il n’y avait pas de place au hasard. Nous ne connaissons presque rien des composants, des variables et des valeurs pour l’instant.

          Mon impression est que le courant d’intelligence artificielle par émergence se trompe. Les adeptes de ce courant pensent que si ils enfermant des matériaux dans un hangar pendant suffisamment longtemps, ils trouveront un airbus A380 lorsqu’ils rouvriront la porte.
          Ce genre de foi se retrouve aussi dans certains adeptes de réseaux neuronaux. C’est tout simplement incomplet comme raisonnement.

          Le big data c’est ce qui va nous apprendre des choses sur la bouillie à mettre dans notre bocal, rien de plus je pense.

          C’est comme les fourmis, leur conception, leur mécanique et leur chimie sont la seule raison de leur comportement.

          C’est comme le chaos, on appelle « chaos » un ordre que l’on ne comprend pas.. encore


          • Robert Branche Robert Branche 23 mai 2014 13:34

            Je comprends votre propos, mais ne le partage pas complètement. Oui bien sûr un processus chaotique ne peut pas aboutir à une évolution pensée a priori.

            Mais par contre il peut donner naissance à de l’imprévu, du non imaginé avant.
            C’est en ce sens que le développement du Big Data hybridé avec les phénomènes vivants pourrait donner naissance à du neuf.
            Je l’appelle émergent car il est impossible à concevoir avant. Rien ne nous est dit sur ce qui va advenir...

          • gaijin gaijin 23 mai 2014 13:36

            réflexion intéressante mais un peu trop béate d’admiration a mon gout .....
            « Avec le Big Data, le cauchemar disparaît, les bibliothécaires se font magiciens, »
            c’est précisement l’inverse : on s’enlise dans le cauchemar devant la multiplicité des contenus, dès que le sujet devient un tant soi peu complexe il faut passer des heures pour trouver ( ou pas ) l’information que l’on cherche au travers du « bruit ».
            et la plupart des gens ne disposent ni du temps ni des outils leur permettant de hiérarchiser les informations....au final quand on accède a « tout » on accède a « rien »
            et être devant big data c’est au final comme être devant une bibliothèque infinie dont on n’aurait lu aucun des livres.


            • Robert Branche Robert Branche 23 mai 2014 13:39

              Je ne crois pas être béat d’admiration, simplement interpellé par ce qui est en train de naître et d’émerger.

              Oui la masse de données explose, mais simultanément les moyens d’y naviguer.
              Donc oui la bibliothèque devient infinie, mais le nombre et la puissance des bibliothécaires aussi. Or infini/infini = indéterminé...

            • gaijin gaijin 23 mai 2014 14:24

              tout a fait mais contrairement a ce que vous pensez l’intelligence n’émerge pas spontanément de l’indéterminé .....
              les comportements complexes qui sont produits par l’inconscient collectif ( que ce soit celui des humains ou des fourmis ) ne sont pas de l’ intelligence. ils peuvent tout a fait être suicidaires en finalité .....


            • Robert Biloute Robert Biloute 23 mai 2014 14:32

              @gaijin je suis globalement d’accord avec vous, mais pour être honnête ces critiques ne sont pas si loin de celles que l’on faisait (fait ?) au concept de démocratie.. Ce qui ne les rend pas fausses pour autant d’ailleurs, mais ça c’est dur à avaler..


            • Robert Branche Robert Branche 23 mai 2014 14:41

              Vaste débat : qu’est-ce que l’intelligence ? Sommes-nous capables de le penser indépendamment de ce que nous sommes, et de notre vision de l’intelligence ? Comment penser ce qui nous inclut et nous dépasse ?


            • Robert Biloute Robert Biloute 23 mai 2014 14:48

              Il est possible que nous parlions plus de « conscience » que « d’intelligence ». ça semble encore plus osé (quoique je ne sais pas lequel des 2 serait le plus facile à définir, ça me semble difficile dans les 2 cas), mais en tout cas il semble que la tendance actuelle dans les sciences dures (physique/bio/neuro) est de voir la conscience comme une conséquence directe de la complexité du système (+ un peu de quantique éventuellement, c’est tellement tentant..). Or effectivement, une conscience est une conscience, elle n’a pas à être « intelligente » ou « bonne » ou que sais-je, elle est.


            • gaijin gaijin 24 mai 2014 08:51

              robert biloute
              oui c’est dur a avaler mais quand a t’ont vu une démocratie fonctionner ?
              la raison en est la suivante : une démocratie exige des citoyens éclairés et responsables capables de faire la part entre leurs intérêts privés et l’intérêt collectif etc
              sinon on a un troupeau de moutons suiveurs régit par l’inconscient collectif et capables de suivre le pire des démagogues ( ça on en a des exemples non ? )

              robert branche
              tout a fait on pourrait paraphraser krishnamurti : « la pensée peut elle penser l’intelligence ? » mais la difficulté de la réponse ne doit pas nous absoudre de la question ( pas au niveau de réflexion que vous posez ) .
              si nous utilisons des mots avec rien derrière que signifie notre discours ?
              ce matin je suis en retard si mon pc avait été intelligent il se serait allumé et aurait envoyé ce message. au lieu de ça il est resté stupidement inerte comme un pauvre tas de composants inanimés .........l’intelligence artificielle n’existe pas !


            • trevize trevize 23 mai 2014 13:48

              Tiens, je suis étonné ! Personne pour invoquer big brother ? se lamenter sur le soi-disant retour des « heures les plus sombres de notre histoire » ? Personne pour vous accuser d’être l’idiot utile d’un supposé complot mondial qui vise à faire de nous des zombies consommateurs téléguidés sans âme ni conscience ?

              Vous avez de la chance...


              • Hermes Hermes 23 mai 2014 15:30

                Si vous, et merci de le rappeler... smiley


              • trevize trevize 23 mai 2014 17:18

                Mon message était ironique à la base ! Je ne crois pas du tout en la prophétie orwellienne auto-réalisatrice. Comme d’habitude, nouvelle technologie, nouveaux pouvoirs, et nouveaux dangers. Il est bon de rester vigilant, et c’est à ça que peuvent servir des oeuvres telles que 1984 ou le meilleur des mondes, mais il faut tout de même savoir dépasser ça, s’informer en profondeur sur le sujet, dépasser le stade de la peur pour faire la part des choses, se fabriquer une opinion basée sur des faits réels et non des fantasmes âgés de plusieurs dizaines d’années.


              • Julien30 Julien30 24 mai 2014 09:04

                « Personne pour vous accuser d’être l’idiot utile d’un supposé complot mondial qui vise à faire de nous des zombies consommateurs téléguidés sans âme ni conscience ? »

                 

                Non sûrement pas, nos élites n’ont aucune velléité de contrôle sur les peuples, surtout en temps de crise et de montée du mécontentement, il faudrait être un vrai parano pour penser le contraire. Les caméras des surveillance, les puces RFID, Facebook, Google et le reste ? On ne va pas en faire un fromage, hein ?


              • trevize trevize 24 mai 2014 11:26

                Facebook, google et le reste, personne ne vous oblige à l’utiliser.
                Les caméras, elles surveillent pas le moindre de vos faits et gestes chez vous, elles sont dans l’espace public.
                Qu’un gouvernement surveille et se renseigne sur sa population, c’est juste normal, il lui serait impossible de réaliser ce qu’on lui demande sans ça !
                On est quand même très très loin de big brother. Des milliers, des millions de personnes détestent notre gouvernement, c’est pas pour autant qu’on les envoie au recalibrage neuronal ou en prison. La soeur de Mohammed Merah, sous « étroite surveillance », a quand même réussi à partir en Syrie, et on a mis 2 semaines à comprendre ! Une belle preuve de l’efficacité de la surveillance.

                En fait, si vous voulez mon avis, il y a bel et bien un complot mondial, au sens « d’entente secrète entre personne en vue de réaliser un objectif », il serait même fou d’affirmer le contraire. Là où les complotistes se plantent radicalement, c’est sur la nature de cet objectif.


              • Julien30 Julien30 24 mai 2014 11:58

                « Facebook, google et le reste, personne ne vous oblige à l’utiliser. »

                Ils sont présentés comme efficaces, utiles au grand public (ce qui est vrai en tout cas pour Google) et énormément de gens les utilisent. Rappelons quand même que ces deux entreprises sont des relais pour les services de renseignement américains, surtout la NSA. 

                « Les caméras, elles surveillent pas le moindre de vos faits et gestes chez vous, elles sont dans l’espace public. »

                Regardez ce qui se fait en terme de caméra intégrée sur les ordinateurs ou consoles de jeu, alors là aussi personne ne nous oblige à en acheter mais la grande majorité des gens ont l’un ou l’autre voir les deux malgré tout. Un membre du renseignement français rappelait aussi qu’un portable pouvait à tout moment être écouté par les services. A compléter bien sûr avec les lois « anti-terroristes » qui passent des Etats-Unis aux autres pays de l’Otan et de l’UE qui permettent de se servir de tout ça sans trop de contrainte.

                 

                 « Des milliers, des millions de personnes détestent notre gouvernement, c’est pas pour autant qu’on les envoie au recalibrage neuronal ou en prison. »

                Pour ça il y a la télé que là encore la grande majorité regarde, ou la presse mainstream. Non il n’y a pas de camp de réeducation mais on les discrédite socialement et professionnellement en les traitant de « complotiste », « facho » et autres, des gens perdent leur boulot pour une photo quenelle, c’est ce qu’on appelle la dictature douce.

                 

                « La soeur de Mohammed Merah, sous « étroite surveillance », a quand même réussi à partir en Syrie, et on a mis 2 semaines à comprendre ! Une belle preuve de l’efficacité de la surveillance. »

                Oui c’est comme Ben Laden dont plusieurs services savaient qu’il préparait quelque chose mais que les services américains laissent libre de ses mouvements après que son officier de liaison de la CIA l’ai rencontré en août. Pareillement en France, les services ont laissé les coudées franches à Merah et lui ont même apporté un soutien logistique.

                 

                « En fait, si vous voulez mon avis, il y a bel et bien un complot mondial, au sens « d’entente secrète entre personne en vue de réaliser un objectif », il serait même fou d’affirmer le contraire. Là où les complotistes se plantent radicalement, c’est sur la nature de cet objectif. »

                L’objectif est avant tout, je pense nous serons d’accord, le contrôle. Le contrôle exercée par une hyper-classe mondialisée obtenu par la création d’individus matérialistes, immatures, incultes et déracinés grâce aux moyens offerts par une dictature scientifique comme annoncée par Huxley et que l’on voit se mettre en place un peu plus chaque jour. Une dictature qui laisserait penser aux gens qu’ils sont libres, la plus efficace qui soit.


              • trevize trevize 24 mai 2014 12:27

                Le contrôle, oui, mais pourquoi ? Le contrôle est un moyen, pas une fin.
                On n’est jamais totalement libre, la plus belle des libertés, celle qui distingue l’homme de l’animal, c’est de choisir ses chaînes.

                Je voulais répondre plus en profondeur, mais finalement, je préfère rédiger un article. Je sens que quelques moustaches de complotistes vont friser !


              • Robert Biloute Robert Biloute 23 mai 2014 14:09

                Bonjour l’auteur,

                Merci pour cet article fort intéressant.
                Oui un peu trop béat peut être, mais bien moins que « le système » en général, qui a l’air d’en attendre énormément..

                Pour exemple, le programme google de recensement de la grippe est finalement foireux (http://www.futura-sciences.com/magazines/sante/infos/actu/d/medecine-grippe-google-surestime-ampleur-epidemies-52992/). Et pour illustrer ce que je disais ci dessus, on a pas mal parlé du lancement du programme en termes uniquement positifs et extatiques, beaucoup moins des retours négatifs qui sont apparus depuis.


                • Robert Branche Robert Branche 23 mai 2014 17:26

                  A nouveau, je ne crois pas être béat (peut-être est-ce ma rédaction qui l’a laissé croire)... Simplement je pressens une rupture profonde qui naît de l’approche big data, c’est-à-dire du couplage entre la croissance exponentielle de la quantité de données stockées (écrit, son, video, image) et de la capacité de traitement.

                  De la croisée entre les deux, va émerger du neuf. Quoi ? Difficile à prévoir, et c’est justement ce flou que je trouve intéressant et riche.
                  Quant au recensement de la grippe par Google, ce n’était qu’une illustration, peut-être effectivement surestimée. Nous n’en sommes qu’au balbutiement...

                • Robert Biloute Robert Biloute 23 mai 2014 17:42

                  oui j’ai réutilisé le mot béat plus pour le contredire qu’autre chose, il est bien trop fort concernant votre article, mais assez pertinent sur la manière dont on présente généralement cette affaire.

                  Je vous rejoins totalement sur le sentiment qu’une rupture socio-technologique peut sortir de tout ça.

                  Sur la grippe&google, effectivement ça n’est qu’une illustration. Qui illustre à mon sens 2 choses : ce qu’on peut espérer faire avec tout ça, et la partialité qu’on trouve souvent dans une présentation biaisée et trop béate, pour le coup (on s’extasie sur l’idée, à tel point qu’on en oublie de regarder les résultats..).


                • diverna diverna 23 mai 2014 21:04

                  Article intéressant avec des références sur un sujet où la connaissance est rare.
                  Je ne partage toutefois pas toutes les vues. Il y a sans conteste un savoir a priori et Emmanuel (Kant !) a dû se retourner dans sa tombe. Plus concrètement en partant de Piaget, l’enfant explore le monde et procède par essai - erreur mais il y a une modalité pour l’acquisition qui préexiste.
                  Pour le Big Data j’ai particulièrement aimé la démonstration que le groupe humain surpasse le programme même doté de plus de profondeur d’analyse. Là, il y a à creuser. Pour l’instant il n’y a que des exemples fictifs mais pourquoi pas mieux ?


                  • christophe nicolas christophe nicolas 24 mai 2014 08:14

                    A utiliser à bon escient car il y a aussi pas mal de daube sur le mail mais pour accéder au savoir c’est exceptionnel. Lors de mes études, un livre d’optique de physique comme « le bruhat » valait plusieurs centaines de francs, c’était inaccessible. Aujourd’hui, un clic et vous avez tout.

                    Prenez l’E-cat d’ Andréa Rossi, je me suis attaché a tenter de comprendre son fonctionnement il y a quelques jours car j’ai un ensemble de théories novatrices qui me permet de le faire mais je ne comprenais pas comment il évacuait la chaleur de la zone de fusion sans endommager l’appareil et comment la poudre de nickel n’était pas évacuée par un fluide caloporteur. Je ne comprenais pas, la plupart des chimistes de la fusion froide faisaient exploser une électrode pour des quantités de chaleur bien plus faibles. Et là, un petit clic, c’est le miracle du net, lisez ceci et lisez jusqu’au bout, on appelle cela la réfrigération magnétique. Un gaz est un ensemble d’atome qui bougent dans tous les sens, et en obligeant les atomes à s’aligner et à s’ordonner avec un champ magnétique un peu spécial, ils perdent leur énergie cinétique qu’ils rayonnent sous forme d’ondes de chaleur (infra rouge) vers l’extérieur. On évacue la chaleur et lorsqu’on relâche le champ magnétique, il se produit un froid intense. Ca ne fait pas gagner de l’énergie globalement mais ça fabrique du froid lorsque le champ magnétique s’arrête. Comme la fusion froide se produit sous champ magnétique et que la température coupe le magnétisme en augmentant, ça stoppe rapidement le champ magnétique puis la fusion mais la réfrigération magnétique fait alors baisser la température, évacue la chaleur par rayonnement et la fusion peut repartir. Andréa Rossi constate bien des cycles qui sont dans les valeurs de température qui correspondent à cela. C’est l’explication de sa réussite mais il ne comprenait pas comment cela marchait.

                    Tout cela grâce au net... c’est le secret des énergies gratuites par fusion froide. Il y a mieux que ça mais pour plus tard. L’avantage de cette technologie est qu’elle permet des décontaminations des centrales à fission chaude car elle opère des transmutations d’éléments chimiques mais là, ce sera au CEA d’étudier cela car il y a des conditions limitatives.

                    D’un point de vu théorique, à ce jour, l’ensemble des énergies fossiles, le nucléaire à fission chaude et le nucléaire à fusion chaude sont morts économiquement surtout cette monstruosité qu’est ITER à plus de 15 milliards et qui explosera à cause d’un effet non pris en compte à la conception, effet qui intervient dans la fusion froide jugée impossible et pourtant bien réelle. Je rappelle qu’il est prévu 2kg de tritium radioactif pouvant tuer 2 millions de personnes et du béryllium très toxique pour ITER.

                    ITER va subir la mort subite, grâce à Dieu, grâce à Dieu.....


                    • Christophe Certain Christophe Certain 24 mai 2014 08:27

                      A l’auteur : je suis sidéré en lisant votre article qu’à aucun moment vous n’envisagiez que les acteurs du big data, et notamment Google, puissent ne pas être neutres dans cette affaire et laisseraient donc une idyllique information « objective » apparaître ! Alors que google n’est pas un organisme philantropique mais une société à but commercial ! 

                      Quand vous parlez de « manipulations » de données, il ne s’agit sans doute pas de ce que vous pensez car Google fait évidemment passer ses intérêts avant ceux de ses concurrents ou du grand public.
                      Exemple : pendant un ou deux ans google a mis en avant sur ses pages de résultats les pages contenant des vidéos. On voyait une petite icône de vidéo, c’était super il suffisait de produire une vidéo sur un thème donné, et on avait de meilleurs chances d’être positionné correctement sur google. Mais entre temps Google a racheté youtube, et toutes les vidéos autres que youtube ont disparu des résultats de recherche. 
                      Plus récemment ce sont les micro-datas qui ont été prises en compte par Google, et vous pouviez avoir une micro-image de votre page dans les résultats de recherche, ce qui augmentait le nombre de clics. Bingo, tout le monde s’est précipité sur cette nouvelle fonctionnalité mais au bout d’un an Google a décidé unilatéralement de supprimer ces images, pour ne plus les laisser qu’aux sites les plus gros. En vertu de la qualité des résultats peut-être ? Non en fonction du bon vouloir de Google. Google favorise les gros sites parce que c’est plus simple à gérer pour lui. Peu importe la qualité du contenu. Contrairement à ce que vous pensez il n’existe sur terre aucun moyen de savoir si un contenu a un quelconque intérêt ou pas, à part le faire lire par des humains, et Google emploie des centaines de personnes pour vérifier la qualité des contenus des pages (et surtout la « fraude » au référencement)
                      Autrement dit tout ce que vous voyez dans Google est trafiqué en permanence, et pas dans le sens d’un hypothétique intérêt général qui n’existe pas car Google ne représente que lui-même et n’a pas d’autre objectif que de gagner de l’argent. 
                      Les algos de Google sont bricolés en permanence car la base de leur algorithme, à savoir le nombre d’hyperliens qui pointent vers une page pour décider de sa popularité est une fumisterie que tout le monde trafique depuis les débuts du référencement, à la fin des années 90, et il faut être bien naïf pour penser que ce qui peut sortir de Google est autre chose que ce qui est l’intérêt direct de Google, sans compter que Google a également des accords avec la NSA, donc toute information sensible qui pourrait sortir d’analyses de type « big data » peut être entachée de présomption de manipulation.
                      Rien de ce qui est classé dans Google dans la première page de résultat n’arrive là « naturellement ».
                      Le big data c’est comme les OGM on nous le vend en disant que cela fera des miracles pour l’humanité, alors que les résultats que nous pouvons voir d’ores et déjà prouvent le contraire !

                      • Robert Branche Robert Branche 24 mai 2014 08:49

                        Je n’ai jamais voulu dire que le Big Data aboutissait à un monde non commercial et idéal ! Effectivement Google est nė avec et sait s’en servir, et d’abord à son profit.

                        Mais il n’empêche qu’avec le Big Data, je crois qu’un nouveau monde nait, plein de nouvelles possibilités. À nous de les saisir et de le construire 

                      • Christophe Certain Christophe Certain 24 mai 2014 14:11

                        Quel est l’intérêt d’avoir des données dont on ne peut garantir la fiabilité ? Mieux vaut ne rien avoir que penser avoir des informations alors qu’elles sont fausses ou trafiquées !


                      • Robert Branche Robert Branche 24 mai 2014 14:34

                        La logique du Big Data n’est pas dans l’exactitude de chaque donnée (d’ailleurs que veut dire être exact ? Cela dépend souvent de son propre référentiel...), mais de leur très grand nombre dont on peut extraire une forme d’intelligence collective (comme cela est expliqué pour les phénomènes vivants dans l’intelligence des foules)


                      • JL JL 24 mai 2014 14:42

                        ’’La logique du Big Data n’est pas dans l’exactitude de chaque donnée (d’ailleurs que veut dire être exact ? Cela dépend souvent de son propre référentiel...), mais de leur très grand nombre’’

                        Absolument. Et ce très grand nombre confère à celui qui le détient une autorité incontestable, pour plusieurs raisons. Rien de nouveau sous le soleil : la loi du plus fort est toujours en vigueur.


                      • prolog 24 mai 2014 10:10

                        Bonjour,
                        je suis pas sur d’avoir compris le coup de l’émergence. Si les gens tapent « grippe » dans google, on peut en déduire qu’ils sont malades ou qu’ils entendent beaucoup parler de la grippe en ce moment ? J’ai l’impression que cette méthode de calcul reflète les peurs des gens et pas l’état réel du sujet.
                        Pour ce qui est de l’intelligence d’une foule (à bien distinguer de l’intelligence collective selon moi), je préfère la définition de Pratchett :
                         « Le QI d’une foule est égal à celui du membre ayant le QI le plus bas, divisé par le nombre de personnes »


                        • zygzornifle zygzornifle 24 mai 2014 14:02

                          Au Sénat et chez les députés il y a plein de Real humains....


                          • L'enfoiré L’enfoiré 24 mai 2014 14:08

                            C’est en effet, une intelligence pleine d’artifices qui nous attend.

                            Nous n’en sommes qu’au début.

                            • Robert Branche Robert Branche 24 mai 2014 14:36

                              L’intelligence s’est depuis toujours construite avec et à partir d’artifices, la nature absolue n’existe pas, ou plutôt tout ce qui s’y trouve en fait partie par définition.

                              Nous sommes « simplement » en train de penser avec de nouveaux types d’artifices, dont nous sommes à l’origine, et qui, en même temps, nous dépassent.

                            • L'enfoiré L’enfoiré 25 mai 2014 14:10

                              Bonjour Robert,

                              « Nous sommes « simplement » en train de penser avec de nouveaux types d’artifices, dont nous sommes à l’origine, et qui, en même temps, nous dépassent. »
                              Tout à fait. je ne vous en avis rien dit, aujourd’hui, ce dont je voulais parler est paru.
                              La parodie existe à la fin pour faire sourire. heureusement,

                            • Switcher 25 mai 2014 01:43

                              Google n’indexe pas plus de 30% du web, et son business model impose des choix de référencements et de tris.


                              C’est pourtant, à mon goût, un des outils les plus pertinents au niveau des résultats. C’est triste d’en arriver à cette conclusion.  smiley 

                              Il y a encore tellement de choses à découvrir.

                              Excellent article pour ce qui marque une énième révolution des réseaux.

                              • mac 25 mai 2014 10:26

                                Etrange mais dans la masse des données qui explose, on n’a toujours rien sur comment guérir définitivement les tumeurs malignes ou ce qu’est vraiment la matière noire... Comme quoi la quantité d’information ne remplace jamais la qualité.

                                L’intelligence collective ne remplacera jamais un seul cerveau brillant. Sans Einstein, il aurait probablement fallu des siècles ou l’infinité pour que l’humanité en vienne au concept de relativité en physique. Les idées, les vrais ne naissent pas dans une foule.
                                Quant à « big data », c’est probablement un moyen de plus pour l’oligarchie de dominer les masses pour les transformer en esclaves. De ce point de vue, c’est en bonne voie et les oligarques ont toutes les raisons d’être optimistes.





                                • Robert Branche Robert Branche 25 mai 2014 10:32

                                  La réalité n’est pas aussi en blanc et noir.

                                  Oui un individu peut faire, a fait et fera la différence en pensant et imaginant des ruptures.
                                  Non, « l’intelligence des foules » amplifiée par le Big Data n’est pas une fiction et seulement un outil de domination.
                                  Nous allons probablement vers un mélange des deux : des individus brillants qui sauront tirer parti de l’intelligence collective, et trouver dans et grâce au Big Data ce qu’eux d’autres n’auront pas pu.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON






Les thématiques de l'article


Palmarès