Fermer

  • AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > La science en brèves

La science en brèves

Brèves (02/08)

Physique


cosmologie, astronomie, physique quantique

- La transformation du temps en espace en expansion !!!

Incroyable ! On avait déjà vu qu’un univers devait perdre des dimensions pour ne pas entrer en collision avec un autre univers, voilà qu’il pourrait perdre aussi sa dimension temporelle (alors que d’autres avaient fait l’hypothèse d’une deuxième dimension temporelle qui n’a aucun sens pourtant) ! On dirait les frères Bogdanov. En tout cas, pour un théoricien des cordes, l’expansion de l’univers résulterait de la transformation du temps en espace. Cela paraît bien absurde car le temps n’est que la succession des événements, c’est ce qui empêche que tout se passe en même temps, comme dit Wheeler. Cela ne veut pas dire qu’il n’y aurait rien de vrai dans cette nouvelle théorie, mais dont la formulation devra être mieux comprise (on avait cru à un moment que les antiparticules remontaient le temps alors qu’on sait maintenant qu’elles ont juste une charge opposée). Dire que le temps se transforme en espace, n’est-ce pas dire que le temps n’est rien d’autre que cette transformation elle-même, cette expansion dans un nouvel espace jusqu’à un état de stabilité où plus rien ne bouge ?

Des théoriciens étudiant les braneworlds, tels que Marc Mars de l’université de Salamanque en Espagne, pensent maintenant qu’ils ont mis le doigt sur un fait qui pourrait, au sens propre, arrêter net les cosmologues dans leur recherches : la dimension de temps pourrait « bientôt » disparaître pour être remplacée par une quatrième dimension spatiale. Notre univers lorentzien familier deviendrait alors euclidien (c’est-à-dire avec quatre dimensions spatiales et pas de dimension temporelle) et Mars pense que nous en avons la preuve sous les yeux.

L’expansion observée de l’univers (découverte par Edwin Hubble en 1925) pourrait être en réalité le symptôme d’une brane en train de changer de « signature ». Suivant l’idée de M. Mars et de ses collègues, des observateurs, situés dans une brane subissant une mutation de type temps à type espace, observeraient un univers en expansion accélérée ; or c’est précisément ce que nous observons actuellement. Le théoricien indique également que cette théorie pourrait expliquer notre expansion toujours croissante, tout en conservant les caractéristiques physiques du cosmos telles que nous l’observons aujourd’hui, sans avoir besoin d’en faire porter la responsabilité sur de quelconques formes de matière noire ou d’énergie sombre.

- De l’antimatière au centre de la galaxie

La matière noire ne semble pas intervenir dans leur formation, il y aurait en fait plusieurs sources différentes d’antimatière.


La première image d’un trou noir

Une nouvelle image spectaculaire du télescope spatial à rayons X Chandra de la galaxie voisine Centaurus A fournit une des meilleures vues jamais obtenues des effets d’un trou noir super massif actif.

- L’entropie monstre des trous noirs

Un peu fumeux...

L’équipe de Frampton argue du fait que l’entropie supplémentaire est produite par la nature aléatoire de la physique quantique. Cela devrait parfois permettre à une boule de matière qui s’effondre de se transformer spontanément en quelque chose appelée un « monstre » - une organisation de la matière possédant un désordre maximum, dont les particules se déplacent à grande vitesse dans des directions aléatoires.

- Des centaines de trous noirs pourraient sillonner la Voie Lactée

Des centaines de trous noirs d’une masse de plusieurs milliers de fois celle du Soleil pourraient sillonner la Voie Lactée, notre galaxie, à grande vitesse.

Les trous noirs de la taille d’une étoile sont très nombreux dans les amas globulaires, un groupe stellaire très dense, contenant typiquement une centaine de milliers d’étoiles. Utilisant des modèles ordinateurs très sophistiqués intégrant la théorie de la relativité d’Einstein, ces astronomes ont calculé que ces fusions entre les trous noirs pourraient engendrer des centaines de trous noirs de masse intermédiaire.

L’énergie dégagée les catapulterait en dehors des amas globulaires à des vitesses allant jusqu’à 4 000 kilomètres à la seconde, nettement plus que ce qui avait été prédit jusqu’alors.

Ces trous noirs dont la masse est plusieurs fois la masse de celle du Soleil, sillonneraient à grande vitesse notre galaxie dans l’espace interstellaire sans attache à un système stellaire.

Ces trous noirs - sorte de siphon cosmique d’une masse gravitationnelle telle que même la lumière ne peut s’en échapper - attendent d’avaler des nébuleuses, étoiles et planètes qui auraient la mauvaise fortune de croiser leur chemin.

Toutefois un passage de ces trous noirs dans le voisinage cosmique ne présente pas de danger majeur, selon Kelly Holley-Bockelmann.

- Moins de trous noirs, plus d’étoiles à neutrons ?

Les étoiles à neutrons ont en général une masse de l’ordre de celle de Chandrasekhar, soit 1,44 fois celle du Soleil. Mais d’après les radioastronomes utilisant le radiotélescope d’Arecibo, elles peuvent être plus lourdes. Un candidat pesant 2,7 masses solaires a même été découvert. Les probabilités de formation des trous noirs en sont changées...

Si des étoiles à neutrons peuvent exister sur un plus large intervalle de valeur de masse que ne le laissaient supposer les observations, alors il doit en exister un peu plus qu’on ne le pense. Mais on doit alors s’attendre à trouver un peu moins de trous noirs d’origine stellaire.

- Le financement de la physique des particules en péril aux USA

Le Congrès vient de voter une réduction importante des fonds accordés à cette discipline. Des centaines de physiciens vont être licenciés et plusieurs programmes de recherches compromis.

Pour le seul Fermilab, le budget accordé sera en retrait de 62 millions de dollars au moins par rapport à celui escompté, et d’autres projets en physique des particules sont aussi affectés. Plus de 200 employés sur 1940, et peut-être même 300, seront licenciés par ce laboratoire qui est l’un des fers de lance de la recherche en physique des particules aux États-Unis depuis près de quarante ans. Pire, le Tévatron pourrait être obligé de s’arrêter pendant six semaines, ce qui réduirait ses chances de découvrir le boson de Higgs avant les chercheurs du LHC, qui devrait commencer à fonctionner vers l’été 2008.

Si le LHC découvrait une nouvelle physique, l’investigation précise de celle-ci ne pourra être faite que grâce à un autre type d’accélérateur avec des faisceaux, non de protons, mais d’électrons et de positrons. Il s’agirait d’un accélérateur linéaire long de 30 kilomètres déjà en cours d’étude et baptisé l’ILC, pour International Linear Collider. Avec la restriction budgétaire, sa construction, à laquelle le Fermilab devait être fortement associé, devient particulièrement compromise.

Ils se retirent aussi d’ITER, mais là c’est sans doute plus justifié. On ne peut pas mener 2 guerres de front et investir dans la recherche...

- Le LHC prêt à chasser le boson de Higgs avec son trajectographe

Il y a de quoi être très excité. Pour ma part, je ne suis absolument pas compétent, mais je n’arrive pas à croire à cette hypothèse ad hoc qui explique la masse, et donc l’inertie, par un champ différent de la gravitation. S’il est découvert, il faudra que je révise mes représentations, ce qui est une conversion pleine de surprises, et s’il n’est pas découvert, cela orientera la physique sur d’autres pistes, meilleures (comme l’hypothèse holographique). De toutes façons, le verdict de l’expérience sera décisif. Il y a d’autres théories qui attendent leur improbable confirmation...

Installé dans le détecteur CMS, ce trajectographe à rubans de silicium (le plus grand du monde) permettra de suivre précisément la trajectoire de particules chargées. On peut espérer grâce à lui mettre en évidence d’hypothétiques objets, dont le fameux boson de Higgs, mais au prix d’un appareillage d’une complexité paroxystique.

Lorsque deux protons (p) entrent en collision, il existe une probabilité - très faible - qu’un boson de Higgs (H0) soit créé. Celui-ci peut alors se désintégrer en deux bosons électrofaibles (Z0), partant dans des directions opposées, qui à leur tour se désintégreront en deux paires de muons et d’anti-muons. (µ- et µ+).

Même avec 800 millions de collisions par seconde, il n’apparaîtra qu’un seul boson de Higgs par jour dans les détecteurs du LHC...

- Le prix Crafoord 2008

Ce prix Nobel de substitution a été décerné cette année au physicien Edward Witten ainsi qu’un mathématicien Maxim Kontsevitch et au spécialistes des trous noirs Rashid Alievich Sunyaev. C’est certainement Edward Witten le plus extraordinaire (comparé stupidement à Einstein) qui devrait avoir le Nobel si un jour la théorie des cordes était vérifiée par l’expérience...

Edward Witten (né le 26 juillet 1951, à Baltimore aux États-Unis) a la réputation légendaire d’être un extraterrestre dont l’intelligence surpasserait celle d’Einstein et le poserait en égal de Newton. Bien qu’il soit l’un des physiciens théoriciens les plus influents des vingt dernières années, ses travaux sur la théorie quantique des champs supersymétriques et la théorie des cordes lui ont valu la médaille Fields en mathématique, en raison des nouveaux outils mathématiques qu’il a découverts dans ces disciplines et qu’il a appliqués avec succès dans le domaine de la topologie.

Ces accomplissements sont d’autant plus ahurissants que Witten voulait initialement devenir un journaliste politique et que ce n’est qu’après avoir obtenu un diplôme universitaire d’histoire, et avoir suivi pendant un semestre une filière d’économie avec une forte composante mathématique, qu’il s’orienta définitivement vers la physique théorique.

Sidérant ses condisciples à Princeton, il maîtrisa rapidement la théorie quantique des champs alors qu’il n’avait pas vraiment suivi de cursus préalable en physique. Il décrocha finalement un doctorat en 1976 sous la direction du futur prix Nobel David Gross, décontenancé par sa capacité à résoudre presque sans calculs des problèmes avancés en théorie quantique des champs et des particules élémentaires.

Climat


Voir Quels risques climatiques majeurs ?

- Les dégagements massifs de méthane peu probables ?

C’est la bonne nouvelle de ce début d’année, repoussant l’hypothèse d’un emballement du climat par la fonte du permafrost ou le dégagement des hydrates de méthane, du moins à court terme :

Une autre étude, effectuée à l’Institut d’hydrologie de Saint-Pétersbourg, démontre que le dégagement du méthane contenu dans la merzlota ne s’accroîtra que de 20 à 30 % maximum, entraînant un réchauffement de seulement 0,01° C, une valeur insignifiante comparée au résultat de l’industrialisation...

Ces arguments, confortés par le fait que l’accroissement de la concentration du méthane atmosphérique n’ait pratiquement plus été observé après l’an 2000, tendraient à démontrer que la théorie de la « bombe climatique » de la merzlota russe serait dénuée de fondements. Ce qui ne doit pas nous inciter à cesser les observations..."

- Peu de risque de dégagement du méthane marin ?

Il en est ressorti que la concentration de méthane dissous changeait avec les courants et qu’un vent plus fort en surface augmentait la libération de méthane. Toutefois, seulement 1 % du méthane dissous finissait par passer dans l’atmosphère : une excellente nouvelle.

D’après les chercheurs, la majeure partie de celui-ci doit donc être transportée par des courants en dehors de la zone de suintement et il est ensuite très probablement dégradé par l’activité microbienne des océans.


Le niveau des océans pourrait monter plus vite que prévu

par contre, la montée des océans pourrait être plus importante que prévue :

"Seulement quelques centaines d’années auraient été suffisantes pour une élévation du niveau des océans de six mètres. Plus précisément, la vitesse estimée est de 1,6 mètre par siècle, ce qui est presque trois fois plus rapide que les estimations fournies par le GIEC pour la montée du niveau des océans à la fin de ce siècle."

- Extension des déserts océaniques

Les plus grand déserts ne sont pas sur Terre mais sous l’eau. Les espaces océaniques où la faune et la flore sont presque absentes s’agrandissent encore plus vite que prévu par les modèles les plus pessimistes.

Dans une étude a paraître dans Geophysical Research Letters, des océanographes font état d’une inquiétante expansion de ces zones désertiques. Leurs mesures indiquent qu’entre 1997 et 2006 elles ont augmenté de 6,6 millions de km², soit 15 % environ. Cette tendance est générale et seul le sud de l’océan Indien y échappe. Selon eux, cet élargissement est corrélé au réchauffement des gyres (courants circulaires) et serait attribuable à la hausse généralisée des températures.

Le problème est que ces déserts s’agrandissent 10 à 25 fois plus vite que ce que prédisaient les modèles climatiques. Certains scientifiques pensent qu’il s’agit-là d’une variation naturelle amplifiée par un coup de chaud du globe et qui pourrait se renverser dans une décennie ou deux.

- Multiplication des cyclones

Durant la première partie du siècle, de 1900 à 1930, l’Atlantique connaissait en moyenne six épisodes dépressionnaires importants, dont quatre ouragans et deux tempêtes tropicales. De 1930 à 1940, cette moyenne est passée à dix avant de culminer à 15 (huit ouragans et sept tempêtes) entre 1995 et 2005. Mais les causes sous-jacentes ne sont pas encore pleinement comprises. La hausse de l’activité pourrait refléter des variations naturelles dans l’océan Atlantique Nord, ou être plus directement liées au réchauffement de la planète.

En éliminant l’influence de l’atmosphère, les auteurs constatent que l’augmentation de la température de surface de mer entre 1996 et 2005 a été à l’origine d’environ 40 % de l’augmentation de l’activité cyclonique au cours de cette période. En revanche, ils n’établissent pas de lien direct avec les émissions de gaz à effet de serre et ne font pas de prévisions pour l’avenir. La hausse prévisible des températures ne sera pas forcément génératrice de plus d’ouragans, en effet d’autres facteurs peuvent contrebalancer ces effets : diminution des vents, effet de seuil au-delà duquel les températures n’ont plus d’influences...

- La fonte des glaces de l’Antarctique est réelle, mais mal expliquée

D’après une étude publiée dans Nature Geoscience, si la partie Est de l’Antarctique serait bien restée à peu près stable, il n’en serait pas de même de la partie Ouest. Le bilan général montre alors une fonte globale de l’Antarctique, malheureusement en train de s’accélérer, au moins dans la partie Ouest.

Les auteurs ne se prononcent pas vraiment sur l’évolution future du taux de fonte de l’Antarctique dans les décennies à venir, bien qu’ils envisagent un possible ralentissement dans un futur proche. En tout cas, ces dernières années, s’ils ont raison, le taux de fonte s’est accru de 75 % par rapport à 1996.

- Un volcan sous la glace

La première preuve d’une activité volcanique sous l’Antarctique est rapportée cette semaine dans la revue Nature geosciences. Le volcan repéré est entré en éruption, sous la calotte glaciaire, il y a 2000 ans et serait encore actif aujourd’hui.

Le volcanisme encore actif de nos jours peut expliquer l’accélération du déplacement du glacier, qui a augmenté de 25 % ces dernières décennies, mais ne serait pas à l’origine de la fonte de la couche de glace généralisée dans tout l’Ouest et qui est responsable d’une élévation du niveau des eaux de 0,2 mm par an. Cette évolution a plus probablement pour origine le réchauffement global de l’océan.

- Des glaciers de l’Antarctique ont déjà résisté à un super effet de serre

Etonnant et très rassurant, sauf qu’il n’est pas très clair si ces glaciers n’ont été présents que « sur de courts intervalles » (où il faisait moins chaud ? Où l’axe de la Terre diminuait l’ensoleillement du pôle Sud ?).

Selon une nouvelle étude, même si au Crétacé, il y a 145 à 65 millions d’années, les mers étaient plus chaudes - dépassant les 36 °C au lieu des 28 °C actuels - et à des niveaux plus élevés, des glaciers existaient bien.

On pensait qu’au cours de ces périodes d’extrême réchauffement les pôles étaient dépourvus de glace. Des chercheurs révèlent que même lors du maximum thermique du Crétacé qui a duré 200 000 ans il a existé des glaciers dont la taille pouvait atteindre jusqu’à la moitié de l’actuelle calotte Antarctique. Leur existence avait déjà été postulée à cette époque, mais à partir de données qui n’étaient pas assez solides pour faire admettre ce paradoxe.

André Bornemann, de l’université de Californie, à San Diego, et un groupe international de chercheurs ont pu combiner des informations sur des sédiments calcaires avec des mesures de températures océaniques et de volume des glaciers, ainsi qu’un index de températures pour montrer que les glaciers ont bien été présents à l’époque sur de courts intervalles. Les auteurs avancent qu’une calotte glaciaire a alors pu se former en Antarctique.

- Les forêts nordiques absorbent moins de carbone

En raison d’automnes plus chauds la capacité d’absorption nette de carbone des écosystèmes nordiques est en baisse.

Pour les scientifiques, le déclin rapide des capacités d’absorption des écosystèmes nordiques pourrait rendre beaucoup plus difficile que prévu la stabilisation des niveaux de CO2 dans l’atmosphère et contribuer donc à accélérer le réchauffement planétaire. Un vrai cercle vicieux !

- Branle-bas de combat au Brésil contre la déforestation accélérée

Les arrachages d’arbres illégaux se sont multipliés à un rythme inquiétant durant la seconde moitié de 2007. Le gouvernement brésilien vient de décider de prendre des mesures énergiques.

- Réchauffement planétaire : la famine menacerait l’Afrique et l’Asie du Sud

Le réchauffement climatique pourrait menacer de famine d’ici 2030 des dizaines de millions de pauvres vivant dans certaines régions d’Afrique et d’Asie en entraînant une forte réduction de la production de leurs principales cultures.

Ils ont conclu que la température moyenne pourrait augmenter d’un degré d’ici 2030 dans la plupart des zones géographiques étudiée, tandis que les précipitations saisonnières dans certains endroits, dont l’Asie du Sud, l’Afrique septentrionale, l’Amérique centrale et le Brésil, pourraient nettement diminuer.

Leur analyse révèle plus particulièrement deux points où les impacts du changement climatique sur l’agriculture risquent d’être les plus sévères : il s’agit du sud du continent africain et de l’Asie.

Le sud de l’Afrique pourrait ainsi perdre plus de 30 % de sa production de maïs, sa principale récolte, au cours des vingt prochaines années, tandis que l’Indonésie et l’Asie du Sud verraient leurs principales cultures (millet, maïs et riz) diminuer d’au moins 10 %.

"Nous avons été surpris de l’ampleur et de la rapidité de l’impact du changement climatique sur l’agriculture de ces régions", note Marshall Burke, chercheur de l’université Stanford et co-auteur de ces travaux.

- Le coût du plan de la CEE pour diminuer le CO2

José Manuel Barroso, le président de la Commission européenne, a promis de limiter le montant de la facture annuelle à 0,5 % du PIB européen, soit 60 milliards d’euros. Mais ses services jugent plus réaliste de parler de 120 milliards par an, soit 1 % de la richesse européenne.

M. Barroso fait valoir que le coût de ces mesures devrait être compensé par les économies qu’elles permettront sur la facture des importations de gaz et de pétrole de l’Union européenne, de 50 milliards d’euros par an.

Les ventes de permis de polluer devraient aussi générer environ 50 milliards d’euros. Ces revenus iront dans les caisses des États membres, et une partie servira à financer les innovations techniques nécessaires à la réduction des émissions.

- Les émissions de la France ont baissé de 2,5 % en 2006

Les émissions de gaz à effet de serre de la France ont baissé de 2,5 % en 2006 par rapport à l’année précédente et de 4 % depuis 1990, a annoncé mardi le ministre de l’Écologie Jean-louis Borloo.

Outre les efforts entrepris notamment par l’industrie, la France a bénéficié en 2006 d’un climat particulièrement doux qui, selon Météo-France, la plaçait au troisième rang des années les plus chaudes depuis 1950, avec une moyenne annuelle supérieure de +1,1 °C à la normale.

L’automne en particulier avait enregistré des moyennes supérieures de près de 3 °C à la normale.

- Sarkozy et Gore pour un « Grenelle mondial de l’environnement »


L’anthropocène

L’activité humaine a tellement modifié la topographie de la Terre et son climat que des géologues ont officiellement proposé la désignation d’une nouvelle époque géologique : l’Anthropocène, qui symboliserait l’empreinte humaine sur l’histoire géologique de la planète.

Au vu de tous ces changements, les scientifiques ont repris une proposition faite par le lauréat du prix Nobel de chimie Paul Crutzen, en 2002. Il a suggéré que la Terre a quitté l’Holocène, période actuelle ayant débuté il y a 10 000 ans, et démarré l’Anthropocène marqué par les effets de l’augmentation des populations humaines et le développement économique.

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- Aux origines de la vie : ARN+protéine ?

Sur la forme cristallisée de l’ARN fixé à sa protéine, les chercheurs ont pu étudier la structure de cette association. L’ARN est à droite et la protéine à gauche.

L’observation de la combinaison d’un ARN et d’une protéine semble confirmer l’hypothèse d’un « monde à ARN » à l’origine de la vie (au commencement était l’information, pas le métabolisme) :

Un champignon microscopique a peut-être fourni une clé de l’apparition de la vie. L’association intime entre un ARN, cousin de l’ADN, et d’une protéine, qui joue le rôle d’une enzyme, a pu être étudiée en détail. Or, on pense que c’est ainsi que tout a commencé...

Aujourd’hui, on a de bonnes raisons de penser que l’ARN, qui peut enregistrer de l’information tout comme l’ADN, a joué un rôle d’intermédiaire au tout début de la vie sur Terre, avant l’adoption générale de l’ADN. On parle même d’un « monde à ARN ». Cette molécule se serait liée à des protéines, capables de catalyser les réactions biochimiques, devenant donc ce que l’on appelle des enzymes. C’est une telle association qui vient d’être finement observée dans un champignon unicellulaire par une équipe américaine, qui publie ses résultats dans Nature.

« Il est hautement probable que l’ARN, ou une molécule similaire, a été une des premières molécules de la vie, transmettant le code génétique de génération en génération tout en se repliant au sein de la structure cellulaire de façon à pouvoir y fonctionner, avance la biologiste Barbara Golden, de la Purdue University, co-auteur de cette étude. À un certain moment, cette molécule d’ARN a évolué et est devenue capable d’utiliser les fonctions de certaines protéines. »

- Plus que 4 groupes d’eucaryotes

Le nombre de groupes d’eucaryotes a été réduit de 5 à 4 :

  • Plants (green and red algae, and plants)
  • Opisthokonts (amoebas, fungi, and all animals-including humans)
  • Excavates (free-living organisms and parasites)
  • SAR (the new main group, an abbreviation of Stramenophiles, Alveolates, and Rhizaria, the names of some of its members)”

L’arbre du vivant raconte l’histoire de la vie sur Terre, et notre recherche peut dire quelque chose sur la façon dont la vie s’est rapidement développée. Notre découverte suggère qu’il y a eu moins de gros « événements » que nous pensions dans le développement des formes de vie supérieures. Plus nous en savons sur les branches de l’Arbre du vivant, plus nous pourrons comprendre le Big Bang de la vie, « l’origine de la vie sur Terre », a déclaré Shalchian-Tabrizi. "Il y a 3 milliards d’années, il n’y avait que des bactéries et des Archaea. Les Eucaryotes, qui comprennent tous les organismes multicellulaires, se sont développés dans la mer - probablement entre 1,2 et 1,6 milliard d’années. Ce n’est pas avant 500 millions d’années que les premières créatures sont apparues sur la terre ferme. "

- Le premier Big-Bang du vivant

L’explosion du Cambrien où sont apparues les principaux groupes animaux qui existent encore aujourd’hui (vertébrés, arthropodes, mollusques) avait été précédée d’un premier Big-Bang d’organismes multicellulaires dont il ne reste rien... (on peut penser que les premiers organismes ont trouvé des conditions trop favorables et n’étaient pas encore pourvus des défenses appropriées, mais il est possible aussi qu’un mécanisme génétique comme les gènes architectes se soit imposé par sa supériorité adaptative).

Il y a moins de 600 millions d’années, les premiers organismes multicellulaires semblent faire une brutale apparition avec déjà une certaine forme de complexité. On parle du début de cette période comme celle d’Ediacara (ou encore édiacarien) en référence à des collines en Australie où de nombreuses traces fossiles d’organismes multicellulaires ont été trouvées. Entre 542 et 530 millions d’années avant le présent, durant le Cambrien, s’est ensuite produite en moins de 10 millions d’années ce qu’on appelle l’explosion cambrienne.

Shuhai Xiao, professeur de géobiologie à l’université de Virginia Tech, et ses collègues, ont découvert ce qui semblerait bien être une seconde explosion cambrienne plus ancienne, qu’ils ont baptisée explosion d’Avalonia (Avalon explosion en anglais), par référence au nom d’un microcontinent disparu.

Elle s’est produite 33 millions d’années environ avant l’explosion cambrienne typique, exactement au moment où l’on sait que le taux d’oxygène dans l’atmosphère avait subi une augmentation notable et à la sortie d’une glaciation importante en liaison avec la théorie de la Terre boule de neige. Les types morphologiques d’Ediacara sont tous là entre 575 et 565 millions d’années mais, curieusement, ils ne survivront pas, alors que ceux apparus à la suite de l’explosion cambrienne le feront.

- Dix amphibiens bizarres parmi les plus menacés d’extinction

La société zoologique veut sensibiliser le public sur le sort d’espèces telles que la salamandre géante de Chine (qui peut atteindre 1,8 mètre), la Sooglossus (grenouille de Gardiner), une espèce endémique aux Seychelles, ou l’amphibien sans membres, Sagalla caecilian, qui a des tentacules tactiles sur le côté de la tête.

Plus étrange encore : l’olm (ou protée anguillard), un amphibien de même type que les tritons et les salamandres qui peut survivre dix ans sans nourriture.

Ce prédateur des fonds souterrains, semblable à un serpent rose de 30 à 40 cm, peut vivre quelque 90 ans.


Un palmier suicidaire

Une nouvelle espèce de palmier géant a été découverte à Madagascar, l’arbre ne fleurit qu’une fois dans sa vie et s’autodétruit dès que ses fruits se sont formés.

C’est lors de sa floraison, qui se produit au bout de 50 à 100 ans, qu’il se démarque nettement des autres espèces de palmiers connues. Celle-ci commence discrètement par l’apparition d’une fleur à la cime de l’arbre puis quelques semaines après des centaines de petites fleurs apparaissent sur les branches supérieures, lui donnant ainsi des allures de sapin de noël. Chaque fleur peut être pollinisée et se transformer ensuite en fruit. La réserve de l’arbre en substances nutritives s’épuise dès que les fruits se forment et il meurt alors brusquement en s’effondrant sur lui-même.

- L’Homme de Néandertal est-il notre ancêtre ?

Cela va à l’encontre de tout ce qu’on pensait et, notamment, des études génétiques, à confirmer donc, mais l’objection est forte : il est peu probable que des hommes soient remontés du sud au moment où il faisait le plus froid...

Un brusque coup de froid en Europe aurait accéléré l’évolution des hommes de Néandertal pour en faire des Homo sapiens. C’est la thèse d’un chercheur canadien après son étude détaillée des restes d’animaux trouvés dans la grotte de Saint-Césaire, en France.

Selon lui, un changement climatique brutal et important a durement frappé l’Europe de l’Ouest au moment de la transition entre le paléolithique moyen et le paléolithique supérieur, un événement daté de 35 000 à 40 000 ans. La biodiversité des mammifères aurait considérablement diminué, affectant gravement les conditions de vie pour les populations humaines, qui auraient connu une décroissance importante.

Ce scénario, selon le chercheur, met à mal l’hypothèse classique selon laquelle des Homo sapiens venus d’Afrique auraient colonisé justement à cette époque une Europe jusque-là peuplée de Néandertaliens. Ce n’était vraiment pas le moment pour des humains de s’installer là, explique-t-il en substance, alors que le territoire devenait hostile. En revanche, cette situation critique aurait rétréci les populations d’hommes de Néandertal, favorisé la dissémination de mutations et finalement donné un coup de fouet à l’évolution. Le Néandertalien serait ainsi progressivement devenu un Homo sapiens.

L’hypothèse d’une invasion d’Homo sapiens venus d’Afrique, qui aurait supplanté Néandertal, semble improbable à l’auteur. De plus, souligne-t-il, les stratégies des humains pour trouver de la nourriture - chasser le grands herbivores - n’ont pas changé au cours de cette période, ce qui aurait été le cas si une nouvelle espèce avait remplacé les Néandertaliens.

- Lire dans les pensées

Les chercheurs ont montré à un groupe de cobayes une série de dix dessins très simples représentant des outils ou des maisons, et on leur a demandé de penser à leurs caractéristiques. À noter que les scientifiques n’observaient pas le cortex visuel : c’est donc bien la pensée qu’ils cherchaient à capter, et non simplement la façon dont le cerveau perçoit une image. En regardant l’activité du cerveau de leurs cobayes grâce à l’imagerie par résonance magnétique, les expérimentateurs purent deviner dans 78 % des cas le dessin qui était présenté au sujet, juste en regardant quelles zones étaient stimulées. Ils ont découvert par cette méthode que la représentation d’un objet dans le cerveau n’était pas localisée en un seul endroit, mais en plusieurs sites. Par exemple, lorsqu’on pense à un marteau, les zones moteur s’activent parce qu’on s’imagine en train de l’utiliser, tandis que d’autres aires du cerveau s’activent également, répondant à d’autres associations mentales.

Mais il y a plus important. Les chercheurs ont été capables de deviner les objets observés par un sujet en utilisant une machine entraînée à reconnaître l’activité cérébrale des autres cobayes ! Autrement dit, les configurations neurales présentent une relative universalité. Nous pensons tous un peu de la même manière à un marteau ou une maison. La question qui se pose est de savoir si cette relative universalité de la pensée se limite aux objets simples ou si elle s’étend à des concepts plus sophistiqués. Pour John Dylan Haynes, de l’Institut Max Planck à Leipzig, interviewé par Newsweek, “plus une pensée est détaillée, plus les structures observées divergent. Parce que les gens développent des associations différentes pour un objet ou une idée. Nous sommes encore très loin d’une machine universelle à lire les pensées, même si nous en sommes beaucoup plus proches qu’il y a deux ans.”

Voir aussi : L’armée veut lire dans le cerveau de ses soldats.

Santé


génétique, traitements, nutrition, hygiène


Diminuer notre besoin d’oxygène

L’inhibition d’une protéine régulant l’adaptation du métabolisme au taux d’oxygène permettrait de diminuer considérablement les besoins en O2 de l’organisme.

Une équipe de scientifiques a étudié le rôle de la protéine Phd1 qui mesure l’oxygène. Cette molécule agit comme un « oxygénomètre » et tient un rôle prépondérant dans l’adaptation du métabolisme de l’organisme au cours du passage d’un environnement riche en oxygène à un environnement qui en est dépourvu.

D’autres analyses ont prouvé que chez les souris dépourvues de Phd1, les tissus musculaires s’étaient d’eux-mêmes « reprogrammés » par un réflexe métabolique afin de consommer moins d’oxygène. Les muscles ont ainsi continué de fonctionner correctement dans un environnement faible en oxygène. Le même phénomène a été observé chez des souris saines ayant reçu une injection bloquant l’activité de Phd1.

- Un coeur régénéré

Le cœur a d’abord été débarrassé de ses cellules (images du haut) puis colonisé avec de nouvelles cellules (en bas).

Intégralement débarrassé de ses cellules, un cœur de rat a été recolonisé par des cellules prélevées sur un animal nouveau-né et s’est remis à battre. Ce résultat étonnant pourrait aboutir à de nouvelles options thérapeutiques après un infarctus grave du myocarde, par exemple implanter un cœur prélevé sur un cadavre, d’homme ou même de cochon.

Cette expérience originale commence par la fabrication d’une sorte de cœur fantôme. Prélevé sur un rat, cet organe est débarrassé de toutes ses cellules par l’action d’un produit détergent. Il ne reste alors que des tissus sans vie, la matrice extracellulaire, surtout composée de collagène, mais l’ensemble conserve la forme et la structure interne d’un cœur vivant.

Dans ce cœur vidé de sa substance vivante, les chercheurs ont injecté des cellules prélevées sur le cœur d’un rat nouveau-né. Il ne s’agit pas de cellules souches (dont on a déjà testé il y a plusieurs années l’utilisation pour reconstituer le tissu cardiaque), mais elles ont tout de même la capacité de se différencier en plusieurs types cellulaires. En colonisant cette structure vide, ces cellules ont en quelques jours reconstitué - un peu - des tissus de muscle cardiaque.

Au bout d’une semaine, sous l’action d’un faible courant électrique, le cœur s’est mis à battre avec un faible mouvement, représentant 2 % de l’activité d’un cœur de rat en pleine forme.

- Un traitement contre les cellules souches cancéreuses

Il se confirme que les cancers capables de provoquer des métastases concernent uniquement les cellules souches, de plus résistantes à la chimiothérapie, ce sont donc ces cellules qu’il faut cibler. Le premier traitement spécifique vise les cancers de la peau (mélanomes), mais devrait pouvoir s’étendre aux autres cancers.

- La vitamine D contre le cancer

Les pays bénéficiant annuellement des plus longues périodes d’ensoleillement sont ceux où les populations atteintes d’un cancer vivaient le plus longtemps à la suite d’un cancer. Le taux de survie était associé à une concentration sanguine plus élevée en vitamine D.

- La myopie, un manque de soleil

La myopie est due à une croissance excessive de l’œil pendant la période postnatale. La lumière solaire stimulerait la sécrétion de dopamine, un neurotransmetteur connu pour bloquer la croissance de l’œil. Les complications pathologiques de la myopie, comme le décollement de la rétine qui peut entraîner la cécité, sont suffisamment sévères pour que des mesures de prévention soient mises en place.

- Traiter le glaucome au laser

Extrêmement délicate, celle-ci consiste à abraser une partie de la paroi du globe oculaire, ne laissant subsister que 5 % de son épaisseur, assez faible pour permettre à l’excès de liquide de s’écouler tout en restant suffisamment résistante.

Le faisceau, dirigé sur la paroi oculaire, abrase celle-ci jusqu’à ce que son épaisseur se réduise et la rende transparente. L’effet du laser s’arrête alors, empêchant tout dommage excessif à l’œil.


Un vaccin à vie contre la grippe ?

Un laboratoire anglais aurait mis au point un vaccin procurant une protection antigrippale permanente sans nécessité d’être piqué tous les ans.

Pour réaliser ce tour de force, les biologistes d’Acambis ont travaillé sur les parties invariantes des protéines de surface du virus. Ils ont utilisé un petit peptide, M2e, identifié par des scientifiques belges. Le vaccin est pour l’instant en phase d’essai, annonce Acambis, testé sur 79 volontaires, il aurait suscité la production d’anticorps chez neuf sujets sur dix.

- Testostérone : pas de miracle pour l’homme âgé
Le Figaro 04.01

Alors qu’un nombre croissant d’hommes prennent de la testostérone en vieillissant, les bénéfices semblent très faibles selon une étude publiée cette semaine.

Selon une enquête réalisée en Hollande à Utrecht (auprès de 230 hommes de 60 à 80 ans présentant un taux faible de testostérone dosé dans le sang), cette médication pourrait augmenter la masse musculaire et diminuer la masse graisseuse, mais n’accroîtrait pas en revanche la force musculaire.

Il y a un débat assez vif parmi la communauté des urologues autour des bénéfices et des risques d’un traitement par testostérone pour les plus de 60 ans.

La diminution des taux de testostérone a été accusée de provoquer une perte musculaire, une augmentation du risque de chute, de dépendance et de déclin des fonctions intellectuelles.

Nous n’avons pas observé de bénéfice sur les aptitudes intellectuelles ni sur la masse osseuse.

Le taux de bon cholestérol a diminué chez les personnes sous traitement.

Les bienfaits de la testostérone apparaissent bien minces. Cependant, l’étude n’a duré que 6 mois, ce qui est insuffisant pour évaluer tant les effets positifs (impact sur la vitalité) que les négatifs (risque prostatique).

Il vaut mieux, sans doute, stimuler la production interne.

- Le cholestérol bon pour les muscles

Pendant que vous vous exercez physiquement, vos muscles peuvent devenir endoloris. Un taux de cholestérol plus élevé peut avoir pour conséquence une réaction inflammatoire accrue. Nous savons que ce processus n’est pas indiqué dans certaines régions, telles le muscle cardiaque, mais ailleurs cela peut-être salutaire et le cholestérol semble favoriser ce processus.

- Un traitement anti-inflammatoire contre l’Alzheimer

C’est la grande nouvelle du mois ! Comme le diabète de type 2, l’alzheimer serait causé par l’inflammation et traiter l’inflammation avec un médicament contre l’arthrite injecté dans le cou permettrait d’améliorer immédiatement les symptômes ! Technology Review va jusqu’à dire qu’on voit l’état des patients s’améliorer sous nos yeux !

Plusieurs analyses ont démontré que les patients atteints d’alzheimer avait un taux élevé de TNF alpha (Facteur de nécrose tumoral) dans leur liquide céphalorachidien. Le TNF est une composante essentielle du système immunitaire du cerveau et participe à la régulation de la transmission des impulsions nerveuses. En excès, il peut nuire à la bonne conduction de l’influx nerveux et provoquer une réaction inflammatoire.

Partant de ces observations, une équipe de chercheurs universitaires et privés a testé l’effet d’une molécule anti TNF, l’étanercept (Enbrel), déjà utilisé pour traiter un certain nombre de maladies à médiation immunitaire, comme la polyarthrite rhumatoïde ou le psoriasis sévère. Les résultats qu’ils ont obtenus ont été spectaculaires : quelques minutes ont suffi, après une injection d’étanercept dans la colonne vertébrale, pour obtenir une amélioration sensible des symptômes cognitifs et mnésiques.

- Des souvenirs oubliés peuvent renaître sous l’effet de stimulations électriques du cerveau

Une hirondelle ne fait pas le printemps, mais de quoi raviver quand même le fantasme d’une mémoire intégrale, enfouie dans les profondeurs du cerveau et qu’on pourrait refaire surgir, comme certains autistes, mais par une stimulation électrique cette fois !

Les neurochirurgiens canadiens expliquent que durant la période où ils pratiquaient, au moyen d’électrodes intracérébrales, la stimulation d’une région très précise de l’hypothalamus, leur patient a subitement eu la perception d’une scène familière, vécue trente ans auparavant. "Il a retrouvé, en couleur, le souvenir d’un épisode où il était dans un parc avec des amis, rapportent les auteurs de la publication. Il a reconnu sa petite amie de l’époque parmi les gens présents qu’il voyait marcher et entendait parler sans comprendre précisément ce qu’ils disaient. Lui-même observait la scène sans se voir".

Ils ajoutent que la répétition de ces stimulations a conduit à une amélioration générale des capacités mnésiques : après trois semaines d’impulsions électriques, le patient montrait des performances accrues dans des tests d’apprentissage.

- Un nouveau médicament contre le diabète de type 2

Doté d’un mécanisme d’action inédit, ce médicament permet d’abaisser le taux de sucre sans entraîner de gain de poids ou d’épisodes d’hypoglycémie, deux effets indésirables de la plupart des autres traitements contre le diabète. De plus, le januvia, comme on l’appelle dans le commerce, se présente sous forme de comprimés qu’on absorbe par la bouche une fois par jour.

Le nouveau médicament januvia stimule justement la sécrétion endogène d’insuline par les cellules bêta, en bloquant la dégradation d’une hormone - la GLP-1 (Glucagon Like Peptide-1).

Cette hormone, qui est en déficit chez les diabétiques de type 2, migre vers le pancréas où elle se lie aux cellules bêta qu’elle stimule à produire plus d’insuline. Le januvia (ou phosphate de sitagliptine monohydraté) permet du coup à la GLP-1 d’agir plus longtemps.

- Allergies et asthme : la faute à notre flore bactérienne ?

Pourquoi les Estoniens ont-ils beaucoup moins d’allergies ou d’asthme que les Suédois ? Probablement parce que les bébés d’Estonie ont dans l’intestin une flore intestinale plus variée que les petits Suédois. C’est l’hypothèse d’un chercheur suédois qui entasse depuis onze ans des excréments de bébés dans une chambre froide.

D’une manière plus générale, l’hypothèse dite hygiéniste propose que notre environnement serait trop propre : notre système immunitaire ne serait plus entraîné à lutter contre les allergènes et se lancerait dans des batailles à la Don Quichotte contre des substances inoffensives comme les grains de pollen ou l’huile d’arachide. En faveur de cette hypothèse figure l’influence protectrice... de la ferme : l’enfant des champs a moins souvent d’allergies que l’enfant des villes. De même, contrairement à une idée reçue, la présence d’un animal domestique dans la maison du bébé renforce sa future résistance aux allergies.

Après avoir séquencé le génome humain, les scientifiques veulent aujourd’hui s’attaquer à ceux de nos bactéries. L’ensemble de leurs gènes est appelé microbiome et peut s’étudier globalement (et non pas bactérie par bactérie) grâce aux méthodes de la métagénomique, très en vogue. « Nous sommes à l’aube d’une révolution dans la compréhension du microbiome humain, s’enthousiasme Bengt Björkstén. La clé pour comprendre les maladies allergiques est peut-être dans l’intestin plutôt que dans l’environnement. » De nouvelles voies thérapeutiques s’ouvriront peut-être lorsque l’écologie bactérienne du corps humain sera mieux connue.

- Bienfaits du régime méditerranéen

Deux nouvelles études européennes viennent élargir un peu plus l’éventail des bénéfices attribués à ce mode de vie. La première concerne l’alimentation des femmes enceintes et semble démontrer une relation positive entre cette alimentation et une diminution du risque d’asthme et d’allergies pour les enfants à naître. Cette corrélation serait liée aux bienfaits des antioxydants sur les systèmes qui mettent longtemps à se développer, comme l’appareil respiratoire et le système immunitaire. Une autre recherche se consacre plus particulièrement à l’huile d’olive, dont les polyphénols (des antioxydants naturels) améliorent la qualité des malades qui souffrent de stress oxydatif et lutteraient aussi efficacement contre le vieillissement des cellules et l’ostéoporose.

Le régime méditerranéen est une pratique alimentaire qui associe un apport calorique relativement faible par rapport à l’activité physique déployée avec une consommation abondante de légumes et de fruits frais, de pain, de céréales (base de l’apport énergétique), de fruits secs et d’huile d’olive. D’autre part, les produits d’origine animale représentent une faible part de l’alimentation, à l’exception du poisson qui garnit souvent les assiettes des populations méditerranéennes.

- Acrylamide, la dangerosité se confirme

L’acrylamide est une molécule cancérigène se formant lors de la cuisson à haute température d’aliments riches en hydrate de carbone (amidon, sucres) et en protéines. Les aliments qui en contiennent le plus sont les frites, les chips, le pain et généralement tous les produits soumis à des températures élevées comme le café, les amandes grillées ou les succédanés de café à base de céréales.

D’après une nouvelle étude, financée par l’UE et publiée dans la revue International Journal of Cancer, il existe une association positive entre un niveau élevé d’acrylamide dans le sang et le développement du cancer du sein.

Sans certitudes, les chercheurs conseillent toutefois d’en diminuer la quantité ingérée. Pour cela il faut veiller à ne pas dépasser les temps de fritures nécessaires, la majeure partie de l’acrylamide se formant en effet durant les dernières minutes de cuisson. Il faut également éviter de consommer les aliments noircis ou carbonisés qui en contiennent d’importantes quantités.

- Tous contaminés par les pesticides

Selon les résultats de l’étude 100 % des sujets avaient des traces de DDE et un pourcentage élevé d’autres polluants. Les femmes en avaient plus que les hommes et les personnes âgées sont nettement plus imprégnées, ce qui s’explique par une période d’exposition longue avant les interdictions frappant aujourd’hui ces produits. L’étude démontre aussi le rôle joué par le régime alimentaire : la consommation de certains aliments, spécialement ceux d’origine animale et avec une grande concentration de graisse, provoque une grande présence de ces substances toxiques dans l’organisme.

- Dépression et coups sur la tête

Au sein de la population générale, la dépression touche environ 5 % des individus, mais ce pourcentage flambe chez les patients atteints de commotion cérébrale puisqu’il frise les 40 %.

- Les antidépresseurs pas aussi efficaces qu’on le laisse croire

Les antidépresseurs ne seraient pas aussi efficaces que ce qui est rapporté dans la littérature scientifique, où ne sont publiées, en général, que les études ayant abouti à des résultats favorables au médicament.

L’antidépresseur moderne est un placebo commercialisé avec une publicité.

Il ne faut pas exagérer ni mettre tous les antidépresseurs dans le même panier ! Cela fait longtemps que l’efficacité du Prozac est mise en cause, son succès étant largement dû à une communication agressive et... à son peu d’effet qui permettait de standardiser les doses. Il n’empêche que les antidépresseurs, bien utilisés, sont des médicaments indispensables (et même vitaux), mais leur maniement est délicat et le choix du bon antidépresseur bien difficile...

- Une possible liaison entre génétique et dépendance aux drogues

Il y a certainement un lien entre génétique et drogues car on ne connaît pas de sociétés humaines sans drogues, mais peut-on en faire une maladie si c’est la norme ?

En complément des analyses IRM, les chercheurs ont découvert, grâce à des analyses génétiques, que les personnes ayant une tendance marquée à ne pas attendre lors du test, possèdent deux copies d’une variante d’un gène appelé COMT. Cette caractéristique provoque une diminution de la quantité moyenne de dopamine, un neurotransmetteur bien connu du cerveau, et dont on sait qu’il est impliqué dans la dépendance à la cocaïne et à la nicotine.

Prises ensembles, ces données suggèrent un lien entre une prédisposition à la dépendance, une mutation génétique et une activité anormale d’une région du cerveau. Les comportements addictifs seraient donc bien des maladies tout comme le diabète par exemple.

Il est trop tôt pour en tirer des conclusions hâtives et bien des études restent encore à faire à ce sujet. Toutefois, les chercheurs sont très excités par ces observations parce qu’elles impliquent que des traitements à base de médicaments augmentant la quantité de dopamine dans le cerveau pourraient bien être efficaces pour lutter contre les addictions. En particulier, ceux utilisés pour la maladie de Parkinson pourraient se montrer efficaces.

- Clonage humain : première réussite ?

Des chercheurs, de la société américaine Stemagen, ont annoncé, dans une étude publiée jeudi dans la revue Stem Cell, avoir obtenu cinq embryons humains en utilisant des cellules de la peau de deux hommes adultes. Après vérifications, ils n’ont pas réussi à confirmer avec une totale certitude que ces embryons étaient bien des clones des deux hommes que dans trois des cinq cas. Les embryons ont été détruits au cours de ce processus de vérification.

- Homo Implantis

La recherche médicale concernant les implants est en plein boom. Depuis peu, un consortium international composé de 27 universités s’est formé autour de partenaires industriels et hospitaliers afin d’accélérer la mise en application des recherches fondamentales. L’Union européenne avec le projet Healthy Aims a pris une longueur d’avance sur le développement de tels dispositifs implantables.

Il faut ajouter que c’est la première fois que les autorités olympiques ont refusé le concours d’un handicapé parce que sa prothèse lui donnait un avantage sur les autres coureurs !

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie

- ’’SpaceShip Two’’ : 200 000$ pour 5 mn en apesanteur !

- La première bactérie entièrement synthétique

La viabilité n’est pas encore testée et la production de biocarburant n’est qu’une excuse pour une recherche fondamentale, celle du génome minimal. Pour l’instant on ne comprend pas encore ce qu’on fait, c’est juste du meccano. Bien sûr le risque est considérable à l’avenir qu’une nouvelle bactérie synthétique se reproduisant trop vite nous submerge, scénario bien plus crédible que pour les nanotechnologies avec la mythique grey goo...

Le tour de force technique des scientifiques de l’Institut J. Craig Venter, à Rockville, MD, c’est d’avoir synthétisé le génome de la bactérie Mycoplasma genitalium entièrement à partir de zéro. Cet exploit est un tremplin pour l’ingénierie microbienne permettant la création de machines biologiques capables de produire des biocarburants ou de l’exécution d’autres fonctions utiles.

Dans la nouvelle étude, les scientifiques ont commandé 101 fragments d’ADN, qui englobent l’ensemble du génome de Mycoplasma, à des sociétés commerciales spécialisées dans la synthèse d’ADN. Ces fragments ont été conçus de telle sorte que chaque séquence chevauchait un peu ses voisines ; grâce aux propriétés chimiques de l’ADN, ces différents tronçons qui se chevauchent vont s’accrocher. Les chercheurs ont attaché ainsi les fragments, morceau par morceau, pour à terme générer la totalité des 582 970 paires de base de la séquence du Mycoplasma. Les résultats ont été publiés jeudi dans l’édition en ligne de Science.

"Nous estimons qu’il s’agit d’une deuxième et importante étape dans un processus en trois étapes de notre tentative de créer le premier organisme de synthèse", explique Craig Venter, président de l’Institut Venter. Venter et ses collègues veulent en fin de compte créer un génome minimal - celui avec le plus petit nombre de gènes nécessaires pour entretenir la vie. Établir le génome minimal permettra à la fois de faire la lumière sur les principaux processus cellulaires, et de fournir une base pour la conception d’organismes synthétiques sophistiqués. « Nous travaillons en fin de compte à la conception des cellules qui pourraient fonctionner d’une façon robuste pour faire uniquement des biocarburants », dit Venter.

- Un maïs non OGM enrichi en vitamine A

De nouvelles recherches pourraient servir à développer par croisement des maïs contenant plus de vitamine A, ce qui pourrait permettre d’améliorer la santé de millions d’enfants en Afrique subsaharienne et dans d’autres régions dont l’alimentation est basée sur cette céréale.

Dans leur étude, les auteurs montrent comment des variations naturelles du gène lcyE pourraient offrir le moyen aux semenciers des pays développés de produire un maïs ayant plus de provitamine A sans qu’il soit nécessaire pour cela de passer par de la transgenèse.

C’est une très bonne chose qu’on puisse se passer d’OGM, mais de toutes façons le maïs n’est pas une bonne plante alimentaire et il demande trop d’eau...

- Un nouveau procédé de fabrication d’éthanol

À partir de pneus, de bois et de déchets pour 0,5 $ par litre.

Le cœur du nouveau procédé de fabrication d’éthanol à partir de sources autres que le maïs est constitué d’un faisceau de fibres creuses. Les matières organiques sont chauffées jusqu’à former un mélange d’hydrogène, de dioxyde de carbone et du monoxyde de carbone. Quand le bioréacteur est en fonctionnement, le gaz pénètre le centre des fibres et nourrit les bactéries convertissant le gaz en éthanol.

- De l’hydrogène solaire bon marché

En utilisant des nanostructures de titane, Nanoptek permet la production d’hydrogène à partir du soleil et de l’eau pour un coût très inférieur aux technologies actuelles.

- L’énergie intelligente

La domotique tarde à s’imposer (trop compliquée, trop chère) alors que le contrôle informatisé de l’énergie est un gisement qui est loin d’être négligeable.

Apporter à chacun des outils leur permettant de surveiller et d’ajuster sa consommation électrique n’est pas nouveau, mais on ne connaissait pas à ce jour leur impact exact... Une étude réalisée par le Pacific Northwest Laboratory, un des laboratoires nationaux du département de l’Énergie des États-Unis, suggère que ces outils pourraient permettre aux foyers de réaliser 10 % d’économie sur leurs factures et au final, réduire les charges de pointe du réseau électrique de quelque 15 % par an.

- Départ du premier « cargo écologique » à voile d’Allemagne vers le Venezuela

La voile de 160 m² de surface, véritable cerf-volant accroché au-dessus de la proue du navire et pilotée par ordinateur, permet de réduire la consommation de carburant de 10 à 35 % selon la force du vent.

Les cargos qui circulent sur les mers et océans sont responsables à hauteur de 4 % des émissions de dioxyde de carbone (CO2), soit le double de l’aviation.

- Un bateau solaire

L’engin est donc propulsé à la fois par le vent et l’électricité. En mode voilier, il utilise ses deux ailes latérales qui peuvent s’incliner et s’orienter pour capter l’énergie du vent. Elles sont recouvertes sur leurs deux surfaces de panneaux solaires qui offrent en même temps une propulsion électrique.

- Trev : une voiture électrique revenant à 60 centimes les 100 km

Le concept Trev est une réalisation d’étudiants de l’université du sud de l’Australie. Le véhicule peut embarquer deux personnes et, selon ses concepteurs, se déplacer pour un coût de 60 centimes d’euro les 100 km. Il s’agit de 60 centimes d’euro d’électricité australienne bien entendu.

Tout dans le véhicule tend vers la légèreté : du châssis en aluminium aux jantes en acier léger en passant par sa carrosserie en mousse et fibre de verre.

- La voiture à air comprimé débarque en Inde

Le concept est français, mais c’est en Inde que la voiture à air comprimé fera bientôt son apparition grâce à l’accord signé il y a quelques mois entre le holding MDI et le constructeur indien Tata.

Il faut dire que le concept paraît presque trop beau pour être vrai, puisqu’il permet de rouler presque gratuitement en n’émettant pas la moindre particule polluante.

Dans un premier temps, l’air est fourni par un compresseur embarqué, qui fonctionne sur une simple prise de courant. Il faut une nuit entière pour gonfler complètement le réservoir. On obtient alors une autonomie de 80 kilomètres cela pour environ 1,50 € d’électricité (au tarif français). La puissance délivrée n’est pas mirifique (25 chevaux), mais suffit pour faire circuler cette petite citadine de 870 kg en ville.

C’est une voiture dont il faut faire la promotion, mais qui n’est qu’une solution intermédiaire. Les transmissions mécaniques ne sont pas efficientes et l’air comprimé non plus. La voiture de l’avenir est toute électrique avec un moteur dans chaque roue (comme la Volvo ReCharge Concept) et marchera soit avec une pile à combustible à base de méthanol ou un autre carburant liquide plutôt que l’hydrogène, soit, plus probablement, avec des batteries super-condensateurs. On n’en est pas encore là (bien que les premiers modèles viennent de sortir) et donc, en attendant, il faut pousser effectivement les voitures à air comprimé en ville, en les faisant acheter par les municipalités par exemple, car si ce n’est probablement pas une technique d’avenir, c’est la meilleure solution du moment !

- Avec « Nano », Tata présente la voiture la moins chère du monde

Plus important sans doute cette petite voiture qui pourrait être une bénédiction si elle remplaçait les grosses mais qui sera plus sûrement catastrophique pour le climat en augmentant démesurément le nombre d’automobiles...

« La voiture du peuple », de Tata, automobile hyper-compétitive de quatre places tirée par un minuscule moteur de 630 cm3, soit la cylindrée d’une moto, est présentée au moment où la compétition internationale s’aiguise dans la gamme des véhicules très bon marché. Son nom est la « Nano ».

Malgré ses 3,1 mètres de long, ses 1,5 de large et ses... 1,6 de haut (voilà qui promet une tenue de route aléatoire, surtout vu la taille « rikiki » de la dot pneumatique), cette mini-citadine aux faux-airs de Smart du pauvre a en effet le mérite de disposer de 5 portes et consomme 5 l/100km.

Le français Renault et le japonais Nissan se penchent également sur une automobile à un prix imbattable, conçue et fabriquée au royaume des délocalisations et du travail à coûts réduits.

Renault poursuit le développement de cette voiture à 2 500 dollars avec le constructeur indien de motocyclettes, Bajaj, qui pourrait aussi être produite au Brésil.

- Tokyo 2007 : Toyota i-REAL

La structure en fibre de carbone s’incline plus ou moins vers l’arrière en fonction de la vitesse (maximum 30 km/h) et prend de l’angle dans les virages. Les commandes sont dans les bras du fauteuil, et i-REAL émet son et lumière en guise de signalisation.

- Des nanofils de silicium pour produire de l’électricité à partir de la chaleur

Cette image, produite par un microscope électronique à balayage, montre un nanofil de silicium reliant deux plaques - une qui sert de source de chaleur et l’autre de capteur. Les chercheurs ont constaté que 50 nanomètres de nanofils de silicium ont une conductivité thermique bien plus faible que le silicium ordinaire, mais conservent leur conductivité électrique, ce qui donne aux nanofils les propriétés des matériaux thermoélectriques - ceux qui convertissent la chaleur en électricité et vice versa.

Recharger un téléphone mobile grâce à la chaleur du corps, climatiser la voiture grâce à celle du pot d’échappement ou transformer en électricité les calories perdues par les bâtiments : c’est le genre d’applications qu’imagine une équipe de chercheurs après la découverte de propriétés inattendues de nanofils de silicium.

- Des nanotubes de carbone absorbent 99,955 % de la lumière

À droite le carbone vitreux, à gauche un étalon standard d’absorption et au centre le « corps noir ».

Le corps obtenu est le plus noir jamais synthétisé par l’homme jusqu’à présent. Le secret : encore et toujours des nanotubes de carbone.

L’une des applications potentielles importantes de ce nouveau matériau est la conversion thermophotovoltaïque. Elle requiert pour produire efficacement de l’électricité une absorption la plus complète possible de la lumière à tous les angles, toutes les polarisations et à toutes les longueurs d’onde.

- Des puces électroniques à base d’algues

Les diatomées sont des algues unicellulaires, et l’un des types les plus courants de phytoplancton. Une de leurs caractéristiques principales est de s’envelopper dans une carapace de silice. Selon une équipe de chercheurs américains qui a réussi à décoder le génome d’une de ces diatomées, nommée Thalassiosira pseudonana, ces algues très petites pourraient devenir la prochaine grande percée dans les puces électroniques. Elles pourraient aussi être utilisées pour éliminer le dioxyde de carbone de l’atmosphère afin de réduire les effets des changements climatiques mondiaux qui se produisent actuellement.

Qu’est-ce que ces chercheurs ont trouvé ? Ils ont découvert un ensemble de 75 gènes spécifiquement impliqués dans la production de silice et qui pourraient conduire à des puces d’ordinateur plus rapide. Ces nouvelles données permettront à Sussman de commencer à manipuler les gènes responsables de la production de la silice et peut-être de les exploiter pour produire des puces informatiques. Cette puce pourrait augmenter considérablement la vitesse, selon Sussman, parce que les diatomées sont capables de produire des lignes beaucoup plus fines que ne le permet la technologie actuelle. "L’industrie des semi-conducteurs a été en mesure de doubler la densité des transistors sur les puces électroniques toutes les quelques années. Ils l’ont fait en utilisant des techniques de photolithogravure ces trente dernières années« , explique Sussman. »Mais ils sont désormais face à un mur infranchissable car ils doivent passer en-dessous de la résolution de la lumière visible".

"Les diatomées, dont la plupart sont trop minuscules pour qu’on les voit sans grossissement, sont incroyablement importantes dans le cycle mondial du carbone", explique Thomas Mock. "Au cours de la photosynthèse, les diatomées transforment le dioxyde de carbone en carbone organique et, dans ce processus, produisent de l’oxygène. Elles sont responsables de 40 % de la production de carbone organique dans les océans chaque année".

Et comment cette recherche génomique pourrait être en mesure d’améliorer la vie sur Terre ? Considérant que 30 % des océans de la planète sont pauvres en fer, certains chercheurs ont suggéré de les fertiliser en fer de sorte que les diatomées deviennent plus nombreuses et puissent absorber plus de dioxyde de carbone atmosphérique, freinant donc ainsi le réchauffement de la planète.

- Des élèves sous haute surveillance par RFID !

Le collège Hungerhill à Doncaster a mis en place, à titre expérimental, un système de surveillance utilisant des puces RFID, Radio Frequency Identification, intégrées aux badges des élèves. Dix élèves se sont portés volontaires pour en tester l’efficacité.

Avec ce système de surveillance par RFID, les élèves de Hungerhill ont une carte à puce intégrée à leur badge, qui peut émettre des signaux radio. L’élève peut ainsi être identifié lorsqu’il entre dans une classe. La puce est connectée à un système central, ce qui permet d’avoir de nombreuses informations sur l’élève comme par exemple sa photo ou ses résultats scolaires. De plus, le système permet aussi de restreindre l’accès à certaines zones de l’établissement pour les élèves qui ne sont pas autorisés à y accéder.

- Transferts haut débit par contact

Sony a annoncé une nouvelle technologie sans fil nommée “TransferJet”. Le débit théorique élevé (560 Mbps) permettra de transférer vidéos, images et son HD entre téléphones portables, ordinateurs et télévisions.

L’innovation vient du fait qu’il suffit de se faire “toucher” les appareils entre eux pour qu’ils communiquent sans fil (technologie “Touch & Get”). La mise en place de la communication s’en trouve ainsi grandement simplifiée.

Basé sur le 4,48 GHz, cette technologie de type NFC sera intégrée à l’ensemble de l’offre Sony.

- Bientôt l’usb sans fil

- Le MacBook Air : un portable de luxe de 2 cm d’épaisseur

La version de base sera vendue 1 800 dollars aux Etats-Unis et 1 700 euros en France, des tarifs faisant du MacBook Air un objet de luxe.

Le principal défaut est sans doute la connectique d’un autre âge : une seule prise USB et à peu près rien d’autre, même pas de connecteur FireWire... En option, on peut ajouter une prise Ethernet (30 dollars). Heureusement, sans fil, les possibilités sont plus larges, avec une compatibilité Wi-Fi et Bluetooth.

En fait, si c’est d’un autre âge c’est plutôt parce qu’il est en avance car la plupart des connexions se feront en WiFi désormais...

- Eee-PC : SFR et Asus vendent un ordinateur à 200 euros

On avait déjà parlé de ce tout petit portable d’Asus qui n’est pas seulement un minitel perfectionné, même s’il est destiné surtout à l’utilisation d’internet et vendu 300 €. SFR le propose désormais à 200 € avec un modem 3G permettant de se connecter en voyage, mais avec un abonnement de 60 € quand même... (bientôt on offrira l’ordinateur avec l’abonnement).

Un ordinateur ultraléger, un modem 3G et un forfait de connexion : c’est le cocktail de SFR et d’Asus pour proposer une solution de connexion permanente aux voyageurs. Avec un prix plus faible que les UMPC, ce terminal internet pourrait inaugurer une nouvelle tendance.

Pour 200 euros (contre 300 pour l’ordinateur seul chez Asus) plus 60 euros par mois, l’opérateur de téléphonie mobile propose l’Eee-PC muni d’un modem sous forme de clé USB capable de se connecter par la voie des airs via le réseau SFR.

- Un terminal internet de 300 grammes

Au CES de Las Vegas, Lenovo a montré un prototype de PC de poche, en fait un terminal internet. Ce petit appareil sera commercialisé en Chine en 2008 et dans les autres pays - sauf le Japon
- en 2009.

Le petit appareil de Lenovo arbore un écran de 12 centimètres de diagonale affichant 800 x 480 points. Le stockage des fichiers est assuré par un disque dur SSD de 4 ou 8 Go. Pour la connexion, Lenovo annonce une compatibilité Wi-Fi, Bluetooth et Edge (téléphonie mobile).

Le prototype montré par Lenovo utilisait Linux et se lance en vingt secondes.

- Démarrage instantané du PC

Plusieurs sociétés (splashtop, Phoenix Technologies ou même Intel), développent des systèmes capables de démarrer presque instantanément (5 secondes), principalement pour consulter internet (FireFox ou Skype).

- Des lunettes écran

Fini l’écran, voici les lunettes donnant l’illusion d’une scène à taille réelle se déroulant devant vous... C’est ce que propose Lumus, une société israélienne, grâce à un ingénieux système consistant à projeter les images devant les yeux.

- Des lentilles de contact affichant des données multimédias

Cette nouvelle création doit son origine à l’université de Washington qui a conçu effectivement un procédé permettant de produire des lentilles de contact intégrant un circuit électronique ainsi qu’une source de lumière permettant aux futurs utilisateurs de pouvoir consulter dans un environnement réel diverses informations.

En fait ce n’est pour l’instant qu’un prototype testé sur des lapins et il y a des problèmes d’alimentation, voir Internet-Actu.

- Un mur-écran

Il ne s’agit encore que d’un prototype, mais il a le mérite de démontrer que cette technologie est désormais à la portée des ingénieurs. Le projet LifeWall (littéralement mur de vie) utilise des écrans plats géants, couplés à des caméras, pour créer un environnement modifiable.

- Une imprimante de poche

Cette imprimante Polaroid est à peu près de la taille d’un jeu de cartes et peut imprimer des photos sur deux pouces par trois sans utiliser d’encre ni de toner. Au lieu de cela, elle utilise un nouveau type de technologie d’impression thermique, développée par la startup Zink Imaging. Zink a développé un papier spécial (en bas) qui contient des couches de cristaux de pigment qui sont libérés lorsqu’ils sont chauffés.

- Les Fab@home débarquent

A l’université de Cornell une équipe a mis au point le “Fab@Home“, les spécifications en “open source” d’une imprimante 3D à bricoler soi-même (mais on peut s’aider en achetant des kits) pour environ 2 400 $. Ces petites fabriques personnelles pourraient bouleverser l’industrie et les modes de distribution en diminuant les transport tout en réduisant les délais.

- Tendances 2008

- Après le contenu généré par les utilisateurs, va-t-on assister à l’introduction des produits générés par les utilisateurs ? Plusieurs sites ont en tout cas commencé à se positionner sur ce marché. C’est le cas de Ponoko, qui permet aux internautes d’uploader une maquette 2D de leur projet, de choisir entre différents matériaux, et qui ensuite se charge de la découpe au laser pour la phase de fabrication.

- Après l’euphorie des premiers moments, ceux de la découverte, les internautes vont peut-être apprendre à leurs dépens qu’il n’est pas souhaitable de trop élargir son réseau d’amis.

- Le ciblage comportemental, dans le domaine du commerce électronique, du contenu éditorial ou de la publicité, consiste à proposer aux internautes des offres en fonction de leurs comportements de navigation et de leurs centres d’intérêts, sur internet, sur mobile ou par e-mail. La technique repose sur le dépôt et l’analyse de cookies placés sur les postes des utilisateurs.

- En 2008, les réseaux mobiles vont continuer à s’étendre, plus rapidement. Cette tendance, combinée à la sortie de nouveaux terminaux facilitant l’accès à l’internet mobile, va booster l’usage de l’internet mobile. L’extension des réseaux mobiles va s’appuyer à la fois sur le Wi-Fi et sur la 3G et 3G+, dont la norme dominante est le HSDPA (haut débit mobile).

- Cela fait des années que les professionnels du secteur annoncent le décollage prochain du marché du marketing mobile. Mais il semble que 2008 réunisse enfin les facteurs-clés de développement du marché.

- Le boom des réseaux sociaux locaux qui se pensent comme des animateurs de communautés amenées à entretenir des liens dans la vie réelle.

- Les réseaux sociaux pourraient bien, en 2008, commencer à détourner les budgets des liens sponsorisés vers leurs propres offres publicitaires.

- Vidéo en ligne : le téléchargement supplanté par le streaming financé par la pub.

- Objets relationnels

Ce ne sont que des gadgets...

Jean-Louis Frechin propose ainsi 5 objets, pour interroger notre lien à la maison de demain :

  • Waaz, une étagère combinée à une chaîne hi-fi, qui lit les infos d’une pochette de CD ou de DVD que l’on pose sur elle, via un dispositif Rfid. Un objet-interface qui comble l’écart entre la musique immatérielle et la musique stockée sur des supports physiques.
  • WaSnake, une étagère malléable dotée d’écrans lumineux qui permet de diffuser des SMS ou des flux RSS dans le salon.
  • WaDoor est un écran-objet pour la maison ou l’espace public. Il consiste en un papier électroluminescent qui permet d’afficher des informations ou des ambiances en grand format et de les personnaliser dans des chorégraphies réactives et récréatives, comme un panneau d’affichage personnalisable.
  • WaNetLight est une suspension lumineuse qui forme une matrice lumineuse tridimensionnelle et permet de moduler la lumière (sa profondeur, son rythme, ses couleurs) pour créer de nouvelles compositions lumineuses dans l’espace.
  • WaPix consiste en un duo de cadres photos numériques “chronopictographiques”, exposant des moments, des lieux, des situations plutôt que des instantanés. Les images défilent d’un cadre à l’autre dans une continuité et à un rythme qui dépend de leur éloignement.

- Radionomy, un outil pour créer sa propre Web radio en ligne

Créer sa propre radio sera prochainement à la portée de tous. Radionomy va lancer en bêta test en février une plate-forme permettant de créer gratuitement une Web radio. Le test sera dans un premier temps limité à 250 internautes, avant de s’ouvrir à tous. Quiconque a déjà rêvé de devenir animateur sur les ondes, pourra donc à défaut le devenir sur le Web.

Pour leur faciliter la tâche, Radionomy va donner accès à une bibliothèque musicale de quelque 100 000 titres permettant à ses utilisateurs de réaliser leur propre programmation. Des flux préprogrammés, compilés par style (rock, classique, etc.), seront accessibles en écoute.

- Second Life ferme des banques virtuelles

Pendant des mois, alors que plusieurs déconfitures bancaires dans le monde virtuel Second Life avaient pu coûter des pertes en argent réel à certains participants, les propriétaires de l’entreprise Linden Lab de San Francisco maintenaient la ligne du laissez-faire, essentiellement en disant : nous hébergeons juste le logiciel ; les résidents devraient éviter les deals trop beaux pour être vrais. Mais cette semaine, Linden Lab a brusquement interdit toutes les banques virtuelles qui ne peuvent pas fournir "la preuve de leur enregistrement officiel comme institution financière." Voilà de quoi fermer sans doute toutes les banques de Second Life.

"Il n’y a pas de solution viable", selon Linden Lab. "Ces soi-disant banques ne sont pas exploités, surveillés ou assurés par Linden Lab, nous ne pouvons pas prédire celles qui vont échouer et à quel moment. Linden Lab n’est pas et ne peut pas commencer à agir comme un régulateur de banques". La société a écrit que "ces banques ont apporté des risques importants pour Second Life, et nous estimons qu’il est de notre devoir d’y mettre un terme. En offrant des taux d’intérêt trop élevés insoutenables, ils sont condamnés dans la plupart des cas à l’échec - laissant les "déposants" avec rien pour leurs investissements. A mesure que ces activités prenaient de l’ampleur, elles devenaient plus susceptibles d’entraîner une déstabilisation de toute l’économie virtuelle".

- eBay à l’origine de 19 milliards de dollars d’économies

Sept milliards de dollars. C’est ce qu’aurait économisé l’ensemble des acheteurs sur eBay au cours de l’année 2003 en privilégiant ce service d’enchères pour faire leurs achats (...) Suivant une projection, les mêmes internautes auraient économisé pas loin de 19 milliards de dollars en 2007.

- Après Google : les moteurs de recherche P2P ?

Les barrières ne reposent pas sur la qualité des algorithmes de recherche, mais d’abord sur les pratiques et notamment le fait que changer de moteur de recherche nécessite de changer d’habitude. L’autre barrière est désormais que la profondeur de l’indexation demande d’investir des millions de dollars dans des fermes de serveurs pour arriver à scanner le web aussi massivement que le fait Google. (...) Pour Bernard Lunn, les réseaux P2P sont le seul moyen pour dépasser cette barrière technico-financière qui devient chaque jour plus élevée : il faut utiliser l’infrastructure des utilisateurs !

Et de signaler Faroo, le moteur de recherche en P2P, qui outre sa proposition économique (Faroo propose aux utilisateurs de leur retourner 50 % des revenus des recherches), propose aussi quelques fonctionnalités intéressantes en matière de respect de vie privée ou du contrôle sur le Spam. Bien sûr, reconnaît-il, le modèle de Faroo n’est pas évident à entr’apercevoir à ce stade : encore en beta, et avec un nombre d’utilisateurs très limités, Faroo a plutôt tendance à ne renvoyer aucune réponse à vos résultats puisqu’il indexe seulement les sites que les utilisateurs de Faroo visitent. Tant que ce nombre ne se mesure pas en millions, le service risque bien d’être très décevant.


Critique de la création collective

Un article très intéressant sur InternetActu fait état des critiques de Jaron Lanier contre l’idéologie des logiciels libres, argumentant que la création collective est conservatrice plus qu’innovante.

"Pour Lanier, une idéologie dangereuse, le “maoisme numérique”, se profilerait derrière les TIC consistant, petit à petit, à nier l’importance des individus. Une idéologie de “la ruche” qui serait à l’oeuvre derrière Wikipedia, par exemple. “La beauté d’internet”, écrit-il, “est qu’il connecte les gens. Sa valeur, c’est les autres. Si l’on en vient à croire que l’internet lui-même pourrait avoir quelque chose à dire, nous dévaluons la valeur des autres et nous nous transformons en idiots.”

Sans être fausse, cette critique ne tient pas compte du fait que si le travail collaboratif est indispensable, c’est à cause de la complexité en jeu, unique raison pour laquelle les logiciels libres peuvent être supérieurs aux logiciels propriétaires. La conclusion de l’article me semble la bonne : il faut arriver à combiner création individuelle et travail collectif.

"Au final, on peut se demander s’il n’est pas possible d’obtenir le meilleur des deux mondes : un système de conception logicielle qui fonctionnerait, comme la science, de manière ponctuée, alternant les phases d’ouvertures et celles d’encapsulation".

- Des peintures rupestres fascinantes découvertes en Papouasie

- L’énigme Pythagore : La vie et l’oeuvre de Pythagore et de sa femme Théano

Pour ce que j’en ai entendu, il y a beaucoup d’invention, il ne faut pas tout prendre au pied de la lettre mais cela donne une représentation intéressante, sinon vraisemblable, de Pythagore, bien trop méconnu et si pittoresque pourtant. Je n’arrive pas à croire que ce soit le même Pythagore qui soit champion olympique en mangeant de la viande rouge et le philosophe végétarien... En tout cas, cela pourrait faire un beau film.

Surgi des tréfonds mystérieux d’une Grèce antique plus fascinante que jamais, Pythagore incarne comme personne avant lui la grandeur humaine.

Héros olympique, champion de lutte, élève de Thalès, ami du pharaon Amasis, géomètre, philosophe, musicien, astronome, il aimait rire, apprendre, partager. Avec lui, nous foulons le sol de Samos, d’Olympie, de Tyr, de Jérusalem, d’Alexandrie, de Babylone, d’Héraklion... La belle et brillante Théano combla de bonheur cet homme déjà mûr qui avant de la rencontrer préférait le célibat à un mariage sans âme.

Epouse, mère, élève puis maître à penser, cette femme exceptionnellement moderne tint de son vivant un rôle de premier ordre. L’école qu’elle fonda avec Pythagore fut celle de la tolérance et de l’ouverture sur le monde. On compara Pythagore à Apollon pour sa beauté, on compara Jésus à Pythagore pour sa bonté. Vinci, Kepler et bien d’autres furent fascinés, inspirés par sa science. Pythagore savait déjà que la Terre était ronde, qu’elle tournait autour du Soleil...

Enquête historique à lire comme un roman, portrait sensible d’un homme hors du commun, L’Enigme Pythagore conte la passionnante aventure du savoir humain, à l’aube de notre civilisation.

L’Enigme Pythagore : La vie et l’oeuvre de Pythagore et de sa femme Théano, PRESSES DE LA RENAISSANCE Henriette Chardak


Moyenne des avis sur cet article :  4.56/5   (27 votes)




Réagissez à l'article

12 réactions à cet article    


  • elric 4 février 2008 14:32

     Article trés intérrésant,qui tient au courant de l’actualité scientifique,mais peut être un peu long,il aurait peut être mieux valut plusieurs articles pour aborder les differents sujets


    • Jean Zin Jean Zin 4 février 2008 15:38

      L’article a été repris de sur mon blog où il est encore plus long... C’est une bonne chose de l’avoir réduit aux brèves ce mois-ci, il y a d’autres choses qu’on aurait pu enlever mais il suffit de passer vite dessus et ce serait envahissant d’éclater tout cela en petits morceaux. C’est un autre usage d’internet, il y a une pluralité de lectures, de temporalités et de types d’écrits...


    • Gilles Gilles 4 février 2008 15:19

      Sur le méthane

      "Une autre étude, effectuée à l’Institut d’hydrologie de Saint-Pétersbourg, démontre que le dégagement du méthane contenu dans la merzlota ne s’accroîtra que de 20 à 30 % maximum, entraînant un réchauffement de seulement 0,01° C, une valeur insignifiante comparée au résultat de l’industrialisation..."

      En effet, mais il me semble avoir lu que ça c’est dans l’hypothèse basse et au début. Aprés, plus il fait chaud plus les émissions augmentent exponentiellement....avec risques d’embalement et de vraie surchauffe.

      A vérifier tout de même...


      • Jean Zin Jean Zin 4 février 2008 15:33

        Oui, j’en parle plus en détail dans l’article cité :

        http://jeanzin.fr/index.php?2008/01/13/124-quels-risques-climatiques-majeurs

        Il y a un vrai risque à plus long terme mais étant donnée la vitesse de la fonte de la banquise c’est une très bonne nouvelle qu’il n’y ait apparemment pas de risque d’emballement à court terme !


      • stephanemot stephanemot 4 février 2008 16:43

        il n’est pas trop politiquement correct d’évoquer le sujet en Russie, ce qui peut expliquer certains discours.


      • Dudule 4 février 2008 17:22

        La théorie des cordes ressemble de plus en plus à un immense délire néo-platonicien.

        Ça fait quand même pas mal d’années qu’une poignée de physiciens et de mathématiciens grattent le papier en tripatouillant des théories mathématiques auxquels personne ne comprend rien à part eux-mêmes, et celà sans la moindre validation expérimentale. Juste le pré-supposé discutable qu’il existe une théorie mathématique capable de décrire entièrement la physique.

        On dirait plein de petits Ptolémés en train de batir des épicycles...

        Et cette situation est d’autant plus paradoxal que les observations expérimentales foisonnent dans l’infiniment petit comme dans l’infiniment grand (accélérateur de particules, téléscopes, etc)...

        Je suis très, très soupçonneux vis à vis de ces gens qui s’ammusent comme des fous avec de grandes théories (il semble en fait qu’il y a une théorie des cordes par physicien qui s’en préoccupe, tant ce modèle semble "ajustable"), sans trop se préoccuper de validation expérimentale...

        Je suis donc très surpris losqu’un physicien publis ce genre de résultat : "On avait déjà vu qu’un univers devait perdre des dimensions pour ne pas entrer en collision avec un autre univers, voilà qu’il pourrait perdre aussi sa dimension temporelle (alors que d’autres avaient fait l’hypothèse d’une deuxième dimension temporelle qui n’a aucun sens pourtant) !". C’est de l’humour ou j’ai mal lu ? Et son hypothèse, au gars en question, elle à vraiment un sens ?

        Protocole de vérification expérimentale ? Où ça ? Pourquoi faire ? Où a t-on déjà vu un autre univers ? Je veux bien admettre que des univers parallèles peuvent expliquer certains paradoxes quantiques, mais je ne me doutait pas que ce modèle avait franchit la frontière de l’hypothèse à la réalité tangible !

        En d’autres temps, si un modèle avait donné des résultats aussi contraires à l’observation (et au bon sens), et bien, on aurait dit que le modèle n’est pas bon, et qu’il faut le geter ! Il semble qu’un certains nombre de gardes-fous (au sens propre comme au figuré) ont été franchis chez nos amis théoriciens !

        Noter bien que cette remarque ne suffit pas à invalider "la" (les) théorie(s) des cordes, puisque ses modèle mathématiques sont tellement toufus et ajustables qu’il y a des tas de théories des cordes, au point que beaucoup semble pouvoir se passer de la confrontation avec la réalité... C’est juste le modèle de ce monsieur qui devient très discutable.

        C’est ça le danger des théories des cordes : il y en a tellement de posssibles que l’on pourra toujours abandonner un modèle pour un autre. Jusqu’au jour où on finira par ce poser quelques questions...

        Sinon, très bien cette petite revue scientifique. Très bonne idée.


        • Jean Zin Jean Zin 4 février 2008 20:17

          Edward Witten prétend que la gravitation est une vérification expérimentale de la théorie des cordes, sous prétexte qu’il y a dans la théorie des cordes des bosons de spin 2 ! Pour les auteurs de cet article, la preuve de cette théorie, c’est l’expansion de l’univers ! On ne peut pas leur en vouloir si nos instruments actuels ne permettent pas de tester leurs hypothèses mais c’est très dépaysant et il ne faut pas s’imaginer que les théoriciens délirent en disant n’importe quoi, ce ne sont que des équations qu’ils essayent d’interprêter, sinon il serait impossible de parler de 2 dimensions temporelles ou d’une transformation de temps en espace. Il ne s’agit pas de faire comme si on pouvait avoir un avis sur la question, c’est juste l’occasion d’essayer de se représenter l’irréprésentable.


        • JoëlP JoëlP 4 février 2008 17:46

          Je me demandais où passait mon temps. Grace à vous, je viens de comprendre qu’il se transformait en espace... Comme chez moi l’espace est occupé par toujours plus de livres, je ne m’en étais pas encore aperçu.

          Si en plus je compte tout le temps passé à lire des articles de vulgarisation scientifiques auxquels je ne comprends pas grand chose mais qui inexorablement se transforment en espace, je ne vais pas tardé de me trouvé dans la cinquième dimension.

          Of course, je plaisante, en fait j’adore les contes de féé et quoi de plus féérique qu’un bon article sur le monde d’Avalonia et ses créatures inquiètantes ! Merci.

           


          • geko 4 février 2008 19:22

            Article très interessant et passionnant à lire !

            Concernant les critiques de Jaron Lanier, elles sont interessantes sur le rapport entre le particulier et le collectif dans le domaine de la production de contenu en ligne mais le titre excessif "maoisme numérique" relève du buzz. La critique est excessive parcequ’elle repose essentiellement sur la collaboration de production de contenu et Wikipedia, alors que l’Open Source définit avant tout une collaboration sur le contenant et la mise à disposition d’un code source réutilisable.

            L’open source présente bien des avantages par ailleurs comme l’utilisation du design pattern permettant au développeur de mettre son énergie au service de la créativité pure et orientée utilisateur à partir d’un existant solide et éprouvé, plutot que réinventer "le fil à couper le beurre" surtout lorsque ce dernier s’avère particulièrement bien conçu et performant !


            • ddacoudre ddacoudre 4 février 2008 19:45

              bonjour zin

              merci pour ce tour d’horizon scientifique, peut-être un peu long pour accrocher le néophite, ce serait bien si tu pouvais faire régulièrement un article d’info scientifique sur agora.

              cordialement.


              • karquen karquen 4 février 2008 20:54

                Merci pour cette compilation fort intéressante et passionnante !

                Au sujet de la mutation du temps en espace (je n’ai peut être pas tout bien saisi) ; y aurait-il un dégagement dénergie résiduel ? une simple conservation de la matière figée peut-elle admettre des mutations de cette matière (en energie noire par exemple) ?

                Je suppose que les réponses seront trouver un jour, ici ou là smiley


                • TALL 5 février 2008 12:50

                  Sur le plan audimatique, ce cumul de sujets dans un même article est contre-productif. Dommage, vu l’intérêt des sujets.

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON







Palmarès