lundi, février 28, 2011

La physique et l'emplacement des commerces - CNRS

Si vous avez l'habitude de vous promener dans une grande ville, vous avez sans doute remarqué la grande diversité des implantations commerciales. Peut-être avez-vous également constaté que certains types de commerces s'établissent les uns à côté des autres, alors que d'autres se séparent très nettement.

Cette intuition vient d'être confirmée par Pablo Jensen, du laboratoire de physique de l'ENS de Lyon (CNRS, ENS) et de l'Institut des systèmes complexes (CNRS), en combinant des outils propres à la géographie, aux systèmes complexes... et à la physique. Il s'agit tout d'abord de localiser les magasins sur une carte. Une fois obtenues leurs coordonnées précises, il est possible de calculer, comme en physique, leurs coefficients d'attraction et de répulsion, en comparant leurs emplacements réels avec une répartition au hasard.

Appliquée aux 8000 commerces de la ville de Lyon, cette méthode montre par exemple que, alors que les magasins de vêtements ont tendance à se regrouper, les boulangeries se répartissent assez uniformément, et côtoient les boucheries. Le regroupement des activités commerciales selon leurs attractions et leurs répulsions aboutit à une classification très proche de celle utilisée par la Chambre de commerce: les services à la personne, l'alimentation, l'équipement de la maison et l'équipement de la personne.

Cette méthode, qui donne lieu à un article dans Physical Review E, permet aussi de prédire de bons emplacements pour l'implantation de nouveaux magasins. Testée empiriquement, elle sera bientôt utilisée par la chambre de commerce de Lyon pour le conseil aux artisans.

Une étoile plante - L'histoire d'une revue consacrée à l'étrange qui connut ses beaux jours dans les années 60 - Par Frédérique ROUSSEL

QUOTIDIEN : Jeudi 21 septembre 2006 - 06:00
Clotilde Cornut La Revue Planète (1961-1968). Une exploration insolite de l'expérience humaine dans les années soixante L'OEil du Sphinx, 284 pp., 19 €.


Une revenante hante en cette rentrée les librairies. Sa silhouette n'a pas changé : carrée, épaisse, avec un fond noir sur le dessus qui fait ressortir une tête non humaine, une amulette macabre (clin d'oeil au symbole de l'ombre jaune de Bob Morane). Planète, disparue en 1968, ressusciterait-elle ? Vague vertige avant d'ouvrir l'objet. Il s'agit en réalité d'un essai sur cette revue qui défraya la chronique des années 60, un mémoire universitaire d'histoire contemporaine, celui de Clotilde Cornut, soutenu en 1994 sous la direction d'Etienne Fouilloux à Lyon-II. La chronique d'une aventure de quarante et un numéros, placée sous l'emblème du réalisme fantastique.
Quand elle paraît en octobre 1961, Planète ne naît pas d'une table rase. Deux ans avant l'a précédée le Matin des magiciens, de Louis Pauwels et Jacques Bergier. Les deux hommes se sont rencontrés en 1953, grâce à André Breton puis René Alleau, spécialiste de l'histoire de l'alchimie. Leur collaboration sera complémentaire et productive. Le premier est journaliste et écrivain, le second scientifique et résistant. Pour Edgar Morin ( le Monde du 3 juin 1965), «la rencontre de la frénésie imaginative de l'un, de la tension vers le mystère et l'espoir de l'autre donna cette synthèse particulière qu'est "le réalisme fantastique" ». Bergier passait chez Pauwels qui écrivait ensuite, raconte la légende. Sociétés secrètes, nazisme occulte, univers parallèles, ultra-humains... Ce livre étrange et foisonnant devient un best-seller.
Les auteurs décident de prolonger l'essai. La décision est prise dans le train Lille-Paris, entre Pauwels et François Richaudeau. A leur arrivée gare du Nord, les deux hommes avaient décidé du nom de la revue, des principales rubriques, du format, du graphisme et de l'illustration. Planète vise à offrir un panorama de toutes les expériences humaines (littérature, science, art, religion, histoire..) à travers le prisme du merveilleux et de l'insolite. C'est cette ouverture-là, sans brides, qui définit en somme le réalisme fantastique. La maquette attire l'oeil : format carré, textes sur deux colonnes, nombreuses illustrations avec toujours une représentation de visage humain sur la couverture (statue antique, masque tribal, oeuvre d'art contemporain...). Le premier numéro, 158 pages, fait un tabac inattendu. Tiré à 8000, il faudra réimprimer pour atteindre les 100 000 exemplaires vendus. Dès la deuxième année, la revue bimestrielle atteint la barre des 30 000 abonnés.
La ligne éditoriale de Planète (slogan : «Rien de ce qui est étrange ne nous est étranger !» ) est d'offrir «autre chose», de réconcilier la science et la spiritualité. Dès son premier numéro, elle se réclame de Teilhard de Chardin, qu'elle contribuera à faire connaître. De lui, elle cultive cette phrase-clé : «A l'échelle du cosmique, toute la physique moderne nous l'apprend, seul le fantastique a des chances d'être vrai.» La revue se positionne aussi contre la littérature de l'époque, le Nouveau Roman et l'existentialisme. Aucun sujet n'est tabou, aucune barrière valable, et Planète traite allègrement de science, de littérature, d'archéologie, de civilisations disparues, des mystères du monde animal, de l'érotisme, d'histoire invisible, d'ufologie, de parapsychologie... C'est un «magma», écrit Clotilde Cornut, dans ce remarquable essai assorti d'un appareillage bibliographique complet de Joseph Altairac. On lui reprochera aussi ses sujets «fantaisistes». Le lecteur peut y lire des nouvelles de Lovecraft, Borges, Bradbury ou Clarke. L'équipe elle-même, composée de figure comme Jacques Sternberg, Rémy Chauvin ou Aimé Michel, est de composition hétéroclite : «Il y a du chrétien, du panthéiste, du marxiste, du rationaliste, de l'anarchiste, un peu de tout sauf du conformiste» (1).
L'histoire de Planète est celle d'un miracle, qui a rencontré un besoin de libération de l'imagination. Celle-ci était pour Planète «une des meilleures armes pour accéder à la connaissance et au réel». La revue sombra après Mai 68, pour renaître sous la forme d'un Nouveau Planète . Mais ce n'était déjà plus pareil.


(1) «Louis Pauwels ou le malentendu», Grasset, 1989.

Des structures réactives débarquent en ville ! - Source : Internet-Actu - License CC, le 13/09/2006 à 16h37

Les architectes de demain réfléchissent aux manières de construire des immeubles qui fonctionneraient comme des systèmes vivants, changeant de forme en réponse aux conditions climatiques (vitesse du vent, température, ensoleillement) ou en fonction de ses usages (pour adapter la circulation des personnes, de l’air conditionné ou du chauffage).

Ces premières structures réactives sont déjà en construction, notamment au Bureau des architectures réactives où Tristan d’Estree Sterk travaille à un squelette qui envelopperait les bâtiments. Activé par des “muscles” pneumatiques, il permettrait par exemple à une maison de secouer la neige tombée sur son toit. Des peaux plaquées sur les immeubles, construites en matériaux de nouvelle génération, sauront altérer leurs formes pour suivre le soleil, ajuster la luminosité et capter l’énergie solaire, explique Sterk à Wired. Le MIT organise même une compétition pour fabriquer la musculature d’un mini gratte-ciel.

De quoi renforcer la position qu’exprimait en mars 2006 William J. Mitchell, directeur du nouveau laboratoire “Ré-imaginer le futur” de l’Ecole d’architecture et d’urbanisme du MIT, dans MetropolisMag, sur les villes en 2020 : “Nos villes se transforment rapidement en écosystèmes artificiels, en organismes numériques intelligents, interdépendants et interconnectés. (…) Il est évident qu’inclure l’intelligence dans les objets crée de nouvelles fonctionnalités, mais il est moins immédiatement évident qu’elle en change également leur forme et leur dimension, ainsi que les rapports qu’ils entretiennent dans l’espace”.

À l’appui de ses idées, Bill Mitchell décrit plusieurs projets du MIT : les “concept cars” urbains et pliables du laboratoire Smart Cities, qu’il dirige ; les appartements réactifs du laboratoire House_n, capables de reconnaître les comportements de ses habitants (et de s’adapter à leurs activités, leurs habitudes alimentaires, ou leur condition de santé) ; les parkings intelligents du SenseAble City Lab, qui invitent les automobilistes circulant à proximité à occuper les places vacantes quand ils en cherchent, faisant varier les prix selon les emplacements ou la demande ; ou enfin les travaux de son laboratoire Re-imaginer le futur, créées pour l’Exposition universelle de Saragosse en 2008, comme les fontaines qui permettent de créer des lignes de textes avec de l’eau ou des lumières réactives qui suivent les pas des passants dans la ville.

William J. Mitchell conclut : “Ces projets suggèrent l’apparition d’une nouvelle étape dans l’évolution des villes. Les villes pré-industrielles étaient plutôt des squelettes arrangés pour abriter, sécuriser et utiliser l’espace au mieux. Avec l’ère industrielle, les bâtiments et les quartiers se sont dotés de systèmes d’écoulement et d’approvisionnement pour l’eau, l’énergie, la ventilation, le transport, et l’enlèvement de détritus. Avec leurs entrées, sorties et physiologies artificielles, ils ont commencé à ressembler à des organismes vivants. Aujourd’hui ces organismes développent leurs systèmes nerveux artificiels qui leur permettent de se comporter de manière coordonnée et intelligente. A mesure que les villes et leurs composants deviennent plus intelligents, ils commencent à adopter de nouvelles formes et structures. Ils deviennent programmables. Et la conception de leur logiciel devient aussi cruciale - au point de vue social, économique et culturel - que celle de leur matériel”.

Spin & charge de l'électron peuvent bien se déplacer indépendamment

Historique : preuve de l'existence de la fantomatique matière noire - Par Laurent Sacco, Futura-Sciences, le 24/08/2006 à 20h46

Le 21 Août 2006 est très probablement maintenant une date historique dans la longue quête de l'humanité pour comprendre l'Univers qui l'entoure et se comprendre elle même comme une part de cet Univers.

Selon toute vraisemblance, nous avons maintenant la preuve que la majorité de la matière dans l'Univers ne ressemble à rien de ce qu'on connaît sur Terre ou que l'on sait fabriquer en accélérateur à ce jour.

Cela faisait longtemps que les astrophysiciens et les cosmologistes le suspectaient. Que ce soit pour comprendre l'origine des galaxies, la vitesse à laquelle les étoiles se déplacent autour du bulbe central de celles-ci, ou la façon dont les galaxies tiennent ensemble dans un amas, tout indiquait la présence d'une masse supplémentaire, sous forme d'une matière n'interagissant que très faiblement avec elle-même et la matière normale, une matière non lumineuse et presque fantomatique qualifiée justement de matière noire !

« Il est inconfortable pour un scientifique d'avoir à invoquer quelque chose d'invisible et de quasiment indétectable, pour rendre compte de 90% de la matière dans l'Univers » déclare Maxim Markevitch, un des membres de l'équipe ayant utilisé le satellite d'observation en rayons X Chandra, lors de la conférence de presse de ce jour organisée par la Nasa, et actuellement en poste au célèbre centre d'astrophysique Harvard Smithsonian.

Cette déclaration résume parfaitement le malaise ressenti par une partie de la communauté scientifique qui avait fini par suivre une autre approche pour résoudre ces énigmes, celle indiquée à partir de 1983 par Mordehai Milgrom de l'institut Weizmann.

Celui-ci avait alors posé la question suivante « Sommes nous sûrs qu'à l'échelle des galaxies la loi de la gravitation soit toujours conforme à celle de Newton? ». A la suite de quoi, il avait proposé MOND, acronyme de MOdified Newtonian Dynamics. Surprise ! Non seulement il arrivait à retrouver les observations faites au niveau des galaxies, mais il avait même fait une prédiction à propos de la luminosité d'une classe particulière de galaxies qui allait se révéler exacte. Les années passant, MOND devenait une alternative de plus en plus crédible, même si les observations récentes comme celles de WMAP faisaient plutôt pencher la balance en faveur de la matière noire.

Comment départager les deux théories?

La réponse vient de nous être fournie par la nature elle-même, avec l'amas de galaxies 1E0657- 56 !

Dans un amas, on sait qu'une part importante de la masse se trouve sous forme de gaz à haute température (des millions de degrés) émettant des rayons X détectables par le satellite Chandra. La masse de ce gaz est plus importante que celle des galaxies composant l'amas, on sait aussi que les galaxies s'y déplacent à grande vitesse.

Le problème est que ce gaz est tellement chaud et les galaxies si rapides que les amas devraient s'être dissipés depuis longtemps, sauf si l'on postule une masse encore plus grande que celle du gaz sous forme de particules de matière noire remplissant l'amas, ou toujours en modifiant la loi d'attraction gravitationnelle selon MOND.

Or, dans le cas 1E0657- 56, on a mis en évidence le phénomène suivant : deux amas sont entrés en collision, le plus petit traversant le plus grand telle une balle à travers de la fumée. On le voit clairement sur l’image suivante réalisée en rayons X.

La zone rouge étant la moins lumineuse, on voit bien la zone la plus brillante
responsable du nom de l’amas, le « Bullet cluster »

Sous l'impact, les deux nuages de gaz de matière normale, associés aux galaxies, vont se freiner mutuellement, s'échauffer et se séparer en grande partie des galaxies proches de chaque amas qui, eux, vont continuer tranquillement leur chemin.

Si MOND était l'explication des anomalies mentionnées précédemment, une cartographie de la masse de la matière dans cette collision devrait montrer un maintien de l'association de la composante principale de la masse avec le gaz chauffé en rayons X.

Et c'est justement ce qu'on n’observe pas !

En effet, à l’aide de télescopes effectuant des observations dans le visible, il a été possible de remonter à la distribution de masse en employant le phénomène de lentille gravitationnelle prédit par Einstein il y a longtemps. Les télescopes Magellan, Hubble et ceux du VLT ont ainsi été mis à contribution.

On le sait, la gravitation selon la relativité générale courbe la trajectoire des rayons lumineux, comme le ferait une lentille, plus la masse d’un objet est importante, plus cet effet est fort.
Dans le cas d’un amas, la situation peut se représenter avec l’image ci-dessous.

Les rayons lumineux issus d’une galaxie donnent ainsi une image double, en raison de leur déviation par l’amas.

L’équipe de la NASA a ainsi déterminé grâce à cela la carte suivante.

En bleu les zones où la concentration de masse est la plus importante

Si l’on superpose les images en rayons X et les indications obtenues en optique, on obtient cette séquence avec d’abord une image des galaxies de l’amas, puis le gaz chaud et finalement la matière noire. En rose, c’est la localisation du gaz de matière normale déterminée par Chandra, en bleu, la masse de matière noire déterminée par l'effet de lentille gravitationnelle. La séparation est clairement visible, et on peut même imaginer et reconstituer approximativement l’historique de la collision et de ses effets. Ce qu’on peut voir avec cette vidéo, illustrant la séparation des deux types de matières.

La conclusion du responsable principal de ces études, Douglas Clowe de l'Université de l’Arizona, a donc été la suivante : « ces résultats sont la preuve directe de l'existence de la matière sombre ». Sean Carroll, une des stars de la cosmologie, en poste à l'Université de Chicago et lui aussi présent à la conférence du 21 Août, ajoute alors: « Ceux-ci devront être pris en compte dans les futures théories, tandis que nous avancerons pour comprendre la nature réelle de la matière noire ».

Quelle peut-être en effet la nature de cette matière noire, et pourrons-nous, un jour, l'observer directement ?

Les candidats les plus convaincants sont l'axion et des particules supersymétriques comme les neutralinos. De manière générale, on parle souvent de « weakly interactive massives particles » ou WIMPS. Il semble qu'il soit possible de les détecter sur Terre ou de les produire en accélérateur, avec le LHC à Genève dans les années à venir par ex

Au final, on peut déjà dire que non seulement la confiance en l’existence réelle de la matière noire est devenu beaucoup plus forte, mais c’est aussi le modèle du Big Bang qui se trouve raffermi. Les différentes observations et mesures de ces dernières années, portant sur des objets et phénomènes astrophysiques variés, comme pour le CMB et WMAP récemment, montrent une fois de plus, une remarquable concordance en accord avec ce modèle.

Un mystérieux mathématicien pour une complexe conjecture - NOUVELOBS.COM | 18.08.06 | 16:03

La remise des médailles Fields, les Nobel des mathématiques, devrait prendre cette année une tournure exceptionnelle. La communauté des mathématiciens s’attend en effet à ce que ce prix récompense la résolution d’un problème vieux de plus d’un siècle : la conjecture de Poincaré. Le chercheur russe Gregori Perelman est parvenu à démontrer la fameuse conjecture, selon plusieurs mathématiciens qui ont examiné ses travaux. L’autre évènement est créé par Perelman lui-même. Invité au congrès de Madrid pour la remise des médailles, mardi prochain, il n’a pas répondu à l’invitation.

Grisha Perelman aurait démissionné de l’Institut Steklov de Saint-Pétersbourg où il travaillait et nul ne sait où il est. Il pourrait donc refuser sa médaille tout comme le million de dollars promis par l’Institut de mathématique américain Clay pour la résolution de la conjecture de Poincaré. Né en 1966, le mathématicien russe ne peut recevoir que cette année la médaille Fields, remise aux chercheurs qui ont maximum 40 ans.

La conjecture de Poincaré est un complexe problème de topologie. En 1904 le mathématicien français a suggéré que toute surface sans trou était une sphère.
Simple à démontrer en deux dimensions, la conjecture devenait plus difficile à établir pour les autres dimensions. En 1960 Stephen Male l’a démontrée pour une dimension supérieure ou égale à 5, ce qui lui a valu une médaille Fields. Michael Freedman l’a établie pour une dimension 4 et a également reçu la médaille Fields.

Restait à démontrer la conjecture en trois dimensions. Gregori Perelman a publié son premier travail sur la conjecture de Poincaré sur internet en novembre2002. Il a rendu public deux autres papiers avant de venir en 2003 aux Etats-Unis présenter ses travaux dans plusieurs universités. Après cette tournée il est reparti en Russie et a peu a peu cessé d’échanger avec ses collègues jusqu’à disparaître de la circulation. Trois équipes de mathématiciens à travers le monde ont entrepris de passer ses démonstrations au crible. Ils sont d’accord pour dire que la conjecture a été démontrée.

Cécile Dumas
(18/08/06)

Le bonheur : y a-t-il une corrélation avec le salaire ? - Extrait du BE Etats-Unis N°43 - Ambassade de France aux Etats-Unis, le 27/07/2006 à 06h46

Une augmentation de salaire, et donc des biens disponibles, ne correspond pas à plus de bonheur. Telle est la conclusion d'une étude faite par des chercheurs du Centre d'Etudes de politique économique (CEPS) de Princeton University, avec la collaboration de Daniel Kahneman, qui a reçu le Prix Nobel d'Economie en 2002.

D'après les chercheurs, il n'y a quasiment pas de relations entre le sentiment de bonheur éprouvé et le salaire une fois qu'un certain niveau est dépassé (le seuil de pauvreté en 2006 aux Etats-Unis est de $20 000/an pour une famille de 4 personnes et de $9 800/an pour un individu). L'étude a été menée sur 1 173 individus en leur posant des questions diverses, telles que: " en général, êtes-vous très heureux, plutôt heureux ou pas très heureux ces jours-ci ? "

-13% de ceux avec un revenu familial entre $20 000-$49 999/an, 7,7% de ceux avec un revenu entre $50 000-$89 999/an et 5,3% de ceux avec un revenu de $90 000/an se qualifiaient comme " pas très heureux ".
- 56,8% des personnes ayant un revenu familial entre $20 000-$49 999/an et 50,3% de ceux ayant entre $50 000-$89 999/an se sentaient " plutôt heureux ", pour 51,8% de ceux ayant plus de $90 000/an.
- 30,2% de la fourchette de salaire $20 000-$49 999/an, 41,9% qui ont un revenu entre $50 000-$89 999/an et 42,9% qui ont un revenu de plus de $90 000/an se sentaient " très heureux ".
-par contre, seulement 22,2% de ceux qui avaient un revenu de moins de $20 000/an (le seuil de pauvreté pour une famille de 4) ont indiqué qu'ils étaient " très heureux ", et 17,2% ont dit qu'ils n'étaient " pas très heureux ".

En outre, les personnes qui avaient plus de revenu n'avaient pas forcément plus de temps libre, et même consacraient moins de temps aux loisirs (19.9% de temps consacrés aux loisirs pour ceux avec un revenu de plus de $90 000/an, contre 34.7% pour ceux avec un revenu de moins de $20 000/an).

Dans le rapport, les chercheurs se sont appuyés sur d'autres études économiques qui indiquent que l'augmentation du revenu a un effet plutôt transitoire sur les individus ; que le revenu relatif est plus important que le niveau de salaire; que les individus s'adaptent au nouveau niveau de vie acquis, et que la consommation de biens et la richesse matérielle, ont peu d'effet à long terme sur le bonheur général après qu'un certain niveau de consommation soit atteint.

Autrement dit, bien que beaucoup soient motivés par plus d'argent ou par une augmentation de salaire, ou pensent que le bonheur est indubitablement lié aux revenus, ces résultats montrent que ce n'est pas le cas. L'argent ne fait pas le bonheur.

L'étude est apparue dans Science Magazine le 30 juin 2006.

La grotte la plus ancienne au monde est âgée de 340 millions d'années - Par Christophe Olry, Futura-Sciences, le 27/07/2006 à 10h41

Jusqu’à aujourd’hui, la caverne empruntable à pieds la plus ancienne était située au Nouveau-Mexique. Elle remontait à 90 millions d’années. Elle vient d’être détrônée par les grottes de Jenolan, dont l’âge a été estimé à… 340 millions d’années !

La découverte, présentée dans l’Australian Journal of Earth Sciences, est le fruit d’Armstrong Osborne et de son équipe de l’université de Sydney. Les grottes de Jenolan, un site visité par de nombreux touristes tout au long de l’année, et que l’on pensait âgées de seulement quelques milliers d’années, sont en réalité les plus anciennes au monde. Elles datent de la période Carbonifère, entre 350 et 290 millions d'années avant notre ère.

Ainsi, ces cavernes situées à l’ouest de Sydney existaient bien avant que les dinosaures ne foulent la Terre et que les Montagnes bleues – Blue Mountains - ne se dessinent en Australie.

Pour déterminer l’âge des grottes de Jenolan, les chercheurs ont eu recours à une technique de datation traditionnellement utilisée par les compagnies pétrolifères pour trouver des gisements d'or noir. Ils ont prélevé des échantillons d’argile et ont mesuré leur teneur en potassium radioactif. C’est ainsi qu’ils ont eu la surprise de constater que les roches qui les entouraient étaient vieilles de 340 millions d’années. « Personne n’avait imaginé cela. Nous avons la preuve que l’argile s’est formé sur place, à l’intérieur de la caverne, et que les sites fréquentés régulièrement par les touristes datent de la période Carbonifère ! » a déclaré Horst Zwingmann, du CSIRO Petroleum Resources.

Cette découverte a relancé l’intérêt que les scientifiques portent aux grottes de Jenolan. Ils sont actuellement à la recherche d’événements géologiques qui auraient pu leur échapper. Leur première piste : l’argile pourrait bien s’être formé après que des cendres volcaniques aient pénétré dans la caverne. Les grottes de Jenolan réservent peut-être aux chercheurs d’autres surprises…

samedi, février 26, 2011

Prédire le futur: probablement possible ?

Voir dans le futur serait possible. Telle est la conclusion renversante de travaux convaincants, menés par un scientifique estimé dans une institution réputée. L’étude signée par Daryl Bem, professeur de psychologie à l’Université Cornell (Etats-Unis), repose la question: comment interpréter les résultats positifs issus d’expériences en parapsychologie?

Plus de mille volontaires ont participé à l’étude, parue le 31 janvier dans le Journal of Personality and Social Psychology. Une expérience consistait à deviner l’emplacement d’une image pouvant se trouver à deux endroits. Lorsqu’il s’agissait d’une photographie érotique, les participants ont deviné sa position dans 53,1% des cas (au lieu de 50%). Il s’agit bien de précognition et non pas de clairvoyance, car le dispositif a tiré au hasard la position de l’image après que le choix a été effectué. Aucune anomalie n’a été détectée pour les images neutres. Même si la différence observée (3,1%) semble faible, la probabilité d’obtenir de tels résultats en supposant l’absence de précognition est de 1%, ce qui les qualifie comme «statistiquement significatifs».

«Je reste extrêmement sceptique, commente Peter Brugger, un psychologue de l’Université de Zurich qui étudie les croyances dans le paranormal. Daryl Bem est un convaincu, et il veut trouver une preuve. Si vous effectuez des centaines d’expériences, vous risquez de tomber sur des résultats positifs.»

Si les conclusions de Daryl Bem paraissent solides, c’est parce ­qu’elles sont basées sur des résultats «statistiquement significatifs». Cette phrase clé de la science moderne est devenue un paradigme dominant retrouvé autant en psychologie qu’en épidémiologie ou en écologie – ainsi qu’un synonyme de preuve pour de nombreux journalistes et scientifiques. La conclusion de Daryl Bem a été obtenue en respectant les canons de la méthodologie scientifique. Est-il possible de la rejeter sans être d’une mauvaise foi absolue? «Depuis une vingtaine d’années, la parapsychologie utilise les techniques statistiques les plus rigoureuses, souligne le sociologue des sciences Pierre Lagrange. Si on rejette ce genre de travaux, il faudra évacuer les analyses statistiques de la science.»

La suggestion est moins ridicule qu’il n’y paraît. Le problème, c’est que la méthode du test d’hypothèse (qui permet d’affirmer que des résultats sont «significatifs» ou non) s’avère largement surévaluée, mal utilisée, voire trompeuse. «Elle peut grandement sous-estimer la possibilité que l’hypothèse testée soit fausse», explique Jeffrey Rouder, psychologue à l’Université du Missouri. Dans de nombreux cas, on imagine, à tort, que des résultats significatifs démontrent la solidité d’une thèse: la précognition existe, le médicament marche, tel produit est dangereux pour la santé.

Cet écueil est connu depuis un demi-siècle, mais reste encore largement ignoré par de nombreux chercheurs. Le test d’hypothèse «n’offre plus une base saine ou utile pour les études statistiques», disait la statisticienne Cherry Clark en 1966 déjà. Il devrait être «éliminé car il est non seulement inutile, mais dangereux», affirmait le psychologue Ronald Carver en 1978. Si on s’en sert encore souvent, c’est parce «qu’il est utilisé par tout le monde, paraît être objectif, et que les professeurs continuent à l’enseigner», se lamente Douglas Johnson, statisticien au U.S. Geological Survey.

Le problème provient d’une interprétation erronée du test d’hypothèse, qui en fait porte bien mal son nom. Il ne donne pas la probabilité que la théorie soit juste, mais uniquement les chances d’obtenir les résultats en supposant que la théorie est fausse (une sur cent dans l’expérience de la précognition). «Vous voulez tester l’hypothèse qu’une pièce de monnaie est mal équilibrée, illustre Douglas Johnson. En la lançant trois fois, vous tombez trois fois sur pile. Tout ce que dit le test d’hypothèse, c’est que vous n’avez qu’une chance sur huit d’obtenir ce résultat avec une pièce bien équilibrée.» Or, on veut connaître la vraisemblance de la théorie de départ – non pas la probabilité des résultats. Une approche, basée sur les travaux du mathématicien du XVIIIe siècle Thomas Bayes, permet d’y arriver.

Jeffrey Rouder a appliqué la méthode bayesienne aux travaux de Daryl Bem. «Notre analyse montre que si vous donniez à la précognition une chance de un sur un million d’exister, alors les résultats de Bem vous enjoignent de réévaluer cette estimation à 1 sur 25 000. Ce facteur de 40 est étonnamment élevé, mais reste probablement insuffisant pour être considéré comme preuve d’un principe aussi radical que celui de la précognition.» Cette démarche souligne le fait qu’une seule expérience ne suffit pas: «La science est une construction sociale et interprétative, poursuit le psychologue. Elle présente des indices que le lecteur doit lui-même juger, en fonction de ses connaissances et de ses croyances.» Depuis des décennies, Douglas Johnson milite pour l’approche bayesienne, mais «son apparente subjectivité a freiné son acceptation par de nombreux chercheurs, pour qui la science doit être objective», dit le statisticien.

Le test d’hypothèse s’avère particulièrement mal adapté pour examiner des effets très faibles, comme c’est souvent le cas en parapsychologie, mais «également lorsque les multiples facteurs s’influencent, ce qui arrive dans de nombreuses sciences «molles» telles que la psychologie, la sociologie, l’éducation ou encore la conservation de la nature, ajoute Douglas Johnson. Un résultat significatif n’est pas forcément suffisant. Il ne faut surtout pas conclure que l’effet existe et s’arrêter là – mais au contraire poursuivre les investigations. Sans mécanisme explicatif convaincant, il faut absolument rassembler de nombreuses études confirmant l’hypothèse.»

«L’étude de Bem est très transparente, honnête et bien rédigée, et démontre un grand professionnalisme, commente Jeffrey Rouder. Mais je n’y crois pas. Je m’attends à ce que les expériences voulant la répliquer donnent des résultats faiblement significatifs ou carrément négatifs. Si elles devaient produire systématiquement des résultats hautement significatifs, il faudra les considérer comme des débuts de preuve. En tout cas, je vois une vertu à cette étude: par son impact médiatique, elle redonne une chance de discuter des dangers oubliés représentés par les statistiques.» Un débat bienvenu à l’heure où les résultats «significatifs» provenant d’une multitude d’études épidémiologiques – sur les bienfaits et dangers du vin rouge, par exemple – font régulièrement les gros titres.

http://www.letemps.ch/