Les 5 films de Pierre Etaix
Le Soupirant (1962) Un jeune homme doit trouver une épouse. Situation simple, minimaliste, où Pierre Etaix révèle une formidable inventivité, tout à la fois burlesque et élégante, qui en fait un héritier de Keaton et de Langdon.
Yoyo (1964) L'hommage d'Etaix au monde du cirque est un chef-d'oeuvre. Le cinéaste installe un personnage dandy et solitaire, qui ira de la vie de château à celle de bohème.
Tant qu'on a la santé (1966) Etaix fait preuve d'un montage sonore ébouriffant. La satire se fait plus grinçante. En point de mire, la publicité et le monde moderne.
Le Grand Amour (1969) Un homme marié rêve secrètement à sa secrétaire. Son imagination déborde, et l'emmène la nuit à embarquer sur des lits buissonniers.
Pays de cocagne (1969) Le pamphlet d'un homme en colère, flinguant aux lendemain de mai 68 la France des boeufs, massés dans les campings et devant leurs télévisions.
La fête à Etaix
La Cinematek entame ce mercredi un grand cycle Etaix, à Flagey, qui durera jusqu'au 17 avril. Dès ce soir, Yoyo, précédé d'Heureux anniversaire. Pierre Etaix sera présent le 26 mars. Infos : www.cinematek.be DVD Il y a trois mois sortait l'intégrale de ses films dans un formidable coffret (Arte Editions), reprenant ses cinq longs-métrages restaurés, ses trois courts, un portrait inédit signé par sa compagne Odile Etaix et un merveilleux livre collector, conçu par Marc Etaix. Télé La RTBF consacrera le 30 mars une émission à Etaix (22h, la Trois)
DE NOTRE ENVOYÉ SPÉCIAL
Ce jour-là, nous sommes à Pigalle, mais c'est comme si soufflait le vent doux et printanier de Florence. Il fait beau. Pierre Etaix ouvre la porte de son appartement et décoche un grand sourire affectueux. Nous entrons. Il y a du monde : une sculpture sur bois de Buster Keaton, le sourire ravageur de Jerry Lewis, la trogne généreuse de Coluche, un chat répondant au prénom de Stanley. Un petit musée imaginaire, en somme, habité par des amis bienveillants. À dix ans, Pierre Etaix rêvait de devenir clown. Il n'a jamais dévié de ses rêves. Tout au plus a-t-il collectionné les talents : dessinateur, gagman (pour Tati), affichiste, homme de cirque et de music-hall, magicien à ses heures. Et, bien sûr, cinéaste et acteur.
À 82 ans, Pierre Etaix retrouve le sourire, et il ne l'a pas volé. Longtemps mise au placard, par des escrocs à col blanc qui ont cru pouvoir ravir un joli butin, l'œuvre d'Etaix a retrouvé sa libération (et son père) depuis l'an passé. La justice lui a donné raison. Du coup, les cinq films du maître du burlesque ont été restaurés. Gravés sur DVD, dans un irrésistible coffret, avec la collaboration de sa compagne Odile Etaix et du fils de Pierre, Marc Etaix. Et voilà que la Belgique, via sa cinémathèque, s'apprête dès ce soir à lui rendre un formidable hommage. Il durera un mois. La vie est belle !
Il y a cinquante ans, vous deveniez cinéaste. C'était une profession de foi ?
Oh non. Je suis devenu cinéaste malgré moi. Quand je faisais du music-hall et du cirque, m'est venue un jour une idée proprement cinématographique. Celle d'un homme amoureux qui, après avoir reçu par courrier une photographie déchirée de son amie, décide de lui répondre. C'est la rupture, et nous sommes plongés sur la page d'écriture de l'homme, avec la main qui écrit, puis qui raie. J'ai téléphoné à Jean-Claude Carrière, qui à l'époque voulait faire du cinéma. Je lui ai dit : est-ce que ça vous intéresse ? Il est venu, on a travaillé à ce premier court-métrage (Rupture), on s'est amusé comme des fous à imaginer des choses dans une continuité temporelle.
Vous avez travaillé avec Tati. Mais à revoir vos débuts, avec « Le Soupirant », on voit plus une parenté avec Keaton.
Quand j'ai commencé avec Tati, j'étais inconditionnel. Tout ce qu'il faisait semblait être la vérité première sur le cinéma comique. Il imposait ses idées avec une telle fermeté, que je ne remettais pas en question ce qu'il disait. Et au cours du temps, sur les quatre années de collaboration, j'ai commencé à prendre des distances. Ça me semblait absurde par exemple de vouloir tout montrer dans un plan-séquence. Certaines choses n'étaient pas lisibles. Pourquoi se refuse-t-il, me disais-je, à découper un petit peu plus ? Et en même temps, cette absence du personnage, cette volonté de ne pas faire apparaître Hulot et de le voir d'un peu plus près, de voir comment il était socialement, affectivement parlant, tout ça ne me paraissait pas normal. J'avais des idées différentes, qui m'éloignaient de lui. Je ne comprenais plus bien. Keaton, je l'ai découvert un peu plus tard. Mais c'est juste, ce que vous dites.
Avec « Yoyo », vous signez un hommage au cirque, mais sans jamais filmer le cirque !
Les artistes du cirque, on ne peut pas les filmer dans leur fonction, ce qu'on n'hésite pas à faire aujourd'hui pour la télévision, et qui est une erreur colossale. Il faut vivre l'instant d'un numéro, quel que soit le numéro. Quand on vit un instant aussi fragile que celui d'un acrobate ou que celui d'un éclat de rire d'un clown, on ne peut pas le transposer et le mettre en conserve, en entendant des rires off. C'est pas possible !
Yoyo est un enfant du cirque grimé en Auguste. On sait que le clown était chez vous un rêve d'enfant. Vous grimiez-vous aussi en clown, à dix ans ?
Oh oui ! J'avais des copains qui venaient le jeudi, et on faisait du cirque. On était tous maquillés. On faisait de la musique. Et moi, je faisais l'Auguste.
Avec « Tant qu'on a la santé », perce en vous au milieu des années soixante le désir d'entrer dans la satire sociale. C'était nouveau, ça !
Le public avait à l'époque boudé Yoyo. Le distributeur ne l'avait pas du tout apprécié. Le cinéma était permanent, de sorte que les gens arrivaient en plein milieu du film, ils ne comprenaient rien et ressortaient. J'en étais blessé. Et je me suis dit : je vais faire un film dans lequel les gens entreront au hasard, et trouveront toujours quelque chose qui les ferait rire. Mon souci, c'était de faire rire. Or, à l'époque avec Carrière, on vivait toute la journée dans un hôtel particulier qui se démolissait à coups de marteaux-piqueurs. Les voitures s'accumulaient partout. C'était l'enfer. Et il y avait un slogan, à l'époque, qui disait « gardez le sourire ! ». Je trouvais ça d'une absurdité exemplaire. Et tout ce climat m'a amené à faire ce film.
« Le Grand Amour » renoue avec une tradition qui vous est chère : le point de départ narratif est d'une simplicité totale.
C'est la clé ! Ici, un homme marié tombe amoureux d'une autre. Carrière disait cette chose : plus le sujet est simple, plus il offre d'ouverture à toutes les perversions possibles. Et c'est vrai ! À la recherche de gags, on peut raconter une histoire sans s'en apercevoir. C'est tout le principe du cinéma de Keaton. Et ça, c'est une grande leçon. C'est ce qu'il y a de plus précieux dans le cinéma comique. Le Grand Amour, c'est un thème de vaudeville traité en slapstick.
« Pays de cocagne » surprend. Est-ce un coup de gueule contre le désenchantement de 68 ?
Oui ! J'étais ulcéré. Découvrir la France aux lendemains de mai 68 dans ce merdier ! Ils étaient repartis à cent à l'heure dans la consommation. Terrifiant.
Vous y aviez cru, à 68 ?
J'étais plein d'espoir au départ. Mais très vite, c'est devenu une mode. Les gens s'investissaient dans quelque chose qui n'appartenait pas à leurs vraies convictions. J'ai connu des cinéastes qui faisaient semblant. Le côté « fausse révolution » ne me plaisait guère. Il y avait les campings, les plages, la publicité. J'ai côtoyé les gens du podium d'Europe 1, qui avaient un mépris total des gens qu'ils exploitaient. J'ai fait un film finalement burlesque à partir d'éléments réels.
Le film a été mal reçu. Vous a-t-il coûté votre avenir dans le cinéma ?
Il est resté dix jours à l'affiche. Les critiques, de gauche comme de droite, ont eu le temps de me traîner dans la merde. Europe 1 avait conditionné la critique. Ils avaient même pris onze avocats, avant d'abandonner l'idée. Mon producteur m'a laissé tomber. Carrière le dit aujourd'hui : ça a été une atteinte à ma vie privée, et à partir de là, c'était fini.
Fini, et pourtant, vous ne manquiez pas de projets ! Dont un avec Jerry Lewis.
À l'époque, les gens disaient : « Oh, Jerry Lewis, c'est fini aujourd'hui ! »
On sait l'amitié profonde qui vous unit. Comment s'est-elle déclarée ?
C'était en 1965. Il était à Paris. Il tournait Boeing Boeing. Un soir, il voulait voir un film comique français. Robert Benayoun l'a emmené voir Yoyo. Il l'a vu deux fois de suite. Le lendemain, j'ai Jerry Lewis au téléphone, à côté de Benayoun. On se voit au Ritz peu après. J'avais une trouille terrible. Il est arrivé. Je le vois encore descendre les escaliers. Il m'est tombé dans les bras. Il m'a dit : « Je te connais. Tu es mon ami pour la vie. » Depuis, pas une faille entre nous. Je n'ai jamais rencontré quelqu'un avec qui j'ai une telle connivence. Il m'a dit un jour : « Dieu est très dur avec les comiques. » C'est tellement vrai.
La traversée du désert, les ennuis juridiques, le hold-up de vos films vous ont-ils appris quelque chose ?
J'en tire une énorme surprise. Je suis parti sur l'idée de me battre jusqu'au bout, pour récupérer mes films. C'est une grande surprise de voir que des gens, et souvent de jeunes gens, fonctionnent et les apprivoisent. Et en même temps, ça me donne du cœur au ventre pour faire autre chose. J'ai envie d'aller sur scène. Si je peux tenir le coup quelque temps, ce sera formidable. Mais pas de projet d'avenir. Je n'en ai jamais fait. J'ai toujours vécu l'instant.
jeudi, mars 31, 2011
lundi, février 28, 2011
La physique et l'emplacement des commerces - CNRS
Si vous avez l'habitude de vous promener dans une grande ville, vous avez sans doute remarqué la grande diversité des implantations commerciales. Peut-être avez-vous également constaté que certains types de commerces s'établissent les uns à côté des autres, alors que d'autres se séparent très nettement.
Cette intuition vient d'être confirmée par Pablo Jensen, du laboratoire de physique de l'ENS de Lyon (CNRS, ENS) et de l'Institut des systèmes complexes (CNRS), en combinant des outils propres à la géographie, aux systèmes complexes... et à la physique. Il s'agit tout d'abord de localiser les magasins sur une carte. Une fois obtenues leurs coordonnées précises, il est possible de calculer, comme en physique, leurs coefficients d'attraction et de répulsion, en comparant leurs emplacements réels avec une répartition au hasard.
Appliquée aux 8000 commerces de la ville de Lyon, cette méthode montre par exemple que, alors que les magasins de vêtements ont tendance à se regrouper, les boulangeries se répartissent assez uniformément, et côtoient les boucheries. Le regroupement des activités commerciales selon leurs attractions et leurs répulsions aboutit à une classification très proche de celle utilisée par la Chambre de commerce: les services à la personne, l'alimentation, l'équipement de la maison et l'équipement de la personne.
Cette méthode, qui donne lieu à un article dans Physical Review E, permet aussi de prédire de bons emplacements pour l'implantation de nouveaux magasins. Testée empiriquement, elle sera bientôt utilisée par la chambre de commerce de Lyon pour le conseil aux artisans.
Cette intuition vient d'être confirmée par Pablo Jensen, du laboratoire de physique de l'ENS de Lyon (CNRS, ENS) et de l'Institut des systèmes complexes (CNRS), en combinant des outils propres à la géographie, aux systèmes complexes... et à la physique. Il s'agit tout d'abord de localiser les magasins sur une carte. Une fois obtenues leurs coordonnées précises, il est possible de calculer, comme en physique, leurs coefficients d'attraction et de répulsion, en comparant leurs emplacements réels avec une répartition au hasard.
Appliquée aux 8000 commerces de la ville de Lyon, cette méthode montre par exemple que, alors que les magasins de vêtements ont tendance à se regrouper, les boulangeries se répartissent assez uniformément, et côtoient les boucheries. Le regroupement des activités commerciales selon leurs attractions et leurs répulsions aboutit à une classification très proche de celle utilisée par la Chambre de commerce: les services à la personne, l'alimentation, l'équipement de la maison et l'équipement de la personne.
Cette méthode, qui donne lieu à un article dans Physical Review E, permet aussi de prédire de bons emplacements pour l'implantation de nouveaux magasins. Testée empiriquement, elle sera bientôt utilisée par la chambre de commerce de Lyon pour le conseil aux artisans.
Une étoile plante - L'histoire d'une revue consacrée à l'étrange qui connut ses beaux jours dans les années 60 - Par Frédérique ROUSSEL
QUOTIDIEN : Jeudi 21 septembre 2006 - 06:00
Clotilde Cornut La Revue Planète (1961-1968). Une exploration insolite de l'expérience humaine dans les années soixante L'OEil du Sphinx, 284 pp., 19 €.
Une revenante hante en cette rentrée les librairies. Sa silhouette n'a pas changé : carrée, épaisse, avec un fond noir sur le dessus qui fait ressortir une tête non humaine, une amulette macabre (clin d'oeil au symbole de l'ombre jaune de Bob Morane). Planète, disparue en 1968, ressusciterait-elle ? Vague vertige avant d'ouvrir l'objet. Il s'agit en réalité d'un essai sur cette revue qui défraya la chronique des années 60, un mémoire universitaire d'histoire contemporaine, celui de Clotilde Cornut, soutenu en 1994 sous la direction d'Etienne Fouilloux à Lyon-II. La chronique d'une aventure de quarante et un numéros, placée sous l'emblème du réalisme fantastique.
Quand elle paraît en octobre 1961, Planète ne naît pas d'une table rase. Deux ans avant l'a précédée le Matin des magiciens, de Louis Pauwels et Jacques Bergier. Les deux hommes se sont rencontrés en 1953, grâce à André Breton puis René Alleau, spécialiste de l'histoire de l'alchimie. Leur collaboration sera complémentaire et productive. Le premier est journaliste et écrivain, le second scientifique et résistant. Pour Edgar Morin ( le Monde du 3 juin 1965), «la rencontre de la frénésie imaginative de l'un, de la tension vers le mystère et l'espoir de l'autre donna cette synthèse particulière qu'est "le réalisme fantastique" ». Bergier passait chez Pauwels qui écrivait ensuite, raconte la légende. Sociétés secrètes, nazisme occulte, univers parallèles, ultra-humains... Ce livre étrange et foisonnant devient un best-seller.
Les auteurs décident de prolonger l'essai. La décision est prise dans le train Lille-Paris, entre Pauwels et François Richaudeau. A leur arrivée gare du Nord, les deux hommes avaient décidé du nom de la revue, des principales rubriques, du format, du graphisme et de l'illustration. Planète vise à offrir un panorama de toutes les expériences humaines (littérature, science, art, religion, histoire..) à travers le prisme du merveilleux et de l'insolite. C'est cette ouverture-là, sans brides, qui définit en somme le réalisme fantastique. La maquette attire l'oeil : format carré, textes sur deux colonnes, nombreuses illustrations avec toujours une représentation de visage humain sur la couverture (statue antique, masque tribal, oeuvre d'art contemporain...). Le premier numéro, 158 pages, fait un tabac inattendu. Tiré à 8000, il faudra réimprimer pour atteindre les 100 000 exemplaires vendus. Dès la deuxième année, la revue bimestrielle atteint la barre des 30 000 abonnés.
La ligne éditoriale de Planète (slogan : «Rien de ce qui est étrange ne nous est étranger !» ) est d'offrir «autre chose», de réconcilier la science et la spiritualité. Dès son premier numéro, elle se réclame de Teilhard de Chardin, qu'elle contribuera à faire connaître. De lui, elle cultive cette phrase-clé : «A l'échelle du cosmique, toute la physique moderne nous l'apprend, seul le fantastique a des chances d'être vrai.» La revue se positionne aussi contre la littérature de l'époque, le Nouveau Roman et l'existentialisme. Aucun sujet n'est tabou, aucune barrière valable, et Planète traite allègrement de science, de littérature, d'archéologie, de civilisations disparues, des mystères du monde animal, de l'érotisme, d'histoire invisible, d'ufologie, de parapsychologie... C'est un «magma», écrit Clotilde Cornut, dans ce remarquable essai assorti d'un appareillage bibliographique complet de Joseph Altairac. On lui reprochera aussi ses sujets «fantaisistes». Le lecteur peut y lire des nouvelles de Lovecraft, Borges, Bradbury ou Clarke. L'équipe elle-même, composée de figure comme Jacques Sternberg, Rémy Chauvin ou Aimé Michel, est de composition hétéroclite : «Il y a du chrétien, du panthéiste, du marxiste, du rationaliste, de l'anarchiste, un peu de tout sauf du conformiste» (1).
L'histoire de Planète est celle d'un miracle, qui a rencontré un besoin de libération de l'imagination. Celle-ci était pour Planète «une des meilleures armes pour accéder à la connaissance et au réel». La revue sombra après Mai 68, pour renaître sous la forme d'un Nouveau Planète . Mais ce n'était déjà plus pareil.
(1) «Louis Pauwels ou le malentendu», Grasset, 1989.
Clotilde Cornut La Revue Planète (1961-1968). Une exploration insolite de l'expérience humaine dans les années soixante L'OEil du Sphinx, 284 pp., 19 €.
Une revenante hante en cette rentrée les librairies. Sa silhouette n'a pas changé : carrée, épaisse, avec un fond noir sur le dessus qui fait ressortir une tête non humaine, une amulette macabre (clin d'oeil au symbole de l'ombre jaune de Bob Morane). Planète, disparue en 1968, ressusciterait-elle ? Vague vertige avant d'ouvrir l'objet. Il s'agit en réalité d'un essai sur cette revue qui défraya la chronique des années 60, un mémoire universitaire d'histoire contemporaine, celui de Clotilde Cornut, soutenu en 1994 sous la direction d'Etienne Fouilloux à Lyon-II. La chronique d'une aventure de quarante et un numéros, placée sous l'emblème du réalisme fantastique.
Quand elle paraît en octobre 1961, Planète ne naît pas d'une table rase. Deux ans avant l'a précédée le Matin des magiciens, de Louis Pauwels et Jacques Bergier. Les deux hommes se sont rencontrés en 1953, grâce à André Breton puis René Alleau, spécialiste de l'histoire de l'alchimie. Leur collaboration sera complémentaire et productive. Le premier est journaliste et écrivain, le second scientifique et résistant. Pour Edgar Morin ( le Monde du 3 juin 1965), «la rencontre de la frénésie imaginative de l'un, de la tension vers le mystère et l'espoir de l'autre donna cette synthèse particulière qu'est "le réalisme fantastique" ». Bergier passait chez Pauwels qui écrivait ensuite, raconte la légende. Sociétés secrètes, nazisme occulte, univers parallèles, ultra-humains... Ce livre étrange et foisonnant devient un best-seller.
Les auteurs décident de prolonger l'essai. La décision est prise dans le train Lille-Paris, entre Pauwels et François Richaudeau. A leur arrivée gare du Nord, les deux hommes avaient décidé du nom de la revue, des principales rubriques, du format, du graphisme et de l'illustration. Planète vise à offrir un panorama de toutes les expériences humaines (littérature, science, art, religion, histoire..) à travers le prisme du merveilleux et de l'insolite. C'est cette ouverture-là, sans brides, qui définit en somme le réalisme fantastique. La maquette attire l'oeil : format carré, textes sur deux colonnes, nombreuses illustrations avec toujours une représentation de visage humain sur la couverture (statue antique, masque tribal, oeuvre d'art contemporain...). Le premier numéro, 158 pages, fait un tabac inattendu. Tiré à 8000, il faudra réimprimer pour atteindre les 100 000 exemplaires vendus. Dès la deuxième année, la revue bimestrielle atteint la barre des 30 000 abonnés.
La ligne éditoriale de Planète (slogan : «Rien de ce qui est étrange ne nous est étranger !» ) est d'offrir «autre chose», de réconcilier la science et la spiritualité. Dès son premier numéro, elle se réclame de Teilhard de Chardin, qu'elle contribuera à faire connaître. De lui, elle cultive cette phrase-clé : «A l'échelle du cosmique, toute la physique moderne nous l'apprend, seul le fantastique a des chances d'être vrai.» La revue se positionne aussi contre la littérature de l'époque, le Nouveau Roman et l'existentialisme. Aucun sujet n'est tabou, aucune barrière valable, et Planète traite allègrement de science, de littérature, d'archéologie, de civilisations disparues, des mystères du monde animal, de l'érotisme, d'histoire invisible, d'ufologie, de parapsychologie... C'est un «magma», écrit Clotilde Cornut, dans ce remarquable essai assorti d'un appareillage bibliographique complet de Joseph Altairac. On lui reprochera aussi ses sujets «fantaisistes». Le lecteur peut y lire des nouvelles de Lovecraft, Borges, Bradbury ou Clarke. L'équipe elle-même, composée de figure comme Jacques Sternberg, Rémy Chauvin ou Aimé Michel, est de composition hétéroclite : «Il y a du chrétien, du panthéiste, du marxiste, du rationaliste, de l'anarchiste, un peu de tout sauf du conformiste» (1).
L'histoire de Planète est celle d'un miracle, qui a rencontré un besoin de libération de l'imagination. Celle-ci était pour Planète «une des meilleures armes pour accéder à la connaissance et au réel». La revue sombra après Mai 68, pour renaître sous la forme d'un Nouveau Planète . Mais ce n'était déjà plus pareil.
(1) «Louis Pauwels ou le malentendu», Grasset, 1989.
Des structures réactives débarquent en ville ! - Source : Internet-Actu - License CC, le 13/09/2006 à 16h37
Les architectes de demain réfléchissent aux manières de construire des immeubles qui fonctionneraient comme des systèmes vivants, changeant de forme en réponse aux conditions climatiques (vitesse du vent, température, ensoleillement) ou en fonction de ses usages (pour adapter la circulation des personnes, de l’air conditionné ou du chauffage).
Ces premières structures réactives sont déjà en construction, notamment au Bureau des architectures réactives où Tristan d’Estree Sterk travaille à un squelette qui envelopperait les bâtiments. Activé par des “muscles” pneumatiques, il permettrait par exemple à une maison de secouer la neige tombée sur son toit. Des peaux plaquées sur les immeubles, construites en matériaux de nouvelle génération, sauront altérer leurs formes pour suivre le soleil, ajuster la luminosité et capter l’énergie solaire, explique Sterk à Wired. Le MIT organise même une compétition pour fabriquer la musculature d’un mini gratte-ciel.
De quoi renforcer la position qu’exprimait en mars 2006 William J. Mitchell, directeur du nouveau laboratoire “Ré-imaginer le futur” de l’Ecole d’architecture et d’urbanisme du MIT, dans MetropolisMag, sur les villes en 2020 : “Nos villes se transforment rapidement en écosystèmes artificiels, en organismes numériques intelligents, interdépendants et interconnectés. (…) Il est évident qu’inclure l’intelligence dans les objets crée de nouvelles fonctionnalités, mais il est moins immédiatement évident qu’elle en change également leur forme et leur dimension, ainsi que les rapports qu’ils entretiennent dans l’espace”.
À l’appui de ses idées, Bill Mitchell décrit plusieurs projets du MIT : les “concept cars” urbains et pliables du laboratoire Smart Cities, qu’il dirige ; les appartements réactifs du laboratoire House_n, capables de reconnaître les comportements de ses habitants (et de s’adapter à leurs activités, leurs habitudes alimentaires, ou leur condition de santé) ; les parkings intelligents du SenseAble City Lab, qui invitent les automobilistes circulant à proximité à occuper les places vacantes quand ils en cherchent, faisant varier les prix selon les emplacements ou la demande ; ou enfin les travaux de son laboratoire Re-imaginer le futur, créées pour l’Exposition universelle de Saragosse en 2008, comme les fontaines qui permettent de créer des lignes de textes avec de l’eau ou des lumières réactives qui suivent les pas des passants dans la ville.
William J. Mitchell conclut : “Ces projets suggèrent l’apparition d’une nouvelle étape dans l’évolution des villes. Les villes pré-industrielles étaient plutôt des squelettes arrangés pour abriter, sécuriser et utiliser l’espace au mieux. Avec l’ère industrielle, les bâtiments et les quartiers se sont dotés de systèmes d’écoulement et d’approvisionnement pour l’eau, l’énergie, la ventilation, le transport, et l’enlèvement de détritus. Avec leurs entrées, sorties et physiologies artificielles, ils ont commencé à ressembler à des organismes vivants. Aujourd’hui ces organismes développent leurs systèmes nerveux artificiels qui leur permettent de se comporter de manière coordonnée et intelligente. A mesure que les villes et leurs composants deviennent plus intelligents, ils commencent à adopter de nouvelles formes et structures. Ils deviennent programmables. Et la conception de leur logiciel devient aussi cruciale - au point de vue social, économique et culturel - que celle de leur matériel”.
Ces premières structures réactives sont déjà en construction, notamment au Bureau des architectures réactives où Tristan d’Estree Sterk travaille à un squelette qui envelopperait les bâtiments. Activé par des “muscles” pneumatiques, il permettrait par exemple à une maison de secouer la neige tombée sur son toit. Des peaux plaquées sur les immeubles, construites en matériaux de nouvelle génération, sauront altérer leurs formes pour suivre le soleil, ajuster la luminosité et capter l’énergie solaire, explique Sterk à Wired. Le MIT organise même une compétition pour fabriquer la musculature d’un mini gratte-ciel.
De quoi renforcer la position qu’exprimait en mars 2006 William J. Mitchell, directeur du nouveau laboratoire “Ré-imaginer le futur” de l’Ecole d’architecture et d’urbanisme du MIT, dans MetropolisMag, sur les villes en 2020 : “Nos villes se transforment rapidement en écosystèmes artificiels, en organismes numériques intelligents, interdépendants et interconnectés. (…) Il est évident qu’inclure l’intelligence dans les objets crée de nouvelles fonctionnalités, mais il est moins immédiatement évident qu’elle en change également leur forme et leur dimension, ainsi que les rapports qu’ils entretiennent dans l’espace”.
À l’appui de ses idées, Bill Mitchell décrit plusieurs projets du MIT : les “concept cars” urbains et pliables du laboratoire Smart Cities, qu’il dirige ; les appartements réactifs du laboratoire House_n, capables de reconnaître les comportements de ses habitants (et de s’adapter à leurs activités, leurs habitudes alimentaires, ou leur condition de santé) ; les parkings intelligents du SenseAble City Lab, qui invitent les automobilistes circulant à proximité à occuper les places vacantes quand ils en cherchent, faisant varier les prix selon les emplacements ou la demande ; ou enfin les travaux de son laboratoire Re-imaginer le futur, créées pour l’Exposition universelle de Saragosse en 2008, comme les fontaines qui permettent de créer des lignes de textes avec de l’eau ou des lumières réactives qui suivent les pas des passants dans la ville.
William J. Mitchell conclut : “Ces projets suggèrent l’apparition d’une nouvelle étape dans l’évolution des villes. Les villes pré-industrielles étaient plutôt des squelettes arrangés pour abriter, sécuriser et utiliser l’espace au mieux. Avec l’ère industrielle, les bâtiments et les quartiers se sont dotés de systèmes d’écoulement et d’approvisionnement pour l’eau, l’énergie, la ventilation, le transport, et l’enlèvement de détritus. Avec leurs entrées, sorties et physiologies artificielles, ils ont commencé à ressembler à des organismes vivants. Aujourd’hui ces organismes développent leurs systèmes nerveux artificiels qui leur permettent de se comporter de manière coordonnée et intelligente. A mesure que les villes et leurs composants deviennent plus intelligents, ils commencent à adopter de nouvelles formes et structures. Ils deviennent programmables. Et la conception de leur logiciel devient aussi cruciale - au point de vue social, économique et culturel - que celle de leur matériel”.
Historique : preuve de l'existence de la fantomatique matière noire - Par Laurent Sacco, Futura-Sciences, le 24/08/2006 à 20h46
Le 21 Août 2006 est très probablement maintenant une date historique dans la longue quête de l'humanité pour comprendre l'Univers qui l'entoure et se comprendre elle même comme une part de cet Univers.
Selon toute vraisemblance, nous avons maintenant la preuve que la majorité de la matière dans l'Univers ne ressemble à rien de ce qu'on connaît sur Terre ou que l'on sait fabriquer en accélérateur à ce jour.
Cela faisait longtemps que les astrophysiciens et les cosmologistes le suspectaient. Que ce soit pour comprendre l'origine des galaxies, la vitesse à laquelle les étoiles se déplacent autour du bulbe central de celles-ci, ou la façon dont les galaxies tiennent ensemble dans un amas, tout indiquait la présence d'une masse supplémentaire, sous forme d'une matière n'interagissant que très faiblement avec elle-même et la matière normale, une matière non lumineuse et presque fantomatique qualifiée justement de matière noire !
« Il est inconfortable pour un scientifique d'avoir à invoquer quelque chose d'invisible et de quasiment indétectable, pour rendre compte de 90% de la matière dans l'Univers » déclare Maxim Markevitch, un des membres de l'équipe ayant utilisé le satellite d'observation en rayons X Chandra, lors de la conférence de presse de ce jour organisée par la Nasa, et actuellement en poste au célèbre centre d'astrophysique Harvard Smithsonian.
Cette déclaration résume parfaitement le malaise ressenti par une partie de la communauté scientifique qui avait fini par suivre une autre approche pour résoudre ces énigmes, celle indiquée à partir de 1983 par Mordehai Milgrom de l'institut Weizmann.
Celui-ci avait alors posé la question suivante « Sommes nous sûrs qu'à l'échelle des galaxies la loi de la gravitation soit toujours conforme à celle de Newton? ». A la suite de quoi, il avait proposé MOND, acronyme de MOdified Newtonian Dynamics. Surprise ! Non seulement il arrivait à retrouver les observations faites au niveau des galaxies, mais il avait même fait une prédiction à propos de la luminosité d'une classe particulière de galaxies qui allait se révéler exacte. Les années passant, MOND devenait une alternative de plus en plus crédible, même si les observations récentes comme celles de WMAP faisaient plutôt pencher la balance en faveur de la matière noire.
Comment départager les deux théories?
La réponse vient de nous être fournie par la nature elle-même, avec l'amas de galaxies 1E0657- 56 !
Dans un amas, on sait qu'une part importante de la masse se trouve sous forme de gaz à haute température (des millions de degrés) émettant des rayons X détectables par le satellite Chandra. La masse de ce gaz est plus importante que celle des galaxies composant l'amas, on sait aussi que les galaxies s'y déplacent à grande vitesse.
Le problème est que ce gaz est tellement chaud et les galaxies si rapides que les amas devraient s'être dissipés depuis longtemps, sauf si l'on postule une masse encore plus grande que celle du gaz sous forme de particules de matière noire remplissant l'amas, ou toujours en modifiant la loi d'attraction gravitationnelle selon MOND.
Or, dans le cas 1E0657- 56, on a mis en évidence le phénomène suivant : deux amas sont entrés en collision, le plus petit traversant le plus grand telle une balle à travers de la fumée. On le voit clairement sur l’image suivante réalisée en rayons X.
La zone rouge étant la moins lumineuse, on voit bien la zone la plus brillante
responsable du nom de l’amas, le « Bullet cluster »
Sous l'impact, les deux nuages de gaz de matière normale, associés aux galaxies, vont se freiner mutuellement, s'échauffer et se séparer en grande partie des galaxies proches de chaque amas qui, eux, vont continuer tranquillement leur chemin.
Si MOND était l'explication des anomalies mentionnées précédemment, une cartographie de la masse de la matière dans cette collision devrait montrer un maintien de l'association de la composante principale de la masse avec le gaz chauffé en rayons X.
Et c'est justement ce qu'on n’observe pas !
En effet, à l’aide de télescopes effectuant des observations dans le visible, il a été possible de remonter à la distribution de masse en employant le phénomène de lentille gravitationnelle prédit par Einstein il y a longtemps. Les télescopes Magellan, Hubble et ceux du VLT ont ainsi été mis à contribution.
On le sait, la gravitation selon la relativité générale courbe la trajectoire des rayons lumineux, comme le ferait une lentille, plus la masse d’un objet est importante, plus cet effet est fort.
Dans le cas d’un amas, la situation peut se représenter avec l’image ci-dessous.
Les rayons lumineux issus d’une galaxie donnent ainsi une image double, en raison de leur déviation par l’amas.
L’équipe de la NASA a ainsi déterminé grâce à cela la carte suivante.
En bleu les zones où la concentration de masse est la plus importante
Si l’on superpose les images en rayons X et les indications obtenues en optique, on obtient cette séquence avec d’abord une image des galaxies de l’amas, puis le gaz chaud et finalement la matière noire. En rose, c’est la localisation du gaz de matière normale déterminée par Chandra, en bleu, la masse de matière noire déterminée par l'effet de lentille gravitationnelle. La séparation est clairement visible, et on peut même imaginer et reconstituer approximativement l’historique de la collision et de ses effets. Ce qu’on peut voir avec cette vidéo, illustrant la séparation des deux types de matières.
La conclusion du responsable principal de ces études, Douglas Clowe de l'Université de l’Arizona, a donc été la suivante : « ces résultats sont la preuve directe de l'existence de la matière sombre ». Sean Carroll, une des stars de la cosmologie, en poste à l'Université de Chicago et lui aussi présent à la conférence du 21 Août, ajoute alors: « Ceux-ci devront être pris en compte dans les futures théories, tandis que nous avancerons pour comprendre la nature réelle de la matière noire ».
Quelle peut-être en effet la nature de cette matière noire, et pourrons-nous, un jour, l'observer directement ?
Les candidats les plus convaincants sont l'axion et des particules supersymétriques comme les neutralinos. De manière générale, on parle souvent de « weakly interactive massives particles » ou WIMPS. Il semble qu'il soit possible de les détecter sur Terre ou de les produire en accélérateur, avec le LHC à Genève dans les années à venir par ex
Au final, on peut déjà dire que non seulement la confiance en l’existence réelle de la matière noire est devenu beaucoup plus forte, mais c’est aussi le modèle du Big Bang qui se trouve raffermi. Les différentes observations et mesures de ces dernières années, portant sur des objets et phénomènes astrophysiques variés, comme pour le CMB et WMAP récemment, montrent une fois de plus, une remarquable concordance en accord avec ce modèle.
Selon toute vraisemblance, nous avons maintenant la preuve que la majorité de la matière dans l'Univers ne ressemble à rien de ce qu'on connaît sur Terre ou que l'on sait fabriquer en accélérateur à ce jour.
Cela faisait longtemps que les astrophysiciens et les cosmologistes le suspectaient. Que ce soit pour comprendre l'origine des galaxies, la vitesse à laquelle les étoiles se déplacent autour du bulbe central de celles-ci, ou la façon dont les galaxies tiennent ensemble dans un amas, tout indiquait la présence d'une masse supplémentaire, sous forme d'une matière n'interagissant que très faiblement avec elle-même et la matière normale, une matière non lumineuse et presque fantomatique qualifiée justement de matière noire !
« Il est inconfortable pour un scientifique d'avoir à invoquer quelque chose d'invisible et de quasiment indétectable, pour rendre compte de 90% de la matière dans l'Univers » déclare Maxim Markevitch, un des membres de l'équipe ayant utilisé le satellite d'observation en rayons X Chandra, lors de la conférence de presse de ce jour organisée par la Nasa, et actuellement en poste au célèbre centre d'astrophysique Harvard Smithsonian.
Cette déclaration résume parfaitement le malaise ressenti par une partie de la communauté scientifique qui avait fini par suivre une autre approche pour résoudre ces énigmes, celle indiquée à partir de 1983 par Mordehai Milgrom de l'institut Weizmann.
Celui-ci avait alors posé la question suivante « Sommes nous sûrs qu'à l'échelle des galaxies la loi de la gravitation soit toujours conforme à celle de Newton? ». A la suite de quoi, il avait proposé MOND, acronyme de MOdified Newtonian Dynamics. Surprise ! Non seulement il arrivait à retrouver les observations faites au niveau des galaxies, mais il avait même fait une prédiction à propos de la luminosité d'une classe particulière de galaxies qui allait se révéler exacte. Les années passant, MOND devenait une alternative de plus en plus crédible, même si les observations récentes comme celles de WMAP faisaient plutôt pencher la balance en faveur de la matière noire.
Comment départager les deux théories?
La réponse vient de nous être fournie par la nature elle-même, avec l'amas de galaxies 1E0657- 56 !
Dans un amas, on sait qu'une part importante de la masse se trouve sous forme de gaz à haute température (des millions de degrés) émettant des rayons X détectables par le satellite Chandra. La masse de ce gaz est plus importante que celle des galaxies composant l'amas, on sait aussi que les galaxies s'y déplacent à grande vitesse.
Le problème est que ce gaz est tellement chaud et les galaxies si rapides que les amas devraient s'être dissipés depuis longtemps, sauf si l'on postule une masse encore plus grande que celle du gaz sous forme de particules de matière noire remplissant l'amas, ou toujours en modifiant la loi d'attraction gravitationnelle selon MOND.
Or, dans le cas 1E0657- 56, on a mis en évidence le phénomène suivant : deux amas sont entrés en collision, le plus petit traversant le plus grand telle une balle à travers de la fumée. On le voit clairement sur l’image suivante réalisée en rayons X.
La zone rouge étant la moins lumineuse, on voit bien la zone la plus brillante
responsable du nom de l’amas, le « Bullet cluster »
Sous l'impact, les deux nuages de gaz de matière normale, associés aux galaxies, vont se freiner mutuellement, s'échauffer et se séparer en grande partie des galaxies proches de chaque amas qui, eux, vont continuer tranquillement leur chemin.
Si MOND était l'explication des anomalies mentionnées précédemment, une cartographie de la masse de la matière dans cette collision devrait montrer un maintien de l'association de la composante principale de la masse avec le gaz chauffé en rayons X.
Et c'est justement ce qu'on n’observe pas !
En effet, à l’aide de télescopes effectuant des observations dans le visible, il a été possible de remonter à la distribution de masse en employant le phénomène de lentille gravitationnelle prédit par Einstein il y a longtemps. Les télescopes Magellan, Hubble et ceux du VLT ont ainsi été mis à contribution.
On le sait, la gravitation selon la relativité générale courbe la trajectoire des rayons lumineux, comme le ferait une lentille, plus la masse d’un objet est importante, plus cet effet est fort.
Dans le cas d’un amas, la situation peut se représenter avec l’image ci-dessous.
Les rayons lumineux issus d’une galaxie donnent ainsi une image double, en raison de leur déviation par l’amas.
L’équipe de la NASA a ainsi déterminé grâce à cela la carte suivante.
En bleu les zones où la concentration de masse est la plus importante
Si l’on superpose les images en rayons X et les indications obtenues en optique, on obtient cette séquence avec d’abord une image des galaxies de l’amas, puis le gaz chaud et finalement la matière noire. En rose, c’est la localisation du gaz de matière normale déterminée par Chandra, en bleu, la masse de matière noire déterminée par l'effet de lentille gravitationnelle. La séparation est clairement visible, et on peut même imaginer et reconstituer approximativement l’historique de la collision et de ses effets. Ce qu’on peut voir avec cette vidéo, illustrant la séparation des deux types de matières.
La conclusion du responsable principal de ces études, Douglas Clowe de l'Université de l’Arizona, a donc été la suivante : « ces résultats sont la preuve directe de l'existence de la matière sombre ». Sean Carroll, une des stars de la cosmologie, en poste à l'Université de Chicago et lui aussi présent à la conférence du 21 Août, ajoute alors: « Ceux-ci devront être pris en compte dans les futures théories, tandis que nous avancerons pour comprendre la nature réelle de la matière noire ».
Quelle peut-être en effet la nature de cette matière noire, et pourrons-nous, un jour, l'observer directement ?
Les candidats les plus convaincants sont l'axion et des particules supersymétriques comme les neutralinos. De manière générale, on parle souvent de « weakly interactive massives particles » ou WIMPS. Il semble qu'il soit possible de les détecter sur Terre ou de les produire en accélérateur, avec le LHC à Genève dans les années à venir par ex
Au final, on peut déjà dire que non seulement la confiance en l’existence réelle de la matière noire est devenu beaucoup plus forte, mais c’est aussi le modèle du Big Bang qui se trouve raffermi. Les différentes observations et mesures de ces dernières années, portant sur des objets et phénomènes astrophysiques variés, comme pour le CMB et WMAP récemment, montrent une fois de plus, une remarquable concordance en accord avec ce modèle.
Un mystérieux mathématicien pour une complexe conjecture - NOUVELOBS.COM | 18.08.06 | 16:03
La remise des médailles Fields, les Nobel des mathématiques, devrait prendre cette année une tournure exceptionnelle. La communauté des mathématiciens s’attend en effet à ce que ce prix récompense la résolution d’un problème vieux de plus d’un siècle : la conjecture de Poincaré. Le chercheur russe Gregori Perelman est parvenu à démontrer la fameuse conjecture, selon plusieurs mathématiciens qui ont examiné ses travaux. L’autre évènement est créé par Perelman lui-même. Invité au congrès de Madrid pour la remise des médailles, mardi prochain, il n’a pas répondu à l’invitation.
Grisha Perelman aurait démissionné de l’Institut Steklov de Saint-Pétersbourg où il travaillait et nul ne sait où il est. Il pourrait donc refuser sa médaille tout comme le million de dollars promis par l’Institut de mathématique américain Clay pour la résolution de la conjecture de Poincaré. Né en 1966, le mathématicien russe ne peut recevoir que cette année la médaille Fields, remise aux chercheurs qui ont maximum 40 ans.
La conjecture de Poincaré est un complexe problème de topologie. En 1904 le mathématicien français a suggéré que toute surface sans trou était une sphère.
Simple à démontrer en deux dimensions, la conjecture devenait plus difficile à établir pour les autres dimensions. En 1960 Stephen Male l’a démontrée pour une dimension supérieure ou égale à 5, ce qui lui a valu une médaille Fields. Michael Freedman l’a établie pour une dimension 4 et a également reçu la médaille Fields.
Restait à démontrer la conjecture en trois dimensions. Gregori Perelman a publié son premier travail sur la conjecture de Poincaré sur internet en novembre2002. Il a rendu public deux autres papiers avant de venir en 2003 aux Etats-Unis présenter ses travaux dans plusieurs universités. Après cette tournée il est reparti en Russie et a peu a peu cessé d’échanger avec ses collègues jusqu’à disparaître de la circulation. Trois équipes de mathématiciens à travers le monde ont entrepris de passer ses démonstrations au crible. Ils sont d’accord pour dire que la conjecture a été démontrée.
Cécile Dumas
(18/08/06)
Grisha Perelman aurait démissionné de l’Institut Steklov de Saint-Pétersbourg où il travaillait et nul ne sait où il est. Il pourrait donc refuser sa médaille tout comme le million de dollars promis par l’Institut de mathématique américain Clay pour la résolution de la conjecture de Poincaré. Né en 1966, le mathématicien russe ne peut recevoir que cette année la médaille Fields, remise aux chercheurs qui ont maximum 40 ans.
La conjecture de Poincaré est un complexe problème de topologie. En 1904 le mathématicien français a suggéré que toute surface sans trou était une sphère.
Simple à démontrer en deux dimensions, la conjecture devenait plus difficile à établir pour les autres dimensions. En 1960 Stephen Male l’a démontrée pour une dimension supérieure ou égale à 5, ce qui lui a valu une médaille Fields. Michael Freedman l’a établie pour une dimension 4 et a également reçu la médaille Fields.
Restait à démontrer la conjecture en trois dimensions. Gregori Perelman a publié son premier travail sur la conjecture de Poincaré sur internet en novembre2002. Il a rendu public deux autres papiers avant de venir en 2003 aux Etats-Unis présenter ses travaux dans plusieurs universités. Après cette tournée il est reparti en Russie et a peu a peu cessé d’échanger avec ses collègues jusqu’à disparaître de la circulation. Trois équipes de mathématiciens à travers le monde ont entrepris de passer ses démonstrations au crible. Ils sont d’accord pour dire que la conjecture a été démontrée.
Cécile Dumas
(18/08/06)
Le bonheur : y a-t-il une corrélation avec le salaire ? - Extrait du BE Etats-Unis N°43 - Ambassade de France aux Etats-Unis, le 27/07/2006 à 06h46
Une augmentation de salaire, et donc des biens disponibles, ne correspond pas à plus de bonheur. Telle est la conclusion d'une étude faite par des chercheurs du Centre d'Etudes de politique économique (CEPS) de Princeton University, avec la collaboration de Daniel Kahneman, qui a reçu le Prix Nobel d'Economie en 2002.
D'après les chercheurs, il n'y a quasiment pas de relations entre le sentiment de bonheur éprouvé et le salaire une fois qu'un certain niveau est dépassé (le seuil de pauvreté en 2006 aux Etats-Unis est de $20 000/an pour une famille de 4 personnes et de $9 800/an pour un individu). L'étude a été menée sur 1 173 individus en leur posant des questions diverses, telles que: " en général, êtes-vous très heureux, plutôt heureux ou pas très heureux ces jours-ci ? "
-13% de ceux avec un revenu familial entre $20 000-$49 999/an, 7,7% de ceux avec un revenu entre $50 000-$89 999/an et 5,3% de ceux avec un revenu de $90 000/an se qualifiaient comme " pas très heureux ".
- 56,8% des personnes ayant un revenu familial entre $20 000-$49 999/an et 50,3% de ceux ayant entre $50 000-$89 999/an se sentaient " plutôt heureux ", pour 51,8% de ceux ayant plus de $90 000/an.
- 30,2% de la fourchette de salaire $20 000-$49 999/an, 41,9% qui ont un revenu entre $50 000-$89 999/an et 42,9% qui ont un revenu de plus de $90 000/an se sentaient " très heureux ".
-par contre, seulement 22,2% de ceux qui avaient un revenu de moins de $20 000/an (le seuil de pauvreté pour une famille de 4) ont indiqué qu'ils étaient " très heureux ", et 17,2% ont dit qu'ils n'étaient " pas très heureux ".
En outre, les personnes qui avaient plus de revenu n'avaient pas forcément plus de temps libre, et même consacraient moins de temps aux loisirs (19.9% de temps consacrés aux loisirs pour ceux avec un revenu de plus de $90 000/an, contre 34.7% pour ceux avec un revenu de moins de $20 000/an).
Dans le rapport, les chercheurs se sont appuyés sur d'autres études économiques qui indiquent que l'augmentation du revenu a un effet plutôt transitoire sur les individus ; que le revenu relatif est plus important que le niveau de salaire; que les individus s'adaptent au nouveau niveau de vie acquis, et que la consommation de biens et la richesse matérielle, ont peu d'effet à long terme sur le bonheur général après qu'un certain niveau de consommation soit atteint.
Autrement dit, bien que beaucoup soient motivés par plus d'argent ou par une augmentation de salaire, ou pensent que le bonheur est indubitablement lié aux revenus, ces résultats montrent que ce n'est pas le cas. L'argent ne fait pas le bonheur.
L'étude est apparue dans Science Magazine le 30 juin 2006.
D'après les chercheurs, il n'y a quasiment pas de relations entre le sentiment de bonheur éprouvé et le salaire une fois qu'un certain niveau est dépassé (le seuil de pauvreté en 2006 aux Etats-Unis est de $20 000/an pour une famille de 4 personnes et de $9 800/an pour un individu). L'étude a été menée sur 1 173 individus en leur posant des questions diverses, telles que: " en général, êtes-vous très heureux, plutôt heureux ou pas très heureux ces jours-ci ? "
-13% de ceux avec un revenu familial entre $20 000-$49 999/an, 7,7% de ceux avec un revenu entre $50 000-$89 999/an et 5,3% de ceux avec un revenu de $90 000/an se qualifiaient comme " pas très heureux ".
- 56,8% des personnes ayant un revenu familial entre $20 000-$49 999/an et 50,3% de ceux ayant entre $50 000-$89 999/an se sentaient " plutôt heureux ", pour 51,8% de ceux ayant plus de $90 000/an.
- 30,2% de la fourchette de salaire $20 000-$49 999/an, 41,9% qui ont un revenu entre $50 000-$89 999/an et 42,9% qui ont un revenu de plus de $90 000/an se sentaient " très heureux ".
-par contre, seulement 22,2% de ceux qui avaient un revenu de moins de $20 000/an (le seuil de pauvreté pour une famille de 4) ont indiqué qu'ils étaient " très heureux ", et 17,2% ont dit qu'ils n'étaient " pas très heureux ".
En outre, les personnes qui avaient plus de revenu n'avaient pas forcément plus de temps libre, et même consacraient moins de temps aux loisirs (19.9% de temps consacrés aux loisirs pour ceux avec un revenu de plus de $90 000/an, contre 34.7% pour ceux avec un revenu de moins de $20 000/an).
Dans le rapport, les chercheurs se sont appuyés sur d'autres études économiques qui indiquent que l'augmentation du revenu a un effet plutôt transitoire sur les individus ; que le revenu relatif est plus important que le niveau de salaire; que les individus s'adaptent au nouveau niveau de vie acquis, et que la consommation de biens et la richesse matérielle, ont peu d'effet à long terme sur le bonheur général après qu'un certain niveau de consommation soit atteint.
Autrement dit, bien que beaucoup soient motivés par plus d'argent ou par une augmentation de salaire, ou pensent que le bonheur est indubitablement lié aux revenus, ces résultats montrent que ce n'est pas le cas. L'argent ne fait pas le bonheur.
L'étude est apparue dans Science Magazine le 30 juin 2006.
La grotte la plus ancienne au monde est âgée de 340 millions d'années - Par Christophe Olry, Futura-Sciences, le 27/07/2006 à 10h41
Jusqu’à aujourd’hui, la caverne empruntable à pieds la plus ancienne était située au Nouveau-Mexique. Elle remontait à 90 millions d’années. Elle vient d’être détrônée par les grottes de Jenolan, dont l’âge a été estimé à… 340 millions d’années !
La découverte, présentée dans l’Australian Journal of Earth Sciences, est le fruit d’Armstrong Osborne et de son équipe de l’université de Sydney. Les grottes de Jenolan, un site visité par de nombreux touristes tout au long de l’année, et que l’on pensait âgées de seulement quelques milliers d’années, sont en réalité les plus anciennes au monde. Elles datent de la période Carbonifère, entre 350 et 290 millions d'années avant notre ère.
Ainsi, ces cavernes situées à l’ouest de Sydney existaient bien avant que les dinosaures ne foulent la Terre et que les Montagnes bleues – Blue Mountains - ne se dessinent en Australie.
Pour déterminer l’âge des grottes de Jenolan, les chercheurs ont eu recours à une technique de datation traditionnellement utilisée par les compagnies pétrolifères pour trouver des gisements d'or noir. Ils ont prélevé des échantillons d’argile et ont mesuré leur teneur en potassium radioactif. C’est ainsi qu’ils ont eu la surprise de constater que les roches qui les entouraient étaient vieilles de 340 millions d’années. « Personne n’avait imaginé cela. Nous avons la preuve que l’argile s’est formé sur place, à l’intérieur de la caverne, et que les sites fréquentés régulièrement par les touristes datent de la période Carbonifère ! » a déclaré Horst Zwingmann, du CSIRO Petroleum Resources.
Cette découverte a relancé l’intérêt que les scientifiques portent aux grottes de Jenolan. Ils sont actuellement à la recherche d’événements géologiques qui auraient pu leur échapper. Leur première piste : l’argile pourrait bien s’être formé après que des cendres volcaniques aient pénétré dans la caverne. Les grottes de Jenolan réservent peut-être aux chercheurs d’autres surprises…
La découverte, présentée dans l’Australian Journal of Earth Sciences, est le fruit d’Armstrong Osborne et de son équipe de l’université de Sydney. Les grottes de Jenolan, un site visité par de nombreux touristes tout au long de l’année, et que l’on pensait âgées de seulement quelques milliers d’années, sont en réalité les plus anciennes au monde. Elles datent de la période Carbonifère, entre 350 et 290 millions d'années avant notre ère.
Ainsi, ces cavernes situées à l’ouest de Sydney existaient bien avant que les dinosaures ne foulent la Terre et que les Montagnes bleues – Blue Mountains - ne se dessinent en Australie.
Pour déterminer l’âge des grottes de Jenolan, les chercheurs ont eu recours à une technique de datation traditionnellement utilisée par les compagnies pétrolifères pour trouver des gisements d'or noir. Ils ont prélevé des échantillons d’argile et ont mesuré leur teneur en potassium radioactif. C’est ainsi qu’ils ont eu la surprise de constater que les roches qui les entouraient étaient vieilles de 340 millions d’années. « Personne n’avait imaginé cela. Nous avons la preuve que l’argile s’est formé sur place, à l’intérieur de la caverne, et que les sites fréquentés régulièrement par les touristes datent de la période Carbonifère ! » a déclaré Horst Zwingmann, du CSIRO Petroleum Resources.
Cette découverte a relancé l’intérêt que les scientifiques portent aux grottes de Jenolan. Ils sont actuellement à la recherche d’événements géologiques qui auraient pu leur échapper. Leur première piste : l’argile pourrait bien s’être formé après que des cendres volcaniques aient pénétré dans la caverne. Les grottes de Jenolan réservent peut-être aux chercheurs d’autres surprises…
samedi, février 26, 2011
Prédire le futur: probablement possible ?
Voir dans le futur serait possible. Telle est la conclusion renversante de travaux convaincants, menés par un scientifique estimé dans une institution réputée. L’étude signée par Daryl Bem, professeur de psychologie à l’Université Cornell (Etats-Unis), repose la question: comment interpréter les résultats positifs issus d’expériences en parapsychologie?
Plus de mille volontaires ont participé à l’étude, parue le 31 janvier dans le Journal of Personality and Social Psychology. Une expérience consistait à deviner l’emplacement d’une image pouvant se trouver à deux endroits. Lorsqu’il s’agissait d’une photographie érotique, les participants ont deviné sa position dans 53,1% des cas (au lieu de 50%). Il s’agit bien de précognition et non pas de clairvoyance, car le dispositif a tiré au hasard la position de l’image après que le choix a été effectué. Aucune anomalie n’a été détectée pour les images neutres. Même si la différence observée (3,1%) semble faible, la probabilité d’obtenir de tels résultats en supposant l’absence de précognition est de 1%, ce qui les qualifie comme «statistiquement significatifs».
«Je reste extrêmement sceptique, commente Peter Brugger, un psychologue de l’Université de Zurich qui étudie les croyances dans le paranormal. Daryl Bem est un convaincu, et il veut trouver une preuve. Si vous effectuez des centaines d’expériences, vous risquez de tomber sur des résultats positifs.»
Si les conclusions de Daryl Bem paraissent solides, c’est parce qu’elles sont basées sur des résultats «statistiquement significatifs». Cette phrase clé de la science moderne est devenue un paradigme dominant retrouvé autant en psychologie qu’en épidémiologie ou en écologie – ainsi qu’un synonyme de preuve pour de nombreux journalistes et scientifiques. La conclusion de Daryl Bem a été obtenue en respectant les canons de la méthodologie scientifique. Est-il possible de la rejeter sans être d’une mauvaise foi absolue? «Depuis une vingtaine d’années, la parapsychologie utilise les techniques statistiques les plus rigoureuses, souligne le sociologue des sciences Pierre Lagrange. Si on rejette ce genre de travaux, il faudra évacuer les analyses statistiques de la science.»
La suggestion est moins ridicule qu’il n’y paraît. Le problème, c’est que la méthode du test d’hypothèse (qui permet d’affirmer que des résultats sont «significatifs» ou non) s’avère largement surévaluée, mal utilisée, voire trompeuse. «Elle peut grandement sous-estimer la possibilité que l’hypothèse testée soit fausse», explique Jeffrey Rouder, psychologue à l’Université du Missouri. Dans de nombreux cas, on imagine, à tort, que des résultats significatifs démontrent la solidité d’une thèse: la précognition existe, le médicament marche, tel produit est dangereux pour la santé.
Cet écueil est connu depuis un demi-siècle, mais reste encore largement ignoré par de nombreux chercheurs. Le test d’hypothèse «n’offre plus une base saine ou utile pour les études statistiques», disait la statisticienne Cherry Clark en 1966 déjà. Il devrait être «éliminé car il est non seulement inutile, mais dangereux», affirmait le psychologue Ronald Carver en 1978. Si on s’en sert encore souvent, c’est parce «qu’il est utilisé par tout le monde, paraît être objectif, et que les professeurs continuent à l’enseigner», se lamente Douglas Johnson, statisticien au U.S. Geological Survey.
Le problème provient d’une interprétation erronée du test d’hypothèse, qui en fait porte bien mal son nom. Il ne donne pas la probabilité que la théorie soit juste, mais uniquement les chances d’obtenir les résultats en supposant que la théorie est fausse (une sur cent dans l’expérience de la précognition). «Vous voulez tester l’hypothèse qu’une pièce de monnaie est mal équilibrée, illustre Douglas Johnson. En la lançant trois fois, vous tombez trois fois sur pile. Tout ce que dit le test d’hypothèse, c’est que vous n’avez qu’une chance sur huit d’obtenir ce résultat avec une pièce bien équilibrée.» Or, on veut connaître la vraisemblance de la théorie de départ – non pas la probabilité des résultats. Une approche, basée sur les travaux du mathématicien du XVIIIe siècle Thomas Bayes, permet d’y arriver.
Jeffrey Rouder a appliqué la méthode bayesienne aux travaux de Daryl Bem. «Notre analyse montre que si vous donniez à la précognition une chance de un sur un million d’exister, alors les résultats de Bem vous enjoignent de réévaluer cette estimation à 1 sur 25 000. Ce facteur de 40 est étonnamment élevé, mais reste probablement insuffisant pour être considéré comme preuve d’un principe aussi radical que celui de la précognition.» Cette démarche souligne le fait qu’une seule expérience ne suffit pas: «La science est une construction sociale et interprétative, poursuit le psychologue. Elle présente des indices que le lecteur doit lui-même juger, en fonction de ses connaissances et de ses croyances.» Depuis des décennies, Douglas Johnson milite pour l’approche bayesienne, mais «son apparente subjectivité a freiné son acceptation par de nombreux chercheurs, pour qui la science doit être objective», dit le statisticien.
Le test d’hypothèse s’avère particulièrement mal adapté pour examiner des effets très faibles, comme c’est souvent le cas en parapsychologie, mais «également lorsque les multiples facteurs s’influencent, ce qui arrive dans de nombreuses sciences «molles» telles que la psychologie, la sociologie, l’éducation ou encore la conservation de la nature, ajoute Douglas Johnson. Un résultat significatif n’est pas forcément suffisant. Il ne faut surtout pas conclure que l’effet existe et s’arrêter là – mais au contraire poursuivre les investigations. Sans mécanisme explicatif convaincant, il faut absolument rassembler de nombreuses études confirmant l’hypothèse.»
«L’étude de Bem est très transparente, honnête et bien rédigée, et démontre un grand professionnalisme, commente Jeffrey Rouder. Mais je n’y crois pas. Je m’attends à ce que les expériences voulant la répliquer donnent des résultats faiblement significatifs ou carrément négatifs. Si elles devaient produire systématiquement des résultats hautement significatifs, il faudra les considérer comme des débuts de preuve. En tout cas, je vois une vertu à cette étude: par son impact médiatique, elle redonne une chance de discuter des dangers oubliés représentés par les statistiques.» Un débat bienvenu à l’heure où les résultats «significatifs» provenant d’une multitude d’études épidémiologiques – sur les bienfaits et dangers du vin rouge, par exemple – font régulièrement les gros titres.
http://www.letemps.ch/
Plus de mille volontaires ont participé à l’étude, parue le 31 janvier dans le Journal of Personality and Social Psychology. Une expérience consistait à deviner l’emplacement d’une image pouvant se trouver à deux endroits. Lorsqu’il s’agissait d’une photographie érotique, les participants ont deviné sa position dans 53,1% des cas (au lieu de 50%). Il s’agit bien de précognition et non pas de clairvoyance, car le dispositif a tiré au hasard la position de l’image après que le choix a été effectué. Aucune anomalie n’a été détectée pour les images neutres. Même si la différence observée (3,1%) semble faible, la probabilité d’obtenir de tels résultats en supposant l’absence de précognition est de 1%, ce qui les qualifie comme «statistiquement significatifs».
«Je reste extrêmement sceptique, commente Peter Brugger, un psychologue de l’Université de Zurich qui étudie les croyances dans le paranormal. Daryl Bem est un convaincu, et il veut trouver une preuve. Si vous effectuez des centaines d’expériences, vous risquez de tomber sur des résultats positifs.»
Si les conclusions de Daryl Bem paraissent solides, c’est parce qu’elles sont basées sur des résultats «statistiquement significatifs». Cette phrase clé de la science moderne est devenue un paradigme dominant retrouvé autant en psychologie qu’en épidémiologie ou en écologie – ainsi qu’un synonyme de preuve pour de nombreux journalistes et scientifiques. La conclusion de Daryl Bem a été obtenue en respectant les canons de la méthodologie scientifique. Est-il possible de la rejeter sans être d’une mauvaise foi absolue? «Depuis une vingtaine d’années, la parapsychologie utilise les techniques statistiques les plus rigoureuses, souligne le sociologue des sciences Pierre Lagrange. Si on rejette ce genre de travaux, il faudra évacuer les analyses statistiques de la science.»
La suggestion est moins ridicule qu’il n’y paraît. Le problème, c’est que la méthode du test d’hypothèse (qui permet d’affirmer que des résultats sont «significatifs» ou non) s’avère largement surévaluée, mal utilisée, voire trompeuse. «Elle peut grandement sous-estimer la possibilité que l’hypothèse testée soit fausse», explique Jeffrey Rouder, psychologue à l’Université du Missouri. Dans de nombreux cas, on imagine, à tort, que des résultats significatifs démontrent la solidité d’une thèse: la précognition existe, le médicament marche, tel produit est dangereux pour la santé.
Cet écueil est connu depuis un demi-siècle, mais reste encore largement ignoré par de nombreux chercheurs. Le test d’hypothèse «n’offre plus une base saine ou utile pour les études statistiques», disait la statisticienne Cherry Clark en 1966 déjà. Il devrait être «éliminé car il est non seulement inutile, mais dangereux», affirmait le psychologue Ronald Carver en 1978. Si on s’en sert encore souvent, c’est parce «qu’il est utilisé par tout le monde, paraît être objectif, et que les professeurs continuent à l’enseigner», se lamente Douglas Johnson, statisticien au U.S. Geological Survey.
Le problème provient d’une interprétation erronée du test d’hypothèse, qui en fait porte bien mal son nom. Il ne donne pas la probabilité que la théorie soit juste, mais uniquement les chances d’obtenir les résultats en supposant que la théorie est fausse (une sur cent dans l’expérience de la précognition). «Vous voulez tester l’hypothèse qu’une pièce de monnaie est mal équilibrée, illustre Douglas Johnson. En la lançant trois fois, vous tombez trois fois sur pile. Tout ce que dit le test d’hypothèse, c’est que vous n’avez qu’une chance sur huit d’obtenir ce résultat avec une pièce bien équilibrée.» Or, on veut connaître la vraisemblance de la théorie de départ – non pas la probabilité des résultats. Une approche, basée sur les travaux du mathématicien du XVIIIe siècle Thomas Bayes, permet d’y arriver.
Jeffrey Rouder a appliqué la méthode bayesienne aux travaux de Daryl Bem. «Notre analyse montre que si vous donniez à la précognition une chance de un sur un million d’exister, alors les résultats de Bem vous enjoignent de réévaluer cette estimation à 1 sur 25 000. Ce facteur de 40 est étonnamment élevé, mais reste probablement insuffisant pour être considéré comme preuve d’un principe aussi radical que celui de la précognition.» Cette démarche souligne le fait qu’une seule expérience ne suffit pas: «La science est une construction sociale et interprétative, poursuit le psychologue. Elle présente des indices que le lecteur doit lui-même juger, en fonction de ses connaissances et de ses croyances.» Depuis des décennies, Douglas Johnson milite pour l’approche bayesienne, mais «son apparente subjectivité a freiné son acceptation par de nombreux chercheurs, pour qui la science doit être objective», dit le statisticien.
Le test d’hypothèse s’avère particulièrement mal adapté pour examiner des effets très faibles, comme c’est souvent le cas en parapsychologie, mais «également lorsque les multiples facteurs s’influencent, ce qui arrive dans de nombreuses sciences «molles» telles que la psychologie, la sociologie, l’éducation ou encore la conservation de la nature, ajoute Douglas Johnson. Un résultat significatif n’est pas forcément suffisant. Il ne faut surtout pas conclure que l’effet existe et s’arrêter là – mais au contraire poursuivre les investigations. Sans mécanisme explicatif convaincant, il faut absolument rassembler de nombreuses études confirmant l’hypothèse.»
«L’étude de Bem est très transparente, honnête et bien rédigée, et démontre un grand professionnalisme, commente Jeffrey Rouder. Mais je n’y crois pas. Je m’attends à ce que les expériences voulant la répliquer donnent des résultats faiblement significatifs ou carrément négatifs. Si elles devaient produire systématiquement des résultats hautement significatifs, il faudra les considérer comme des débuts de preuve. En tout cas, je vois une vertu à cette étude: par son impact médiatique, elle redonne une chance de discuter des dangers oubliés représentés par les statistiques.» Un débat bienvenu à l’heure où les résultats «significatifs» provenant d’une multitude d’études épidémiologiques – sur les bienfaits et dangers du vin rouge, par exemple – font régulièrement les gros titres.
http://www.letemps.ch/
dimanche, février 20, 2011
dimanche, janvier 30, 2011
Un trésor secret dans la pyramide de Kheops ?
La chambre funéraire du pharaon Kheops serait flanquée de deux antichambres, qui pourraient receler le mobilier du défunt : c’est ce qu’affirme Jean-Pierre Houdin, qui a créé depuis plusieurs années un modèle 3D de la pyramide et des étapes de sa construction. Une équipe canadienne se tient prête pour aller vérifier.
À la Géode, au parc de la Villette, à Paris, des centaines d’invités, lunettes 3D sur les yeux, ont pu regarder d’étonnantes images de synthèse de l’intérieur de la pyramide de Kheops, qui trône depuis 4.500 ans sur le plateau de Giseh. Réservé ce jeudi 27 janvier à des privilégiés, ce film 3D fera l’objet de deux projections publiques à la Géode les 10 février et 8 mars à 20 heures. Le scénario est signé Jean-Pierre Houdin, un architecte qui, avec l’aide d’un puissant outil informatique et d’un bon sens certain, avait reconstitué les étapes plausibles de la construction de cette pyramide gigantesque (143 mètres de hauteur), à une époque où la roue n’existait pas. Selon lui, l’édifice aurait été construit de l’intérieur, avec un tunnel montant juste derrière les parements extérieurs.
Sa nouvelle thèse : la chambre funéraire de Kheops n’est que l’une des pièces d’un appartement. Il existerait, côté nord de cette pièce, deux antichambres, comme dans la pyramide qui abrite le tombeau de Snéfrou, le père de Kheops. L’architecte devenu spécialiste de la construction des pyramides appuie sa thèse sur des observations de Bob Brier, un égyptologue américain, suggérant l’existence d’un passage vers une autre pièce. « Lorsqu'on plaque sur le plan que l'on connaît celui de la pyramide Rouge érigée pour Snéfrou, le père de Kheops, tout s'éclaire » a-t-il expliqué.
Dans le modèle de Jean-Pierre Houdin, les lourdes poutres en granit du plafond de la chambre funéraire, à 43 mètres au-dessus de la base de la pyramide, et dont les plus lourdes pèsent 60 tonnes, auraient été hissées à l'aide d'un contrepoids extérieur coulissant, visible ici.
Dans le modèle de Jean-Pierre Houdin, les lourdes poutres en granit du plafond de la chambre funéraire, à 43 mètres au-dessus de la base de la pyramide, et dont les plus lourdes pèsent 60 tonnes, auraient été hissées à l'aide d'un contrepoids extérieur coulissant, visible ici.
Jean-Pierre Houdin conclut de ses simulations 3D l’existence d’un autre passage qui, lui, aurait permis aux derniers accompagnateurs du pharaon de sortir de la pyramide. Selon la thèse en vigueur, en effet, ces dévoués serviteurs du monarque auraient eux-mêmes refermé la chambre funéraire de l’intérieur, se condamnant ainsi à mourir auprès du pharaon. Depuis longtemps, la chambre funéraire a été visitée par des pillards, ce qui pourrait expliquer l’absence d’ossements humains autour du sarcophage.
Mais, comme l’a souligné Jean-Pierre Houdin, il est tout de même surprenant de n'avoir découvert strictement aucune trace humaine. Selon lui, les membres de la cérémonie sont repartis par les antichambres, refermant le passage derrière eux à l’aide d’une pierre, une hypothèse plausible car, explique-t-il, ce mur ne soutient aucune charge.
Une équipe canadienne, menée par Xavier Maldague, de l’Université Laval (qui était présent à la Géode), espère vérifier ces hypothèses à l’aide d’un système de thermographie modulé, une technique de sondage non destructif. Il reste à obtenir l’autorisation des autorités égyptiennes, c’est-à-dire du responsable du Conseil suprême des antiquités, Zahi Hawass, lequel a déjà donné son accord pour une autre mission. Au printemps prochain, en effet, une équipe de l’Université de Leeds (Royaume-Uni) explorera la pyramide à l’aide d’un petit robot dénommé Djedi.
À la Géode, au parc de la Villette, à Paris, des centaines d’invités, lunettes 3D sur les yeux, ont pu regarder d’étonnantes images de synthèse de l’intérieur de la pyramide de Kheops, qui trône depuis 4.500 ans sur le plateau de Giseh. Réservé ce jeudi 27 janvier à des privilégiés, ce film 3D fera l’objet de deux projections publiques à la Géode les 10 février et 8 mars à 20 heures. Le scénario est signé Jean-Pierre Houdin, un architecte qui, avec l’aide d’un puissant outil informatique et d’un bon sens certain, avait reconstitué les étapes plausibles de la construction de cette pyramide gigantesque (143 mètres de hauteur), à une époque où la roue n’existait pas. Selon lui, l’édifice aurait été construit de l’intérieur, avec un tunnel montant juste derrière les parements extérieurs.
Sa nouvelle thèse : la chambre funéraire de Kheops n’est que l’une des pièces d’un appartement. Il existerait, côté nord de cette pièce, deux antichambres, comme dans la pyramide qui abrite le tombeau de Snéfrou, le père de Kheops. L’architecte devenu spécialiste de la construction des pyramides appuie sa thèse sur des observations de Bob Brier, un égyptologue américain, suggérant l’existence d’un passage vers une autre pièce. « Lorsqu'on plaque sur le plan que l'on connaît celui de la pyramide Rouge érigée pour Snéfrou, le père de Kheops, tout s'éclaire » a-t-il expliqué.
Dans le modèle de Jean-Pierre Houdin, les lourdes poutres en granit du plafond de la chambre funéraire, à 43 mètres au-dessus de la base de la pyramide, et dont les plus lourdes pèsent 60 tonnes, auraient été hissées à l'aide d'un contrepoids extérieur coulissant, visible ici.
Dans le modèle de Jean-Pierre Houdin, les lourdes poutres en granit du plafond de la chambre funéraire, à 43 mètres au-dessus de la base de la pyramide, et dont les plus lourdes pèsent 60 tonnes, auraient été hissées à l'aide d'un contrepoids extérieur coulissant, visible ici.
Jean-Pierre Houdin conclut de ses simulations 3D l’existence d’un autre passage qui, lui, aurait permis aux derniers accompagnateurs du pharaon de sortir de la pyramide. Selon la thèse en vigueur, en effet, ces dévoués serviteurs du monarque auraient eux-mêmes refermé la chambre funéraire de l’intérieur, se condamnant ainsi à mourir auprès du pharaon. Depuis longtemps, la chambre funéraire a été visitée par des pillards, ce qui pourrait expliquer l’absence d’ossements humains autour du sarcophage.
Mais, comme l’a souligné Jean-Pierre Houdin, il est tout de même surprenant de n'avoir découvert strictement aucune trace humaine. Selon lui, les membres de la cérémonie sont repartis par les antichambres, refermant le passage derrière eux à l’aide d’une pierre, une hypothèse plausible car, explique-t-il, ce mur ne soutient aucune charge.
Une équipe canadienne, menée par Xavier Maldague, de l’Université Laval (qui était présent à la Géode), espère vérifier ces hypothèses à l’aide d’un système de thermographie modulé, une technique de sondage non destructif. Il reste à obtenir l’autorisation des autorités égyptiennes, c’est-à-dire du responsable du Conseil suprême des antiquités, Zahi Hawass, lequel a déjà donné son accord pour une autre mission. Au printemps prochain, en effet, une équipe de l’Université de Leeds (Royaume-Uni) explorera la pyramide à l’aide d’un petit robot dénommé Djedi.
samedi, janvier 15, 2011
Chaser, la chienne qui connaît 1.000 mots
En trois ans, deux chercheurs ont enseigné plus de 1.000 mots à une chienne – un border collie – qui, affirment-ils, associe vraiment chaque mot à un objet, voire à une catégorie d’objets.
En 2004, Rico, un border collie, défrayait la chronique : à l’Institut Max Planck, il démontrait qu’il connaissait 200 mots, des noms de jouets qu’il allait chercher en ne se trompant qu’1 fois sur 10. Au Wofford College (Caroline du Sud, États-Unis), Alliston Reid et John Pilley ont voulu chercher la limite avec Chaser, une femelle de cette même race de chien de berger, réputée pour son intelligence et sa docilité. Au bout de trois ans, les chercheurs ont arrêté l’entraînement à 1.022 mots : record pulvérisé. Mais, précisent-ils, c’est parce qu’eux-mêmes n’ont plus de temps à consacrer à cette expérience. Chaser, elle, ne semble pas rassasiée.
Le vocabulaire de la chienne comporte surtout des noms propres associés à des jouets. Les exercices consistent pour Chaser à aller chercher un objet dont on vient de lui donner le nom parmi un lot installé dans une pièce voisine ou derrière un rideau, ce qu’elle réussit 18 fois sur 20. Parfois, il s’agit simplement de toucher l’objet du museau ou de la patte, ce qui montre que Chaser associe le mot prononcé à l’objet et non à l’ordre « d’aller chercher », comme un chien qui saute sur sa laisse quand on prononce le mot « promener » par exemple.
Chaser connaît aussi des catégories d’objets. Elle associe par exemple le mot « toy » (jouet) à tous les objets qu’elle connaît. Chargée de rapporter un « toy » et se trouvant devant un lot d’objets ne comportant qu’un seul jouet parmi le millier qu’elle connaît, elle choisira celui-là. De la même manière, Chaser peut aussi rapporter une « balle » ou un « frisbee ». Selon les auteurs, la chienne est capable d’associer trois mots à chaque objet. Comme Rico, si on lui demande de rapporter un objet dont elle ignore le nom et qu’elle découvre un lot de jouets connus mais comportant un objet qu’elle n’a jamais vu, elle choisira celui-là. Les anglophones peuvent se régaler avec plusieurs vidéos montrant John Pilley ou sa femme donner des ordres à Chaser. Les autres les regarderont en se disant qu’ils auraient beaucoup moins bien réussi l’exercice !
Le résultat, publié dans le journal Behavioural Processes, montre une étonnante capacité de mémorisation d’objets reconnus visuellement et de mots. La capacité à catégoriser les mots est aussi assez étonnante. Les prouesses de Chaser rappellent celles de Primates (à peu près tous femelles, notons-le au passage) capables de manipuler des systèmes de langage divers, dont le langage des signes. On se souvient de Washoe, la pionnière, chimpanzé, morte en 1977, et de Koko la femelle gorille.
Comment ces capacités sont-elles partagées par les races canines ? Les sélections opérées par l’Homme depuis la domestication du chien y sont-elles pour quelque chose ? On ne sait pas, expliquent les auteurs, mais il serait intéressant d’aller explorer de ce côté-là.
Source : http://m.futura-sciences.com/
En 2004, Rico, un border collie, défrayait la chronique : à l’Institut Max Planck, il démontrait qu’il connaissait 200 mots, des noms de jouets qu’il allait chercher en ne se trompant qu’1 fois sur 10. Au Wofford College (Caroline du Sud, États-Unis), Alliston Reid et John Pilley ont voulu chercher la limite avec Chaser, une femelle de cette même race de chien de berger, réputée pour son intelligence et sa docilité. Au bout de trois ans, les chercheurs ont arrêté l’entraînement à 1.022 mots : record pulvérisé. Mais, précisent-ils, c’est parce qu’eux-mêmes n’ont plus de temps à consacrer à cette expérience. Chaser, elle, ne semble pas rassasiée.
Le vocabulaire de la chienne comporte surtout des noms propres associés à des jouets. Les exercices consistent pour Chaser à aller chercher un objet dont on vient de lui donner le nom parmi un lot installé dans une pièce voisine ou derrière un rideau, ce qu’elle réussit 18 fois sur 20. Parfois, il s’agit simplement de toucher l’objet du museau ou de la patte, ce qui montre que Chaser associe le mot prononcé à l’objet et non à l’ordre « d’aller chercher », comme un chien qui saute sur sa laisse quand on prononce le mot « promener » par exemple.
Chaser connaît aussi des catégories d’objets. Elle associe par exemple le mot « toy » (jouet) à tous les objets qu’elle connaît. Chargée de rapporter un « toy » et se trouvant devant un lot d’objets ne comportant qu’un seul jouet parmi le millier qu’elle connaît, elle choisira celui-là. De la même manière, Chaser peut aussi rapporter une « balle » ou un « frisbee ». Selon les auteurs, la chienne est capable d’associer trois mots à chaque objet. Comme Rico, si on lui demande de rapporter un objet dont elle ignore le nom et qu’elle découvre un lot de jouets connus mais comportant un objet qu’elle n’a jamais vu, elle choisira celui-là. Les anglophones peuvent se régaler avec plusieurs vidéos montrant John Pilley ou sa femme donner des ordres à Chaser. Les autres les regarderont en se disant qu’ils auraient beaucoup moins bien réussi l’exercice !
Le résultat, publié dans le journal Behavioural Processes, montre une étonnante capacité de mémorisation d’objets reconnus visuellement et de mots. La capacité à catégoriser les mots est aussi assez étonnante. Les prouesses de Chaser rappellent celles de Primates (à peu près tous femelles, notons-le au passage) capables de manipuler des systèmes de langage divers, dont le langage des signes. On se souvient de Washoe, la pionnière, chimpanzé, morte en 1977, et de Koko la femelle gorille.
Comment ces capacités sont-elles partagées par les races canines ? Les sélections opérées par l’Homme depuis la domestication du chien y sont-elles pour quelque chose ? On ne sait pas, expliquent les auteurs, mais il serait intéressant d’aller explorer de ce côté-là.
Source : http://m.futura-sciences.com/
mercredi, janvier 12, 2011
Des hologrammes d'atomes avec des électrons
Vieille de plus de 50 ans, l’holographie est généralement associée au laser. On vient d’utiliser ses principes pour créer des hologrammes d’atomes de xénon à l'aide... d'électrons. La technique est prometteuse pour étudier molécules et réactions chimiques.
Les principes de l’holographie ont été découverts par Dennis Gabor vers 1947. Le futur prix Nobel de physique cherchait un moyen d’améliorer la résolution des microscopes électroniques afin d’observer des atomes formant des réseaux cristallins. En théorie, l’onde associée par de Broglie à un électron possédait une longueur d’onde suffisamment petite dans les microscopes de l’époque pour que la limite imposée par la diffraction à la résolution de ces derniers ne soit pas un obstacle.
Malheureusement, il existait une autre limite théorique découlant en pratique de ce qui tient le rôle d'une lentille dans un microscope électronique. Un effet d’aberration sphérique ruinait les efforts pour obtenir une image de bonne qualité si l’on voulait atteindre la résolution voulue.
La révolution du laser
Gabor réalisa cette année-là que, si l’on enregistrait non pas seulement l’intensité mais aussi la phase des ondes de matière, on pouvait contourner le problème. En mettant en principe cette idée, il devint rapidement clair que des hologrammes pouvaient aussi être réalisés avec de la lumière.
Les idées de Gabor ne rencontrèrent que peu d’échos jusqu’à ce que l’on réalise les premiers lasers. C’est donc au début des années 1960 que la carrière des hologrammes débuta vraiment, devenant plus tard une icône populaire comme le montrent bien les films Star Wars.
De nos jours, on sait voir des atomes avec un microscope électronique. Mais à l’époque de Gabor, il n’existait pas de faisceaux d’électrons suffisamment cohérents pour réaliser des hologrammes, comme ce qui a été rapidement fait pour la lumière. Un groupe de chercheurs du FOM-Institute AMOLF d’Amsterdam et du Max Born Institute de Berlin vient d’effectuer en quelque sorte un retour aux sources en utilisant un laser pour produire des électrons cohérents et produire des hologrammes d’atomes.
Le retour aux ondes de matière
Grâce au laser à électrons libres FELICE (Free Electron Laser for Intracavity Experiments) du FOM-Institute, il est possible d’arracher des électrons à des atomes de xénon puis de renvoyer ces particules en direction des ions ainsi produits. Une partie des électrons arrachés par la lumière infrarouge du laser ne subit pas l’influence des ions. L'autre partie est affectée par leur champ électrostatique. En combinant et en enregistrant les deux faisceaux d’électrons produits, on obtient finalement l’hologramme prédit et recherché par Gabor.
En utilisant ces hologrammes pour développer un nouveau type de spectroscopie avec des photoélectrons ultrarapides, les chercheurs pourraient être en mesure de mesurer directement les mouvements des électrons et des ions sur une échelle de temps de l’ordre de l’attoseconde. Une perspective particulièrement utile pour comprendre les réactions chimiques au niveau le plus fondamental, en particulier dans les molécules qui ne peuvent pas être facilement étudiées par d'autres méthodes.
Par Laurent Sacco, Futura-Sciences Partagez nos contenus
Les principes de l’holographie ont été découverts par Dennis Gabor vers 1947. Le futur prix Nobel de physique cherchait un moyen d’améliorer la résolution des microscopes électroniques afin d’observer des atomes formant des réseaux cristallins. En théorie, l’onde associée par de Broglie à un électron possédait une longueur d’onde suffisamment petite dans les microscopes de l’époque pour que la limite imposée par la diffraction à la résolution de ces derniers ne soit pas un obstacle.
Malheureusement, il existait une autre limite théorique découlant en pratique de ce qui tient le rôle d'une lentille dans un microscope électronique. Un effet d’aberration sphérique ruinait les efforts pour obtenir une image de bonne qualité si l’on voulait atteindre la résolution voulue.
La révolution du laser
Gabor réalisa cette année-là que, si l’on enregistrait non pas seulement l’intensité mais aussi la phase des ondes de matière, on pouvait contourner le problème. En mettant en principe cette idée, il devint rapidement clair que des hologrammes pouvaient aussi être réalisés avec de la lumière.
Les idées de Gabor ne rencontrèrent que peu d’échos jusqu’à ce que l’on réalise les premiers lasers. C’est donc au début des années 1960 que la carrière des hologrammes débuta vraiment, devenant plus tard une icône populaire comme le montrent bien les films Star Wars.
De nos jours, on sait voir des atomes avec un microscope électronique. Mais à l’époque de Gabor, il n’existait pas de faisceaux d’électrons suffisamment cohérents pour réaliser des hologrammes, comme ce qui a été rapidement fait pour la lumière. Un groupe de chercheurs du FOM-Institute AMOLF d’Amsterdam et du Max Born Institute de Berlin vient d’effectuer en quelque sorte un retour aux sources en utilisant un laser pour produire des électrons cohérents et produire des hologrammes d’atomes.
Le retour aux ondes de matière
Grâce au laser à électrons libres FELICE (Free Electron Laser for Intracavity Experiments) du FOM-Institute, il est possible d’arracher des électrons à des atomes de xénon puis de renvoyer ces particules en direction des ions ainsi produits. Une partie des électrons arrachés par la lumière infrarouge du laser ne subit pas l’influence des ions. L'autre partie est affectée par leur champ électrostatique. En combinant et en enregistrant les deux faisceaux d’électrons produits, on obtient finalement l’hologramme prédit et recherché par Gabor.
En utilisant ces hologrammes pour développer un nouveau type de spectroscopie avec des photoélectrons ultrarapides, les chercheurs pourraient être en mesure de mesurer directement les mouvements des électrons et des ions sur une échelle de temps de l’ordre de l’attoseconde. Une perspective particulièrement utile pour comprendre les réactions chimiques au niveau le plus fondamental, en particulier dans les molécules qui ne peuvent pas être facilement étudiées par d'autres méthodes.
Par Laurent Sacco, Futura-Sciences Partagez nos contenus
La Nasa prépare un atterrisseur lunaire de nouvelle génération
Bien que reporté pour des raisons financières, le retour de l'Homme sur la Lune est toujours envisagé. Poussée autant par des objectifs scientifiques indéniables que par les propres projets lunaires de l’Inde et de la Chine, la Nasa a planifié un ambitieux programme d'exploration robotique qui nécessitera une nouvelle génération d’atterrisseurs lunaires.
Vue de la Terre, la surface lunaire se caractérise par d’immenses plaines ou bassins parsemés ici et là de cratères plus ou moins importants. Bien que ces régions soient propices à l’atterrissage d’engins robotiques, elles ne font pas partie des objectifs prioritaires de la Nasa. Les sites les plus intéressants pour la science, l'implantation d’avant-poste, voire la construction de bases en dur se situent au pôle sud, une région bien plus accidentée que celles sur lesquelles se sont posées les missions Apollo des années 1970.
Mais pour atteindre ces régions, la Nasa doit se doter d’une nouvelle génération de système d’atterrissage. L’expérience des missions martiennes ne peut pas être mise à profit, car la Lune ne possédant pas d’atmosphère ou seulement à l’état de trace, l’utilisation de parachute ou tout système utilisant l’air est impossible. Pour s’affranchir de cette contrainte forte, la Nasa a mis sur pied un programme qui finance des prototypes d’atterrisseurs lunaires capables de voler une soixantaine de secondes en vol libre, de façon à se poser en douceur sur une très grande variété de terrains plus ou moins accidentés. Il ne s'agit évidemment pas d'envoyer un engin se poser sur les flancs d’un cratère ou tout autre terrain instable, mais plutôt de confier des missions à un engin suffisamment agile et autonome pour choisir un emplacement à l’intérieur d’une zone cible.
Un objectif pour 2025
Cet atterrisseur devra être capable de faire de façon automatique ce qu’a réalisé l'équipage d'Apollo 11 lorsque, à la suite de problèmes techniques, Neil Armstrong a raté le site d’atterrissage initial. L'astronaute a dû choisir un point d'alunissage alors qu’il survolait une zone fortement cratérisée et que la réserve en carburant s’amenuisait dangereusement. Ce qui a été réalisé en 1969 par l'Homme devra l’être par un robot à l'horizon 2025.
Des systèmes de propulsion et de contrôle, aux systèmes de navigation et de positionnement, jusqu’à la nature du carburant, l’architecture et le choix des matériaux, tout est passé en revue. Ces atterrisseurs ne seront pas seulement utilisés pour des missions lunaires. Ils pourront également servir pour envoyer des instruments sur d’autres objets du Système solaire à faible gravité et sans atmosphère comme des astéroïdes, des comètes ou d’autres lunes.
Par Rémy Decourt, Futura-Sciences
Vue de la Terre, la surface lunaire se caractérise par d’immenses plaines ou bassins parsemés ici et là de cratères plus ou moins importants. Bien que ces régions soient propices à l’atterrissage d’engins robotiques, elles ne font pas partie des objectifs prioritaires de la Nasa. Les sites les plus intéressants pour la science, l'implantation d’avant-poste, voire la construction de bases en dur se situent au pôle sud, une région bien plus accidentée que celles sur lesquelles se sont posées les missions Apollo des années 1970.
Mais pour atteindre ces régions, la Nasa doit se doter d’une nouvelle génération de système d’atterrissage. L’expérience des missions martiennes ne peut pas être mise à profit, car la Lune ne possédant pas d’atmosphère ou seulement à l’état de trace, l’utilisation de parachute ou tout système utilisant l’air est impossible. Pour s’affranchir de cette contrainte forte, la Nasa a mis sur pied un programme qui finance des prototypes d’atterrisseurs lunaires capables de voler une soixantaine de secondes en vol libre, de façon à se poser en douceur sur une très grande variété de terrains plus ou moins accidentés. Il ne s'agit évidemment pas d'envoyer un engin se poser sur les flancs d’un cratère ou tout autre terrain instable, mais plutôt de confier des missions à un engin suffisamment agile et autonome pour choisir un emplacement à l’intérieur d’une zone cible.
Un objectif pour 2025
Cet atterrisseur devra être capable de faire de façon automatique ce qu’a réalisé l'équipage d'Apollo 11 lorsque, à la suite de problèmes techniques, Neil Armstrong a raté le site d’atterrissage initial. L'astronaute a dû choisir un point d'alunissage alors qu’il survolait une zone fortement cratérisée et que la réserve en carburant s’amenuisait dangereusement. Ce qui a été réalisé en 1969 par l'Homme devra l’être par un robot à l'horizon 2025.
Des systèmes de propulsion et de contrôle, aux systèmes de navigation et de positionnement, jusqu’à la nature du carburant, l’architecture et le choix des matériaux, tout est passé en revue. Ces atterrisseurs ne seront pas seulement utilisés pour des missions lunaires. Ils pourront également servir pour envoyer des instruments sur d’autres objets du Système solaire à faible gravité et sans atmosphère comme des astéroïdes, des comètes ou d’autres lunes.
Par Rémy Decourt, Futura-Sciences
Un amplificateur parfait pour un futur ordinateur quantique ?
Les chercheurs de l'Institut national d'optique (Ino-Cnr) sont parvenus à augmenter l'intensité d'impulsions lumineuses extrêmement faibles sans introduire aucun bruit additionnel. Ce système "Hi-Fi quantique", basé sur la manipulation ultra-précise de la lumière (La lumière désigne les ondes électromagnétiques visibles par l'œil humain, c'est-à-dire comprises dans des longueurs d'onde de 0,38 à 0,78 micron (380 nm à 780 nm ; le symbole nm désigne le nanomètre). La lumière est intimement liée à la notion de couleur. C'est...) à l'échelle du photon (En physique des particules, le photon est la particule élémentaire médiatrice de l'interaction électromagnétique. Autrement dit, lorsque deux particules chargées électriquement interagissent, cette...), a battu tous les records en termes de réduction des perturbations.
L'équipe à l'origine de ce succès est composée de chercheurs de l'Ino-Cnr de Florence et de l'Université tchèque d'Olomouc et leurs résultats ont été publiés dans la revue Nature Photonics. Le grand progrès qu'apporte leur travail, est l'amplification du signal ( Termes généraux Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières. Les signaux lumineux sont employés depuis la nuit des temps par les hommes pour communiquer entre eux à distance. Le signal électrique est une des formes les plus récentes de signal. Un signal dans...) sans amplifier le bruit (Dans son sens courant, le mot de bruit se rapproche de la signification principale du mot son. C'est-à-dire vibration de l'air pouvant donner lieu à la création d'une sensation auditive.) original et sans ajouter aucun autre bruit. Le prototype semble "violer" les lois de la mécanique quantique (Fille de l'ancienne théorie des quanta, la mécanique quantique constitue le pilier d'un ensemble de théories physiques qu'on regroupe sous l'appellation générale de physique quantique. Cette dénomination s'oppose à celle de physique classique, celle-ci échouant dans sa description du monde...), en s'approchant de la réalisation d'un ordinateur quantique (Un ordinateur quantique (ou rarement calculateur quantique) repose sur des propriétés quantiques de la matière : superposition et intrication d'états quantiques. De petits ordinateurs quantiques ont déjà été...).
"Disposer d'un 'amplificateur parfait' permettrait de réaliser des communications quantiques sûres à grande échelle, proches du 'rêve' d'un ordinateur quantique (Un ordinateur quantique (ou rarement calculateur quantique) repose sur des propriétés quantiques de la matière : superposition et intrication d'états quantiques. De petits ordinateurs quantiques ont déjà été...)", explique Marco Bellini de l'Ino-Cnr qui a expérimenté le prototype en collaboration avec son collègue de l'Institut Alessandro Zavatta et avec Jaromir Fiurasek de l'Université tchèque d'Olomouc. "Notre amplificateur (On parle d'amplificateur de force pour tout une palette de systèmes qui amplifient les efforts : mécanique, hydraulique, pneumatique, électrique.) semble violer les lois de la mécanique quantique (Fille de l'ancienne théorie des quanta, la mécanique quantique constitue le pilier d'un ensemble de théories physiques qu'on regroupe sous l'appellation générale de physique quantique. Cette dénomination s'oppose à celle de physique classique, celle-ci échouant dans sa description du monde...) [...]. Le résultat est basé sur des techniques que nous avons mises au point (Graphie), d'addition et de soustraction (La soustraction est l'une des opérations basiques de l'arithmétique. La soustraction combine deux ou plusieurs grandeurs du même type, appelées opérandes, pour donner un seul nombre, appelé la différence.) contrôlée de simples photons, les particules fondamentales et indivisibles dont est composée la lumière (La lumière désigne les ondes électromagnétiques visibles par l'œil humain, c'est-à-dire comprises dans des longueurs d'onde de 0,38 à 0,78 micron (380 nm à 780 nm ; le symbole nm désigne le nanomètre). La lumière est intimement liée à la notion de couleur. C'est...)." L'exceptionnalité de la découverte est compréhensible à l'échelle de la vie de tous les jours (Le jour ou la journée est l'intervalle qui sépare le lever du coucher du Soleil ; c'est la période entre deux nuits, pendant laquelle les rayons du Soleil éclairent le ciel. Son début (par rapport à minuit heure locale) et sa durée dépendent de l'époque de l'année et de la latitude. Le jour peut durer 6 mois aux pôles terrestres…). "Si on augmente le volume (En physique, le volume d'un objet mesure « l'extension dans l'espace » qu'il possède dans les trois directions en même temps, de même que l'aire d'une figure dans le plan mesure « l'extension » qu'elle possède dans les deux directions en même temps.) d'une transmission brouillée, on amplifie aussi le bruit, et le signal ( Termes généraux Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières. Les signaux lumineux sont employés depuis la nuit des temps par les hommes pour communiquer entre eux à distance. Le signal électrique est une des formes les plus récentes de signal. Un signal dans...) reste donc de la même qualité", rappelle le chercheur (Un chercheur (fem. chercheuse) désigne une personne dont le métier consiste à faire de la recherche. Il est difficile de bien cerner le métier de chercheur tant les domaines de recherche sont...). "Même si normalement nous ne nous en rendons pas compte, à chaque fois que nous amplifions un signal, nous rajoutons aussi inévitablement un léger bruit additionnel, diminuant ainsi la qualité du signal. [...]"
Nous ne nous en rendons pas compte tellement ce bruit ajouté est faible par rapport à l'amplitude du signal, mais les choses changent lorsque les signaux à amplifier sont extrêmement faibles et les perturbations causées par l'amplification les rendent pratiquement inutilisables. "C'est par exemple le cas des schémas de communication intrinsèquement fiables basés sur la 'cryptographie quantique' ", poursuit Bellini, "dans une telle situation, l'effet est très utile puisqu'à chaque tentative d'interception et de copie du message (La théorie de l'information fut mise au point pour déterminer mathématiquement le taux d’information transmis dans la communication d’un message par un canal de communication, notamment en présence de parasites appelés bruits : en communication, un message est un ensemble de signes. Il implique donc un codage par...), un bruit additionnel est produit de telle sorte que la tentative soit immédiatement découverte. Dans de nombreux autres cas, l'impossibilité d'amplifier fidèlement un signal constitue une grande limitation, par exemple sur la distance du signal avant que l'atténuation le rende trop faible."
Cette recherche permettra notamment d'effectuer de nouveaux types de mesures ultra-sensibles, de réaliser des répétiteurs quantiques pour reconstruire les impulsions les plus faibles des réseaux de communication (La communication concerne aussi bien l'homme (communication intra-psychique,interpersonnelle, groupale...) que l'animal (communication intra- ou inter- espèces) ou la machine (télécommunications,...) et d'amplifier le fameux "entanglement", la forme particulière de corrélation entre particules distantes qu'Einstein ne réussissait pas à admettre mais qui est pourtant à la base des concepts les plus avancés d'ordinateurs quantiques.
Source: BE Italie numéro 88 (11/01/2011) - Ambassade de France en Italie / ADIT - http://www.bulletins-electroniques.com/ ... /65544.htm
L'équipe à l'origine de ce succès est composée de chercheurs de l'Ino-Cnr de Florence et de l'Université tchèque d'Olomouc et leurs résultats ont été publiés dans la revue Nature Photonics. Le grand progrès qu'apporte leur travail, est l'amplification du signal ( Termes généraux Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières. Les signaux lumineux sont employés depuis la nuit des temps par les hommes pour communiquer entre eux à distance. Le signal électrique est une des formes les plus récentes de signal. Un signal dans...) sans amplifier le bruit (Dans son sens courant, le mot de bruit se rapproche de la signification principale du mot son. C'est-à-dire vibration de l'air pouvant donner lieu à la création d'une sensation auditive.) original et sans ajouter aucun autre bruit. Le prototype semble "violer" les lois de la mécanique quantique (Fille de l'ancienne théorie des quanta, la mécanique quantique constitue le pilier d'un ensemble de théories physiques qu'on regroupe sous l'appellation générale de physique quantique. Cette dénomination s'oppose à celle de physique classique, celle-ci échouant dans sa description du monde...), en s'approchant de la réalisation d'un ordinateur quantique (Un ordinateur quantique (ou rarement calculateur quantique) repose sur des propriétés quantiques de la matière : superposition et intrication d'états quantiques. De petits ordinateurs quantiques ont déjà été...).
"Disposer d'un 'amplificateur parfait' permettrait de réaliser des communications quantiques sûres à grande échelle, proches du 'rêve' d'un ordinateur quantique (Un ordinateur quantique (ou rarement calculateur quantique) repose sur des propriétés quantiques de la matière : superposition et intrication d'états quantiques. De petits ordinateurs quantiques ont déjà été...)", explique Marco Bellini de l'Ino-Cnr qui a expérimenté le prototype en collaboration avec son collègue de l'Institut Alessandro Zavatta et avec Jaromir Fiurasek de l'Université tchèque d'Olomouc. "Notre amplificateur (On parle d'amplificateur de force pour tout une palette de systèmes qui amplifient les efforts : mécanique, hydraulique, pneumatique, électrique.) semble violer les lois de la mécanique quantique (Fille de l'ancienne théorie des quanta, la mécanique quantique constitue le pilier d'un ensemble de théories physiques qu'on regroupe sous l'appellation générale de physique quantique. Cette dénomination s'oppose à celle de physique classique, celle-ci échouant dans sa description du monde...) [...]. Le résultat est basé sur des techniques que nous avons mises au point (Graphie), d'addition et de soustraction (La soustraction est l'une des opérations basiques de l'arithmétique. La soustraction combine deux ou plusieurs grandeurs du même type, appelées opérandes, pour donner un seul nombre, appelé la différence.) contrôlée de simples photons, les particules fondamentales et indivisibles dont est composée la lumière (La lumière désigne les ondes électromagnétiques visibles par l'œil humain, c'est-à-dire comprises dans des longueurs d'onde de 0,38 à 0,78 micron (380 nm à 780 nm ; le symbole nm désigne le nanomètre). La lumière est intimement liée à la notion de couleur. C'est...)." L'exceptionnalité de la découverte est compréhensible à l'échelle de la vie de tous les jours (Le jour ou la journée est l'intervalle qui sépare le lever du coucher du Soleil ; c'est la période entre deux nuits, pendant laquelle les rayons du Soleil éclairent le ciel. Son début (par rapport à minuit heure locale) et sa durée dépendent de l'époque de l'année et de la latitude. Le jour peut durer 6 mois aux pôles terrestres…). "Si on augmente le volume (En physique, le volume d'un objet mesure « l'extension dans l'espace » qu'il possède dans les trois directions en même temps, de même que l'aire d'une figure dans le plan mesure « l'extension » qu'elle possède dans les deux directions en même temps.) d'une transmission brouillée, on amplifie aussi le bruit, et le signal ( Termes généraux Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières. Les signaux lumineux sont employés depuis la nuit des temps par les hommes pour communiquer entre eux à distance. Le signal électrique est une des formes les plus récentes de signal. Un signal dans...) reste donc de la même qualité", rappelle le chercheur (Un chercheur (fem. chercheuse) désigne une personne dont le métier consiste à faire de la recherche. Il est difficile de bien cerner le métier de chercheur tant les domaines de recherche sont...). "Même si normalement nous ne nous en rendons pas compte, à chaque fois que nous amplifions un signal, nous rajoutons aussi inévitablement un léger bruit additionnel, diminuant ainsi la qualité du signal. [...]"
Nous ne nous en rendons pas compte tellement ce bruit ajouté est faible par rapport à l'amplitude du signal, mais les choses changent lorsque les signaux à amplifier sont extrêmement faibles et les perturbations causées par l'amplification les rendent pratiquement inutilisables. "C'est par exemple le cas des schémas de communication intrinsèquement fiables basés sur la 'cryptographie quantique' ", poursuit Bellini, "dans une telle situation, l'effet est très utile puisqu'à chaque tentative d'interception et de copie du message (La théorie de l'information fut mise au point pour déterminer mathématiquement le taux d’information transmis dans la communication d’un message par un canal de communication, notamment en présence de parasites appelés bruits : en communication, un message est un ensemble de signes. Il implique donc un codage par...), un bruit additionnel est produit de telle sorte que la tentative soit immédiatement découverte. Dans de nombreux autres cas, l'impossibilité d'amplifier fidèlement un signal constitue une grande limitation, par exemple sur la distance du signal avant que l'atténuation le rende trop faible."
Cette recherche permettra notamment d'effectuer de nouveaux types de mesures ultra-sensibles, de réaliser des répétiteurs quantiques pour reconstruire les impulsions les plus faibles des réseaux de communication (La communication concerne aussi bien l'homme (communication intra-psychique,interpersonnelle, groupale...) que l'animal (communication intra- ou inter- espèces) ou la machine (télécommunications,...) et d'amplifier le fameux "entanglement", la forme particulière de corrélation entre particules distantes qu'Einstein ne réussissait pas à admettre mais qui est pourtant à la base des concepts les plus avancés d'ordinateurs quantiques.
Source: BE Italie numéro 88 (11/01/2011) - Ambassade de France en Italie / ADIT - http://www.bulletins-electroniques.com/ ... /65544.htm
lundi, janvier 10, 2011
La vitesse de marche est associée à la longévité chez les personnes âgées
Une nouvel article paru dans JAMA le 5 janvier 2011 reprend les résultats de 9 études antérieures (entre 1986 et 2000) pour conclure que plus la vitesse de marche est élevée chez les personnes âgées et plus ces derniers vivront longtemps. Ces conclusions ont été obtenues par l’analyse de 34485 individus au total âgés de 65 ans ou plus et pour lesquels un suivi a pu être réalisé pendant 6 à 21 ans.
Les participants ont un âge moyen de 73,5 ans, 59,6% sont des femmes et 79,8% sont des individus blancs. Leur vitesse de marche moyenne a été calculée en utilisant à la fois une distance en mètres et un temps en secondes et correspond à une moyenne de 0,92 mètre par seconde. Au cours du suivi il y a eu 17528 décès observés. Le taux de survie global à 5 ans est de 84,8% alors qu’il est de 59,7% à 10 ans. Les conclusions montrent que la vitesse de déplacement des participants est associée à des différences de probabilité de survie à tous les âges et pour les deux sexes mais semble plus informative après 75 ans. A cet âge, la survie prédite à 10 ans varie de 19 à 87% chez les hommes et de 35 à 91% chez les femmes en fonction de la vitesse de marche.
Finalement, cette étude montre qu’une vitesse de déplacement égale ou supérieure à 1 mètre par seconde correspond à une espérance de vie supérieure à celle attendue lorsqu’on se base simplement sur le sexe ou l’âge. Il existe plusieurs raisons potentielles liant la vitesse de déplacement des individus à leur espérance de vie. En effet, marcher exige de l’énergie, de la coordination, et requiert l’utilisation de multiples organes tels que le cœur, les poumons, les nerfs, les muscles,... Donc une faible vitesse de déplacement peut refléter un manque d’énergie et un endommagement des systèmes organiques ci-dessus. Il semble donc envisageable de pouvoir identifier les personnes âgées avec un risque de décès prématuré, par exemple celles avec une vitesse de marche inférieure à 0,6 mètre par seconde.
Auteur de l’article: Pierre-Alain RUBBO
Les participants ont un âge moyen de 73,5 ans, 59,6% sont des femmes et 79,8% sont des individus blancs. Leur vitesse de marche moyenne a été calculée en utilisant à la fois une distance en mètres et un temps en secondes et correspond à une moyenne de 0,92 mètre par seconde. Au cours du suivi il y a eu 17528 décès observés. Le taux de survie global à 5 ans est de 84,8% alors qu’il est de 59,7% à 10 ans. Les conclusions montrent que la vitesse de déplacement des participants est associée à des différences de probabilité de survie à tous les âges et pour les deux sexes mais semble plus informative après 75 ans. A cet âge, la survie prédite à 10 ans varie de 19 à 87% chez les hommes et de 35 à 91% chez les femmes en fonction de la vitesse de marche.
Finalement, cette étude montre qu’une vitesse de déplacement égale ou supérieure à 1 mètre par seconde correspond à une espérance de vie supérieure à celle attendue lorsqu’on se base simplement sur le sexe ou l’âge. Il existe plusieurs raisons potentielles liant la vitesse de déplacement des individus à leur espérance de vie. En effet, marcher exige de l’énergie, de la coordination, et requiert l’utilisation de multiples organes tels que le cœur, les poumons, les nerfs, les muscles,... Donc une faible vitesse de déplacement peut refléter un manque d’énergie et un endommagement des systèmes organiques ci-dessus. Il semble donc envisageable de pouvoir identifier les personnes âgées avec un risque de décès prématuré, par exemple celles avec une vitesse de marche inférieure à 0,6 mètre par seconde.
Auteur de l’article: Pierre-Alain RUBBO
samedi, janvier 08, 2011
Mort subite d'oiseaux et de poissons... - quelle explication ?
Depuis quelques jours, nombre d'internautes tentent de s'expliquer de manière plus ou moins censée la raison de la mort subite d'oiseaux et poissons, des morts mystérieuses.
Le phénomène a commencé la nuit de la Saint-Sylvestre, en Arkansas (Etats-Unis), où 5 000 oiseaux sont tombés du ciel. Ils ont été retrouvés morts, portant des traces de blessures traumatiques. Puis il s'est propagé en Louisiane: même phénomène, même espèce: des carouges à épaulette. Si dans le premier cas on pensait que la cause de cette mort subite venait des feux d'artifices lancés la nuit du réveillon, ce n'est plus le cas pour la seconde vague de mardi. Le même cas s'est produit également en Suède.
Autre phénomène qui se rajoute à la liste: mardi, sur les côtes de Nouvelle-Zélande, du Brésil et dans le plus grand estuaire des Etats-Unis, plusieurs millions de poissons ont été retrouvés morts. Dans le Maryland (dans la baie de Chesapeake), les poissons ainsi retrouvés sont des Leiostomus xanthurus. Au Brésil, il s'agit de sardines et poissons-chats.
Le recensement s'agrandit, entre la Grande-Bretagne, le Brésil, la Thaïlande, le Japon. Elle concerne des choucas, pigeons, mais aussi méduses et vivaneaux. Certains cherchent une explication scientifique alors que d'autres appréhendent déjà un phénomène apocalyptique ! Plusieurs explications scientifiques ont tout de même été émises. Concernant les poissons, la mort peut être de cause naturelle: en effet, il s'agit d'espèce fragile, qui subit un hiver rigoureux. Le ministère de l'Environnement de l'Etat du Maryland précise d'ailleurs que les températures de la baie, à la surface, ont été au mois de décembre les plus froides enregistrées depuis 25 ans. Le porte-parole du département de l’Environnement du Maryland évoque également une crise d'hypothermie, et précise que des cas similaires auraient d'ailleurs été observés en 1976 et 1980. On songe également à la surpopulation de l'espèce.
S'agissant des oiseaux, les feux d'artifice de la nuit du réveillon sont principalement accusés. D'autres pistes sont à envisager comme une électrocution sur des lignes haute tension par exemple. Des autopsies sont toujours en cours afin d'identifier la raison de cette mort soudaine. Quoiqu'il en soit, il ne paraît pas probable qu'il s'agisse de maladie ou d'empoisonnement car les oiseaux étaient en vol.
L'USGS (United States Geological Survey) précise toutefois que ce phénomène n'est pas si rare que cela. En effet, pas moins de 95 épisodes comparables ont été constatés dans les huit derniers mois en Amérique du nord. Citons par exemple les 4 300 canards tués par des parasites dans le Minnesota, les 2 000 chauve-souris victimes de la rage au Texas, ou encore les 1 500 salamandres mortes d'un virus dans l'Idaho. Ces évènements représentent 163 phénomènes rapportés chaque année au gouvernement fédéral. Le cas présent paraît certes inquiétant, mais reste faible comparé aux 100 000 canards morts en même temps de botulisme au Canada en 1996.
Auteur de l'article: Cédric DEPOND
Le phénomène a commencé la nuit de la Saint-Sylvestre, en Arkansas (Etats-Unis), où 5 000 oiseaux sont tombés du ciel. Ils ont été retrouvés morts, portant des traces de blessures traumatiques. Puis il s'est propagé en Louisiane: même phénomène, même espèce: des carouges à épaulette. Si dans le premier cas on pensait que la cause de cette mort subite venait des feux d'artifices lancés la nuit du réveillon, ce n'est plus le cas pour la seconde vague de mardi. Le même cas s'est produit également en Suède.
Autre phénomène qui se rajoute à la liste: mardi, sur les côtes de Nouvelle-Zélande, du Brésil et dans le plus grand estuaire des Etats-Unis, plusieurs millions de poissons ont été retrouvés morts. Dans le Maryland (dans la baie de Chesapeake), les poissons ainsi retrouvés sont des Leiostomus xanthurus. Au Brésil, il s'agit de sardines et poissons-chats.
Le recensement s'agrandit, entre la Grande-Bretagne, le Brésil, la Thaïlande, le Japon. Elle concerne des choucas, pigeons, mais aussi méduses et vivaneaux. Certains cherchent une explication scientifique alors que d'autres appréhendent déjà un phénomène apocalyptique ! Plusieurs explications scientifiques ont tout de même été émises. Concernant les poissons, la mort peut être de cause naturelle: en effet, il s'agit d'espèce fragile, qui subit un hiver rigoureux. Le ministère de l'Environnement de l'Etat du Maryland précise d'ailleurs que les températures de la baie, à la surface, ont été au mois de décembre les plus froides enregistrées depuis 25 ans. Le porte-parole du département de l’Environnement du Maryland évoque également une crise d'hypothermie, et précise que des cas similaires auraient d'ailleurs été observés en 1976 et 1980. On songe également à la surpopulation de l'espèce.
S'agissant des oiseaux, les feux d'artifice de la nuit du réveillon sont principalement accusés. D'autres pistes sont à envisager comme une électrocution sur des lignes haute tension par exemple. Des autopsies sont toujours en cours afin d'identifier la raison de cette mort soudaine. Quoiqu'il en soit, il ne paraît pas probable qu'il s'agisse de maladie ou d'empoisonnement car les oiseaux étaient en vol.
L'USGS (United States Geological Survey) précise toutefois que ce phénomène n'est pas si rare que cela. En effet, pas moins de 95 épisodes comparables ont été constatés dans les huit derniers mois en Amérique du nord. Citons par exemple les 4 300 canards tués par des parasites dans le Minnesota, les 2 000 chauve-souris victimes de la rage au Texas, ou encore les 1 500 salamandres mortes d'un virus dans l'Idaho. Ces évènements représentent 163 phénomènes rapportés chaque année au gouvernement fédéral. Le cas présent paraît certes inquiétant, mais reste faible comparé aux 100 000 canards morts en même temps de botulisme au Canada en 1996.
Auteur de l'article: Cédric DEPOND
jeudi, janvier 06, 2011
Hécatombes mystérieuses d'animaux
Faune Oiseaux et poissons morts
Entre 50 et 100 oiseaux ont été retrouvés mystérieusement morts dans la nuit de mardi à mercredi sur une route à l’entrée de Falköping, une petite ville du sud-ouest de la Suède. Les Etats-Unis ont connu de pareilles hécatombes cette dernière semaine. 5000 oiseaux se sont écrasés dans la ville de Beebe (Arkansas) lors de la nuit du réveillon, tandis qu’une seconde pluie d’oiseaux morts s’est produite mardi en Louisiane, près de la ville de Pointe Coupée.
Les autorités américaines ont d’abord invoqué les feux d’artifice du Nouvel An pour expliquer la mort subite de milliers de carouges à épaulettes. Les oiseaux, stressés par le bruit, se sont écrasés contre les maisons et les arbres, a conclu le vétérinaire de l’Etat de l’Arkansas, George Badley, dans des propos rapportés par le Wall Street Journal.
C’était sans compter sur les 100 000 poissons retrouvé morts dans une rivière à quelques centaines de kilomètre de Beebe le jour même. Simple coïncidence jugent les autorités. Une eau trop froide ou une maladie auraient provoqué l’hécatombe. Mais Keith Stephens, responsable de la commission Chasse et Pêche, interrogé sur CNN le jour de l’an, avoue ne pas comprendre l’origine du drame.
Nostradamus s'en mêle
Les premiers signes de la fin du monde? La Toile devient fébrile. Nostradamus annonçait que l’apocalypse serait précédée d’oiseaux tombant raide morts. Le phénomène n’a pourtant rien d’extraordinaire. Le service géologique américain répertorie quelque 90 décès de masse d’oiseaux ou d’autres espèces depuis le mois de juin. Parmi les plus importants, 4000 oiseaux décédés près de Houston entre septembre et novembre suite à des parasites. Des chercheurs ont été chargés de l’autopsie des nouveaux cadavres de volatiles, mais les résultats ne sont pas attendus avant 2 ou 3 semaines.
(Source : http://www.letemps.ch/)
Entre 50 et 100 oiseaux ont été retrouvés mystérieusement morts dans la nuit de mardi à mercredi sur une route à l’entrée de Falköping, une petite ville du sud-ouest de la Suède. Les Etats-Unis ont connu de pareilles hécatombes cette dernière semaine. 5000 oiseaux se sont écrasés dans la ville de Beebe (Arkansas) lors de la nuit du réveillon, tandis qu’une seconde pluie d’oiseaux morts s’est produite mardi en Louisiane, près de la ville de Pointe Coupée.
Les autorités américaines ont d’abord invoqué les feux d’artifice du Nouvel An pour expliquer la mort subite de milliers de carouges à épaulettes. Les oiseaux, stressés par le bruit, se sont écrasés contre les maisons et les arbres, a conclu le vétérinaire de l’Etat de l’Arkansas, George Badley, dans des propos rapportés par le Wall Street Journal.
C’était sans compter sur les 100 000 poissons retrouvé morts dans une rivière à quelques centaines de kilomètre de Beebe le jour même. Simple coïncidence jugent les autorités. Une eau trop froide ou une maladie auraient provoqué l’hécatombe. Mais Keith Stephens, responsable de la commission Chasse et Pêche, interrogé sur CNN le jour de l’an, avoue ne pas comprendre l’origine du drame.
Nostradamus s'en mêle
Les premiers signes de la fin du monde? La Toile devient fébrile. Nostradamus annonçait que l’apocalypse serait précédée d’oiseaux tombant raide morts. Le phénomène n’a pourtant rien d’extraordinaire. Le service géologique américain répertorie quelque 90 décès de masse d’oiseaux ou d’autres espèces depuis le mois de juin. Parmi les plus importants, 4000 oiseaux décédés près de Houston entre septembre et novembre suite à des parasites. Des chercheurs ont été chargés de l’autopsie des nouveaux cadavres de volatiles, mais les résultats ne sont pas attendus avant 2 ou 3 semaines.
(Source : http://www.letemps.ch/)
lundi, janvier 03, 2011
Pluie d'oiseaux morts sur une ville
Surpris en plein vol02 - janvier 2011 17:44
Une mystérieuse pluie d'oiseaux a commencé le soir de la Saint-Sylvestre dans une ville de l'Arkansas (USA).
Les habitants de la petite ville de Beebe dans l'Etat américain de l'Arkansas ont été surpris au premier jour de l'année par une pluie d'oiseaux morts, dont le décès restait inexpliqué dimanche, a indiqué la commission de la chasse et de la pêche de cet Etat du Sud américain.
Plus d'un millier d'oiseaux morts gisaient dans les rues de Beebe. Les services communaux en ont dénombré plus d'un millier, gisant dans les rues de Beebe, explique la commission sur sa page Facebook. La plupart des oiseaux sont des carouges à épaulettes, reconnaissables à leurs taches rouges à la base des ailes.
Les autorités n'ont pas encore réussi à déterminer la cause de cette vague de décès. Des tests doivent être pratiqués lundi.
Selon le quotidien Arkansas Times, les oiseaux pourraient avoir été touchés par la grêle en haute altitude. Une autre théorie met en cause les feux d'artifice du Nouvel An qui pourraient avoir surpris les oiseaux en plein vol.
Source : AFP
Une mystérieuse pluie d'oiseaux a commencé le soir de la Saint-Sylvestre dans une ville de l'Arkansas (USA).
Les habitants de la petite ville de Beebe dans l'Etat américain de l'Arkansas ont été surpris au premier jour de l'année par une pluie d'oiseaux morts, dont le décès restait inexpliqué dimanche, a indiqué la commission de la chasse et de la pêche de cet Etat du Sud américain.
Plus d'un millier d'oiseaux morts gisaient dans les rues de Beebe. Les services communaux en ont dénombré plus d'un millier, gisant dans les rues de Beebe, explique la commission sur sa page Facebook. La plupart des oiseaux sont des carouges à épaulettes, reconnaissables à leurs taches rouges à la base des ailes.
Les autorités n'ont pas encore réussi à déterminer la cause de cette vague de décès. Des tests doivent être pratiqués lundi.
Selon le quotidien Arkansas Times, les oiseaux pourraient avoir été touchés par la grêle en haute altitude. Une autre théorie met en cause les feux d'artifice du Nouvel An qui pourraient avoir surpris les oiseaux en plein vol.
Source : AFP
Inscription à :
Articles (Atom)