samedi, décembre 31, 2011

Who notes the note-takers?

Tony Buzan is the inventor of the Mind Map memory tool. He is also an educational consultant and advices to governments and government organisations in England, Singapore, Mexico and Australia. His products have are used in 150 countries in 30 languages the most recent is the iMindMap software, now in its 5th generation, released in 2006 and available for PC, iPad and iPhone.Tony Buzan developed the Mind Map during his time in education, noticing inconsistencies between actual intelligence and what the education system perceived as intelligence. “My best friend could identify by flight pattern any living thing…and the school was calling him stupid and me bright…because I got 100% in a nature test…It suddenly struck me that the school system was not identifying who was smart and who was not smart correctly…so I began to investigate the way that I thought”.At university Tony noticed his grades begin to drop and realised that “standard notes in blue and black ink written on lines” were letting him down.“I went to the librarian and said ‘I need a book on how to use my brain’. She said ‘the medical section is over there’”. Realising that the research on the way we learn had significant gaps, Tony began to “investigate the nature of note taking”:“I used to take the key ideas and put them on memory cards. Over the years I added colour…then began to develop images…I studied the great thinkers and what kind of notes they made, especially Leonardo Da Vinci and Thomas Edison…The MindMap evolved through the late 50s…and came into its own with the BBC television series in 1974. The rest is history…in the making”.The MindMap has come a long way since then and now has its own software, iMindMap, which Tony describes as “a dream come true”. The basic package is available free with three further upgrades costing £29.00 between £149. Whether Mind Mapping on your iPad or on paper with a new pack of Crayolas, Tony has advice to bear in mind. “Make sure you use colour well. Develop the idea of thinking in images and making connections. Keep yourself physically, especially aerobically, fit. If you’re unfit…your brain will be getting low grade fuel”.The technique’s focus on key words and colour has made it particularly useful to those with learning difficulties such as dyslexia and ADHD. “The problem for dyslexic students is that they have difficulties with…grammatical structure and words…The MindMap immediately eliminates 90% of that by focusing on images and key words…which are only 10% of the notes that people normally take”.Tony says that the Mind Map’s utility is not restricted to any discipline. “Chemistry students use them, History students use them, Law students use them…The Mind Map is fundamentally a thinking tool…so whatever subject you’re dealing with the Mind Map will be useful”. Described as ‘the Swiss army knife of the brain’, it’s the Mind Map’s versatility that has allowed the Mind Map to explode into such a global phenomenon. “Not just in the UK but throughout the world. In Singapore they are now part of the standard curriculum. In Malaysia they are, They are becoming so in China. There are a lot in New Zealand and Australia…Mexico now has a university called TecMilenio which has 40 campuses and every one of their roughly 40,000 students has to do an 100 hour course in Mind Mapping…It’s already becoming [similar in the UK]. Many many schools are using it. LSE uses it”.Buzan forsees a very promising future for the Mind Map.“At the moment it seems to be accelerating exponentially so I would say that in ten years Mind Mapping will be the standard student form of note taking…It will be in kindergarten, it will be in secondary and tertiary education and throughout society and business…It will be to the 21st Century what linear note taking was to the industrial age”.It’s definitely worth giving MindMapping a try, especially since the basic software package is free and easy to use. Any freshers struggling with scrawling out reams of notes from a text or failing to make anything from what you jotted down in a trance during a lecture, this may be the answer to all your problems.

Dom Gilchrist

De plus en plus d'amateurs s'amusent à bricoler... le vivant

De plus en plus d'amateurs s'amusent à bricoler... le vivant: Avec les techniques de la biologie moléculaire, il devient de plus en plus facile de refaçonner le vivant. Des amateurs, dans les garages ou dans les labos, rivalisent d'ingéniosité pour créer des bactéries aux propriétés parfois étonnantes.

La biologie tend-elle à devenir un jeu de Lego avec des briques biologiques ? Les méthodes du « do it yourself » (DIY), du bidouillage isolé dans un garage, qui ont permis des percées dans l'informatique, s'étendent aussi aux...

vendredi, décembre 30, 2011

Et pourquoi pas des éoliennes volantes ?

Et pourquoi pas des éoliennes volantes ?: Les énergies renouvelables ont le vent en poupe mais restent assez chères. Certains ont des idées : un ingénieur américain a utilisé sa passion pour le kite-surf pour développer une éolienne volante produisant de l'électricité à moindre coût.

Le vent est actuellement exploité pour produire de l'électricité grâce à des éoliennes. Cependant, des contraintes techniques limitent leur taille. Bien qu'elles puissent atteindre 100 m de hauteur au niveau du rotor et que les pales...

Les pigeons peuvent ordonner les chiffres

Les pigeons peuvent ordonner les chiffres: Aussi bien que les macaques, les pigeons sont capables d'apprendre les règles numérales basiques, à savoir l'ordre des chiffres. Pourtant, on pensait cette capacité réservée aux primates. Il n'en est rien. L'expression « cervelle de moineau » pourrait bien perdre son sens...

Les pigeons savent-ils compter ? Presque... Une équipe de chercheurs de l'université d'Otago, en Nouvelle-Zélande, vient de montrer qu'ils étaient capables de trier des ensembles en fonction du nombre d'articles...

De la lumière créée à partir du vide

De la lumière créée à partir du vide: Des chercheurs de l'Université de technologie Chalmers, à Göteborg, en Suède, ont réussi à créer de la lumière à partir du vide, phénomène de mécanique quantique prédit il y a plus de 40 ans mais...

jeudi, décembre 29, 2011

De mystérieux fossiles lèvent le voile sur l'origine des animaux

De mystérieux fossiles lèvent le voile sur l'origine des animaux: Des fossiles vieux de plus de 570 millions d'années livrent de nouveaux secrets sur l'évolution des animaux à partir d'une cellule unique. Ces fossiles étranges ne seraient ni des bactéries, comme certains le pensaient, ni des cellules animales, comme d'autres le croyaient. Mais alors que sont-ils ?

Doushantuo est une région du Sud de la Chine où des fossiles composés d'amas cellulaires et âgés de 570 millions d'années ont été découverts en 1998. Pour certains chercheurs,...

Paul Davies veut chercher un monolithe noir ET sur la Lune

Paul Davies veut chercher un monolithe noir ET sur la Lune: Le physicien théoricien et exobiologiste Paul Davies, usant de son poids médiatique, veut donner une nouvelle impulsion à une vieille idée : rechercher d'anciennes traces de civilisations ET sur la Lune. Et ce, propose-t-il, grâce à la science citoyenne, les internautes scrutant les données de la sonde lunaire LRO.

Paul Davies est très connu dans le monde anglo-saxon, et pas seulement parce qu'il a été, comme Bernard d'Espagnat, le récipiendaire du prix Templeton....

Kinect Fusion et Lightspace, les projets futuristes de Microsoft

Kinect Fusion et Lightspace, les projets futuristes de Microsoft: Le laboratoire de recherche de Microsoft a ouvert ses portes pour présenter quelques-unes de ses nouvelles inventions. Au programme : de la réalité augmentée grâce à l'inépuisable Kinect et le projet Lightspace, pour travailler sans bureau mais avec les mains.

Quoi de neuf chez Microsoft ? Pour le savoir, rien ne vaut une visite de la tour 99 de son campus de Redmond. C'est l'un des plus vieux laboratoires de l'éditeur. À l'intérieur, les chercheurs se grattent les méninges pour...

lundi, décembre 26, 2011

Un biocarburant directement produit par la photosynthèse

Un biocarburant directement produit par la photosynthèse: En modifiant astucieusement les rouages de la photosynthèse réalisée par des bactéries, des chercheurs sont parvenus à leur faire fabriquer de l'hydrogène gazeux. De quoi transformer ces micro-organismes en usines à fabriquer du biocarburant utilisable dans les piles à combustible.

Pour produire le dihydrohène (H2) utilisable dans les piles à combustible génératrices d'électricité, à qui on promet de nombreuses utilisations, comme la voiture électrique, les scientifiques explorent...

Une bactérie produisant des nano-aimants

Une bactérie produisant des nano-aimants: Un consortium international, impliquant des chercheurs du CEA (1), du CNRS et des universités de la Méditerranée et Pierre et Marie Curie, ainsi que des chercheurs du DOE (2) à Ames (USA), des...

vendredi, décembre 23, 2011

Dopage génétique : inhiber une protéine pour devenir supermusclé

Dopage génétique : inhiber une protéine pour devenir supermusclé: En inhibant une protéine nommée NCoR1, des chercheurs ont métamorphosé des souris, les rendant deux fois plus musclées. S'il s'agit bel et bien d'un moyen rapide et efficace pour gagner de la masse musculaire, les personnes âgées ou les myopathes pourraient en tirer des bénéfices. Mais certaines dérives sont également possibles...

Si la performance peut paraître grotesque, elle pourrait faciliter bon nombre d'existences, notamment celle de toutes les personnes atteintes de myopathie. La célèbre...

jeudi, décembre 22, 2011

IBM Five in Five : 5 innovations qui changeront nos vies d'ici 5 ans

IBM Five in Five : 5 innovations qui changeront nos vies d'ici 5 ans: Chaque année, depuis six ans, IBM dévoile son « Five in Five », une liste de cinq innovations majeures censées se produire dans les 5 ans qui viennent. Cette année, ses prédictions se concentrent sur les notions de télépathie pour contrôler nos appareils du quotidien, de biométrie pour s'identifier mais aussi sur la fin du spam.

IBM vient de présenter son « Five in Five », autrement dit sa liste des cinq innovations sélectionnées parmi les travaux en laboratoires de recherche de...

Des planètes ont survécu à leur ingestion par une géante rouge

Des planètes ont survécu à leur ingestion par une géante rouge: Les recherches sur les exoplanètes conduisent de surprise en surprise. Chaque nouvelle découverte défie les modèles élaborés à partir des connaissances tirées de notre système solaire et contribue...

mercredi, décembre 21, 2011

Stonehenge : l'origine des pierres bleues enfin connue...

Stonehenge : l'origine des pierres bleues enfin connue...: Stonehenge est certainement l'ensemble mégalithique le plus célèbre au monde. Il doit notamment sa célébrité à l'importance de la taille des mégalithes qui le composent et à sa sophistication architecturale. Alors que les scientifiques résolvent peu à peu les énigmes liées à sa structure et à sa fonction au cours de l'histoire, des incertitudes planaient encore jusqu'il y a peu sur la provenance de certaines des pierres composant l'édifice. Jusqu'il y a peu... car deux chercheurs viennent de...

lundi, décembre 19, 2011

OGM : s'en nourrir ne serait pas nocif

OGM : s'en nourrir ne serait pas nocif: Les OGM font débat, pour des raisons éthiques, socioéconomiques ou sanitaires. Mais une étude française vient d'apporter la preuve que les OGM ne sont pas toxiques pour les organismes qui s'en nourrissent. Pourtant des voix dissonantes persistent.

Un des grands débats des OGM porte sur la question de leur dangerosité sanitaire. Si les anti-OGM semblent persuadés de leur danger, ils ont pourtant du mal à trouver des études scientifiques sérieuses l'attestant. Depuis quelques...

mercredi, décembre 07, 2011

Ordinateur quantique : des diamants intriqués à température ambiante

Ordinateur quantique : des diamants intriqués à température ambiante: Un groupe de physiciens vient de montrer qu'il est possible de produire des états intriqués avec deux diamants macroscopiques... à température ambiante ! Voila de quoi doper le moral de ceux qui pensent que malgré l'obstacle de la décohérence, un ordinateur quantique performant est réalisable et existe peut-être déjà, le cerveau humain.

Découvrez notre dossier sur l'ordinateur quantique

Le concept d'ordinateur quantique, introduit il y a plusieurs décennies par Richard...

mercredi, novembre 30, 2011

Une connexion sans fil aussi rapide qu'avec la fibre optique

Une connexion sans fil aussi rapide qu'avec la fibre optique: Alors que la fibre optique est encore en cours de déploiement en France, des chercheurs japonais de l'université d'Osaka et le fabricant de composants électroniques Rohm sont parvenus à créer une...

mardi, novembre 29, 2011

Une nouvelle génération d'arme hypersonique pour les États-Unis

Une nouvelle génération d'arme hypersonique pour les États-Unis: Depuis le début des années 2000, les États-Unis se sont lancés dans le développement de technologies hypersoniques. Après avoir testé des engins volants avec plus ou moins de succès, ils viennent de réussir l'essai d'une arme hypersonique capable d'atteindre n'importe quel point du Globe en moins d'une heure.

Le 18 novembre, les forces spatiales américaines ont lancé avec succès, à l'aide d'une fusée, une bombe manoeuvrable hypersonique, c'est-à-dire volant au moins à Mach 5 (6.000 km/h) dans...

dimanche, novembre 13, 2011

En image : les lunettes Moverio font flotter les images devant soi

Seiko-Epson vient de montrer une paire de lunettes-écran fonctionnant comme un casque vidéo mais permettant aussi de voir à travers, ce qui en ferait plutôt un afficheur tête haute portable. Ces Moverio BT100 vont prochainement être commercialisées au Japon.

Ces lunettes Moverio BT100, avec leur large surface, leurs 240 grammes et leurs haut-parleurs intégrés, ressemblent à un casque vidéo mais n’en sont pas tout à fait un car le porteur peut voir à travers. On peut y regarder des images, des documents ou des vidéos comme s’ils étaient projetés devant soi, « à 20 mètres de distance sur un écran de 8 mètres », précise Seiko-Epson.

Mais en même temps on peut aussi voir l’environnement, les lunettes présentant un taux de transparence de 80 %. On peut s’isoler davantage en installant un filtre assombrissant, ce qui réduit la transparence à 10 %.

Les images s’affichent d’abord sur deux écrans LCD latéraux de 1,3 cm de diagonale, faisant office de branches. Elles sont ensuite projetées par un guidage optique dans l’épaisseur des verres. La société israélienne Lumus avait présenté en 2007 un modèle semblable utilisant ce principe.

Les lunettes Moverio produisent une image de 960 x 540 pixels, soit le format vidéo qHD. Les deux écrans peuvent afficher des images différentes et donc projeter un film en 3D.

Plutôt un casque vidéo

Ces images proviennent d’un boîtier de 165 grammes, relié aux lunettes par un fil. Contrôlable à l’aide de quelques touches et d’un pavé tactile, il contient une mémoire de 1 Go mais aussi un connecteur pour des cartes SD-HC (donc jusqu’à 32 Go), ainsi qu’une prise micro-USB. Le système d’exploitation, qui n’est autre que la version 2.2 de l’Android de Google, peut aussi se connecter via le Wi-Fi à Internet. L’autonomie annoncée est de 6 heures pour la lecture de vidéos.

Seiko-Epson compte commercialiser ces lunettes à la fin du mois au Japon, au prix d’environ 560 euros (59.800 yens), puis en Europe au début de 2012.

À quoi pourront-elles servir ? Le fabricant les présente apparemment surtout comme un casque vidéo conventionnel, même s’il les baptise afficheur tête haute, les intégrant à cette famille de dispositifs qui montrent des informations diverses sur des écrans transparents, par exemple sur le tableau de bord d’une voiture.


Mais il ne s’agit pas de réalité augmentée, qui impose de filmer l’environnement et d’analyser en temps réel pour ajouter des informations au bon endroit dans l’image. Il faudrait une grosse puissance informatique, et nécessiterait ici une connexion à un ordinateur. L'idée existe cependant et un prototype avait été présenté par Docomo au salon Ceatec 2010.

On ne peut encore que rêver à des lunettes-GPS qui afficheraient les indications en temps réel devant les yeux du conducteur, du pilote d’avion ou du barreur en train de chercher le bon ponton à l’arrivée au port.

Anticythère, machine surgie du fond des temps

Découverte en 1900 par des pêcheurs d'éponges, parmi des centaines d'objets provenant d'un navire romain ayant fait naufrage près de l'île d'Anticythère, la machine d'Anticythère est, à ce jour, le plus vieux mécanisme astronomique à engrenage connu et daterait du IIème siècle av. J.-C.

Cette découverte n'a cessé, depuis lors, d'intriguer les scientifiques et les historiens, voir le documentaire de présentation d'Anticytère http://www.arts-et-metiers.net/musee.ph ... ra&flash=f

Grâce aux instruments d'études modernes (scanner), ce sont près de 82 fragments conservés au Musée national archéologique d'Athènes qui ont permis de mettre au jour les éléments constitutifs du mécanisme: plus de 30 roues dentées, cadrans et autres surfaces en bronze sont couverts d'inscriptions astronomiques et mécaniques. Il pourrait s'agir d'un appareil montrant les positions du Soleil, de la Lune et des planètes par rapport aux calendriers civil et astronomique.

La machine d'Anticythère représente une synthèse des connaissances astronomiques et mécaniques de l'époque, mais qui en est le concepteur ? Combien d'exemplaires ont existé ? Par quelles subtilités mathématiques et mécaniques a-t-on pu atteindre un tel degré de précision ? Toutes ces questions restent encore à élucider.

Dans le cadre de l'exposition Anticythère, l'énigmatique machine surgie du fond des temps présentée au Musée des arts et métiers, avec le soutien de Hublot, manufacture horlogère suisse. Girolamo Ramunni, professeur au Cnam, commissaire de l'exposition, guidera une visite à l'issue de la rencontre le jeudi 17 novembre 2011 - Horaire: 18 h 30 - 20 h 00 au Musée des arts et métiers à Paris.

Information et inscription: http://arts-et-metiers.net/musee.php?P= ... ra&flash=f

(c) http://www.techno-science.net/?onglet=news&news=9769
(c) http://rdd.me/08uzvwxy

samedi, novembre 12, 2011

Le justicier de Toutankhamon

C’est un célèbre occultiste, et non une malédiction, qui aurait tué les gens liés à la découverte du tombeau du pharaon.

toutan.JPG
© Keystone


La malédiction de Toutankhamon – le pharaon mort enfant en 1327 avant notre ère – n’est qu’un mythe, affirme l’historien anglais Mark Beynon. Selon lui, au moins sept des 27 personnes décédées de mort non naturelle après la découverte de son tombeau dans les années 1920 ont été assassinées par Aleister Crowley, un célèbre occultiste britannique.
Mark Beynon a refait l’enquête sur les six victimes supposées de la malédiction qui ont été retrouvées sans vie à Londres et il a constaté qu’avant qu’elles ne passent de vie à trépas, l’ombre d’Aleister Crowley planait à proximité. C’est le journal intime de ce dernier qui a mis la puce à l’oreille de l’historien, signale The Telegraph.


Fasciné par Jack l’Eventreur
Aleister Crowley s’adonnait à Thelema, un culte sataniste qu’il a lui-même inventé, rappelle M. Beynon dans son livre* qui vient de paraître. Cette religion – qui a toujours des adeptes (voir www. thelema.org) – est basée sur une triade cosmologique impliquant l’écrivain français François Rabelais et les croyances de l’ancienne Egypte. L’occultiste était par ailleurs un adepte des drogues et prônait une sexualité débridée.
Crowley a considéré l’exploration de la tombe du pharaon comme un sacrilège. Un affront que cet homme fasciné par Jack l’Eventreur, le tueur en série qui a terrorisé Londres à la fin du XIXe siècle, se devait de laver dans le sang.
Accusé d’avoir assassiné ses serviteurs quand il vivait en Inde, Crowley a commencé à passer à l’acte le 4 novembre 1923, soit un an jour pour jour après l’ouverture le 4 novembre 1922 de la chambre funéraire de Toutankhamon par l’archéologue Howard Carter. Sa première victime est morte à l’heure exacte de l’ouverture en grande pompe du tombeau et la dernière, le conservateur du British Museum en charge des antiquités égyptiennes, en 1930.
Les meurtres ont été ingénieusement organisés puisqu’à ce jour personne n’a soupçonné Crowley de quoi que ce soit. Selon Mark Beynon, il aurait notamment persuadé une de ses maîtresses de commettre certains des assassinats, notamment celui de son propre mari, un prince égyptien qui a été l’un des premiers à visiter le tombeau. La jeune femme a abattu son époux en plein jour dans le lobby de l’hôtel le plus luxueux de Londres, le Savoy. Ce qui ne l’a pas empêchée de sortir libre du tribunal, car les juges anglais partageaient à l’époque l’avis général qu’un Arabe, fût-il prince, ne pouvait que maltraiter sa femme. Les autres meurtres ont été en revanche commis de façon plus discrète.


* «London’s Curse: Murder, Black Magic and Tutankhamun in the 1920s West End», par Mark Beynon.


mercredi, novembre 09, 2011

Créez votre propre jeu d’aventure

Créez votre propre jeu d’aventure:

Aaaah qu’est-ce que j’ai pu kiffer les jeux point and click de ma jeunesse… Day of the Tentacle, Indiana Jones, Monkey Island pour ne citer qu’eux. De véritables aventures, avec de vraies énigmes à résoudre et un petit côté humour décalé que j’adorai.


Bref, tout ça c’est fini (snif)… Ou presque, car un projet baptisé AGS pour Adventure Game Studio va vous permettre de créer vos propres jeux point and click !


Oui, vous allez pouvoir avec cet IDE créer vos tableaux, placer les objets, définir la zone d’action, établir le scénario, créer vos personnages, scripter les dialogues..etc.


intro4 210 Créez votre propre jeu daventure


AGS fonctionne uniquement avec Windows (et .NET). Pour mieux vous rendre compte des possibilités de cet environnement de développement, il y a pas mal de tutos vidéos ici. Mis à part cela, AGS bénéficie d’une grande communauté et d’une documentation bien complète.


L’outil n’est pas nouveau, mais il continue à être mis à jour régulièrement, ce qui en fait un hit des click n play like. Pour mieux vous rendre compte des possibilités qui vous sont offertes, je vous invite à naviguer dans les jeux développés avec AGS qui pour certains sont de vraies petites merveilles. Voici quelques exemples :


beta robot lab6 Créez votre propre jeu daventure


Draculator II


final36 Créez votre propre jeu daventure


Arden’s Vale


curgn5 Créez votre propre jeu daventure


Chance of the dead


Maintenant, vous n’avez plus l’excuse de ne pas savoir coder pour enfin réaliser le jeu épique de vos rêves… Celui par exemple, où un petit garçon geek enfile ses lunettes de soleil afin de sauver la planète d’un complot intergalactique… hmm…. mais je m’égare !


Bref, Adventure Game Studio c’est par ici.


[Source]


flattr this!



jeudi, novembre 03, 2011

Le vieillissement cellulaire est réversible !

Le vieillissement cellulaire est réversible !: Une équipe de biologistes de l'Inserm a rendu leur jeunesse à des cellules humaines prélevées chez des personnes âgées et atteintes de sénescence : le vieillissement cellulaire serait donc réversible. Jean-Marc Lemaître, qui a mené cette étude, explique à Futura-Sciences les clés de cette étonnante découverte.

Jusqu'à présent, les biologistes savaient rendre leur pluripotence , c'est-à-dire la capacité à se différencier, à des cellules qui étaient...

mardi, octobre 18, 2011

La méthode Coué en quête de reconnaissance

Luc Teyssier d’Orfeuil, coach et cooganisateur du Congrès


« Tous les jours, à tous points de vue, je vais de mieux en mieux »… En ce début septembre, la maxime d’Émile Coué résonne dans l’amphithéâtre de l’université de pharmacie de Nancy. Et elle résonnera tout au long de ces trois jours consacrés à la méthode qu’il mît au point, il y a près de 100 ans. Pharmaciens, médecins, psychothérapeutes, coaches ou simples militants venus de France, de Suisse, d’Autriche ou d’Allemagne, ils sont un peu plus d’une centaine à assister à ce 1er Congrès International sur la Méthode Coué. Objectif affiché : rendre hommage à l’œuvre d’Émile Coué ; mais aussi et surtout, réhabiliter une méthode qui, selon eux, n'est pas prise suffisamment au sérieux en France.
Gilbert Grellet, journaliste à l’AFP
« C’est assez surprenant, la France est le seul pays au monde où l'on ironise sur Coué et sa méthode, juge Gilbert Grellet, journaliste à l’AFP et ardent défenseur de la méthode. Au lieu de voir une avancée dans le domaine de la pensée positive et de l’autosuggestion, on la caricature, on la présente comme la politique de l’autruche, en disant que tout va bien quand tout va mal. »
Pourquoi ? Gilbert Grellet tient une théorie sur la question : les journalistes sont ignorants, ils ne savent pas ce qu’est la méthode Coué. « Il s’est instauré après la Seconde Guerre mondiale une caricature de la méthode que nous avons beaucoup de mal à combattre. C’est ce que nous essayons de faire à travers ce congrès. »
Autosuggestion consciente
Paru en 1922, l'ouvrage d'Emile Coué connait un franc succès, en particulier aux Etats-Unis.
Inaugurant la séance, André Rossinot, maire de Nancy, déplore lui aussi cet état de fait. Couétiste de longue date, il rappelle que ces railleries n’ont pas toujours eu cours. Car la méthode, avant de s’éteindre face à la psychanalyse, a eu son heure de gloire, notamment entre les deux guerres.
C’est en effet en 1922 qu’Émile Coué publie l’ouvrage qui le rendra célèbre : « La maîtrise de soi-même par autosuggestion consciente ». Inspiré par des études sur l’hypnose et l’inconscient, le pharmacien y expose les grands principes de sa méthode.
Antoine Onnis, président de l'association Suivre Coué, à Venelles, près d'Aix-en-Provence
Selon lui, toute idée présente durablement dans l’esprit finit par se fixer dans notre inconscient pour devenir réalité. Il estime également que ce travail doit pouvoir se faire par soi-même.
En pratique, il préconise ainsi de répéter vingt fois, matin et soir, la phrase suivante : « Tous les jours à tous points de vue, je vais de mieux en mieux ». « C’est la formule parfaite, explique Antoine Onnis, président de l’association Suivre Coué, à Venelles, près d'Aix-en-Provence. Car elle permet de s’attaquer à tous les problèmes de la vie et à tout moment. »
Démonstration
"Cet homme est léger comme une plume, je peux le soulever"
Dans l’amphithéâtre de l’école de Pharmacie, Klaus Dieter Ritter, couétiste allemand et ingénieur en mécanique, propose de démontrer la puissance de la méthode. Il demande à quatre femmes présentes dans la salle de soulever un homme assis sur une chaise avec seulement deux doigts. C’est l’échec : Arnaud (c’est son nom) est visiblement trop lourd. Mais après avoir répété vingt fois « Arnaud est léger comme une plume, je peux le soulever », les quatre volontaires le soulèvent sans hésitation à 1 mètre de hauteur. Applaudissements.
S’ensuivent alors plusieurs autres expériences durant lesquelles tout l’amphithéâtre est sollicité : séance de pendule réagissant à nos pensées, contorsions censées être impossibles… Face aux démonstrations de ce prêcheur allemand, une étrange ambiance – quasi mystique – semble envahir la salle.
Caution scientifique
Pourtant, si certains semblent impressionnés, d’autres sont plus réservés face ce genre de démonstration. Car les défenseurs de la méthode Coué sont sans doute plus à la recherche d’une reconnaissance scientifique que de miracles.
Jean-Paul Tanguy, sophrologue et président du Cercle Coué de Brest, tente ainsi de démontrer comment la suggestion – l’un des principes de la méthode Coué – peut modifier positivement notre cerveau et notre perception du réel. Des expériences menées aux Etats-Unis montrent ainsi que sous l’effet de la pensée et de la répétition, les connexions entre nos neurones se réorganisent.
Patrick Lemoine, psychiatre, spécialiste de l'effet placebo
Puis c’est au tour du psychiatre Patrick Lemoine d’évoquer la force du placebo (et de son antagoniste, le nocebo*). En effet, pour la communauté couétiste, Emile Coué est ni plus ni moins l'inventeur de ce concept aujourd'hui très en vogue. L'histoire dit, qu'un jour, pour se débarrasser d'un client grincheux et sans ordonnance, Emile Coué proposa une prescription d'eau distillée. Une semaine plus tard, le patient vint remercier le pharmacien pour l'efficacité de son médicament.
* Effet placebo dommageable pour l'individu. Patrick Lemoine vient de publier "Le Mystère du nocebo", chez Odile Jacob.
Une méthode en mal de reconnaissance
Patrick Lemoine, psychiatre, spécialiste de l'effet placebo
Autosuggestion, pensée positive, effet placebo… la méthode Coué semble s’appuyer sur des concepts modernes et reconnus. Pourtant, comme le rappelle l’historien Hervé Guillemain qui lui a consacré un ouvrage*, l’autosuggestion positive n’a jamais fait l’objet d’aucune publication scientifique. Et le renouveau présenté lors de ce congrès – qui s’inscrit dans une tentative de réhabilitation remontant aux années 90 – semble très exagéré.
Le réseau Coué est particulièrement restreint en France. Il n’existe que deux associations, à Brest et près d’Aix-en-Provence. La méthode est complètement ignorée dans les milieux psychiatriques. Et elle reste très marginale chez les psychothérapeutes. D’ailleurs, plusieurs professionnels interrogés lors du congrès avouent ne pas y avoir recours. Ils lui reconnaissent un intérêt historique mais lui préfèrent des méthodes plus ciblées et plus modernes, privilégiant le dialogue avec le patient.
« Ce qui est plus difficilement quantifiable, reconnaît l’historien, ce sont les pratiques individuelles. La méthode est aisément accessible, elle est simple, gratuite, et par certains côtés, elle rappelle les « thérapies brèves » comme les thérapies comportementales qui ont actuellement le vent en poupe. Peut-être suit-elle ce mouvement. » Pour les Couétistes réunis à Nancy, ce renouveau ne fait aucun doute. Mais l'important n'est-il pas justement d'y croire ?
* La Méthode Coué, Histoire d'une pratique de guérison au XXe siècle. Hervé Guillemain, Ed. du Seuil 

samedi, octobre 15, 2011

Une mystérieuse machine antique inspire la marque Hublot

Une exposition dévoile le plus vieux mécanisme astronomique à rouages connu. La manufacture horlogère de Nyon y présente aussi sa version miniaturisée
Caroline RiederParis

«C’est comme si Indiana Jones avait découvert un téléphone portable dans un sarcophage égyptien. » Responsable du développement chez Hublot, Mathias Buttet ne manquait pas d’emphase, lundi à Paris, pour décrire l’énigme que représente le mécanisme d’Anticythère. L’étrange machine et sa réinterprétation par la marque horlogère font l’objet d’une exposition au Musée des arts et métiers. Elles étaient présentées à une foule de journalistes intrigués venus d’Europe, de Russie ou même des Etats-Unis.


Surgie du fond de la mer
Tout commence en 1901, lorsque des pêcheurs d’éponges remontent le trésor d’un navire romain ayant fait naufrage en l’an 87 av. J. -C. , près de l’île grecque d’Anticythère, entre le Péloponnèse et la Crète. Au milieu de somptueuses statues antiques, une drôle de plaque de bronze intrigue. Elle est conservée précieusement au Musée national archéologique d’Athènes avec 81 autres fragments semblant appartenir au même ensemble. Dès 2005, les scientifiques parviennent à sonder leurs entrailles grâce à un scanner de 10 tonnes.
Le groupe formé d’astronomes, d’historiens des sciences et de philologues anglais, grecs et américains découvre avec stupeur de nombreuses roues dentées invisibles à l’œil nu. Grâce à des inscriptions contenues dans les fragments et formant une sorte de mode d’emploi, ils parviennent à reconstituer un objet totalement inconnu. Soit une drôle de boîte haute de 33 cm avec deux faces ornées de cadrans et de complexes rouages à l’intérieur. En l’actionnant grâce à une manivelle, elle peut rendre compte des positions de la Lune et du Soleil dans le calendrier du zodiaque, des phases de la Lune et même de ses éclipses. Et cela sur des décennies, en se basant sur le calendrier solaire égyptien.
Jusqu’à il y a peu, il était communément admis que les mécanismes astronomiques à rouages remontaient à la Renaissance. Or «tout concorde pour dater la machine. On estime qu’elle remonte aux années 150 – 100 av. J. -C. L’analyse métallurgique et, surtout, les inscriptions, la langue, le style, les expressions sont typiques de cette époque», détaille Yanis Bitsakis, physicien et historien des sciences, membre du projet de recherche sur le mécanisme d’Anticythère.
Mais qui a fabriqué cette machine et à quoi pouvait-elle donc bien servir? Pour l’heure, les scientifiques imaginent une tentative pour synthétiser toutes les connaissances astronomiques de l’époque, mais les recherches se poursuivent.
Même sans réponse, toutes ces questions, et surtout ces engrenages si précis, ont inspiré Mathias Buttet. Lorsqu’il découvre la nouvelle dansScience et Vie, il approche l’équipe de recherche, avec l’idée de miniaturiser la machine. «On a passé six mois à la comprendre, on l’a même reconstituée de manière virtuelle. Le mécanisme est complexe et il n’a rien à voir avec les autres complications des montres, c’est inconnu dans l’horlogerie. »
«Ceci n’est pas une montre»
Tout a été respecté à la lettre, avec un ajout: «Nous avons remplacé la manivelle sur le côté par un mouvement d’horlogerie, qui permet d’entraîner les rouages. » Au final, le nouvel objet est si petit qu’il peut se porter au poignet. Il donne l’heure mais ne sera pas commercialisé dans une montre. «C’est un mouvement qui n’a aucune fonction contemporaine. Aujourd’hui, personne n’utilise le calendrier égyptien ni le cycle de Saros(ndlr: cycle des éclipses). Tout l’exploit était dans la miniaturisation. »
Note:Exposition au Musée des arts et métiers, à Paris,jusqu’au 1er juillet 2012. www. arts-et-metiers. netFilm explicatifréalisé par le Lausannois Philippe Nicolet sur cette étonnante découverte sur www. nvp3d. com

http://archives.24heures.ch/VQ/LAUSANNE/-/article-2011-10-1170/une-mystactuC3actuA9rieuse-machine-antique-inspire-la-marque-hublot

http://www.hublot.com/fr/NEWS/1925_hommage-au-plus-ancien-calculateur/#/NEWS/1925

mercredi, octobre 05, 2011

mercredi, septembre 28, 2011

Une nouvelle pièce maîtresse pour l'ordinateur quantique


Pierre Masse - Université de Sherbrooke

Le professeur Michel Pioro-Ladrière devant son futur laboratoire expérimental d'informatique quantique.
Photo: Matthew Ross, QuantumWorks
Une équipe de recherche internationale a mis au pointun dispositif semi-conducteur qui pourrait être à la base de la fabrication d'un ordinateur quantique. Il s'agit d'une double boîte quantique emprisonnant deux électrons, dont l'orientation des spins — une propriété magnétique fondamentale — est sélectivement contrôlée par un microaimant.

Le professeur Michel Pioro-Ladrière du Département de physique de l'Université de Sherbrooke, aidé de ses collègues au Japon et en Autriche, est à l'origine de la fabrication du dispositif qui permet d'opérer des calculs quantiques. Son fonctionnement est décrit dans la version en ligne du journal Physical Review Letters du 26 septembre 2011.

"Nous avons réussi à préparer les électrons pour le calcul, à agir sélectivement sur l'orientation de leurs spins, à les coupler pour opérer l'algorithme choisi et finalement à lire le résultat, résume le professeur Pioro-Ladrière. C'est la première fois que le tout est combiné dans une seule expérience", précise le physicien.

Depuis la découverte, il y a dix ans, des premières boîtes quantiques confinant des spins électroniques, les spécialistes considèrent cette technologie comme une des plus prometteuses pour l'avenir de l'informatique quantique. En effet, l'information à traiter (0 ou 1) peut s'encoder par l'orientation de spins diamétralement opposés qui se manipulent relativement bien. Mais il manquait jusqu'à maintenant une expérience complète pour prouver sa faisabilité. "Nous avons apporté la preuve de principe que le dispositif fonctionne et qu'il permet de faire les calculs essentiels aux algorithmes quantiques", affirme le chercheur.

Une stabilité à optimiser

L'équipe a fabriqué cette boîte quantique dans un matériau semi-conducteur couramment utilisé pour les téléphones cellulaires, ce qui faciliterait le passage vers une production industrielle éprouvée. Actuellement, sa stabilité, soit le temps disponible avant de perdre l'information quantique, est encore trop faible pour un ordinateur quantique fonctionnel. Mais le physicien croit qu'en raison de son échelle de fonctionnement microscopique (un spin par électron), les améliorations potentielles sont prometteuses.


Une partie de l'équipe de recherche du professeur Pioro-Ladrière devant la Faculté des sciences de l'Université de Sherbrooke.
Photo: Matthew Ross, QuantumWorks
"Notre équipe cherche déjà à optimiser le design des microaimants et à diminuer l'intensité des champs magnétiques des noyaux autour des électrons qui perturbent la cohérence quantique nécessaire", explique le spécialiste.

Il existe déjà un autre dispositif plus stable: le circuit électrodynamique quantique fabriqué avec desmatériaux supraconducteurs, aussi appelé bus quantique. Par contre, son échelle de fonctionnement macroscopique n'offre peut-être pas le même potentiel de développement qu'un système à l'échelle microscopique, croit le professeur Pioro-Ladrière.

"L'avenir de l'ordinateur quantique est peut-être une combinaison de boîtes quantiques et de bus quantiques comme ceux développés par mon collègue Alexandre Blais, professeur au même Département, anticipe le professeur Pioro-Ladrière. Ainsi, nous aurions le meilleur des deux mondes."

Dans quelques mois, le professeur Pioro-Ladrière aura un atout supplémentaire pour poursuivre son travail. Il ouvrira un nouveau laboratoire à la Faculté des sciences. " Ce sera le premier laboratoire expérimental d'informatique quantique au Québec", précise-t-il. De plus, avec l'aide du Centre de recherche en nanofabrication et nanocaractérisation de l'Université de Sherbrooke (CNR2), son équipe pourra directement fabriquer et manipuler des circuits quantiques à Sherbrooke. Ses recherches, et celles de ses collègues de l'Équipe de recherche en physique de l'information quantique (ÉPIQ), permettent de prédire des développements prometteurs pour l'informatique quantique à Sherbrooke.

Pour conclure, le chercheur rappelle que le Canada s'est taillé une place de choix ordre dans le domaine. Pour preuve, l'inventeur de la toute première boite quantique, maintenant utilisée par la plupart des groupes de recherche dans le monde, était son directeur de recherche de maitrise à Sherbrooke : Andrew Stanislaw Sachrajda du Conseil national de recherches du Canada également professeur associé au Département de physique de l'Université de Sherbrooke.

lundi, septembre 26, 2011

Des transistors à protons pour s'interfacer avec des cellules vivantes

Peut-on imaginer une symbiose entre des cellules vivantes et des composants électroniques ? Peut-être. C'est une possibilité – lointaine – qui émerge des travaux sur une sorte de transistor fonctionnant non pas avec des électrons mais avec des charges positives, comme dans bien des tissus vivants. D'ailleurs, le matériau de base de ce transistor provient... de la plume du calmar.

Les signaux électriques dans les organismes biologiques sont, en général, conduits par des ions de charge positive, des cations. Ainsi, le potentiel d'action des cellules nerveuses fait intervenir des ions sodium (Na+), potassium (K+) et parfois du calcium (Ca2+). On sait tout de même que l'anion chlorure (Cl-) joue un rôle majeur dans les potentiels d'action de certaines algues, alors que cet ion intervient de façon négligeable dans les potentiels d'action de la plupart des animaux.

On ne peut s'empêcher de penser au célèbre auteur de science-fiction (SF), Isaac Asimov, qui a introduit le concept de cerveau positronique dans ses nouvelles et romans mettant en scène des robots pensants. Les positrons étant les antiparticules des électrons, et donc de charge positive, une « électronique » positronique est une bonne idée pour un roman... Cependant, même si l’on sait fabriquer de l’antimatière en accélérateur et même si la médecine utilise la tomographie par émission de positrons, ou TEP (pour cartographier l'activité métabolique d'un organe), il reste tout de même difficile d’imaginer une véritable électronique qui ferait appel à l’antimatière.

Pourtant, à défaut d’envisager émuler un cerveau humain avec un cerveau positronique qui serait capable de passer le test de Turing, il serait intéressant de disposer de composants électroniques fonctionnant avec des charges positives, des protons ou des cations plus exactement. Pour réaliser un cyborg ou simplement réaliser un bon interfaçage entre des cellules vivantes et un composant « cationique », ce serait un atout.

C’est précisément ce que viennent de réaliser des chercheurs de l’université de Washington en mettant au point un transistor utilisant des courants de protons. Les détails de leurs travaux sont exposés dans un article de Nature Communications (donné en lien plus bas).

Un transistor encore au stade du laboratoire

Ils sont partis d’un matériau biologique provenant de la modification du chitosane, un polyoside produit par désacétylation chimique ou enzymatique de la chitine, le composant de l'exosquelette des arthropodes ou, dans le cas présent, de l'endosquelette des calmars. Le matériau est biocompatible, c’est un très bon conducteur de protons et il a permis de fabriquer un transistor à effet de champ de 5 microns de large, c'est-à-dire en gros l’épaisseur d’un cheveu.

En bonus, il est facile à fabriquer, entre autres parce que l’on peut utiliser des carapaces de crabes ou des « plumes », encore appelées gladius, de calmars, une structure allongée et semi-transparente ayant l'aspect d'une règle de section circulaire en plastique mais très différente des os de seiche.

Alors que les composants électroniques usuels pour des prothèses ou des capteurs biologiques posent des problèmes de conversion entre un signal électronique et un signal ionique, ce transistor à protons, le premier du genre, est donc une étape vers une nouvelle « électronique » qui n’aura plus ces difficultés. Cependant, les applications dans la prochaine décennie ne se feront probablement que sous forme d’interfaces avec des cellules dans un laboratoire. Le prototype actuel ne peut pas être utilisé dans un corps humain.

dimanche, septembre 25, 2011

Des araignées-robots qui réparent vos vaisseaux sanguins

Des chercheurs américains ont déjà réussi à mettre au point des sortes des prototypes de « petites araignées » mécaniques en utilisant des sphères qui ont une taille inférieure au micromètre. Chaque sphère est constituée de deux hémisphères : un hémisphère est en or et l'autre en silicium. On dirait presque des miniboules de Noël.
Les scientifiques ont alors utilisé un procédé pour faire du côté silicium un « moteur osmotique » (par l'intermédiaire d'un gradient de nombre de particules) : le solvant se précipite vers le côté doré de la sphère et la fait ainsi bouger. C'est astucieux. On est capables de contrôler la direction du mouvement de ces sphères grâce à des produits chimiques. On espère pouvoir développer des versions de robots-araignées chimiques qui fonctionneraient non pas sur du solvant, mais avec du glucose (présent dans notre corps). On peut alors imaginer des nanobots qui iraient vers les tissus endommagés depuis la circulation sanguine et qui apporteront un gel de réparation interne sur les vaisseaux endommagés ou pour lutter contre les infections.

Quand le chocolat fait aussi bien que l'exercice physique

Quand le chocolat fait aussi bien que l'exercice physique
Les chercheurs se sont en réalité concentrés sur une partie de nos cellules : les mitochondries (nos « centrales énergétiques cellulaires »). Ils ont remarqué qu'un composé issu de plantes et que l'on trouve dans le chocolat (noir), l'épicatéchine, semble stimuler les mêmes réponses musculaires qu'une activité vigoureuse. L'étude américaine fut réalisée sur des souris. Plus on dispose de mitochondries, plus l'on peut fournir de travail.
On sait que l'exercice aérobique (course, vélo, etc.) accroît le nombre de mitochondries dans les cellules musculaires. La dernière étude montre que le chocolat entraîne la même réponse, en particulier dans le coeur et les muscles du squelette. Cette découverte peut aider à réduire la déperdition de muscles avec l'âge ; les mitochondries décroissent normalement et malheureusement pour nous avec l'âge. Remarque : on a aussi remarqué que les souris qui faisaient du sport ET mangeaient du chocolat obtenaient les meilleures performances.

Moyen-Orient: d'étranges " lignes de Nazca" découvertes

Moyen-Orient: d'étranges " lignes de Nazca" découvertes
Les gigantesques dessins qui furent gravés dans le passé sur le sol désertique du Pérou sont aujourd'hui mondialement connus sous le nom de lignes de Nazca. Des milliers de tracés semblables ont été découverts depuis peu au Moyen-Orient grâce à un scientifique d'une université australienne qui utilisa la photographie aérienne ainsi que les satellites lors de ses recherches. Ces mystérieuses "roues de pierre" dont l'ancienneté remonte à 2.000 ans, repérées en 1927 par un pilote d'avion, apparaissent aujourd'hui dans toute leur ampleur.
Ces représentations au sol que l'on retrouve majoritairement dans les champs de lave varient de rectangulaires à sinueuses, évoquant des cerfs-volants, des animaux ou encore sont tracées de façon tout à fait aléatoire. Ces formes ne semblent aucunement avoir été inscrites en lien avec un quelconque alignement avec les étoiles.
Les spécialistes en histoire ainsi que les chercheurs en archéologie ne peuvent pour l'instant s'expliquer la raison de l'existence de ces mystérieuses formations. Les bédouins locaux qui effectuent des voyages réguliers en traversant La Jordanie, la Lybie, Israël, l'Egypte et l'Arabie Saoudite les qualifient "d'oeuvres de l'homme ancien

mercredi, septembre 14, 2011

Le Web 3.0 : état des lieux et perspectives d'avenir

Voici un intéressant travail d'étudiants de l'Université de Limoges, réalisé sous la direction d'un de leurs enseignants qui nous a aimablement proposé de publier cette étude qui fait bien le tour du sujet traité : le Web 3. Travail universitaire, réalisé selon les normes des synthèses universtaires. Nous n'avons pas voulu modifier le système des références ni leur présentation.
De grands bouleversements actuels et accélérés autour de certaines technologies et services de l’information et de la communication sont en train d’émerger. Comment en est-t-on arrivé là ? Pourquoi l’Internet de demain va-t-il jouer un rôle fondamental pour les entreprises, les services et les particuliers ? Un véritable défi est lancé aux professionnels de l'information. (Poupeau, 2009)

Un petit rappel sur l'histoire et l'évolution du Web en termes de développement s'impose avant de comprendre les enjeux du Web à venir.

1 - Le Web d'hier à aujourd'hui


Même s’il existe des sources permettant de dater les périodes des différentes versions du Web, elles apparaissent parfois contradictoires et il serait certainement plus juste de parler d’ère du Web en considérant les périodes comme des espaces de temps.

1.1 – L’ère du Web 1.0


Le Web 1.0 s'est construit autour d'une forme pyramidale. Les webmasters (au sommet de la pyramide) rédigent et envoient des informations vers les internautes sans que ces derniers puissent réellement répondre, hormis dans les forums ou encore par mails. Dans le Web 1.0, l’internaute est passif. La production et l'hébergement de contenus se font essentiellement par les entreprises (Champeau, 2007 — Gai, 2007). Les pages sont statiques, quelquefois sans réactualisation des informations communiquées. (Liotard, 2008)

1.2 – L’ère du Web 2.0


Dans le Web 2.0 (Guillaud, 2008), les usagers entrent dans un mode actif : au fur et à mesure de leur navigation, les utilisateurs ajoutent du contenu au travers de liens hypertextes et autres tags, annotations ou commentaires. Le contenu est généré par les utilisateurs grâce à l’émergence des blogs, des wikis, des journaux citoyens. Wikipédia (le plus grand wiki du Web), Dailymotion, Youtube, Flickr, Delicious, etc., et tous les nouveaux médias sont de véritables espaces de discussions, d’expression, d'échanges et de débats. L’utilisateur devient alors source d’informations et de créations, le concept d'intelligence collective émerge.

La production de contenu se fait par les internautes et l'hébergement par les entreprises (Champeau, 2007 — Gai, 2007). Les données sont partagées, l'internaute est acteur et fournit ses propres contenus au travers des réseaux sociaux (comme Facebook, MySpace), des blogs, du contenu partagé. S'il le souhaite, grâce au phénomène de syndication (flux RSS), l'internaute peut se tenir au courant en temps réel des dernières parutions sur les thèmes qui l'intéressent.

2 - Le Web 3.0, concepts et technologies


Le logiciel se libère des ordinateurs personnels. De nombreuses applications sont désormais directement accessible "en ligne". Au delà de cet aspect, notre environnement Internet se transforme peu à peu en un véritable écosystème informationnel. Dans l’avenir, nous serons totalement "immergés" dans l'Internet (Liotard, 2008).

2.1 - Les concepts


Le terme Web 3.0 est apparu pour la 1ère fois en 2006 dans un article du blog de Jeffrey Zeldman (Zeldman, 2006), puis avec Tim Berners Lee. Actuellement, trois mondes Internet sont en train de fusionner :

  • l’Internet classique (surfer sur son ordinateur via une connexion filaire ou Wifi) ;
  • l’Internet mobile (sur son téléphone portable, son PDA) (Dupin, 2009) ;
  • l’Internet des objets (Roynette, 2009) : extension de l’Internet dans le monde réel grâce à un système d’étiquettes (Bastide, 2008) associant des URLs aux lieux ou aux objets lisibles par des dispositifs mobiles sans fils ou des puces RFID (Manach, 2009).

2.1.1 Le Web sémantique


Tous les sites sont liés d'une façon ou d'une autre. Ainsi, l'internaute est "fiché" (Dedods, 2006), notamment au travers de sa navigation et de ses différents profils sur les réseaux sociaux ; le marketing roi en somme... De plus, les sites sont envahis de publicités contextuelles en rapport avec le document consulté.

Une série de nouveaux services apparaît (tels Second Life, Twitter, Exalead, ...) Aujourd’hui, la plupart des moteurs de recherches sont des systèmes linéaires : on tape une recherche et, grâce au Page Rank, un listing de pages Internet nous est proposé. Avec le Web sémantique (Cliche, 2007), qui se met en place grâce à l’impulsion du W3C (World Wide Web Consortium) (Gandon, 2008), se dessine un Web intuitif, une "constellation" d’informations, compatible avec tous les systèmes d'exploitation et tous les objets reliés. Il tient compte de nos visites précédentes sur les sites, de notre navigation, de notre profil ; il nous propose des recherches associées à celles que nous faisons, des retours plus adaptés et plus intelligents aux requêtes… Avec le Web sémantique la demande appelle un résultat cohérent, méticuleusement assemblé. Le système travaille pour nous : il classe tous les commentaires et trouve, par déduction, une correspondance adéquate.

Des technologies sont mises en place pour permettre de comprendre l’information et d'adapter les réponses fournies dans un contexte plus riche et plus finement proposé. Une meilleure connaissance de l'utilisateur permettra d'obtenir des réponses plus ajustées à son profil, voire proposera d'autres résultats potentiellement acceptables par l'usager.

2.1.2 - Le cloud computing


Dans l'avenir, l’Internet sera présent partout ; c’est ce qu’on appelle dès à présent le nuage ou « cloud computing » (De Rosnay, 2009). Les grandes entreprises productrices de logiciels et de matériels ont bien compris que les services allaient prendre une part de plus en plus importante dans le monde de l’Internet. Elles commencent donc à proposer des solutions disponibles sur le «nuage» (CBS, 2009). Le marketing dans le Web 3.0 pourrait tenir une place essentielle. Globalement, au regard des gains financiers très importants générés par les deux premières "dynasties" du Web, il semble évident que la manne pécuniaire affluera pour qui sera le premier à se placer sur le Web 3.0. Ce nuage, avec les problèmes d’accès à la vie privée et la notion de protections des données, va se développer de façon accrue avec l'accroissement du phénomène des réseaux sociaux (Facebook, MySpace, …) et les environnements cliquables également appelé systèmes de réalité augmentée.

2.1.3 - Le Web des objets


Le Web sera accessible sur les objets de tous les jours : ordinateur, téléphone portable, radio-réveil, télévision, réfrigérateur, capteurs de circulation placés le long des autoroutes, etc. (Grallet, 2008). L'ordinateur tiendra dans une poche. Le téléphone mobile deviendra alors, par exemple, un objet tout en un : souris, téléphone, télécommande et scanner pour pouvoir entrer et interagir dans ces environnements cliquables (De Rosnay, 2009). Mais il est possible également que le Web 3.0 aille à l'encontre de ce qui se développe aujourd'hui, à savoir l'utilisation accrue des logiciels libres et open source, et le "dépôt externalisé" des données sur les divers sites des réseaux sociaux.

L'ordinateur serait ainsi une simple interface d'accès à l'Internet et le Web 3.0 davantage centré sur l'utilisateur. Et en contrepartie, celui-ci hébergerait sans doute lui-même ses fichiers. L'usager ne serait plus contraint par l'espace alloué mais par les capacités de sa propre machine (Champeau, 2007) (Gai, 2007). Le Web 3.0 consisterait alors, à l'instar du Peer-to-Peer, en un réseau Internet fondé avant tout sur les capacités de stockage des internautes. Sauf qu'il ne s'agirait pas ici d'échange de contenus déjà existants, mais de création même de propres contenus. Un compromis, en quelque sorte, entre le Peer-to-Peer et le Web 2.0. Mais si les hébergeurs Web 2.0, afin d'éviter toute dérive, ont souvent essayé d'avoir un minimum de contrôle et de censure sur les contenus proposés par les internautes, qu'en serait-t-il si cette vision du Web 3.0 était amenée à se concrétiser ?

2.1.4 - Le Web 3D


La notion de Web3D peut se définir comme étant « la diffusion de contenus 3D temps réel sur le réseau internet pour un affichage sur des postes clients » (Vandangeon, 2004). La véritable nouveauté réside dans la notion de temps réel et dans la généralisation des technologies le permettant, le concept même de 3D pour le Web (3D online) est quant à lui plus ancien.

En effet, les premières discussions sérieuses autour du sujet remontent à 1994, avec l’apparition de son langage historique : le VRLM (Virtual Reality Markup Language). Mais à l’époque, la bande passante et les performances des terminaux ne permettent pas le portage de la 3D vers les navigateurs Web grand public.

La notion de temps réel, en opposition à la notion de 3D précalculée soumise à des contraintes importantes de temps de calcul préalable, permet donc aujourd’hui plus d’interactivité à travers des demandes de changements effectuées par des internautes habitués aux environnements riches issus du Web 2.0. C’est ainsi que certains auteurs vont même à résumer le Web 3.0 comme étant la somme du Web 2.0 et du Web 3D (Peres, 2008) permettant « une dimension émotionnelle forte qui rapproche et fédère » via « le langage naturel par excellence », la 3D portée sur le Web.

Même si aujourd’hui il est toujours nécessaire d’installer des extensions afin de visualiser des environnements 3D depuis les navigateurs, de nombreuses applications voient le jour dans les domaines du e-Commerce, du e-Tourisme, dans le cadre de démonstration et de visites virtuelles avec des mariages évidents via la géolocalisation 3D, les réseaux sociaux, les annuaires téléphoniques…

De plus, il est bon de noter qu’avec l’Internet des Objets, le Web se propage et le portage de la 3D hérite de fait de cette généralisation. Ainsi, les téléphones mobiles sont aujourd’hui capables d’exploiter des environnements 3D permettant une expérience utilisateur pouvant se décliner à travers la notion sous-jacente de réalité augmentée.

Même si nous présentons l’avancement du Web3D, il est utile de préciser qu’il existe encore de nombreuses applications 3D portées sur le Web en mode précalculé, qu’elle nécessite nécessitant parfois l’installation de clients lourds (logiciels), avec des déclinaisons d’application pouvant aller d’un simple ajout d’agent conversationnel sur un site à la mise en place d’un véritable univers virtuel constituant un réseau social d’intérêt pour une entreprise…

Le Web 3D rend donc l'Internet attractif et proche du monde réel. Parmi les applications existantes, la présentation d'objets sur les sites de e-commerce, la création de jeux et d'applications, la gestion d'avatars, les visites et les mondes virtuels (Deru, Bergweiler, 2008).

En allumant votre ordinateur, sous Linux, Windows, Mac ou tout système d'exploitation, vous accéderez à un bureau virtuel en 3D à partir duquel vous pourrez lancer différentes applications et entrer dans des environnements Web en 3D temps réel.

D'après l'idée exposée par Sylvain HUET et Philippe ULRICH (Perès, 2007) : "La 3D temps réel n'est pas seulement réservée au domaine du jeu, comme on pourrait le penser au premier abord. Elle permet aussi de développer de nouveaux environnements de travail collaboratif (réunion à distance en web conférence, formation en classe virtuelle), de e-commerce (boutiques et galeries commerciales virtuelles) ou de réseaux sociaux d'expression et de partage (espaces personnels 3D), … des applications tant professionnelles que grand public qui reposent sur la 3D et la collaboration en temps réel.
La seule différence, c'est que l'image qu'on "habite" n'a pas de matérialité, ou plutôt sa matérialité est changeante. Réel ou virtuel, là n'est plus la question. Ce que vous communiquez dans cette image est bien réel : ce que vous faites aux autres, ce que vous dites aux autres est aussi réel que si vous utilisiez un support matériel. On parle souvent de "l'âme d'une maison", en évoquant en fait les traces que les habitants et les visiteurs y laissent. Il en est de même pour l'image qu'on habite : elle est marquée par la vie qui s'y organise.
"

On l'aura compris, ces environnements Web 3D sont donc de vrais lieux de vie, riches et conviviaux.

2.2 - Les technologies


A l’instar du Web 2.0, l’Innovation technologique endossera une évolution majeure notamment sur les aspects d’interopérabilité pour l’échange transparent d’informations entre différents terminaux. Ceci impose la mise en œuvre de standards et une intégration du Web multi-niveaux…

2.2.1 - Les langages


Le Web sémantique repose sur un mode de stockage, le langage descriptif RDF (Resource Description Framework) développé par le W3C (l'organisme de normalisation du Web) et OWL (Web Ontology Language) (Lacot, 2007), deux langages basés sur le XML (Gandon, 2008). RDF définit l'information sous forme de triplet (sujet-verbe-objet) et OWL étend le RDF à un niveau sémantique plus élevé avec plus de précisions (Borderie, 2004). Par ailleurs, chaque partie du triplet RDF possède un identifiant appelé URI (Uniform Ressource Identifier) qui permet à l'agent intelligent de le repérer. La technologie d'interrogation SPARQL (Simple protocol and RDF query language), recommandée par le W3C, facilite l'interrogation des données du Web quelles que soient leur format et lit le RDF (W3C, 2008).

LA GRDDL (Gleaning Resource Descriptions from Dialects of Languages) est un mécanisme destiné à glaner des descriptions de ressources dans les dialectes des langages. Cette spécification GRDDL introduit un balisage, fondé sur les standards existants, afin de déclarer qu'un document XML contient des données compatibles avec le cadre de descriptions de ressources (RDF) et afin d'associer des algorithmes, typiquement dans une représentation XSLT (eXtensible stylesheet language transformations), pour en extraire les données.

Le microformat, un type de format de données open source fondé sur l'existant et les langages largement adoptés comme le XML. Les balises permettent au robot de trouver et d'extraire des informations, par exemple des coordonnées, les détails d'un événement, des calendriers ou bien d'autres applications. Les microformats sont axés sur la conception pour une lisibilité de l'homme dont le critère principal est la compréhension de la machine.

Le crawler (littéralement "chenille") est un logiciel d'indexation développé par les moteurs de recherche pour analyser le contenu des pages Web et les classer.

Le Web 3D utilise les technologies de Vet viewpoint, Virtools, QedSoft (Flamant, 2002), Turntool, entre autres.

2.2.2 - Les applications et services


Le Web 3.0 en termes de technologie, résoudra les problèmes d'interopérabilité entre les services en ligne, les communautés isolées d'utilisateurs...

Le SpotCode rendra l'environnement physique cliquable (Bizncach, 2004) : il s'agit d'un petit code-barres placé sur n'importe quel support (affiche, objet) qui peut être reconnu par un mobile équipé d'un logiciel de reconnaissance d'image.

Livesite est une technologie de l'agence Emakina qui permet de réaliser un site Web à l'aide d'une webcam (De Doncker, 2009).

Le FOAF (Friend Of A Friend) est une application du Web sémantique qui permettra de décrire les personnes et les relations qu'elles entretiennent entre elles. L'espoir de beaucoup est que cela remplace les réseaux sociaux existants qui centralisent nos données personnelles et vivent sur la publicité (Got, 2007).

Les Rich Internet Application (RIA), applications sur l'Internet, remplaceront peut-être peu à peu les logiciels communément installés sur les ordinateurs tandis que les crawlers ratisseront le Web.

Les moteurs de recherche en langage naturel (humain), nous font d'ores et déjà profiter d'une recherche intelligente (Powerset, TrueKnowledge, Hakia) en triant les différents types de contenus (Yauba), en proposant des listes d'associations de mots trouvés dans les résultats des différents moteurs de recherche (Exploredge), en axant les recherches sur les personnes (Spock) ou en se basant sur les ontologies pour comprendre le sens des mots et enregistrer les annotations/tags au sein même des fichiers (OSIRIS).

L'entreprise américaine Gartner a listé les dix technologies clés de 2009 (Robin, 2009) dont la plupart participent du Web 3.0.

Pour Alex Iskold, "l’application la plus prometteuse du web sémantique risque bien d’être les shortcuts, c’est-à-dire des raccourcis qui activent des liens complexes... Selon le contenu que vous lisez ou dont vous parlez, l’applicatif s’adapte et affiche une couverture de livre pour un bouquin, un bouton play pour une musique" (Hubert, 2008).

Par ailleurs, des interfaces inédites pour les ordinateurs voient le jour et offrent de nouvelles perspectives commerciales pour les constructeurs.

Les nanotechnologies nous permettent aujourd'hui d'avoir des téléphones (Alexandre, 2009), des claviers étirables, flexibles et translucides, pouvant prendre une infinité de formes différentes.

Grâce aux nanopuces implantées dans notre bras par exemple, nous pouvons ouvrir la porte d'un magasin ou de notre maison sans sortir de clé.

Avec la géolocalisation nous pouvons trouver le cinéma ou le restaurant le plus proche (Wikitude, 2009) avoir des informations touristiques sur le lieu visité. Je suis un père soucieux alors je regarde où se trouve actuellement mon fils …

Il est probable que demain le Web communiquera avec ces objets dont notre corps, nos vêtements, nos bagages, nos véhicules, seront porteurs. Joël de Rosnay explique dans l'une de ses conférences (De Rosnay, 2008), que dans certaines cabines d'essayage, il suffit de présenter le vêtement devant soi -sans l'essayer-, puis sur le miroir, choisir par pression sur les choix proposés, la couleur de l'article (parmi toutes celles existant dans le magasin) sans que pour autant ce soit celle du vêtement pris dans la cabine. Immédiatement, la personne visualise l'article dans la couleur sélectionnée et peut ainsi apprécier celle qui s'accordera le mieux à son teint !

3 - Les perspectives pour l'avenir du Web


En se projetant plus loin encore, Joël de Rosnay pense que le Web sera utilisable en permanence. Autrement dit, il sera symbiotique, en lien avec l'intelligence ambiante (Wikipedia), dite aussi informatique ubiquitaire.

L'émergence de systèmes informatiques constitués d'une infrastructure traditionnelle (PC, serveurs, etc.) ainsi que de millions de petits objets mobiles (téléphones, PDA, etc.) (Mynameise, 2009) permettront aux prestataires d'offrir à leurs usagers une grande flexibilité, grâce à un accès distant et personnalisé, à un vaste éventail de services (Seinichi Kanemura, 2009).

Toutefois, cette évolution vers l'informatique ubiquitaire soulève de nombreux problèmes de sécurité, notamment pour les petits objets mobiles. Alors qu'il devient possible d'exploiter leurs vulnérabilités à travers le réseau, il s’avère également indispensable que ces objets puissent être mis à jour à distance. Répondre simultanément à ces deux besoins croissants et antagonistes de flexibilité et de sécurité est un enjeu technologique transversal à de nombreux domaines de l'informatique.

Le projet intégré Mobius, qui regroupe douze partenaires académiques et quatre industriels, a pour objectif de développer une architecture de sécurité pour l'informatique ubiquitaire. Pour cela les chercheurs du projet Mobius de l'Institut National de Recherche en Informatique et en Automatique (INRIA) s'appuient sur l'évidence vérifiable, une technique de validation de programme qui consiste à fournir une application téléchargée avec un certificat qui établit son innocuité. Ce certificat est une preuve sur l'objet même ou sur un serveur de confiance. Depuis le démarrage du projet en septembre 2005, ces chercheurs ont d'ores et déjà établi les propriétés de sécurité qui reflètent le nouveau modèle ubiquitaire, élaboré des techniques de validation de ces propriétés et défini une infrastructure qui permet de générer, d'envoyer et de vérifier des certificats. La mise en œuvre et le passage à l'échelle de cette infrastructure sont les prochains défis à relever par Mobius (Barthes, 2006).

Conclusion


Suite à nos diverses recherches et concertations, nous concluons donc que l’ère du Web 3.0 est déjà entamée. Dans son évolution, ce dernier pourra se définir de la même manière que son prédécesseur avec une sphère liée à l’innovation technologique et une sphère liée à l’innovation conceptuelle, la limite entre les deux concepts sera néanmoins moins évidente, des concepts sociaux comme l’e-réputation, le social media permettront une harmonie et une cohérence globale d’ensemble. En prenant comme référence la réflexion de Nova Spivack "It used to be that the Web changed at the speed of publishing. Now, it's changing at the speed of thought" (Lebeaux, 2008), si le Web s’est jusqu’ici modifié à la vitesse des informations publiées, aujourd’hui, évolue-t-il réellement à la vitesse de la pensée ?

Bibliographie


Alexandre. (2009). MoMA Morph : la nanotechnologie par Nokia. R-geek.
Antoine Robin. (2009). Les dix technologies clés de 2009.
Barthes, G. (2006). INRIA - INédit 56.
Bastide, A. (2008). Six sites pour tout savoir sur la RFID. Indexel.
Biz-n-cash. (2004). Biz-n-cash.fr - SpotCode : la bonne info, au bon endroit, au bon moment. Biz-n-cash.com.
CBS Interactive. (2009). Cloud Computing : vers la dématérialisation des salles informatiques - ZDNet.fr.
Champeau, Guillaume. (2007). Le Web 3.0 : l'alliance du P2P et du Web 2.0 ? Futura-Techno.
Connolly, D. (2007, Septembre 11). Glaner les descriptions de ressources des dialectes de langages (GRDDL). Yoyodesign. Retrouvé Avril 24, 2009, de www.yoyodesign.org/doc/w3c/grddl/
Dupin, E. (2009). Le web mobile est-il le futur du web ? Presse Citron.
Fabien Gandon. (2008). le "futur" du web à la lecture des recommandations du W3C.
Gai Anh-Tuan. (2007). Web 3.0 : une autre branche pour l’arbre des possibles. Le Monde.
Gautier Poupeau. (2009). Les professionnels de l'information face aux défis du Web de données. Retrouvé de www.slideshare.net/lespetitescases/les-professionnels-de-linformation-face-aux-dfis-du-web-de-donnes
Google. (pas de date). Google Latitude. Retrouvé Avril 24, 2009, de
Got. (2007). FOAF : le réseau social garanti sans pub ! | Les petites cases.
Guillaud, H. (2005). Qu’est-ce que le web 2.0 ? Internet Actu.
Guillaud, Hubert. (2008). Web sémantique : y aura-t-il une application phare ? Futura-Techno.
Guillaume Grallet. (2008). Le web 3.0... - Nos Futurs, le blog HIGH-TECH de Guillaume Grallet - Lexpress.
Intelligence ambiante - Wikipédia. (pas de date). .
Jeffrey Zeldman. (2006). Web 3.0. UbiKann.
Joël de Rosnay. (2009). L'environnement cliquable : une virtualité bien réelle - AgoraVox le média citoyen.
Liotard, C. (2008). Web 1.0 - Web 2.0 - Web 3.0. L'Atelier Informatique.
Manach, J. (2009). RFiD 2.0 : des puces ou des ordinateurs ? Internet Actu.
Mynameise. (2009). About - My Name is E.
Nicolas. (2007a). eVolution : blogue sur le Web 3.0 »
Nicolas. (2007b). eVolution : blogue sur le Web 3.0 »
Ontologie - Wikipédia. (pas de date). . Wikipédia..
Philippe Pérès. (2007). Tribune libre : Vers un Web 3D par Neteco.com. Neteco.
Pérès W. (2008). Le Web 3D est-il l’avenir d’Internet. So Buzzy.
Rachel Lebeaux. (2008). Web 2.0, Web 3.0 mashup to yield more personalized online experience.
Roynette, B. (2009). Le futur du web, des interfaces et des usages en 2019. Vidéo You Tube.
Seinichi Kanemura. (2009). Sein blog: [EN] Brief introduction to SREngine. SREngine
Vandangeon, B. (2004). Les Technologies 3D Temps réel pour l’industrie. Diaporama de présentation.
Vers un Web "symbiotique" - Miss TICS. (2008). Misstics.
W3C. (2008). Le W3C ouvre les données sur le Web avec SPARQL.
Web Sémantique:FOAF. (2008) - FOAF
Wikitude. (2009). Mobilizy - Wikitude AR Travel Guide. Wikitude world browser.
Xavier Borderie. (2004). RDF et OWL pour donner du sens au Web - JDNet Développeurs.
Xavier Lacot. (2007). OWL et le web sémantique pour les nuls... | Clipmarks.
Zeldman, Jeffrey. (2006). Web 3.0. A List Apart.

Contexte et auteurs


Travail réalisé à l'Université de Limoges, dans le cadre d'un module dédié à l'apprentissage des nouveaux usages de l'Internet, sous la direction et avec le concours final de Sébastien Bruyère par Isabelle Boquet-Cochard, Mélody Collé, Patricia Dornès, Anne-Sophie Hardel et David Joao.

Publication : septembre 2011