mercredi, septembre 28, 2011

Une nouvelle pièce maîtresse pour l'ordinateur quantique


Pierre Masse - Université de Sherbrooke

Le professeur Michel Pioro-Ladrière devant son futur laboratoire expérimental d'informatique quantique.
Photo: Matthew Ross, QuantumWorks
Une équipe de recherche internationale a mis au pointun dispositif semi-conducteur qui pourrait être à la base de la fabrication d'un ordinateur quantique. Il s'agit d'une double boîte quantique emprisonnant deux électrons, dont l'orientation des spins — une propriété magnétique fondamentale — est sélectivement contrôlée par un microaimant.

Le professeur Michel Pioro-Ladrière du Département de physique de l'Université de Sherbrooke, aidé de ses collègues au Japon et en Autriche, est à l'origine de la fabrication du dispositif qui permet d'opérer des calculs quantiques. Son fonctionnement est décrit dans la version en ligne du journal Physical Review Letters du 26 septembre 2011.

"Nous avons réussi à préparer les électrons pour le calcul, à agir sélectivement sur l'orientation de leurs spins, à les coupler pour opérer l'algorithme choisi et finalement à lire le résultat, résume le professeur Pioro-Ladrière. C'est la première fois que le tout est combiné dans une seule expérience", précise le physicien.

Depuis la découverte, il y a dix ans, des premières boîtes quantiques confinant des spins électroniques, les spécialistes considèrent cette technologie comme une des plus prometteuses pour l'avenir de l'informatique quantique. En effet, l'information à traiter (0 ou 1) peut s'encoder par l'orientation de spins diamétralement opposés qui se manipulent relativement bien. Mais il manquait jusqu'à maintenant une expérience complète pour prouver sa faisabilité. "Nous avons apporté la preuve de principe que le dispositif fonctionne et qu'il permet de faire les calculs essentiels aux algorithmes quantiques", affirme le chercheur.

Une stabilité à optimiser

L'équipe a fabriqué cette boîte quantique dans un matériau semi-conducteur couramment utilisé pour les téléphones cellulaires, ce qui faciliterait le passage vers une production industrielle éprouvée. Actuellement, sa stabilité, soit le temps disponible avant de perdre l'information quantique, est encore trop faible pour un ordinateur quantique fonctionnel. Mais le physicien croit qu'en raison de son échelle de fonctionnement microscopique (un spin par électron), les améliorations potentielles sont prometteuses.


Une partie de l'équipe de recherche du professeur Pioro-Ladrière devant la Faculté des sciences de l'Université de Sherbrooke.
Photo: Matthew Ross, QuantumWorks
"Notre équipe cherche déjà à optimiser le design des microaimants et à diminuer l'intensité des champs magnétiques des noyaux autour des électrons qui perturbent la cohérence quantique nécessaire", explique le spécialiste.

Il existe déjà un autre dispositif plus stable: le circuit électrodynamique quantique fabriqué avec desmatériaux supraconducteurs, aussi appelé bus quantique. Par contre, son échelle de fonctionnement macroscopique n'offre peut-être pas le même potentiel de développement qu'un système à l'échelle microscopique, croit le professeur Pioro-Ladrière.

"L'avenir de l'ordinateur quantique est peut-être une combinaison de boîtes quantiques et de bus quantiques comme ceux développés par mon collègue Alexandre Blais, professeur au même Département, anticipe le professeur Pioro-Ladrière. Ainsi, nous aurions le meilleur des deux mondes."

Dans quelques mois, le professeur Pioro-Ladrière aura un atout supplémentaire pour poursuivre son travail. Il ouvrira un nouveau laboratoire à la Faculté des sciences. " Ce sera le premier laboratoire expérimental d'informatique quantique au Québec", précise-t-il. De plus, avec l'aide du Centre de recherche en nanofabrication et nanocaractérisation de l'Université de Sherbrooke (CNR2), son équipe pourra directement fabriquer et manipuler des circuits quantiques à Sherbrooke. Ses recherches, et celles de ses collègues de l'Équipe de recherche en physique de l'information quantique (ÉPIQ), permettent de prédire des développements prometteurs pour l'informatique quantique à Sherbrooke.

Pour conclure, le chercheur rappelle que le Canada s'est taillé une place de choix ordre dans le domaine. Pour preuve, l'inventeur de la toute première boite quantique, maintenant utilisée par la plupart des groupes de recherche dans le monde, était son directeur de recherche de maitrise à Sherbrooke : Andrew Stanislaw Sachrajda du Conseil national de recherches du Canada également professeur associé au Département de physique de l'Université de Sherbrooke.

lundi, septembre 26, 2011

Des transistors à protons pour s'interfacer avec des cellules vivantes

Peut-on imaginer une symbiose entre des cellules vivantes et des composants électroniques ? Peut-être. C'est une possibilité – lointaine – qui émerge des travaux sur une sorte de transistor fonctionnant non pas avec des électrons mais avec des charges positives, comme dans bien des tissus vivants. D'ailleurs, le matériau de base de ce transistor provient... de la plume du calmar.

Les signaux électriques dans les organismes biologiques sont, en général, conduits par des ions de charge positive, des cations. Ainsi, le potentiel d'action des cellules nerveuses fait intervenir des ions sodium (Na+), potassium (K+) et parfois du calcium (Ca2+). On sait tout de même que l'anion chlorure (Cl-) joue un rôle majeur dans les potentiels d'action de certaines algues, alors que cet ion intervient de façon négligeable dans les potentiels d'action de la plupart des animaux.

On ne peut s'empêcher de penser au célèbre auteur de science-fiction (SF), Isaac Asimov, qui a introduit le concept de cerveau positronique dans ses nouvelles et romans mettant en scène des robots pensants. Les positrons étant les antiparticules des électrons, et donc de charge positive, une « électronique » positronique est une bonne idée pour un roman... Cependant, même si l’on sait fabriquer de l’antimatière en accélérateur et même si la médecine utilise la tomographie par émission de positrons, ou TEP (pour cartographier l'activité métabolique d'un organe), il reste tout de même difficile d’imaginer une véritable électronique qui ferait appel à l’antimatière.

Pourtant, à défaut d’envisager émuler un cerveau humain avec un cerveau positronique qui serait capable de passer le test de Turing, il serait intéressant de disposer de composants électroniques fonctionnant avec des charges positives, des protons ou des cations plus exactement. Pour réaliser un cyborg ou simplement réaliser un bon interfaçage entre des cellules vivantes et un composant « cationique », ce serait un atout.

C’est précisément ce que viennent de réaliser des chercheurs de l’université de Washington en mettant au point un transistor utilisant des courants de protons. Les détails de leurs travaux sont exposés dans un article de Nature Communications (donné en lien plus bas).

Un transistor encore au stade du laboratoire

Ils sont partis d’un matériau biologique provenant de la modification du chitosane, un polyoside produit par désacétylation chimique ou enzymatique de la chitine, le composant de l'exosquelette des arthropodes ou, dans le cas présent, de l'endosquelette des calmars. Le matériau est biocompatible, c’est un très bon conducteur de protons et il a permis de fabriquer un transistor à effet de champ de 5 microns de large, c'est-à-dire en gros l’épaisseur d’un cheveu.

En bonus, il est facile à fabriquer, entre autres parce que l’on peut utiliser des carapaces de crabes ou des « plumes », encore appelées gladius, de calmars, une structure allongée et semi-transparente ayant l'aspect d'une règle de section circulaire en plastique mais très différente des os de seiche.

Alors que les composants électroniques usuels pour des prothèses ou des capteurs biologiques posent des problèmes de conversion entre un signal électronique et un signal ionique, ce transistor à protons, le premier du genre, est donc une étape vers une nouvelle « électronique » qui n’aura plus ces difficultés. Cependant, les applications dans la prochaine décennie ne se feront probablement que sous forme d’interfaces avec des cellules dans un laboratoire. Le prototype actuel ne peut pas être utilisé dans un corps humain.

dimanche, septembre 25, 2011

Des araignées-robots qui réparent vos vaisseaux sanguins

Des chercheurs américains ont déjà réussi à mettre au point des sortes des prototypes de « petites araignées » mécaniques en utilisant des sphères qui ont une taille inférieure au micromètre. Chaque sphère est constituée de deux hémisphères : un hémisphère est en or et l'autre en silicium. On dirait presque des miniboules de Noël.
Les scientifiques ont alors utilisé un procédé pour faire du côté silicium un « moteur osmotique » (par l'intermédiaire d'un gradient de nombre de particules) : le solvant se précipite vers le côté doré de la sphère et la fait ainsi bouger. C'est astucieux. On est capables de contrôler la direction du mouvement de ces sphères grâce à des produits chimiques. On espère pouvoir développer des versions de robots-araignées chimiques qui fonctionneraient non pas sur du solvant, mais avec du glucose (présent dans notre corps). On peut alors imaginer des nanobots qui iraient vers les tissus endommagés depuis la circulation sanguine et qui apporteront un gel de réparation interne sur les vaisseaux endommagés ou pour lutter contre les infections.

Quand le chocolat fait aussi bien que l'exercice physique

Quand le chocolat fait aussi bien que l'exercice physique
Les chercheurs se sont en réalité concentrés sur une partie de nos cellules : les mitochondries (nos « centrales énergétiques cellulaires »). Ils ont remarqué qu'un composé issu de plantes et que l'on trouve dans le chocolat (noir), l'épicatéchine, semble stimuler les mêmes réponses musculaires qu'une activité vigoureuse. L'étude américaine fut réalisée sur des souris. Plus on dispose de mitochondries, plus l'on peut fournir de travail.
On sait que l'exercice aérobique (course, vélo, etc.) accroît le nombre de mitochondries dans les cellules musculaires. La dernière étude montre que le chocolat entraîne la même réponse, en particulier dans le coeur et les muscles du squelette. Cette découverte peut aider à réduire la déperdition de muscles avec l'âge ; les mitochondries décroissent normalement et malheureusement pour nous avec l'âge. Remarque : on a aussi remarqué que les souris qui faisaient du sport ET mangeaient du chocolat obtenaient les meilleures performances.

Moyen-Orient: d'étranges " lignes de Nazca" découvertes

Moyen-Orient: d'étranges " lignes de Nazca" découvertes
Les gigantesques dessins qui furent gravés dans le passé sur le sol désertique du Pérou sont aujourd'hui mondialement connus sous le nom de lignes de Nazca. Des milliers de tracés semblables ont été découverts depuis peu au Moyen-Orient grâce à un scientifique d'une université australienne qui utilisa la photographie aérienne ainsi que les satellites lors de ses recherches. Ces mystérieuses "roues de pierre" dont l'ancienneté remonte à 2.000 ans, repérées en 1927 par un pilote d'avion, apparaissent aujourd'hui dans toute leur ampleur.
Ces représentations au sol que l'on retrouve majoritairement dans les champs de lave varient de rectangulaires à sinueuses, évoquant des cerfs-volants, des animaux ou encore sont tracées de façon tout à fait aléatoire. Ces formes ne semblent aucunement avoir été inscrites en lien avec un quelconque alignement avec les étoiles.
Les spécialistes en histoire ainsi que les chercheurs en archéologie ne peuvent pour l'instant s'expliquer la raison de l'existence de ces mystérieuses formations. Les bédouins locaux qui effectuent des voyages réguliers en traversant La Jordanie, la Lybie, Israël, l'Egypte et l'Arabie Saoudite les qualifient "d'oeuvres de l'homme ancien

mercredi, septembre 14, 2011

Le Web 3.0 : état des lieux et perspectives d'avenir

Voici un intéressant travail d'étudiants de l'Université de Limoges, réalisé sous la direction d'un de leurs enseignants qui nous a aimablement proposé de publier cette étude qui fait bien le tour du sujet traité : le Web 3. Travail universitaire, réalisé selon les normes des synthèses universtaires. Nous n'avons pas voulu modifier le système des références ni leur présentation.
De grands bouleversements actuels et accélérés autour de certaines technologies et services de l’information et de la communication sont en train d’émerger. Comment en est-t-on arrivé là ? Pourquoi l’Internet de demain va-t-il jouer un rôle fondamental pour les entreprises, les services et les particuliers ? Un véritable défi est lancé aux professionnels de l'information. (Poupeau, 2009)

Un petit rappel sur l'histoire et l'évolution du Web en termes de développement s'impose avant de comprendre les enjeux du Web à venir.

1 - Le Web d'hier à aujourd'hui


Même s’il existe des sources permettant de dater les périodes des différentes versions du Web, elles apparaissent parfois contradictoires et il serait certainement plus juste de parler d’ère du Web en considérant les périodes comme des espaces de temps.

1.1 – L’ère du Web 1.0


Le Web 1.0 s'est construit autour d'une forme pyramidale. Les webmasters (au sommet de la pyramide) rédigent et envoient des informations vers les internautes sans que ces derniers puissent réellement répondre, hormis dans les forums ou encore par mails. Dans le Web 1.0, l’internaute est passif. La production et l'hébergement de contenus se font essentiellement par les entreprises (Champeau, 2007 — Gai, 2007). Les pages sont statiques, quelquefois sans réactualisation des informations communiquées. (Liotard, 2008)

1.2 – L’ère du Web 2.0


Dans le Web 2.0 (Guillaud, 2008), les usagers entrent dans un mode actif : au fur et à mesure de leur navigation, les utilisateurs ajoutent du contenu au travers de liens hypertextes et autres tags, annotations ou commentaires. Le contenu est généré par les utilisateurs grâce à l’émergence des blogs, des wikis, des journaux citoyens. Wikipédia (le plus grand wiki du Web), Dailymotion, Youtube, Flickr, Delicious, etc., et tous les nouveaux médias sont de véritables espaces de discussions, d’expression, d'échanges et de débats. L’utilisateur devient alors source d’informations et de créations, le concept d'intelligence collective émerge.

La production de contenu se fait par les internautes et l'hébergement par les entreprises (Champeau, 2007 — Gai, 2007). Les données sont partagées, l'internaute est acteur et fournit ses propres contenus au travers des réseaux sociaux (comme Facebook, MySpace), des blogs, du contenu partagé. S'il le souhaite, grâce au phénomène de syndication (flux RSS), l'internaute peut se tenir au courant en temps réel des dernières parutions sur les thèmes qui l'intéressent.

2 - Le Web 3.0, concepts et technologies


Le logiciel se libère des ordinateurs personnels. De nombreuses applications sont désormais directement accessible "en ligne". Au delà de cet aspect, notre environnement Internet se transforme peu à peu en un véritable écosystème informationnel. Dans l’avenir, nous serons totalement "immergés" dans l'Internet (Liotard, 2008).

2.1 - Les concepts


Le terme Web 3.0 est apparu pour la 1ère fois en 2006 dans un article du blog de Jeffrey Zeldman (Zeldman, 2006), puis avec Tim Berners Lee. Actuellement, trois mondes Internet sont en train de fusionner :

  • l’Internet classique (surfer sur son ordinateur via une connexion filaire ou Wifi) ;
  • l’Internet mobile (sur son téléphone portable, son PDA) (Dupin, 2009) ;
  • l’Internet des objets (Roynette, 2009) : extension de l’Internet dans le monde réel grâce à un système d’étiquettes (Bastide, 2008) associant des URLs aux lieux ou aux objets lisibles par des dispositifs mobiles sans fils ou des puces RFID (Manach, 2009).

2.1.1 Le Web sémantique


Tous les sites sont liés d'une façon ou d'une autre. Ainsi, l'internaute est "fiché" (Dedods, 2006), notamment au travers de sa navigation et de ses différents profils sur les réseaux sociaux ; le marketing roi en somme... De plus, les sites sont envahis de publicités contextuelles en rapport avec le document consulté.

Une série de nouveaux services apparaît (tels Second Life, Twitter, Exalead, ...) Aujourd’hui, la plupart des moteurs de recherches sont des systèmes linéaires : on tape une recherche et, grâce au Page Rank, un listing de pages Internet nous est proposé. Avec le Web sémantique (Cliche, 2007), qui se met en place grâce à l’impulsion du W3C (World Wide Web Consortium) (Gandon, 2008), se dessine un Web intuitif, une "constellation" d’informations, compatible avec tous les systèmes d'exploitation et tous les objets reliés. Il tient compte de nos visites précédentes sur les sites, de notre navigation, de notre profil ; il nous propose des recherches associées à celles que nous faisons, des retours plus adaptés et plus intelligents aux requêtes… Avec le Web sémantique la demande appelle un résultat cohérent, méticuleusement assemblé. Le système travaille pour nous : il classe tous les commentaires et trouve, par déduction, une correspondance adéquate.

Des technologies sont mises en place pour permettre de comprendre l’information et d'adapter les réponses fournies dans un contexte plus riche et plus finement proposé. Une meilleure connaissance de l'utilisateur permettra d'obtenir des réponses plus ajustées à son profil, voire proposera d'autres résultats potentiellement acceptables par l'usager.

2.1.2 - Le cloud computing


Dans l'avenir, l’Internet sera présent partout ; c’est ce qu’on appelle dès à présent le nuage ou « cloud computing » (De Rosnay, 2009). Les grandes entreprises productrices de logiciels et de matériels ont bien compris que les services allaient prendre une part de plus en plus importante dans le monde de l’Internet. Elles commencent donc à proposer des solutions disponibles sur le «nuage» (CBS, 2009). Le marketing dans le Web 3.0 pourrait tenir une place essentielle. Globalement, au regard des gains financiers très importants générés par les deux premières "dynasties" du Web, il semble évident que la manne pécuniaire affluera pour qui sera le premier à se placer sur le Web 3.0. Ce nuage, avec les problèmes d’accès à la vie privée et la notion de protections des données, va se développer de façon accrue avec l'accroissement du phénomène des réseaux sociaux (Facebook, MySpace, …) et les environnements cliquables également appelé systèmes de réalité augmentée.

2.1.3 - Le Web des objets


Le Web sera accessible sur les objets de tous les jours : ordinateur, téléphone portable, radio-réveil, télévision, réfrigérateur, capteurs de circulation placés le long des autoroutes, etc. (Grallet, 2008). L'ordinateur tiendra dans une poche. Le téléphone mobile deviendra alors, par exemple, un objet tout en un : souris, téléphone, télécommande et scanner pour pouvoir entrer et interagir dans ces environnements cliquables (De Rosnay, 2009). Mais il est possible également que le Web 3.0 aille à l'encontre de ce qui se développe aujourd'hui, à savoir l'utilisation accrue des logiciels libres et open source, et le "dépôt externalisé" des données sur les divers sites des réseaux sociaux.

L'ordinateur serait ainsi une simple interface d'accès à l'Internet et le Web 3.0 davantage centré sur l'utilisateur. Et en contrepartie, celui-ci hébergerait sans doute lui-même ses fichiers. L'usager ne serait plus contraint par l'espace alloué mais par les capacités de sa propre machine (Champeau, 2007) (Gai, 2007). Le Web 3.0 consisterait alors, à l'instar du Peer-to-Peer, en un réseau Internet fondé avant tout sur les capacités de stockage des internautes. Sauf qu'il ne s'agirait pas ici d'échange de contenus déjà existants, mais de création même de propres contenus. Un compromis, en quelque sorte, entre le Peer-to-Peer et le Web 2.0. Mais si les hébergeurs Web 2.0, afin d'éviter toute dérive, ont souvent essayé d'avoir un minimum de contrôle et de censure sur les contenus proposés par les internautes, qu'en serait-t-il si cette vision du Web 3.0 était amenée à se concrétiser ?

2.1.4 - Le Web 3D


La notion de Web3D peut se définir comme étant « la diffusion de contenus 3D temps réel sur le réseau internet pour un affichage sur des postes clients » (Vandangeon, 2004). La véritable nouveauté réside dans la notion de temps réel et dans la généralisation des technologies le permettant, le concept même de 3D pour le Web (3D online) est quant à lui plus ancien.

En effet, les premières discussions sérieuses autour du sujet remontent à 1994, avec l’apparition de son langage historique : le VRLM (Virtual Reality Markup Language). Mais à l’époque, la bande passante et les performances des terminaux ne permettent pas le portage de la 3D vers les navigateurs Web grand public.

La notion de temps réel, en opposition à la notion de 3D précalculée soumise à des contraintes importantes de temps de calcul préalable, permet donc aujourd’hui plus d’interactivité à travers des demandes de changements effectuées par des internautes habitués aux environnements riches issus du Web 2.0. C’est ainsi que certains auteurs vont même à résumer le Web 3.0 comme étant la somme du Web 2.0 et du Web 3D (Peres, 2008) permettant « une dimension émotionnelle forte qui rapproche et fédère » via « le langage naturel par excellence », la 3D portée sur le Web.

Même si aujourd’hui il est toujours nécessaire d’installer des extensions afin de visualiser des environnements 3D depuis les navigateurs, de nombreuses applications voient le jour dans les domaines du e-Commerce, du e-Tourisme, dans le cadre de démonstration et de visites virtuelles avec des mariages évidents via la géolocalisation 3D, les réseaux sociaux, les annuaires téléphoniques…

De plus, il est bon de noter qu’avec l’Internet des Objets, le Web se propage et le portage de la 3D hérite de fait de cette généralisation. Ainsi, les téléphones mobiles sont aujourd’hui capables d’exploiter des environnements 3D permettant une expérience utilisateur pouvant se décliner à travers la notion sous-jacente de réalité augmentée.

Même si nous présentons l’avancement du Web3D, il est utile de préciser qu’il existe encore de nombreuses applications 3D portées sur le Web en mode précalculé, qu’elle nécessite nécessitant parfois l’installation de clients lourds (logiciels), avec des déclinaisons d’application pouvant aller d’un simple ajout d’agent conversationnel sur un site à la mise en place d’un véritable univers virtuel constituant un réseau social d’intérêt pour une entreprise…

Le Web 3D rend donc l'Internet attractif et proche du monde réel. Parmi les applications existantes, la présentation d'objets sur les sites de e-commerce, la création de jeux et d'applications, la gestion d'avatars, les visites et les mondes virtuels (Deru, Bergweiler, 2008).

En allumant votre ordinateur, sous Linux, Windows, Mac ou tout système d'exploitation, vous accéderez à un bureau virtuel en 3D à partir duquel vous pourrez lancer différentes applications et entrer dans des environnements Web en 3D temps réel.

D'après l'idée exposée par Sylvain HUET et Philippe ULRICH (Perès, 2007) : "La 3D temps réel n'est pas seulement réservée au domaine du jeu, comme on pourrait le penser au premier abord. Elle permet aussi de développer de nouveaux environnements de travail collaboratif (réunion à distance en web conférence, formation en classe virtuelle), de e-commerce (boutiques et galeries commerciales virtuelles) ou de réseaux sociaux d'expression et de partage (espaces personnels 3D), … des applications tant professionnelles que grand public qui reposent sur la 3D et la collaboration en temps réel.
La seule différence, c'est que l'image qu'on "habite" n'a pas de matérialité, ou plutôt sa matérialité est changeante. Réel ou virtuel, là n'est plus la question. Ce que vous communiquez dans cette image est bien réel : ce que vous faites aux autres, ce que vous dites aux autres est aussi réel que si vous utilisiez un support matériel. On parle souvent de "l'âme d'une maison", en évoquant en fait les traces que les habitants et les visiteurs y laissent. Il en est de même pour l'image qu'on habite : elle est marquée par la vie qui s'y organise.
"

On l'aura compris, ces environnements Web 3D sont donc de vrais lieux de vie, riches et conviviaux.

2.2 - Les technologies


A l’instar du Web 2.0, l’Innovation technologique endossera une évolution majeure notamment sur les aspects d’interopérabilité pour l’échange transparent d’informations entre différents terminaux. Ceci impose la mise en œuvre de standards et une intégration du Web multi-niveaux…

2.2.1 - Les langages


Le Web sémantique repose sur un mode de stockage, le langage descriptif RDF (Resource Description Framework) développé par le W3C (l'organisme de normalisation du Web) et OWL (Web Ontology Language) (Lacot, 2007), deux langages basés sur le XML (Gandon, 2008). RDF définit l'information sous forme de triplet (sujet-verbe-objet) et OWL étend le RDF à un niveau sémantique plus élevé avec plus de précisions (Borderie, 2004). Par ailleurs, chaque partie du triplet RDF possède un identifiant appelé URI (Uniform Ressource Identifier) qui permet à l'agent intelligent de le repérer. La technologie d'interrogation SPARQL (Simple protocol and RDF query language), recommandée par le W3C, facilite l'interrogation des données du Web quelles que soient leur format et lit le RDF (W3C, 2008).

LA GRDDL (Gleaning Resource Descriptions from Dialects of Languages) est un mécanisme destiné à glaner des descriptions de ressources dans les dialectes des langages. Cette spécification GRDDL introduit un balisage, fondé sur les standards existants, afin de déclarer qu'un document XML contient des données compatibles avec le cadre de descriptions de ressources (RDF) et afin d'associer des algorithmes, typiquement dans une représentation XSLT (eXtensible stylesheet language transformations), pour en extraire les données.

Le microformat, un type de format de données open source fondé sur l'existant et les langages largement adoptés comme le XML. Les balises permettent au robot de trouver et d'extraire des informations, par exemple des coordonnées, les détails d'un événement, des calendriers ou bien d'autres applications. Les microformats sont axés sur la conception pour une lisibilité de l'homme dont le critère principal est la compréhension de la machine.

Le crawler (littéralement "chenille") est un logiciel d'indexation développé par les moteurs de recherche pour analyser le contenu des pages Web et les classer.

Le Web 3D utilise les technologies de Vet viewpoint, Virtools, QedSoft (Flamant, 2002), Turntool, entre autres.

2.2.2 - Les applications et services


Le Web 3.0 en termes de technologie, résoudra les problèmes d'interopérabilité entre les services en ligne, les communautés isolées d'utilisateurs...

Le SpotCode rendra l'environnement physique cliquable (Bizncach, 2004) : il s'agit d'un petit code-barres placé sur n'importe quel support (affiche, objet) qui peut être reconnu par un mobile équipé d'un logiciel de reconnaissance d'image.

Livesite est une technologie de l'agence Emakina qui permet de réaliser un site Web à l'aide d'une webcam (De Doncker, 2009).

Le FOAF (Friend Of A Friend) est une application du Web sémantique qui permettra de décrire les personnes et les relations qu'elles entretiennent entre elles. L'espoir de beaucoup est que cela remplace les réseaux sociaux existants qui centralisent nos données personnelles et vivent sur la publicité (Got, 2007).

Les Rich Internet Application (RIA), applications sur l'Internet, remplaceront peut-être peu à peu les logiciels communément installés sur les ordinateurs tandis que les crawlers ratisseront le Web.

Les moteurs de recherche en langage naturel (humain), nous font d'ores et déjà profiter d'une recherche intelligente (Powerset, TrueKnowledge, Hakia) en triant les différents types de contenus (Yauba), en proposant des listes d'associations de mots trouvés dans les résultats des différents moteurs de recherche (Exploredge), en axant les recherches sur les personnes (Spock) ou en se basant sur les ontologies pour comprendre le sens des mots et enregistrer les annotations/tags au sein même des fichiers (OSIRIS).

L'entreprise américaine Gartner a listé les dix technologies clés de 2009 (Robin, 2009) dont la plupart participent du Web 3.0.

Pour Alex Iskold, "l’application la plus prometteuse du web sémantique risque bien d’être les shortcuts, c’est-à-dire des raccourcis qui activent des liens complexes... Selon le contenu que vous lisez ou dont vous parlez, l’applicatif s’adapte et affiche une couverture de livre pour un bouquin, un bouton play pour une musique" (Hubert, 2008).

Par ailleurs, des interfaces inédites pour les ordinateurs voient le jour et offrent de nouvelles perspectives commerciales pour les constructeurs.

Les nanotechnologies nous permettent aujourd'hui d'avoir des téléphones (Alexandre, 2009), des claviers étirables, flexibles et translucides, pouvant prendre une infinité de formes différentes.

Grâce aux nanopuces implantées dans notre bras par exemple, nous pouvons ouvrir la porte d'un magasin ou de notre maison sans sortir de clé.

Avec la géolocalisation nous pouvons trouver le cinéma ou le restaurant le plus proche (Wikitude, 2009) avoir des informations touristiques sur le lieu visité. Je suis un père soucieux alors je regarde où se trouve actuellement mon fils …

Il est probable que demain le Web communiquera avec ces objets dont notre corps, nos vêtements, nos bagages, nos véhicules, seront porteurs. Joël de Rosnay explique dans l'une de ses conférences (De Rosnay, 2008), que dans certaines cabines d'essayage, il suffit de présenter le vêtement devant soi -sans l'essayer-, puis sur le miroir, choisir par pression sur les choix proposés, la couleur de l'article (parmi toutes celles existant dans le magasin) sans que pour autant ce soit celle du vêtement pris dans la cabine. Immédiatement, la personne visualise l'article dans la couleur sélectionnée et peut ainsi apprécier celle qui s'accordera le mieux à son teint !

3 - Les perspectives pour l'avenir du Web


En se projetant plus loin encore, Joël de Rosnay pense que le Web sera utilisable en permanence. Autrement dit, il sera symbiotique, en lien avec l'intelligence ambiante (Wikipedia), dite aussi informatique ubiquitaire.

L'émergence de systèmes informatiques constitués d'une infrastructure traditionnelle (PC, serveurs, etc.) ainsi que de millions de petits objets mobiles (téléphones, PDA, etc.) (Mynameise, 2009) permettront aux prestataires d'offrir à leurs usagers une grande flexibilité, grâce à un accès distant et personnalisé, à un vaste éventail de services (Seinichi Kanemura, 2009).

Toutefois, cette évolution vers l'informatique ubiquitaire soulève de nombreux problèmes de sécurité, notamment pour les petits objets mobiles. Alors qu'il devient possible d'exploiter leurs vulnérabilités à travers le réseau, il s’avère également indispensable que ces objets puissent être mis à jour à distance. Répondre simultanément à ces deux besoins croissants et antagonistes de flexibilité et de sécurité est un enjeu technologique transversal à de nombreux domaines de l'informatique.

Le projet intégré Mobius, qui regroupe douze partenaires académiques et quatre industriels, a pour objectif de développer une architecture de sécurité pour l'informatique ubiquitaire. Pour cela les chercheurs du projet Mobius de l'Institut National de Recherche en Informatique et en Automatique (INRIA) s'appuient sur l'évidence vérifiable, une technique de validation de programme qui consiste à fournir une application téléchargée avec un certificat qui établit son innocuité. Ce certificat est une preuve sur l'objet même ou sur un serveur de confiance. Depuis le démarrage du projet en septembre 2005, ces chercheurs ont d'ores et déjà établi les propriétés de sécurité qui reflètent le nouveau modèle ubiquitaire, élaboré des techniques de validation de ces propriétés et défini une infrastructure qui permet de générer, d'envoyer et de vérifier des certificats. La mise en œuvre et le passage à l'échelle de cette infrastructure sont les prochains défis à relever par Mobius (Barthes, 2006).

Conclusion


Suite à nos diverses recherches et concertations, nous concluons donc que l’ère du Web 3.0 est déjà entamée. Dans son évolution, ce dernier pourra se définir de la même manière que son prédécesseur avec une sphère liée à l’innovation technologique et une sphère liée à l’innovation conceptuelle, la limite entre les deux concepts sera néanmoins moins évidente, des concepts sociaux comme l’e-réputation, le social media permettront une harmonie et une cohérence globale d’ensemble. En prenant comme référence la réflexion de Nova Spivack "It used to be that the Web changed at the speed of publishing. Now, it's changing at the speed of thought" (Lebeaux, 2008), si le Web s’est jusqu’ici modifié à la vitesse des informations publiées, aujourd’hui, évolue-t-il réellement à la vitesse de la pensée ?

Bibliographie


Alexandre. (2009). MoMA Morph : la nanotechnologie par Nokia. R-geek.
Antoine Robin. (2009). Les dix technologies clés de 2009.
Barthes, G. (2006). INRIA - INédit 56.
Bastide, A. (2008). Six sites pour tout savoir sur la RFID. Indexel.
Biz-n-cash. (2004). Biz-n-cash.fr - SpotCode : la bonne info, au bon endroit, au bon moment. Biz-n-cash.com.
CBS Interactive. (2009). Cloud Computing : vers la dématérialisation des salles informatiques - ZDNet.fr.
Champeau, Guillaume. (2007). Le Web 3.0 : l'alliance du P2P et du Web 2.0 ? Futura-Techno.
Connolly, D. (2007, Septembre 11). Glaner les descriptions de ressources des dialectes de langages (GRDDL). Yoyodesign. Retrouvé Avril 24, 2009, de www.yoyodesign.org/doc/w3c/grddl/
Dupin, E. (2009). Le web mobile est-il le futur du web ? Presse Citron.
Fabien Gandon. (2008). le "futur" du web à la lecture des recommandations du W3C.
Gai Anh-Tuan. (2007). Web 3.0 : une autre branche pour l’arbre des possibles. Le Monde.
Gautier Poupeau. (2009). Les professionnels de l'information face aux défis du Web de données. Retrouvé de www.slideshare.net/lespetitescases/les-professionnels-de-linformation-face-aux-dfis-du-web-de-donnes
Google. (pas de date). Google Latitude. Retrouvé Avril 24, 2009, de
Got. (2007). FOAF : le réseau social garanti sans pub ! | Les petites cases.
Guillaud, H. (2005). Qu’est-ce que le web 2.0 ? Internet Actu.
Guillaud, Hubert. (2008). Web sémantique : y aura-t-il une application phare ? Futura-Techno.
Guillaume Grallet. (2008). Le web 3.0... - Nos Futurs, le blog HIGH-TECH de Guillaume Grallet - Lexpress.
Intelligence ambiante - Wikipédia. (pas de date). .
Jeffrey Zeldman. (2006). Web 3.0. UbiKann.
Joël de Rosnay. (2009). L'environnement cliquable : une virtualité bien réelle - AgoraVox le média citoyen.
Liotard, C. (2008). Web 1.0 - Web 2.0 - Web 3.0. L'Atelier Informatique.
Manach, J. (2009). RFiD 2.0 : des puces ou des ordinateurs ? Internet Actu.
Mynameise. (2009). About - My Name is E.
Nicolas. (2007a). eVolution : blogue sur le Web 3.0 »
Nicolas. (2007b). eVolution : blogue sur le Web 3.0 »
Ontologie - Wikipédia. (pas de date). . Wikipédia..
Philippe Pérès. (2007). Tribune libre : Vers un Web 3D par Neteco.com. Neteco.
Pérès W. (2008). Le Web 3D est-il l’avenir d’Internet. So Buzzy.
Rachel Lebeaux. (2008). Web 2.0, Web 3.0 mashup to yield more personalized online experience.
Roynette, B. (2009). Le futur du web, des interfaces et des usages en 2019. Vidéo You Tube.
Seinichi Kanemura. (2009). Sein blog: [EN] Brief introduction to SREngine. SREngine
Vandangeon, B. (2004). Les Technologies 3D Temps réel pour l’industrie. Diaporama de présentation.
Vers un Web "symbiotique" - Miss TICS. (2008). Misstics.
W3C. (2008). Le W3C ouvre les données sur le Web avec SPARQL.
Web Sémantique:FOAF. (2008) - FOAF
Wikitude. (2009). Mobilizy - Wikitude AR Travel Guide. Wikitude world browser.
Xavier Borderie. (2004). RDF et OWL pour donner du sens au Web - JDNet Développeurs.
Xavier Lacot. (2007). OWL et le web sémantique pour les nuls... | Clipmarks.
Zeldman, Jeffrey. (2006). Web 3.0. A List Apart.

Contexte et auteurs


Travail réalisé à l'Université de Limoges, dans le cadre d'un module dédié à l'apprentissage des nouveaux usages de l'Internet, sous la direction et avec le concours final de Sébastien Bruyère par Isabelle Boquet-Cochard, Mélody Collé, Patricia Dornès, Anne-Sophie Hardel et David Joao.

Publication : septembre 2011

lundi, septembre 12, 2011

Chili : un médium aide à retrouver les corps des victimes d’un accident

Le gouvernement chilien "exploite tous les moyens" pour retrouver les corps disparus de 17 victimes d'un accident. Il a reconnu avoir fait appel à un médium pour l'aider à retrouver les victimes.

Le gouvernement chilien a reconnu lundi qu’il avait fait appel aux services d’un médium pour tenter de retrouver les 17 corps manquants parmi les 21 victimes de la chute en mer d’un avion militaire chilien, vendredi près de l’île Robinson Crusoé, dans l’océan Pacifique.
"Nous bénéficions de la collaboration d’une personne embarquée sur un de nos bateaux", a déclaré à la chaîne de télévision nationale (TNC) le ministre de la Défense, Andres Allamand, qui répondait à une question portant sur la présence d’un voyant au sein des équipes de recherches.
"Nous exploitons tous nos moyens technologiques, mais aussi toutes les capacités humaines et surhumaines possibles, sans négliger aucune piste ni aucun indice", a-t-il poursuivi.
Le président chilien Sebastian Pinera a décrété dimanche deux jours de deuil national pour les 21 personnes mortes dans cet accident qui a provoqué une vive émotion au Chili car l’appareil transportait notamment le journaliste très populaire de la télévision nationale, Felipe Camiroaga, âgé de 44 ans.

Quatre corps retrouvés
Quatre corps - deux femmes et deux hommes non identifiés - ont pour l’instant été retrouvés, mais le président Pinera a averti que les 17 autres seraient difficiles à récupérer en raison notamment de la violence de l’impact qui a dispersé les débris de l’appareil dans un très large périmètre.
L’avion, parti de Santiago, s’est abîmé en mer après deux tentatives d’atterrissage sur l’île Robinson Crusoé, dans l’archipel Juan Fernandez du Pacifique Sud, à environ 670 kilomètres à l’ouest du continent.
M. Camiroaga, accompagné d’une équipe de quatre personnes de l’émission de télévision "Bonjour à tous", devait faire un reportage sur les travaux de reconstruction en cours sur cette île qui avait subi de plein fouet le séisme et le tsunami qui ont frappé le Chili le 27 février 2010.
Le tremblement de terre et le tsunami, qui avait suivi, ont fait plus de 550 morts, plusieurs milliards d’euros de dégâts et plus de 220.000 familles sans abri.


05. septembre 2011, 17h48
LeMatin.ch & les agences

mercredi, septembre 07, 2011

Le cerveau devient plus économe avec l'âge

On croit souvent que le vieillissement du cerveau s'accompagne inévitablement d'une diminution de sa capacité cognitive. Il s'agit là d'un préjugé à repousser, selon ce que montrent les travaux du Dr Oury Monchi, professeur au Département de radiologie, radio-oncologie et médecine nucléaire de l'Université de Montréal et chercheur au Centre de recherche de l'Institut universitaire de gériatrie de Montréal.

Une recherche effectuée avec son doctorant Ruben Martins dévoile que le cerveau âgé d'une soixantaine d'années performe tout aussi bien que celui de 20 ans dans des tâches lexicales, mais qu'il utilise des stratégies cognitives différentes.

À l'aide de l'IRM fonctionnelle, les chercheurs ont mesuré l'activation cérébrale dans des zones du cortex frontal et des aires sous-corticales correspondantes (les boucles fronto-striatales) afin de vérifier si cette activation variait selon l'âge.

"Mes travaux portent sur la maladie de Parkinson et nous savons que cette maladie réduit l'activité neuronale ainsi que le taux de dopamine dans ces zones du cerveau, explique le Dr Monchi. Une légère baisse du nombre de neurones est aussi observée dans la même région chez les personnes âgées et en bonne santé. Nous avons voulu savoir comment s'activent ces zones lorsque les sujets exécutent des tâches cognitives."

Ne pas s'inquiéter inutilement

L'expérience a donc porté sur deux groupes de sujets, le premier constitué de gens âgés de 18 à 35 ans et le second formé de personnes de 55 à 75 ans, tous en bonne santé et actifs. L'exercice consistait à associer diverses séries de mots par catégorie sémantique, par terminaison ou par début du mot (voir l'exemple ci-contre). Au fil du déroulement de l'exercice, la règle d'association changeait et les sujets, informés qu'ils venaient de se tromper, devaient découvrir la nouvelle règle à appliquer.


Oury Monchi
"L'idée était de voir comment réagit le cerveau lorsqu'on se trompe et qu'il faut trouver une solution, précise le professeur. Cela nous permet de savoir comment une personne peut s'adapter à un environnement changeant."

Alors que les chercheurs s'attendaient à une diminution d'activité chez le groupe plus âgé, ils ont plutôt noté un profil d'activation différent selon l'âge. Quand les jeunes étaient informés de leur erreur à la suite d'un changement de la règle, une boucle fronto-striatale associée à la réflexion s'activait avant même qu'une nouvelle série de mots leur soit proposée; une seconde boucle, liée à l'action, s'activait pendant l'exécution de la tâche. Chez les personnes plus âgées, les deux boucles ne s'activaient que lorsque la nouvelle tâche était présentée, donc au moment de l'action.

"Cela nous montre qu'avec l'âge nous n'ajustons le tir que lorsque c'est absolument nécessaire, affirme Oury Monchi. Ça ne se fait pas consciemment, mais le cerveau plus expérimenté cherche à économiser ses énergies et à optimiser ses ressources. C'est une bonne stratégie de vie qui nous permet d'être moins angoissé et plus sage alors que les jeunes cherchent à anticiper ce qui va arriver. Cette tendance est encore plus forte chez les enfants."

D'aussi bonnes performances

Les résultats indiquent que les sujets du groupe plus âgé ne commettaient pas plus d'erreurs que ceux du groupe plus jeune, bien que le temps d'exécution ait été un peu plus long dans le premier groupe.

"Vieillir n'implique pas automatiquement un déclin cognitif, conclut le Dr Monchi. Le déclin est plutôt lié à la mauvaise santé et nous savons que l'activité physique et mentale de même qu'une saine alimentation nous aident à rester en santé."

Pour le chercheur, ces travaux qui nous éclairent sur le fonctionnement cérébral ouvrent la voie à des thérapies cognitives destinées à assurer un vieillissement optimal tant chez les personnes souffrant de maladies neurodégénératives que chez celles en santé.

Ces travaux paraitront dans le prochain numéro de Cerebral Cortex et sont présentement accessibles sur le site Web de la revue.

Daniel Baril

mardi, septembre 06, 2011

L’AGORA EST DANS LE CIEL !

05 septembre 2011

L’AGORA EST DANS LE CIEL !

Émergence : de la fourmi à la fourmilière, de l’abeille à la ruche (3)
Poursuite de cette promenade parmi les propriétés étonnantes des fourmilières, toujours largement inspiré par les émissions de Jean-Claude Ameisen. Après avoir été capable de construire un radeau insubmersible, avoir inventé l’agriculture et l’élevage(1), les voilà qui sont capables de :
  • Trouver le plus court chemin entre deux points : elles peuvent faire émerger de solutions optimales à partir de connaissances uniquement locales. Pour cela, elles explorent le territoire au hasard et laissent des phéromones qui recrutent des autres fourmis : plus le chemin est court, moins il y a d’évaporation et donc davantage de recrutements, et au bout d’un moment, tout le monde passe par le voie la plus rapide. Elles savent même gérer des réseaux dynamiques, complexes et changeants, car elles savent aussi mémoriser une direction. 
  • Optimiser la circulation : avec elles, jamais d’embouteillages. Et souvent des soldats immobiles sont sur les côtés pour protéger le flux.
  • S’adapter en fonction de leur environnement : l’expérience individuelle vient compléter, voire infléchir le conditionnement originel. Ainsi chez certaines familles de fourmis, si une exploratrice ne trouve jamais de nourriture, elle finit par se spécialiser dans des tâches internes à la fourmilière. A l’inverse, celles qui ont du succès, sortent de plus en plus. Bel exemple de plasticité cérébrale collective
Les abeilles de  leur côté ne sont pas en reste, car elles peuvent :
  •  Faire part à leurs congénères de leurs découvertes : de retour à la ruche, en exécutant comme une danse, elles communiquent le résultat de leurs recherches. La qualité de la découverte est donnée par la vitesse du retour final et le nombre de circuits, la direction par l’angle de la montée par rapport à la verticale, la distance par la durée de la montée. Ensuite, à cette distance et dans cette direction, les abeilles n’ont plus qu’à chercher l’odeur dont l’abeille d’origine était imprégnée. Et comme elles sont sensibles à la polarisation de la lumière, aux rayons ultra-violets, elles trouvent leur chemin même si le soleil est caché. Pratique, non ? Et une vidéo pour vous montrer la danse de l'abeille :

  • Procéder par démocratie majoritaire : la colonie ne décidera la localisation de la nouvelle ruche qu’après un vote démocratique et collectif. Comment ? Facile… D’abord plusieurs centaines d’abeilles partent séparément à la recherche d’un nouveau site adéquat. Chacune procède à une évaluation attentive (volume de la cavité, isolement thermique, isolement par rapport à l’humidité et la pluie, taille de l’ouverture – ni trop grande, ni trop petite -), puis revient pour faire un compte-rendu dansé. Les éclaireuses qui n’ont rien trouvé, si elles sont séduites par la danse, vont à leur tour évaluer le site potentiel. Ainsi petit à petit, les destinations les plus intéressantes recrutent de plus en plus d’éclaireuses. Une option se dégage, et à un moment, il y a un consensus qui se fait et toute la colonie s’envole.