La publicité est reconnue par notre cerveau en 1/10e de seconde

Standard
« NYC - Time Square - From upperstairs » par Jean-Christophe BENOIST — Travail personnel. Sous licence CC BY 3.0 via Wikimedia Commons

Time Square – une cathédrale de la publicité (Ph. Jean-Christophe BENOIST – sous licence CC BY 3.0 via Wikimedia Commons)

Des chercheurs en neuro-marketing ont établi qu’une publicité aperçue durant 1/10e de seconde, même floue, aura le temps de communiquer son message à notre cerveau, à condition qu’elle respecte quelques principes. En substance, il faut un objet simple représenté au centre de l’image, et de la couleur. Un résultat qui s’applique aussi bien aux pubs de rue qu’à celle de la télé et du Web. Ce qui, selon que l’on se place du point de vue des annonceurs ou du public, est une chance ou une fatalité.

Les deux chercheurs, Michel Wedel et Rik Pieters, des universités du Maryland (Etats-Unis) et de Tilburg (Pays-Bas), ont en effet publié un article dans la revue Marketing Science présentant deux études sur la réaction du cerveau face au déferlement de la publicité visuelle, qui s’expose dans les panneaux de rue, les écrans du métro, les « réclames »de la télé, et les bannières et vidéos des sites de la Toile. La principale conclusion est que malgré cette sursaturation visuelle, qui aurait pu entrainer une cécité et désensibilisation du cerveau à ses messages, les publicités continuent à pénétrer notre cerveau à vitesse grand V. Cela même par le coin de l’œil (vision floue ou périphérique) et même si, ultra-sollicités, nous ne leur accordons que le temps d’un clin d’œil bien involontaire  : 1/10 de seconde suffit.

La publicité doit se frayer un chemin dans la « foule »

Mais pour que l’injection agisse, c’est-à-dire pour qu’une publicité puisse se « frayer un passage dans la foule » et délivrer son principal message aux parties disponible du cerveau, il faut une stratégie en deux points : d’abord, une image simple et centrale caractérisant parfaitement la catégorie ou la marque présentée – une voiture, un visage aimable, un logo. Ensuite, pour aider la publicité à pénétrer (même si elle est perçue en flou), il faut que l’objet central soit coloré dans un contexte plutôt neutre.

Ces résultats, issus de tests en laboratoire sur des volontaires filtrés à l’aune de modèles statistiques sophistiqués, pourraient n’émouvoir personne tant le monde de la publicité est depuis les années 1950 l’objet de fantasmes concernant aussi bien une supposée manipulation subliminale que l’utilisation de messages codées. Mais ils sont percutants car ils s’appliquent à la réalité de l’environnement publicitaire actuel, hyper-saturé, et que leur preuve repose sur des méthodes scientifiques robustes issues des progrès en sciences cognitives.

Les études sur l’impact de la publicité utilisent des modèles liés au fonctionnement du système cognitif

En effet, les personnes testées viennent déjà avec leurs connaissances et leur « formatage » mental par la publicité. Comme l’étude se base notamment sur les déclarations des sujets après les avoir soumis à des exercices de vision rapide d’images claires et floues (quelle marque avez-vous reconnu ? Quelle image ?, etc.), il est difficile de dégager les paramètres objectifs qui agissent véritablement sur tous les cerveaux hors toute interprétation personnelle lié à ce bagage – ce qu’on appelle des biais d’interprétation.

Pour isoler la part du « mécanique », c’est-à-dire les processus cognitifs, dans les réactions des personnes testées, les chercheurs se servent de la technologie du eye-tracking – le suivi par ordinateur du mouvement des yeux – et intègrent ces données aux déclarations des personnes dans un modèle statistique dit « bayésien » capable de remonter aux causes exclusivement cognitives en excluant les biais d’interprétation. Un outillage théorique extrêmement puissant car il fait appel aux dernières découvertes sur la manière dont le cerveau traite l’information.

Une sollicitation de nos mécanismes inconscients qui n’est pas synonyme de manipulation

Les résultats publiés par les chercheurs ne devrait pas laisser indifférents les annonceurs du Web ni ceux se servant des nouvelles technologies pour suivre en direct les réactions des passants, comme dans le cas des écrans publicitaires du métro, munis de capteurs déterminant les zones regardées et la durée, afin de renvoyer ces données statistiques (anonymisées) à leurs logiciels d’analyse. Néanmoins, ce qui devrait rassurer le public c’est que les annonceurs, s’ils appliquent tous ces nouvelles stratégies publicitaires, même celles visant notre système cognitif, mettent toutes les publicités au même niveau d’efficacité, ce qui paradoxalement éloigne le fantasme de la manipulation car l’homogénéité laisse finalement à notre libre arbitre le choix final du produit à acheter.

Román Ikonicoff

 

> Lire également dans les Grandes Archives de Science & Vie :

  • Votre cerveau vous trompe – S&V n°1044 – 2004 – Notre cerveau présente des failles : mémoire trompeuse, fausses perceptions, raisonnements biaisés… Comment l’univers de la publicité en exploitent certaines (+ 20 expériences qui vous feront douter de vous-même).

1044

  • La formule qui décrypte le monde – S&V n°1142 – 2012 – Depuis quelques années, la recherche en marketing s’est affinée au point d’être entrée dans le domaine des sciences cognitives et de ses modèles basés sur la célèbre formule de Bayes, qui semble consubstantielle à tout raisonnement en lien avec la réalité extérieure.

1142

  • Libre arbitre : notre cerveau décide avant nous – S&V n°1057 – 2005 – L’un des grands apprentissages issues des sciences cognitives est l’importance des mécanismes inconscients et hyper-rapides dans notre être au monde. Au point de questionner notre libre arbitre.

1057

 

Pourquoi fait-il plus froid en altitude alors qu’on se rapproche du soleil ?

Standard
Au sommet de l'Everest, à 8848 m d'altitude, la température descend à -42,5 °C (ph. Rupert Taylor-Price, via Flickr CC BY 2.0)

Au sommet de l’Everest, à 8848 m d’altitude, la température descend à -42,5 °C (ph. Rupert Taylor-Price, via Flickr CC BY 2.0)

On pourrait croire en effet que plus on se rapproche du Soleil, plus il réchauffe l’air. Mais ce n’est pas si simple. Comme l’explique ­Sébastien Léas, de Météo-France, le lien entre température et altitude change dans les quatre couches de l’atmosphère : “Chacune possède des températures différentes selon sa composition chimique et ses caractéristiques.”

Les 12 premiers kilomètres de l’atmosphère (la tropo­sphère) sont chauffés par la chaleur de la Terre. Or, si l’air chaud s’élève, sa diffusion est con­trée par un mécanis­me plus puissant : la diminution de la pression atmosphérique avec l’altitude. Cette loi fondamentale de la thermody­namique veut que la température d’un gaz baisse avec sa pression. Ainsi fait-il – 42,5 °C au sommet de l’Everest, à 8 848 m !

Dans la stratosphère (entre 12 et 50 km d’altitude), la température augmente avec l’altitude : l’action des UV sur les molécules de dioxygène produit de l’ozone qui libère de la chaleur. En haut de la stratosphère, la température atteint 0 °C.

La température baisse ou augmente en fonction de la couche atmosphérique traversée

Dans la mésosphère (jusqu’à 80 km), pauvre en particules d’air, la température se remet à décroître avec l’altitude jusqu’à – 73 °C, en vertu du même principe thermodynamique que dans la troposphère.

Enfin, dans la thermo­sphère (jusqu’à 620 km), elle remonte en flèche, de 300 °C à 1 600 °C selon l’activité du Soleil. Cette hausse, dans une couche où l’air est très rare et la densité de matière faible, est due à l’absorption des UV de très courtes longueurs d’onde (entre 100 et 200 nm) par les molécules de dioxygène. Ce qui a pour effet d’agiter ces molécules et d’élever la température de cette couche.

K. J.

 

Des particules accélérées 10 trillards (10^22) de fois dans un tube de 9 cm

Standard
Le tube de 9 cm dans lequel les électrons ont été accélérés (Image : Roy Kaltschmidt)

Le tube de 9 cm dans lequel les électrons ont été accélérés (Image : Roy Kaltschmidt)

Des chercheurs américains viennent de pulvériser le record mondial d’accélération de particules, des électrons, à l’aide d’un accélérateur « de poche » de 9 cm de long. En chiffres, cette accélération est de l’ordre de 10^22 G, G étant le sigle officiel de l’accélération mesurée par rapport à un solide en chute libre à la surface de la Terre, un G vaut 9,8 m/s². Si on compare, le corps humain ne supporte pas plus de 46 G d’accélération, un ballon de foot atteint rarement les 300 G et la balle du plus puissant révolver (un Parabellum) reçoit 190 000 G. Mais l’expérience menée au Laboratoire national Lawrence Berkeley (LBNL) sert surtout à démontrer la puissance de ce nouveau type d’accélérateur de particules compact, dits à laser-plasma, face aux immenses accélérateurs « traditionnels » comme le Large Hadrons Collider (LHC) du CERN.

C’est donc dans un tube de 9 cm de long qu’un nuage d’électrons a reçu une poussée fulgurante délivrée par un laser « pétawatt » (10^15 watts) le plus puissant construit à ce jour, en activité depuis seulement un an. Durant ce court trajet, les électrons ont été accélérés jusqu’à une valeur d’énergie de 4,25 GeV, soit 4,25 milliards d’électronvolts. En d’autres termes, les électrons ont acquis de la vitesse 1000 fois plus vite que dans un accélérateur de type LHC, un peu comme un nouveau modèle de F1 qui atteindrait les 100 km/h mille fois plus vite que les modèles concurrents.

L’accélérateur de particules « de poche » le plus puissant au monde

En gardant la métaphore de la F1, cela ne signifie pas que le nouveau bolide va au final dépasser en vitesse les autres car tout en les grillant au démarrage il peut ensuite se faire coiffer au poteau : ce n’est donc pas un record de vitesse mais bien un record d’accélération (qui mesure le taux d’augmentation de la vitesse par seconde). Cette accélération se compte en énergie, des électronvolts, et non pas en vitesse car aucune particule de matière ne peut atteindre la limite absolue de la vitesse de la lumière (c = 299 792 km/s),dixit la théorie de la relativité d’Einstein depuis plus d’un siècle. Si toutes les particules sont forcées de plafonner, à environ 99,99999 % de c, l’accélération qui leur est transmise se transforme en énergie « de masse », non plafonnée.

Simulation informatique du champ d'accélération dans le plasma (LBNL)

Simulation informatique du champ d’accélération dans le plasma (LBNL)

Accélérer une particule revient finalement à augmenter sa force d’impact ou inertie plutôt que sa vitesse réelle. Or dans les grands accélérateurs, l’accélération des particules persiste sur une distance supérieure à 9 cm : les anneaux du LHC font 27 km ! La particule a le temps d’acquérir une vitesse-énergie des centaines de fois supérieure à l’électron du tube des chercheurs de Berkeley – dès le printemps prochain les particules du LHC frôleront les 7 TeV d’énergie, soit 7 000 milliards d’électronvolts, presque 2000 fois plus qu’à Berkeley (les tests sont en cours).

Les ingénieurs et techniciens du LHC préparent l'accélérateur de nouvelle génération (LHC/CERN)

Les ingénieurs et techniciens du LHC préparent l’accélérateur de nouvelle génération (LHC/CERN)

Néanmoins, cette subtilité entre record d’accélération et record de vitesse ne gâche en rien l’intérêt de ces nouveaux accélérateurs de poche, car en physique des particules l’accélération est aussi utile que la vitesse : ça servirait à fabriquer des lasers à électrons pouvant projeter des faisceaux de rayons X voire gamma – du jamais vu : un nouveau laser extraordinaire et… redoutable. Sans parler des applications innovantes en médecine, pour la radiothérapie contre le cancer, en chimie et en biologie.

Román Ikonicoff

 

> Lire également dans les Grandes Archives de Science & Vie :

1076

  • Pourquoi le boson de Higgs n’est pas la fin de l’histoire – S&V n°1147 – 2013 – Après la découverte du boson de Higgs, qui est venu compléter et confirmer le modèle standard des particules, certains s’interrogeaient sur la suite : est-ce la fin de la recherche en physique des particules ? Que non !

S&V1147

S&V 1088 boson de Higgs

Philae : son forage de la comète a échoué, mais il n’a pas dit son dernier mot

Standard
La dernière image de la comète "Tchouri", ce 7 décembre 2014. / Ph. ESA/Rosetta/NAVCAM – CC BY-SA IGO 3.0

La dernière image de la comète « Tchouri », ce 7 décembre 2014. / Ph. ESA/Rosetta/NAVCAM – CC BY-SA IGO 3.0

Un mois après son atterrissage sur la comète « Tchouri », l’atterrisseur Philae fait reparler de lui. Les analyses de son outil de forage indiquent qu’il n’a pas réussi à analyser le sol de la comète sur laquelle la sonde Rosetta l’avait délicatement déposé le 12 novembre. Mais ce n’est pas un raté définitif…

Se poser sur une caillou orbitant à 500 millions de kilomètres de la Terre pour la première fois dans l’histoire a été un exploit indéniable, mais les astrophysiciens en attendent davantage de Philae. Fleuron de l’Agence spatiale européenne, il est équipé de 16 instruments de mesure sophistiqués, qui doivent livrer des données précieuses sur la composition de la comète, afin d’enrichir les connaissances sur la formation du Système solaire.

Ces données voyagent via la connexion radio relayée par Rosetta et atteignent la Terre 28 minutes plus tard, puis suivent des semaines d’analyse par les laboratoires, avant la publication des résultats.

Mais une rumeur a circulé cette semaine avant une vraie annonce par les scientifiques : l’outil de forage n’aurait pas réussi à prélever un échantillon du sol cométaire. Impossible donc d’en analyser le contenu, ce qui était pourtant l’une de ses missions principales.

Lander_labels_line_circle2

Schéma de Philae avec tous ses instruments de mesure. / Ph. ©ESA/ATG medialab.

Le foret (outil SD2, piloté par une équipe du Polytechnique de Milan) devait prélever un échantillon de matière de la comète et le déposer dans un four en forme de godet (outil COSAC, piloté par une équipe de l’Institut Max Planck à Katlenburg-Lindau, en Allemagne). Là, sa composition chimique devait être révélée par un spectromètre de masse couplé à un chromatographe en phase gazeuse.

La tentative d’analyser le sol de Tchouri n’est que reportée pour Philae

Or, dès le 12 novembre, on soupçonnait déjà que cette opération de forage allait être difficile. L’atterrissage sur Tchouri a en effet pris une tournure imprévue, et il semble que le petit engin se soit retrouvé coincé le long d’une paroi rocheuse, avec un pied vers le haut, penché par rapport au sol. Des conditions qui ne lui facilitent pas la tâche.

Philippe Gaudon, chef de projet de la mission Rosetta au CNES, confirme : « soit le foret n’a pas réussi à atteindre le sol, du fait de la position inclinée, soit il a réussi à forer, mais il n’a pas déposé une quantité suffisante de matière dans le four ». Sur la comète règne en effet une gravité très faible (microgravité), et l’échantillon de matière s’est peut-être tout simplement envolé au lieu de tomber à l’endroit prévu.

Mais le dernier mot n’est pas dit : « Philae pourrait très bien réussir un deuxième forage ! » Les responsables de l’opération pourraient ruser en pivotant la plate-forme qui soutient l’outil, afin qu’il surplombe un point où le sol est plus proche. Pour ce faire, ils attendent impatiemment de connaître plus précisément la position de l’engin sur la comète. Une mission qui incombe à OSIRIS, la caméra de la sonde Rosetta, qui survole toujours la comète 67P/Churyumov-Gerasimenko.

« J’espère tous les jours avoir du nouveau de l’équipe d’OSIRIS« , confie Philippe Gaudon. De la position de Philae dépend aussi la quantité de soleil qu’il reçoit et qui sert à alimenter sa batterie, pour le réveiller de son sommeil : il reste donc à espérer qu’elle sera suffisante pour tenter un deuxième forage dans quelques mois.

Fiorenza Gracci

> Lire aussi dans les Grandes Archives de S&V :

  • Exploit de Rosetta. Et pourtant rien ne s’est passé comme prévu — Les soixante-cinq heures de l’atterrissage sur la comète, racontées comme si vous y étiez — S&V n°1168 (en kiosques le 17 décembre).

S&V_1168_ROSETTA

  • Rosetta enfin à l’abordage — Tout sur le parcours de Rosetta, les défis qu’a relevés cette mission, ses objectifs scientifiques, et les réponses qu’on attend des comètes… —S&V n°1164.

S&V 1164 Rosetta

  • Les dix énigmes du Système solaire – Spirit, Opportunity, Solar B, Venus Express… Rosetta est loin d’âtre seule. Les sondes envoyées par l’homme doivent dissiper les derniers mystères de notre système solaire… — S&V n°1066.

S&V 1066 couv

  • Rosetta part se poser sur une comète – La mission Rosetta se prépare. A l’époque, la sonde visait la comète Wirtanen, mais le lancement a été repoussé, et la comète Tchoury chosie à la place. — S&V n°1024.

S&V 1024 Rosetta

 

 

 

 

 

Depuis 2000, le paludisme est deux fois moins meurtrier

Standard
Distribution de moustiquaires imprégnées d'insecticides en république démocratique du Congo. Elles sont fondamentales pour protéger des piqûres. / Ph. ixtla via Flickr - CC BY SA 2.0

Distribution de moustiquaires imprégnées d’insecticides en république démocratique du Congo. Elles sont fondamentales pour protéger des piqûres. / Ph. ixtla via Flickr – CC BY SA 2.0

Bonne nouvelle pour les pays du Sud : le paludisme est en recul. Depuis l’an 2000, le nombre de décès dans le monde a chuté de 48 % et les infections de 26 %, annonce l’Organisation mondiale de la santé (OMS) dans son rapport annuel sur cette maladie. Extrêmement meurtrière, elle est répandue dans les zones tropicales de la planète entière, exposant 3,2 milliards de personnes à un risque de contamination.

On doit ces avancées aux mesures de prévention, de dépistage et de traitement mises en place dans toutes les zones touchées, grâce à une hausse des financements publics et privés. Ainsi, la lutte au paludisme a brassé 2,7 milliards de dollars en 2013 (2,2 milliards d’euros), trois fois plus qu’en 2005 !

Ces fonds on permis aux pays touchés par la maladie de distribuer des centaines de millions de moustiquaires imprégnées d’insecticides, de tests de diagnostic rapide, et des traitements médicamenteux ACT (combinaison thérapeutiques à base d’arthémisine) capables de soigner le paludisme.

Encore 200 millions de nouveaux malades de paludisme l’année dernière

En 2013, on estime que 200 millions de personnes sont tombées malades (les estimations vont de 124 à 283 millions), contaminées par une piqûre de moustique du genre Anophele porteur du parasite Plasmodium. Une fois dans le sang, ce protozoaire infecte le foie, provoquant de très fortes fièvres et des maux de tête, souvent fatals pour les enfants et les femmes enceintes.

Résultat : l’année dernière, le « palu » a emporté 584 000 vies (de 367 000 à 755 000). Parmi elles, 78 % étaient des enfants de moins de 5 ans, et 90 % vivaient en Afrique. Fait positif cependant, la lutte contre la maladie a permis d’éviter 4,1 millions de décès depuis 2001, d’après l’OMS.

L’objectif des Nations unies, fixé à l’orée du nouveau millénaire, était de maîtriser l’épidémie à l’horizon 2015. Sommes-nous en passe d’y arriver ? Pas tout à fait, affirme la directrice générale de l’OMS Margareth Chan, malgré des avancées considérables.

Un accès aux moustiquaires et aux soins encore très inégal

En effet, malgré les progrès, l’accès au soin est encore très disparate selon les régions, surtout parmi les populations à faibles revenus. 278 millions de personnes à risque vivent encore sans moustiquaire imprégnée capable de les protéger des piqûres, 15 millions de femmes enceintes ne reçoivent pas de médicament capable de prévenir l’infection, et quelque 60 millions d’enfants malades ne sont pas soignés à l’aide des médicaments ACT.

Autre inquiétude majeure : en Asie du sud-est, les parasites deviennent de plus en plus résistants aux médicaments antipaludéens.

Pour maîtriser la maladie, l’OMS estime qu’il faudrait encore doubler les fonds consacrés à la lutte : soit un total de 5,1 milliards de dollars (4,1 milliards d’euros) par an.

Fiorenza Gracci

> Lire aussi dans les Grandes Archives de S&V :

  • Trouver le vaccin contre le paludisme – Grand espoir de la recherche médicale depuis toujours, la recherche d’un vaccin immunisant contre le plasmodium a pris un tournant majeur en 2012. – S&V n°1132.

S&V 1132 vaccin palu

  • Les moustiques enfin inoffensifs ? – Paludisme, dengue, chikungunya… en dehors des vaccins et des traitements, une parade originale à ces fléaux consiste à stériliser leurs vecteurs : les moustiques. – S&V n°1124

S&V 1124 dengue

  • Moustiques : la grande menaceAedes albopictus, Anophele gambiae, Culex quinquefasciatus… Pourquoi et comment ces créatures se répandent, semant des virus mortels à des endroits autrefois épargnés. – S&V n°1065

S&V 1065 moustiques

 

 

Nanomatériaux à base d’ADN : leurs formes n’ont plus de limites

Standard
Les formes tridimensionnelles d'une molécule d'ADN dont la séquence a été conçue en laboratoire ont été prédites grâce à un nouveau modèle élaboré à l'MIT. / Ph. Nature Communications - CC BY NC ND 3.0

Les formes tridimensionnelles de molécules d’ADN dont la séquence a été conçue en laboratoire ont été prévues grâce à un nouveau modèle élaboré au MIT. / Ph. Nature Communications – CC BY NC ND 3.0

Des ingénieurs en biologie du Massachussets Institute of Technology (MIT) ont élaboré un modèle informatique permettant de concevoir de nouvelles formes tridimensionnelles d’ADN, les plus complexes jamais réalisées.

Des anneaux, des rubans, voire des paniers et même des formes géométriques telles que des icosaèdres semblables à des virus ont pu être formés au laboratoire de bioinformatique et de biophysique du MIT, en déterminant d’abord une certaine séquence d’ADN, puis en prévoyant à l’aide du nouveau modèle la forme finale qu’elle allait prendre dans l’espace… avec une précision nanométrique !

D’après les chercheurs, définir aussi finement l’architecture de ces structures aussi complexes ouvre la possibilité de fabriquer des puces capables de délivrer des médicaments dans les cellules, ou des complexes ADN-protéines capables de mimer la photosynthèse (exploitant ainsi la lumière pour fabriquer de l’énergie)… et bien d’autres nano-structures aux usages aussi divers que révolutionnaires.

Car l’ADN n’est pas seulement la molécule qui véhicule l’information génétique, c’est aussi un matériau polymère extrêmement plastique, que l’on peut modeler à souhait pour donner forme à une infinité d’objets. A partir du double brin d’acide désoxyribonucléique (ADN), d’1 nanomètre d’épaisseur et d’une longueur virtuellement infinie (1,5 mètre dans chaque cellule du corps humain), les ingénieurs en génétique élaborent depuis des années des formes complexes.

Elles sont appelées « origami », d’après les figures en papier plié de la tradition japonaise, parce qu’elles s’obtiennent en obligeant les brins d’ADN à se replier en plusieurs points et à plusieurs niveaux… donnant naissance à des tamis, des tissus, voire des cubes et des boîtes. Avec le nouveau modèle, présenté dans la revue Nature Communications (PDF), une nouvelle panoplie d’objets d’un degré beaucoup plus complexe s’ajoute à la collection.

La malléabilité de l’ADN est due à ces mêmes caractéristiques chimiques qui en font le support idéal de l’hérédité

A quoi tient une telle plasticité ? Les propriétés chimiques de l’ADN, affinées au cours de l’évolution jusqu’à en faire le support parfait de l’hérédité, en font une molécule à la fois extrêmement stable et souple, dotée de deux particularités fondamentales : sa séquence et sa structure en double brin.

La séquence de l’ADN est donnée par la suite de bases azotées (A, adénine ; T, thymine ; C, cytosine ; G, guanine), soutenue par la chaîne de sucre qui constitue le squelette du brin d’ADN. Or, les biologistes disposent de tous les outils nécessaires à enchaîner ces quatre bases dans l’ordre souhaité : la séquence de l’ADN est donc entièrement programmable.

Deuxièmement, l’appariement des deux brins : chaque brin porte une suite de bases disposées face à face, qui se lient deux par deux pour former des échelons qui sont toujours les mêmes : A se lie à T, et G à C. Ainsi, chaque séquence sur un brin a une séquence complémentaire sur le brin d’en face.

Ce sont ces deux propriétés qui sont exploités par les ingénieurs en biologie moléculaire pour façonner les structures d’ADN. En définissant des séquences spécifiques qui sont complémentaire entre elles, ils forcent les brins d’ADN à se coller ensemble à des endroits précis, comme le ferait le ciment en architecture. Et étant donné que le brin d’ADN peut être allongé à souhait, les possibilités offertes sont infinies !

D’où la nécessité de faire appel à des modèles informatiques pour construire des structures complexes. Il suffit désormais de connaître la séquence d’une certaine molécule d’ADN pour reconstruire très finement la forme tridimensionnelle qu’elle prendra.

Fiorenza Gracci

 

> Lire aussi dans les Grandes Archives de S&V :

S&V 1113 - ADN construction

S&V 1140 Nanomachines - couv

 

 

 

 

 

Pourquoi l’or brille-t-il ?

Standard
L'éclat unique de l'or en a fait un métal prisé (ph. Trustees of the British Museum, produced by Natalia Bauer for the Portable Antiquities Scheme)

Métal prisé entre tous, l’or a un éclat unique (ph. Trustees of the British Museum, produced by Natalia Bauer for the Portable Antiquities Scheme)

L’éclat particulier de l’or, sa fascinante robe jaune s’explique en fait par… la théorie de la relativité restreinte. Mais pour comprendre comment les fameuses lois d’Einstein appliquées aux atomes d’or confèrent au métal cette luminosité si spécifique, il faut d’abord revenir sur le mécanisme qui attribue une couleur aux matériaux.

Lorsqu’on lui envoie de la lumière blanche, tout solide absorbe une partie des rayons et en réfléchit une autre. “Tout se décide vraiment au niveau atomique, dévoile Pekka Pyykkö, professeur de chimie à l’université d’Helsinki (Finlande). C’est l’énergie nécessaire pour mener un électron de l’avant-dernière à la dernière orbitale des atomes qui détermine la portion de lumière absorbée…” et donc la couleur apparente du métal. Si la plupart des métaux sont plutôt gris-blancs et n’ont pas de couleur définie, c’est parce que la portion de lumière absorbée par le métal correspond en général aux ultraviolets, invisibles pour l’œil humain.

Mais il n’en va pas de même pour l’atome d’or. Avec son noyau aux 79 protons, l’or est l’un des éléments stables les plus lourds qui soient – une qualité plus essentielle encore que sa couleur. Du fait de cet énorme noyau, la force exercée sur les électrons est très forte, surtout pour les plus proches d’entre eux. Leur vitesse de rotation est donc grandement accélérée : elle peut atteindre jusqu’à la moitié de celle de la lumière.

Les électrons de l’or sont soumis à des effets relativistes

Les électrons deviennent ainsi soumis aux étranges effets relativistes prédits par Einstein avec, en particulier, une masse qui s’accroît de 20 % environ. De quoi réorganiser toutes les orbitales électroniques. “Les effets relativistes peuvent rapprocher du noyau certaines orbitales, et en éloigner d’autres, précise le chimiste. Pour le cas très particulier de l’or, ce sont les deux couches externes qui vont se rapprocher l’une de l’autre.” Ce déplacement réduit le fossé énergétique nécessaire à la transition de leur électron, qui va alors atteindre une énergie d’environ 3 électronvolts. Ce qui correspond à une partie de la lumière visible : entre le violet, le bleu et le vert. Ces longueurs d’onde sont donc absorbées par le métal, et seules les couleurs restantes, un mélange de rouge, d’orange et de jaune, seront réfléchies, pour obtenir alors cette fascinante teinte dorée.

S. D.

Est-il possible de traverser une planète gazeuse ?

Standard
A part une planète comme la Terre, la plupart des objets qui tomberaient sur Jupiter (en avant-plan son petit satellite Io) seraient très vite vaporisés  (NASA/JPL/University of Arizona).

A part une planète comme la Terre, la plupart des objets qui tomberaient sur Jupiter (en avant-plan son petit satellite Io) seraient très vite vaporisés (NASA/JPL/University of Arizona).

En théorie, oui. Leur nom l’indique : l’intérieur de ces planètes massives, comme Jupiter ou Saturne, n’est pas solide, mais gazeux ou fluide. Ce qui veut dire que les molécules et les atomes qui les composent, plutôt que d’être liés les uns aux autres comme dans les roches de notre bonne vieille Terre, sont libres de leurs mouvements. Ils ne constituent donc nullement un obstacle… Et ce, jusqu’au centre de la planète ! Car les derniers modèles des astro­nomes montrent qu’au cœur de la plus géante des géantes du système solaire, Jupiter, la température et la pression sont telles que le noyau rocheux autour ­duquel elle s’est formée pourrait être aussi fluide que son enveloppe. “Le noyau pourrait même carrément avoir disparu, précise ­Tristan Guillot, spécialiste du sujet à l’Observatoire de la Côte d’Azur. Il pourrait s’être érodé et mélangé avec les couches d’hélium et d’hydrogène de la planète.”

Un explorateur pourrait donc, sur le papier, plonger dans Jupiter jusqu’à ressortir de l’autre côté, pour peu qu’il trouve le moyen de survivre aux températures et aux pressions infernales qui règnent à l’intérieur… et c’est là que le bât blesse ! Car il y a loin de la théorie à la pratique. Même en imaginant – ce qui est déjà de la pure fiction – qu’une sonde idéale, modelée dans le métal le plus solide qui soit, puisse protéger ses passagers des intenses radiations mortelles qui bombardent Jupiter… l’aventure prendrait fin, au mieux, au bout de 2 015 kilomètres. Cela paraît beaucoup, mais ne représente en réalité que 3 % du rayon de la planète. Autant dire que la sonde n’aurait fait que tremper un doigt. Bien loin de pénétrer les mystérieuses couches internes de Jupiter. Et bien loin, a fortiori, de s’approcher de son noyau, qu’il soit liquide, solide ou évaporé.

Très vite, plus aucun métal ne résiste

Une sonde a déjà tenté l’expérience. En 1995, Galileo a lâché un petit module équipé d’un parachute dans les nuages d’ammoniac de l’atmosphère jovienne… Il a tenu à peine 120 km avant de se taire définitivement. Car très vite, le thermo­mètre et le manomètre s’emballent. A 300 km de profondeur, ils affichent déjà 700 °C et 300 bars (soit la pression qui règne dans l’océan à 3 000 m de fond) : de quoi vaporiser l’aluminium et donner aux gaz d’hydrogène et d’hélium l’aspect de liquides turbulents. Vers 1 000 km, les calculs montrent que c’est au tour du titane de partir en fumée. Enfin, au-delà de 2 000 km, les métaux les plus résistants à la chaleur (tantale, tungstène…) se mettent à fondre les uns après les autres. En clair, plus aucun métal ne résiste. Sachant qu’au cœur de la planète, enfoui à 70 000 km sous la surface, les températures atteignent les 20 000 °C, pour une pression 40 millions de fois plus importante que sur Terre… “Le plus gros problème, c’est la température. Tout fond !, confirme Tristan Guillot. Pour protéger la sonde, il faudrait imaginer un bouclier énorme qui se vaporiserait ainsi qu’un système de refroidissement… ce qui nécessiterait d’embarquer une énergie colossale.”

Même une navette spatiale en diamant – pourtant le matériau naturel le plus résistant – finirait par se liquéfier ! Les spécialistes qui ont observé, en 2009, le comportement de la pierre précieuse à haute température à l’aide d’un laser surpuissant concluent qu’elle résisterait jusqu’à 40 000 km – plus de la moitié du chemin menant au cœur de la géante – avant de fondre elle aussi. “Finalement, la seule chose qui aurait la vitesse, la résistance, la densité et la masse suffisantes pour traverser Jupiter, c’est… une autre planète !”, conclut Tristan Guillot. Les modèles des astrophysiciens montrent en effet que si la Terre était déviée de sa course autour du Soleil pour aller rencontrer Jupiter, elle serait en partie vaporisée, en partie fondue… mais réussirait tant bien que mal à passer au travers.

M. F.

 

 

Ils ont fabriqué un matériau qui refroidit au soleil

Standard
Un matériau qui renvoie vers l'espace son surplus de chaleur (Ph. Fan Lab)

Un matériau qui renvoie vers l’espace son surplus de chaleur (Ph. Fan Lab)

Des chercheurs de l’Université Stanford ont conçu un nouveau matériau qui exposé au soleil et à l’air garde naturellement une température de 5 degrés inférieure à la température ambiante, soit un système de refroidissement « gratuit » (hors coût de sa fabrication). Ce matériau est d’autant plus étrange qu’il se débarrasse de sa chaleur dans l’espace et non pas dans l’atmosphère.

Selon leur article publié dans la revue Nature, le matériau mis au point par le professeur Shanhui Fan et son collègue Aaswath Raman du Département de génie électrique de Stanford, se présente sous la forme d’une fine « crêpe » de 20 cm de diamètre et 1,8 micromètre d’épaisseur où alternent des couches de verre (dioxyde de silicium) et d’oxyde d’hafnium (HfO2) déposées sur un support de silicium par des techniques issues des nanotechnologies.

Un matériau qui servira de climatiseur pour les immeubles voire pour la Planète

Ce millefeuilles possède deux propriétés remarquables : d’une part, il reflète 97 % de la lumière visible – c’est un miroir très réflexif -, d’autre part il irradie une partie de la chaleur qu’il reçoit (lumière infrarouge) sous forme de radiation d’une longueur d’onde comprise entre 8 et 13 micromètres, ce jusqu’à se trouver à 5 degrés au-dessous de la température de l’air ou de la matière en contact avec lui. Mais cette chaleur ne se diffuse pas dans l’atmosphère : elle part directement dans l’espace sans jamais être absorbée ou renvoyée sur Terre par les molécules d’air de l’atmosphère. De fait, le matériau exploite ce que les scientifiques nomment la « fenêtre thermique » de notre planète, due aux caractéristiques d’absorption de ces molécules.

Ainsi, dans ces temps de réchauffement planétaire global, l’équation nous est favorable car non seulement le matériau refroidit ce qui l’entoure mais cette chaleur éjectée (le froid n’est pas une substance mais l’absence relative de chaleur) s’échappe de la Terre pour réchauffer l’Univers : le bilan énergétique terrestre final est une perte nette de chaleur. Et cela sans consommer de l’énergie puisque le matériau effectue cette transformation de manière naturelle de par sa structure et composition – contrairement aux pompes à chaleur classiques, comme un frigo, qui consomment de l’énergie électrique et irradient le surplus de chaleur dans l’air ambiant.

Le matériau doit encore passer l’obstacle d’une fabrication à grande échelle

Les chercheurs songent déjà à une application écologiquement « durable » : installer des panneaux recouverts de leur matériau sur le toit des immeubles afin de les climatiser gratuitement, à condition que le matériau surpasse l’obstacle du passage à l’échelle, en termes de dimension et de process industriel. Car finalement si l’énergie dépensée et la chaleur générée durant le processus de fabrication dépasse ce que le matériau permet d’économiser et d’éjecter dans l’espace durant sa vie utile (sans parler de son empreinte en CO2), cela n’aura pas autant d’intérêt. Dans le cas contraire, en dépassant le cadre du refroidissement des immeubles, ce type de nanotechnologie pourrait ouvrir la voie à une ingénierie visant à refroidir notre planète bien échaudée.

Román Ikonicoff

 

> Lire également dans les Grandes Archives de Science & Vie :

  • Refroidir la terre : incroyable projet contre le réchauffement – S&V n°1071 – 2006. Depuis que le problème du réchauffement climatique s’est invité à la table de l’humanité, des scientifiques et ingénieurs imaginent des systèmes artificiels qui pourraient aider à contrecarrer ce processus. Mais jouer ainsi avec notre climat présente des risques.

1071

  • Carboniser la Planète pourrait la sauver ! – S&V n°1106 – 2009 – Chaque fois que l’on brûle des déchets végétaux, composés de chaines carbonées, on libère dans l’atmosphère du dioxyde de carbone, le principal gaz à effet de serre responsable du réchauffement climatique. Des bio-ingénieurs proposent de carboniser ces déchets et de les enfouir sous terre pour limiter les dégâts.

1106

  • RECHAUFFEMENT CLIMATIQUE – Grandes Archives – 2012 – Un dossier spécial sur le réchauffement climatique de la planète, ses fondements scientifiques et ses conséquences humaines et politiques.

GrandDossier

 La capsule martienne Orion s’est posée saine et sauve… sur Terre.

Standard
Vue de la Terre depuis la capsule Orion (Nasa)

Une vue de la Terre aujourd’hui depuis la capsule Orion (Nasa)

Réglée comme une montre suisse : Après 4H24’ de vol et deux tours autour de la Terre, la capsule Orion a finalement amerri à 17H29 (heure de France) dans le Pacifique Sud (à quelques centaines de km des côtes américaines), remportant ainsi la première manche du programme d’essais en vue d’une future mission vers Mars – évoquée pour la décennie 2030. C’est une victoire pour la Nasa, qui avait dû reporter le lancement de 24 heures (prévu initialement pour jeudi).

Amerrissage de la capsule Orion à 17H29 (heure de France).

Amerrissage de la capsule Orion à 17H29 (heure de France).

Dans les semaines à venir, les ingénieurs de la NASA dépouilleront les millions d’enregistrements fournis par 1200 capteurs et les systèmes informatiques embarqués pour jauger l’adéquation de la structure de la capsule de 8,6 tonnes aux vibrations et des paramètres de température et de bruit à l’intérieur de l’espace habitable ­– mais restée vide pour ce premier vol d’essai. Surtout, ils vérifieront la robustesse de son bouclier thermique pouvant en principe résister à un échauffement à 2200 °C.

Décollage de la fusée Delta IV avec la capsule Orion

Décollage de la fusée Delta IV avec la capsule Orion

 

Le bouclier thermique d'Orion (Nasa)

Le bouclier thermique d’Orion (Nasa)

De fait, le vol a été spécialement pensé pour soumettre Orion à des conditions extrêmes : après son largage par le lanceur Delta IV 17 minutes après le décollage, Orion a effectué un tour de la Terre en s’aidant de son propulseur pour se mettre sur une orbite elliptique dont l’apogée (plus longue distance à la Terre) était de 5800 km. Arrivée là, après le largage de son propulseur, Orion a effectué une plongée vers la Terre tout en bouclant un second tour pour pénétrer dans les couches denses de l’atmosphère à la vitesse de 32 000 km/h. Enfin, il a déployé ses trois gigantesques parachutes (couvrant la surface d’un terrain de foot) et a amerri.

Orion transportera les astronautes vers une capsule plus grande : c’est cette dernière qui partira vers Mars

Conçue pour embarquer 4 personnes durant 21 jours, cette capsule servira de véhicule intermédiaire pour convoyer les astronautes au-delà de l’orbite lunaire (384 400 km altitude) vers une capsule plus grande et adaptée à un voyage de quelque 7 mois vers la planète Rouge. C’est donc un tout petit pas qu’Orion a effectué aujourd’hui mais c’est tout de même « le premier pas […] de notre voyage vers Mars » a souligné William Hill de la NASA. Et il reste beaucoup d’épreuves à remporter avant la conquête de Mars, des épreuves techniques et économiques.

Infographie de la Nasa présentant les étapes du voyage vers Mars (Nasa)

Infographie de la Nasa présentant les étapes du voyage vers Mars (Nasa)

Du coté technique, on attend la mise en service du nouveau lanceur Space Launch System – le plus puissant jamais construit – , qui satellisera Orion en 2018 lors d’un second vol d’essai sans équipage de 7 jours en orbite autour de la Lune. Puis en 2021, le même voyage emportera effectivement 4 astronautes. Néanmoins, la capsule principale, celle qui devra se rendre sur Mars, n’est pas encore conçue, et bien des progrès restent à faire du côté de la viabilité technique, matérielle, médicale et psychologique de l’envoie d’une « colonie » humaine si loin.

Du coté économique, le très long terme dans lequel s’inscrit le projet martien, dont on estime le coût total à entre 20 et 30 milliards de dollars, oblige les agences spatiales impliquées (dont l’ESA) à raisonner par étape avec des budgets débloqués au fur et à mesure selon les priorités des gouvernements qui se succéderont d’ici-là. Ainsi, chaque étape franchie dans la perspective d’un voyage habité vers Mars doit pouvoir se justifier dans une visée à plus court terme : par exemple Orion, dont le coût s’est élevé à 370 millions de dollars, pourrait servir également pour des missions lunaires ou vers des astéroïdes.

Román Ikonicoff

 

> Lire également dans les Grandes Archives de Science & Vie :

  • La NASA met le cap sur Mars – S&V n°1113 – 2010 – Même s’il n’y a pas d’agenda officiel, les États-Unis visent une mission habitée vers Mars, peut-être vers la fin de la décennie 2030. L’Europe aussi, tout comme la Chine, l’Inde et le Japon.

1113

  • Mission vers Mars – S&V n°1088 – 2008 – En vue d’un voyage vers Mars, les agences spatiales mènent des expériences de confinement d’êtres humains dans un espace réduit durant plusieurs mois. Depuis 2007 (jusqu’en 2011) la mission Mars-500 a été la première du genre.

1088

  • Retour sur la Lune : mission impossible  – S&V n°1102 – 2009 – Durant la décennie 2000, les États-Unis visaient un retour humain sur la Lune. Mais le projet a été officiellement suspendu. Mais la NASA y pense toujours…

1102