Alma dévoile la naissance d’un système planétaire

Standard
Le disque protoplanétaire qui entoure l'étoile naissante HL Tauri, observé par le réseau interférométrique Alma. Le disque s'étend sur plus de vingt milliards de kilomètres. Les divisions sombres dans le disque témoignent peut-être de la présence de planètes en formation autour de HL Tauri. Image ESO.

Le disque protoplanétaire qui entoure l’étoile naissante HL Tauri, observé par le réseau interférométrique Alma. Le disque s’étend sur plus de vingt milliards de kilomètres. Les divisions sombres dans le disque témoignent peut-être de la présence de planètes en formation autour de HL Tauri. Image ESO.

Cette image est tellement nette, symétrique, que l’on croirait une simulation : mais non, ce disque parfait, légèrement incliné, sillonné d’anneaux clairs et de divisions obscures montre, pour la première fois avec une surréaliste précision, la naissance d’un système planétaire… C’est le réseau interférométrique international Alma qui a permis d’obtenir cette image, deux fois plus précise que les photographies prises par le télescope spatial Hubble. Ce qu’elle montre ? Le disque de gaz et la poussières qui entoure une étoile naissante de la constellation du Taureau, HL Tauri. Surprise : les spécialistes de l’évolution stellaire ne s’attendaient pas à découvrir un disque aussi évolué autour d’un astre aussi jeune, HL Tauri étant âgée de un million d’années seulement. Mais surtout, ils ne s’attendaient pas à découvrir ces structures concentriques, qui signent probablement la naissance de planètes autour de l’étoile ! Les chercheurs pensent en effet depuis des décennies que les planètes se forment, autour de leur étoile, en grossissant, par effet boule de neige, sur leur trajectoire, à partir de petits objets, les planétésimaux. Ces objets, d’abord de la taille de météorites, puis d’astéroïdes, en accrétant la matière rencontrée sur leur trajectoire, grossissent progressivement jusqu’à devenir des planètes. Dans le même temps, leur orbite est balayée, nettoyée : c’est cela qu’a probablement photographié Alma.

HL Tauri, en haut de l'image, appartient à un groupe d'étoiles en formation, voilées dans un immense nuage de gaz et de poussière interstellaire, dans la constellation du Taureau. En bas et à droite de l'image, apparaît une autre étoile naissante, V1213 Tauri. Photo Nasa/ESA/STSCI.

HL Tauri, en haut de l’image, appartient à un groupe d’étoiles en formation, voilées dans un immense nuage de gaz et de poussière interstellaire, dans la constellation du Taureau. En bas et à droite de l’image, apparaît une autre étoile naissante, V1213 Tauri. Photo Nasa/ESA/STSCI.

Photographier, au sens « enregistrer les photons », car cette image n’a rien d’une photographie. D’abord, elle a du, contrairement à une image directe, faite avec un télescope et sa caméra, passer par un logiciel de reconstruction d’images : Alma est un interféromètre et ne prend donc pas d’images directes : ses dizaines d’antennes enregistrent les signaux – deux à deux – venus du ciel, puis une « carte » est reconstituée : c’est l’image que nous avons sous les yeux. Plus le nombre d’antennes est important, plus elle recouvrent la surface du télescope virtuel que le réseau dessine, plus la carte, donc l’image, est fiable. Ici, entre 25 et 30 antennes du réseau – qui en compte en tout soixante six – ont été utilisées.

Ensuite, l’image de HL Tauri a été prise à 1,28 millimètre de longueur d’onde, quand l’œil humain, par comparaison, est sensible à la lumière visible, entre 0,3 et 0,7 micromètre.

Une trentaine d'antennes du réseau Alma ont été utilisées pour observer HL Tauri. Afin d'obtenir la meilleure image possible, le réseau a été utilisé dans sa configuration extrême, certaines antennes étant séparées par 15 kilomètres. Alma se trouve à 5000 mètres d'altitude sur le plateau de Chajnantor, au Chili. Photo ESO.

Une trentaine d’antennes du réseau Alma ont été utilisées pour observer HL Tauri. Afin d’obtenir la meilleure image possible, le réseau a été utilisé dans sa configuration extrême, certaines antennes étant séparées par 15 kilomètres. Alma se trouve à 5000 mètres d’altitude sur le plateau de Chajnantor, au Chili. Photo ESO.

L’avantage énorme, décisif, du réseau Alma, par rapport aux grands télescopes optiques et infrarouges, comme Hubble dans l’espace ou le Very Large Telescope européen, par exemple, c’est que, aux longueurs d’onde millimétriques, les étoiles sont pratiquement invisibles, alors que leur environnement est très lumineux. C’est cela qui rend l’image de HL Tauri enregistrée par Alma si fascinante : on n’avait jamais vu d’aussi bien, d’aussi près, un système planétaire, à part le système solaire, bien sûr… Mais observer aux grandes longueurs d’onde a un coût. La résolution (la finesse de détails) d’un télescope dépend de son diamètre et de la longueur d’onde observée. Ici, à 1,28 millimètre de longueur d’onde, le télescope virtuel dessiné par la trentaine d’antennes du réseau Alma mesurait quinze kilomètres ! L’image de HL Tauri, qui se trouve à 450 années-lumière de la Terre, a une résolution de 0,035 seconde d’arc, ce qui correspond à 750 millions de kilomètres. Le disque proto planétaire qui entoure l’étoile naissante mesure environ vingt quatre milliards de kilomètres de diamètre.
Dans les mois et années qui viennent, les astronomes qui utilisent Alma vont améliorer encore cette image fascinante de HL Tauri. D’abord, en augmentant le nombre d’antennes utilisées, ensuite en diminuant la longueur d’onde observée, avec, qui sait, à la clé, la découverte d’un embryon planétaire circulant autour de l’étoile naissante…
Serge Brunier

Le travail de nuit accélère le vieillissement du cerveau

Standard
Des ouvriers sur un chantier nocturne. / Ph. Kecko via Flickr - CC BY SA 2.0

Des ouvriers sur un chantier nocturne. / Ph. Kecko via Flickr – CC BY SA 2.0

En plus d’affecter la vie sociale, travailler à des horaires décalés compromet les capacités cognitives du cerveau. Dix ans passés à travailler en décalé reviennent à un vieillissement de… seize ans et demi ! C’est ce que montre une étude parue ce 3 novembre dans la revue Occupational and Environmental Medicine, qui a suivi, dix ans durant, 3000 salariés et retraités vivant dans le sud de la France.

La moitié de ces personnes travaillaient en horaires décalés au moins 50 jours dans l’année, l’autre moitié avait des horaires diurnes classiques. A deux reprises, cinq et dix ans après le début du suivi, ces personnes étaient soumises à de tests afin d’évaluer leur capacités cognitives : la mémoire, l’attention, la réactivité.

Résultats : le travail de nuit détériore les performances cognitives. Les chercheurs, combinant deux équipes françaises, une suédoise et une galloise, ont aussi constaté un effet de « dose » : plus les années travaillées en horaires nocturnes étaient nombreuses, plus le cerveau était atteint. Il pouvait aller jusqu’à réagir comme un cerveau de 6,5 ans plus vieux suite à 10 ans de travail décalé.

Heureusement, cette dégradation du cerveau est aussi réversible sur le long terme. Les travailleurs qui revenaient à des horaires de travail normaux, ou qui partaient à la retraite, recouvraient leurs capacités cognitives 5 ans plus tard.

Le travail de nuit, un « cancérigène probable » pour le Centre international de recherche sur le cancer

Ces nouveaux résultats ne font que s’ajouter à la liste des méfaits des horaires décalés. En perturbant les rythmes circadiens, les activités décalées dérèglent d’importantes fonctions biologiques, sans que les mécanismes ne soient encore bien compris.

Mais depuis 2007 déjà, le travail de nuit est classé comme « cancérigène probable » par l’IARC, le Centre international de recherche sur le cancer. Cette maladie implique en effet une perturbation de la division des cellules, une fonction biologique qui suit normalement un rythme biologique finement régulé, et qui, s’il est perturbé, peut se « détraquer ».

Fiorenza Gracci

> Lire dans les Grandes Archives de S&V :

  •  Le tempo des origines bat en nous - S&V n°1124. Découverte bouleversante en chronobiologie : l’horloge circadienne qui rythme la vie est la même pour tous les organismes vivants !

S&V 1124 tempo

S&V 1144 santé travail

 

 

 

« Interstellar » et « Particle fever » : trous noirs et particules à l’honneur au cinéma

Standard
L'affiche du film "Interstellar" qui sort en salles ce 5 novembre. / Ph. Global Panorama via Flickr CC BY SA 2.0

L’affiche du film « Interstellar » qui sort en salles ce 5 novembre. / Ph. Global Panorama via Flickr CC BY SA 2.0

Deux films à haute teneur scientifique sortent aujourd’hui en salles en France. Deux épopées, l’une dans l’espace au-delà de notre galaxie, l’autre au cœur de l’infiniment petit, qui promettent de satisfaire la soif de science des spectateurs passionnés de physique et d’astrophysique. A l’écran, deux objets mythiques de ces disciplines seront à l’honneur : les trous noirs dans « Interstellar » de Christopher Nolan, et les particules fondamentales de la physique quantique dans « Particle Fever », documentaire de Mark Levinson tourné au CERN de Genève.

« Particle Fever », la traque du boson de Higgs vécue de l’intérieur du LHC

La caméra emmène le spectateur à l’intérieur du LHC, pour « Large hadron collider », grand collisioneur de hadrons, le plus grand accélérateur de particules au monde (et aussi la plus grande machine jamais construite par l’homme). Là, des centaines de physiciens du monde entier traquent depuis 2008 les particules fondamentales capables d’expliquer enfin le modèle standard de la physique des particules. Autrement dit, d’élucider la composition la plus intime de la matière qui forme l’Univers – rien de moins !

Cette « fièvre pour les particules » emporte rapidement le spectateur, qui vivra le suspense vécu par les chercheurs eux-mêmes, au fil des témoignages. Des ingénieurs et techniciens ayant construit ce monstre d’électronique qu’est le LHC, aux physiciens théoriques de différents courants de pensée, en passant, surtout, par les physiciens expérimentaux, postés aux manettes de l’accélérateur de particules et derrières les écrans de gigantesques ordinateurs analysant les résultats.

La fin est annoncée, et heureuse : celle qu’on peut définir comme la plus grande expérience scientifique de tous les temps a été couronnée d’un succès phénoménal en 2012 avec la découverte du fameux boson de Higgs, dont l’existence avait été postulée en 1964. Parfois définie la « particule de Dieu », il permet d’expliquer pourquoi certaines particules possèdent une masse. Il a valu à ses concepteurs François Englert et Peter Higgs, incrédules d’avoir vécu de leur vivant la confirmation de leurs théories, d’être récompensés par le prix Nobel de Physique en 2013.

« Particle Fever » parvient à expliquer clairement les enjeux des expériences menées au LHC, ainsi que les efforts accomplis par les chercheurs pour les mener à bien. Un conseil cependant : préférez la version originale à la version doublée en français, qui produit un étrange effet de décalage par rapport à la parole des chercheurs.

« Interstellar », un voyage spatio-temporel à travers les trous noirs et les trous de ver

Le deuxième film sortant en salles ce 5 novembre est un blockbuster hollywoodien qui raconte une mission spatiale de la dernière chance, à la recherche d’une autre planète habitable par l’humanité, depuis qu’une maladie décime les plantes de la Terre entière, condamnant les êtres vivants à l’asphyxie. Son scénario a été co-écrit par les frères Christopher et Jonathan Nolan (Memento, Inception, Batman…) et par l’astrophysicien Kip Thorne, titulaire de la prestigieuse chaire Feynman à l’Université de Californie.

Au-delà de l’histoire centrée sur les gestes de l’astronaute protagoniste, qui pour accomplir sa mission doit traverser un trou de ver (une faille spatio-temporelle) le menant vers une autre galaxie, « Interstellar » maintient la promesse faite à Kip Thorne d’être scientifiquement fiable à 100 %.

Mieux : ce film ne se limite pas à montrer des images de trous noirs comme on les a jamais vues. Comme l’a expliqué le scientifique lui-même à Science&Vie, le tournage a été l’occasion de réaliser de nouvelles simulations des trous noirs, qui ont été jusqu’à faire émerger de nouvelles données scientifiques !

En effet, le scientifique a profité des puissants calculateurs disponibles dans les studios cinématographiques destinés à réaliser des effets spéciaux pour réaliser des simulations inédites de trous noirs, comme dans un laboratoire d’astrophysique. Non seulement il a obtenu des images avec une résolution inégalée auparavant,  il a aussi observé des effets jamais vus. Par exemple, en simulant un trou noir tournant très vite sur li-même, présent au scénario du film, il a assisté à la formation de motifs lumineux étranges (fruits de ce qu’on appelle l’effet de lentille gravitationnelle). Deux publications scientifiques sont en préparation pour faire état de ces nouvelles découvertes.

Fiorenza Gracci

> Lire aussi dans les Grandes Archives de S&V :

  •  Interstellar. Le film qui fait voir les trous noirs pour de vrai - S&V n°1166. Dans un futur proche, sur une Terre exangue, un groupe d’explorateurs utilise une faille récemment découverte dans l’espace-temps afin de parcourir des distances astronomiques et trouver une nouvelle planète habitable à coloniser pour l’humanité. »

S&V 1166 Interstellar

couverture-science-et-vie-1131-juin-au-dela-du-reel

S&V 1088 boson de Higgs

  • Trous noirs : ils sont bien les maîtres du Cosmos – S&V n°1085. Ils ne font pas qu’avaler tout ce qui passe à leur portée : ils génèrent des étoiles, crachent de la matière vers les galaxies voisines… et pourraient être la clé des portes de l’espace-temps !

S&V 1085 trous noirs

 

 

Dengue : un vaccin pourrait être commercialisé dès l’an prochain

Standard
Un moustique tigre, Aedes albopictus, capable de transmettre la dengue. / Ph. John Tann via Flickr - CC BY 2.0

Un moustique tigre, Aedes albopictus, capable de transmettre la dengue. / Ph. John Tann via Flickr – CC BY 2.0

Testé sur plus de 20 000 enfants dans cinq pays d’Amérique latine, il est efficace à 60,8 %. Cela peut paraître peu, mais le vaccin expérimental de Sanofi contre la dengue est le premier qui va aussi loin dans les essais cliniques, comme l’atteste un article paru ce 3 novembre dans la prestigieuse revue de médecine New England Journal of Medicine. Si bien que le groupe pharmaceutique Sanofi espère obtenir les autorisations pour commercialiser ce vaccin dans les pays touchés par cette fièvre tropicale dès la deuxième moitié de l’année 2015.

L’intérêt d’un tel vaccin, même doté d’une efficacité moyenne, est énorme si on considère que la dengue touche 390 millions de personnes par an de tous âges, causant de nombreux dégâts sanitaires et économiques. Provoquée par un flavivirus transmis par les moustiques du genre Aedes dans les régions tropicales et subtropicales de l’ensemble de la planète, elle entraîne des symptômes plus ou moins graves chez une personne infectée sur quatre. Certaines ne développent que de simples manifestations virales passagères, d’autres de fortes fièvres (dengue classique), qui peuvent évoluer en des formes graves où la fièvre s’accompagne de pertes de sang et de plasma, et peut entraîner la mort. Aucun traitement spécifique n’est disponible.

Le virus de la dengue se présente sous quatre « sérotypes » différents, ce qui complique la recherche d’un vaccin

Ainsi, la recherche d’un vaccin mobilise les laboratoires depuis des décennies. Mais elle est compliquée par l’existence de quatre variantes du virus, appelées sérotypes. Le problème est le suivant : lorsqu’une personne a contracté une première fois un virus de la dengue, son immunité la protège contre ce seul sérotype. Si cette même personne est infectée une deuxième fois par un virus d’un sérotype différent, au lieu de la protéger, le système immunitaire déclenchera une réaction qui empirera l’infection. Les risques de développer une forme grave de dengue sont alors accrus. Par conséquent, un vaccin doit protéger contre tous les sérotypes pour être considéré comme efficace.

Le vaccin développé par Sanofi a remporté ce défi de manière assez satisfaisante : il a protégé les enfants à qui il a été administré avec une efficacité de 50 %, 42 %, 74 % et 77 % pour les quatre sérotypes du virus, respectivement. Mais surtout, lorsqu’ils attrapaient tout de même la dengue, ces enfants ont connu 80 % d’hospitalisations en moins et 95,5 % de cas graves en moins comparés aux enfants ayant reçu une injection de contrôle (sans principe actif).

A présent, comme le note le New England Journal of Medicine dans son éditorial, il reste à savoir si les pays touchés accepteront d’intégrer au calendrier vaccinal un produit qui vise surtout à éviter les complications mortelles de la dengue, sans protéger complètement de la maladie. Aussi, de nouvelles études doivent être menées pour étendre les résultats à une population plus large de par le monde. Quoi qu’il en soit, les preuves sont déjà là qu’enrayer la dengue à l’aide d’un vaccin est possible.

Fiorenza Gracci

> Pour en savoir plus : 

> Lire aussi dans les Grandes Archives de S&V :

  • Dengue, un vaccin se profile - S&V n°1142. Avant ce dernier essai, le vaccin de Sanofi avait été testé en Asie… suscitant les tout premiers espoirs.

S&V 1142 dengue

  • Les moustiques enfin inoffensifs ? – S&V n°1124. Paludisme, dengue, chikungunya… en dehors des vaccins et des traitements, une parade originale à ces fléaux consiste à stériliser leurs vecteurs : les moustiques.

S&V 1124 dengue

  • Moustiques : la grande menace – S&V n°1065. Aedes albopictus, Anophele gambiae, Culex quinquefasciatus… Pourquoi et comment ces créatures se répandent, semant des virus mortels à des endroits autrefois épargnés.

S&V 1065 moustiques

 

 

 

Changement climatique : éviter le pire est encore possible, annonce le Giec

Standard
Au Pakistan, en 2010, six mois après des inondations qui ont forcé 20 millions de personnes à se déplacer, de nombreuses terres sont encore couvertes d'eau. Ces évènements extrêmes vont devenir plus fréquents à cause du réchauffement de la planète. / Ph. DFID via Flickr - CC BY 2.0

Au Pakistan, en 2010, six mois après des inondations qui ont forcé 20 millions de personnes à se déplacer, de nombreuses terres sont encore couvertes d’eau. Ces évènements extrêmes vont devenir plus fréquents à cause du réchauffement de la planète. / Ph. DFID via Flickr – CC BY 2.0

Le message des climatologues est clair : freiner le changement climatique est encore possible. En basculant vers un mode de production d’énergie basé sur les sources renouvelables, en abandonnant les énergies fossiles et en réalisant d’importantes économies d’énergie, les émissions de gaz à effet de serre pourraient être progressivement réduites à zéro à l’horizon 2100. Ce qui permettrait de maintenir le thermomètre planétaire en-dessous des +2 °C de réchauffement.

De plus, les investissements nécessaires pour ce faire coûteront beaucoup moins cher que les dégâts entraînés par le dérèglement climatique de la planète (inondations, sécheresses, crises alimentaires…), inévitables en l’absence d’une action massive des gouvernements.

C’est, en somme, ce que vient étayer le texte qui fait la synthèse du 5e rapport d’évaluation du Giec (Groupe intergouvernemental d’experts sur le climat), publié ce dimanche 2 novembre à Copenhague. Il résume les quatre dernières publications du Giec sur le changement cimatique : Les éléments scientifiques (septembre 2013), Conséquences, adaptations et vulnérabilité (mars 2014) et Atténuation du changement climatique (avril 2014). Un travail de mastodontes qui a duré huit ans au cours desquels le Giec a analysé 30 000 publications scientifiques rédigées par 800 auteurs principaux.

Selon le Giec, enrayer le réchauffement coûtera de l’argent mais fera faire des économies en évitant les catastrophes

Afin de convaincre les gouvernements à agir face au changement climatique, les scientifiques du Giec ont calculé en termes économiques les engagements nécessaires : 0,06 % du PIB mondial devra être investi, afin de développer de nouvelles infrastructures et de réaliser des économies d’énergies cruciales. Les experts assurent que l’inaction coûterait au contraire beaucoup, beaucoup plus cher. Les dérèglements climatiques qui se manifestent déjà risquent, entre autres, de saper l’accès à l’eau potable et à des sources alimentaires sûres à de nombreuses populations du « Sud » de la Terre, entraînant des possibles conflits d’origine… climatique.

Les climatologues ont aussi chiffré les objectifs. Ils ont calculé que les émissions de gaz à effet de serre devront baisser de 40 à 70 % entre 2010 et 2050, puis être amenées à zéro d’ici à 2100. Or, les concentrations de gaz à effet de serre dans l’atmosphère terrestre ont atteint depuis 2013 des niveaux jamais vus depuis 800 000 ans ! L’inversion de tendance majeure à réaliser est d’abandonner progressivement les énergies fossiles (pétrole, gaz de schiste, méthane…) et de les remplacer par les énergies renouvelables (solaire, hydroélectrique, géothermique…).

«Nous avons les moyens de limiter le changement climatique», a souligné M. Pachauri, directeur diu Giec, car «les solutions sont nombreuses et permettent un développement économique et humain continu». «Tout ce dont nous avons besoin, c’est de la volonté de changer», a-t-il conclu.

Les regards se tournent à présent vers la conférence de Paris fin 2015, baptisée COP21, qui réunira les chefs politiques du monde entier autour des engagements à adopter pour enrayer le changement climatique. Sans attendre cette échéance, les pays de l’Union européenne a déjà pris l’engagement de réduire, d’ici à 2030, ses émissions de gaz à effet de serre de 40 % par rapport à 1990. Ils sont déjà proches du précédent objectif de -20 %.

F.G.

> Lire aussi dans les Grandes Archives de S&V :

GA

  • Les molécules cachées du réchauffementS&V n°1160 – Depuis une dizaine d’années les chercheurs découvrent dans l’atmosphère des molécules industrielles passées jusqu’ici inaperçues, responsables également de l’effet de serre qui réchauffe la planète.

S&V1160

SV1147(dp)

 

SV1137

 

 

 

L’Europe a procédé à la simulation grandeur nature d’une cyber-attaque massive à l’échelle continentale

Standard
L'Europe cherche à se doter d'une infrastructure opérationnelle pour contrer les cyber-attaques (Ph. Lockheed Martin)

L’Europe cherche à se doter d’une infrastructure opérationnelle pour contrer les cyber-attaques (Ph. Lockheed Martin)

Jeudi 30 octobre, des banques, des ministères, des institutions, des grandes entreprises ainsi que des réseaux électriques et de communications de 29 pays européens essuyaient des milliers d’attaques sur leurs systèmes et infrastructures informatiques, dans une simulation grandeur nature orchestrée par l’Agence européenne de cyber-sécurité (European Network and Information Security Agency ou ENISA). Inscrit dans le programme « Cyber-Europe 2014« , exceptionnel par sa complexité et son étendu, ce « crash-test » mené sur quasiment tout le territoire européen et sollicitant plusieurs centres de gestion de crise informatique (des « QG ») a simulé une cyber-attaque afin de mesurer la réactivité et la capacité des différentes cibles, quelques 600 acteurs du privé et du public, à coopérer et à échanger des informations en vue de résister à la désorganisation.

L’exercice, qui n’a pas affecté le fonctionnement normal d’Internet car il a été effectué sur des systèmes préalablement isolés de l’espace virtuel usuel, a mis en scène plus de 2000 types d’attaques. Notamment les attaques par déni de service (DoS), consistant à bloquer des serveur de fichiers ou de distribution de mails en les inondant de requêtes, ou par pénétration et prise en main de serveurs gérant les réseaux d’électricité ou de communications (téléphone, échange de données), ou encore par « défacement » (ou défiguration) de sites web c’est-à-dire leur modification malintentionnée ou leur détournement.

Le risque d’une cyber-attaque massive a crû exponentiellement ces dernières années

Il s’agit en fait de la deuxième phase du programme Cyber-Europe 2014, la première ayant été réalisée le 28 avril dernier pour tester la capacité technique des acteurs à détecter les incidents et à en atténuer les effets. Dans la phase deux menée la semaine dernière, l’enjeu était la rapidité de ces acteurs à coopérer et mettre au point des tactiques de défense communes. Enfin, la troisième et dernière phase, prévue pour janvier 2015, examinera l’impact politique d’une cyber-attaque massive et la capacité des acteurs européens à mettre en place des processus de décisions homogènes et des stratégies de riposte. Un programme dont la complexité dépasse tout ce qui a déjà été fait en termes de préparation à une cyber-guerre « pan-européenne ».

Pourquoi une tel exercice maintenant ? D’une part, à cause de l’augmentation exponentielle des attaques informatiques ciblant des pays particuliers, orchestrés en sous-main par d’autres pays, d’autre part à cause de l’inexistence à l’échelle européenne d’une stratégie commune de cybersécurité. Ainsi, personne n’a oublié l’attaque en 2010 des systèmes iraniens impliqués dans leur programme nucléaire par Stuxnet, un « malware »qui a pris le contrôle des centrifugeuses pour l’enrichissement du combustible et les a mis hors d’usage (son origine demeure inconnue même si les États-Unis et Israël sont fortement soupçonnés).

Mais depuis 2010, les attaques ont gagné en fréquence : des entreprises et des institutions de nombreux pays ont été visés dont les États-Unis (l’entreprise Lockheed Martin, Gmail, etc.), le Japon, la Corée du Sud, des pays latino-américains. Derrière ces attaques, sont souvent pointées la Chine, la Russie ou la Corée du Nord, mais la cyber-guerre semble mondiale (comme le démontre le cas Stuxnet) et ses acteurs, insaisissables… Selon le Global Security Mag spécialisé dans la sécurité physique et logicielle, le taux de cyber-attaques aurait ainsi crû de 25% depuis deux ans, le nombre de vol ou de fuites de données aurait augmenté de 61 % et les pertes mondiales dues à la cybercriminalité et à l’espionnage représenteraient entre 300 milliards et 1000 milliards de dollars.

Du coté de l’Europe, le programme « Cyber-Europe 2014″, dont les conclusions et préconisations seront rendues courant 2015, prépare le débat à la Commission européenne sur une directive sur le « niveau élevé commun de sécurité des réseaux et de l’information« , qui sera votée en 2015. Elle obligerait les États à instaurer notamment des plans d’urgence en cas d’attaques massives, en coordination avec les instances européennes.

R.I.

> Lire également dans les Grandes Archives de Science & Vie :

  • Cyberguerre, pourquoi elle ne ressemble à rien de connu – S&V n°1159 – 2014 – C’est une guerre qui ne fait ni bruit, ni fumées, ni flammes… Son champ de bataille ce sont les réseaux et les systèmes informatiques, mais elle peut désorganiser les structures d’un État et créer le chaos – bien réel celui-là.

S&V1159

  • Les virus ont-ils gagné ? – S&V n°1141 – 2012 – Tout a commencé en 1982, quand un informaticien a conçu un programme se propageant tout seul aux ordinateurs connectés au sien, pour impressionner ses amis… Quel est l’état du monde des virus et autres « malwares » 30 ans plus tard ?

S&V1141

  • Le temps du cybercombat – S&V n°937 – 1995 – Science & Vie s’interrogeait déjà voici 20 ans sur cette nouvelle manière de miner les structures d’un état et d’une société.

S&V937

 

 

400 kg de cuivre refroidis à 0,006 degrés au-dessus du zéro absolu : un jalon vers une nouvelle physique ?

Standard
L'enceinte de refroidissement de l'expérience CUORE utilise du plomb vieux de 2000 ans (CUORE collaboration)

L’enceinte de refroidissement de l’expérience CUORE utilise du plomb vieux de 2000 ans (CUORE collaboration)

Une équipe de physiciens des particules a réussi à refroidir 400 kg de cuivre à 0,006 degrés au dessus du zéro absolu, soit exactement à – 273,144 °C : une température probablement inusitée dans tout l’Univers pour un objet macroscopique. Ce record inédit s’inscrit dans le projet CUORE (Cryogenic Underground Observatory for Rare Events), un détecteur en construction au Laboratori Nazionali del Gran Sasso (Rome, Italie) destiné à mettre en lumière un phénomène encore inobservé pouvant ouvrir vers une nouvelle physique des particules. Le test de refroidissement du cuivre est venu confirmer, le 21 octobre dernier, le bon fonctionnement de l’appareillage. Un exploit obtenu à l’aide d’un appareillage contenant 270 lingots de plomb récupéré dans l’épave d’un navire romain du Ier siècle av. J.-C.

Malgré le recours à un matériau vieux de plus de 2000 ans repêché en mer, le projet CUORE (« cœur » en italien) est à l’avant-garde de la recherche en physique fondamentale, ayant pour objectif à l’horizon 2015 d’explorer la physique au-delà du modèle de comportement des particules élémentaires connu depuis des décennies, ou Modèle standard (MS), dont la dernière brique a été posée en 2012 avec la mise en évidence au Large Hadrons Collider (LHC) du célèbre boson de Higgs – particule « donnant » la masse aux particules matérielles.

Le froid poussé doit permettre la découverte des nouveaux phénomènes physiques

Comme souvent en physique des particules, la découverte de phénomènes élémentaires s’obtient en créant des conditions physiques extrêmes, soit en générant des densités d’énergie (ou de température) phénoménales, comme cela se fait dans les accélérateurs de particules du type LHC, soit au contraire en créant des espaces à très basse énergie – si basses que la majorité des réactions habituelles des particules élémentaires sont « gelées » et où ne se manifestent que des phénomènes invisibles autrement.

Le projet CUORE s’inscrit dans cette dernière perspective et a pour but de déceler un phénomène de désintégration nucléaire particulier, soit un processus de transformation d’une particule en une autre avec éjection de particules secondaires très énergétiques, ce que la nature fait couramment et que l’homme a appris à contrôler : la radioactivité qui chauffe l’eau des centrales nucléaires est produite par ces particules secondaires éjectées lors d’une désintégration.Parmi les différentes sortes de désintégration, il en existe une nommée Bêta consistant en la transformation d’un neutron en proton (les deux sortes de particules présentes dans le noyau d’un atome) avec éjection d’une particule quasiment indétectable, le neutrino, car ayant une très faible masse lui permettant de traverser incognito toute matière comme du beurre.

Une expérience qui demande le plus grand isolement possible

En l’occurrence, CUORE vise à mettre en évidence une double désintégration bêta, c’est-à-dire la transformation simultanée dans un noyau atomique de deux neutrons en deux protons. Cette transmutation est censée émettre deux neutrinos mais – c’est là qu’on entre dans l’inconnu – un physicien italien mort prématurément à 32 ans en 1938, Ettore Majorana, avait postulé l’existence d’une telle désintégration sans éjection des deux neutrinos, postulat jamais encore vérifié (l’autre a déjà été observée).

S&V974Infographie

Les principes de la désintégration radioactive

Selon le principe de conservation – le célèbre « rien ne se crée, rien ne se perd, tout se transforme » attribué à Lavoisier – une telle absence de neutrinos serait la conséquence, selon Majorana, du fait que les deux s’annihilent l’un l’autre car ils sont leur propre anti-particule. Or si l’on sait que l’antimatière existe – les positrons des tomographes TEP utilisés en imagerie médicale sont les anti-particules des électrons – et qu’elle réagit avec la matière par une annihilation créatrice d’énergie lumineuse (photons), le Modèle standard ne considère pas comme possible qu’une particule de matière puisse être simultanément sa propre anti-particule. Si tel était le cas, le Modèle standard (MS) devrait être complété par un modèle alternatif, créant ainsi un super-modèle plus large. Une sorte de Graal pour les physiciens, qui ont déjà extrait tout le jus du MS et cherchent à aller plus loin.

Ettore Majorana a élaboré l'hypothèse qui sera testée par CUORE en 2015 (Ph. Kanijoman via Flickr CC BY 2.0)

Ettore Majorana a élaboré l’hypothèse qui sera testée par CUORE en 2015 (Ph. Kanijoman via Flickr CC BY 2.0)

CUORE prétend donc être en mesure d’abriter une réaction de double désintégration bêta sans éjection de neutrinos, si cela existe, mais pour ce faire il doit créer un espace aussi « propre » que possible, sans aucune autre réaction non voulue, afin de capter… l’inexistence de neutrinos émis. En refroidissant l’enceinte à -273,144 soit quasiment au zéro absolu (température absolument inatteignable par la matière, comme l’est la vitesse de la lumière), on se place dans les conditions physiques où les neutrinos, si volubiles, peuvent être détectés par les capteurs. L’idée est alors de placer dans l’enceinte un matériau (du dioxyde de tellure TeO2) dont les atomes sont supposés se désintégrer selon le mécanisme de Majorana. L’expérience devrait être menée courant 2015. Et l’on en arrive au navire romain…

Le plomb repêché dans l’épave romaine a un taux de radioactivité quasi-nul

En 1988, un plongeur avait découvert à 2 km de la cote d’Oristano (Sardaigne) sous 28 mètres de fond un navire de quelque 36 m de long. L’Istituto nazionale di fisica nucleare (duquel dépend le Laboratori Nazionali del Gran Sasso en charge de CUORE) avait cofinancé et participé aux fouilles et datations du navire sous l’égide du Museo archeologico nazionale de Calgari (Sardaigne). Dans le navire se trouvaient 1000 lingots de plomb de 46 cm sur 9 cm pesant chacun 33 kg. Les datations et études des archives ont situé la date de son échouage entre l’an 80 et l’an 50 avant Jésus-Christ. Une époque mouvementée où la République de Rome cédait la place à un nouveau régime politique, celui de l’Empire.

Des luttes fratricides entre factions d’une république agonisante faisaient rage, sur terre et par mers. Selon les archéologues le navire retrouvé, de la classe des navis oneraria, sortes de cargos servant au transport de marchandises, affublé de l’adjectif magna à cause de sa taille (les plus courant ne dépassaient pas les 30 mètres), aurait été coulé volontairement pour ne pas tomber entre les mains de frères ennemis.

Le navire romain repêché en mer et Ettore Majorana, perdu en mer, ouvriront peut-être la porte à une nouvelle physique

Les physiciens de l’Istituto nazionale di fisica nucleare participant à l’étude du navire ont su voir tout l’intérêt que ce plomb vieux de 2000 ans pouvait avoir pour leur discipline : quand on l’extrait du sol, le plomb est légèrement radioactif à cause de la radioactivité des roches qui l’entouraient – une radioactivité induite. En effet, quand les atomes de plomb sont irradiés, certains deviennent radioactifs (isotope 210) puis se désintègrent : tous les 22 ans, la moitié des isotopes radioactifs du plomb disparaît (temps de demi-vie). Hors de son milieu naturel, il perd lentement sa radioactivité. Ayant été extrait voici 2000 ans, le taux d’atomes radioactifs a été donc divisé presque par 2 puissance 100, ce qui signifie qu’aujourd’hui sa radioactivité est quasiment nulle.

Le Musée d’archéologie a donc offert aux physiciens 270 de ces lingots qui, une fois nettoyés des incrustations, sont venus ceindre l’enceinte intérieure de CUORE – un cylindre de plus de 2 mètres de hauteur conçu à la manière des « poupées russes » refroidi par de l’hélium liquide et diverses technologies de pompage de la chaleur. Le plomb sert alors à isoler l’intérieur du dispositif des particules étrangères et autres radiations cosmiques pouvant perturber la mesure de la double désintégration bêta (CUORE est par ailleurs enfoui à 1400 mètres de la surface terrestre). Ce vieux plomb étant lui-même débarrassé de sa radioactivité, il ne perturbe pas l’expérience.

Le test du refroidissement des 400 kg de cuivre dans CUORE, qui ont été maintenus à -273,144 degrés pendant 15 jours, présage donc une belle réussite de l’expérience sur les neutrinos. Mettra-t-on en lumière la prédiction de Majorana ? Nul ne le sait encore. Mais peut-être, le célèbre physicien mort mystérieusement en mer en 1938 (suicide ? meurtre ?) a rejoint l’équipage du navis oneraria magna pour préparer  la célébration de l’expérience.

R.I

 > Lire également dans les Grandes Archives de Science & Vie :

S&V1137

  • Pourquoi le boson de Higgs n’est pas la fin de l’histoire – S&V n°1147 – 2013 – Après la découverte du boson de Higgs, qui est venu compléter et confirmer le modèle standard des particules, certains s’interrogeaient sur la suite : est-ce la fin de la recherche en physique des particules ? Que non !

S&V1147

  • Antimatière: est-ce la clé de l’Univers ? – S&V n°1105 – 2009 – L’antimatière pose un problème aux physiciens. Il n’existe pour l’heure pas de théorie expliquant son absence de l’Univers. L’étude des neutrinos pourrait apporter des réponses.

S&V1105

Depuis 10 jours la Terre est bombardée par le Soleil

Standard
De gigantesques éruptions solaires menacent la Terre (crédit NASA/SDO)

De gigantesques éruptions solaires menacent la Terre (crédit NASA/SDO)

Selon la NASA, le Soleil est dans une phase anormale d’hyperactivité depuis le 17 octobre : un groupe de taches solaires faisant face à la Terre, dont l’une est la plus grande observée depuis 24 ans, provoque des éjections de matière et des flashs lumineux (rayons X et UV) qui ont déjà perturbé certaines communications. Pour l’heure, le bouclier magnétique terrestre résiste. Mais le phénomène pourrait perdurer, et le risque de défaillances majeures des systèmes de télécommunications et informatiques n’est pas encore écarté.

C’est une tache solaire qui a mis le feu aux poudres, comme nous l’avons signalé ici-même. Observée par le satellite Solar Dynamics Observatory (SDO) de la NASA, elle est la plus grande depuis 1990, plus large que le diamètre de Jupiter, soit 140 000 km (11 fois le diamètre de la Terre). Elle forme avec d’autres taches plus petites un groupe, nommé AR2192, comme on n’en avait pas connu depuis 2001, visible à l’œil nu (à condition de se munir d’un filtre protecteur pour la rétine). Une situation paradoxale car l’astre était depuis 2008 plutôt léthargique… Mais le paradoxe n’est qu’apparent : les astronomes considèrent que s’étant peu « exprimé », il a emmagasiné un surplus d’énergie magnétique qu’il relâche aujourd’hui.

20141024_214149_4096_0171bisOct_27_X2_Flare_2-171-131-ovr_4kbisSDO_10272014_144107_4096_0193_ccBis

 

 

 

 

Oct_27_X2_Flare_2-171-131-ovr_4kbisCredit NASA GSFCS DOOct_27_X2_Flare-171-131-ovr-cropBisSDO_10272014_144246_4096_0131BIS20141025_175734_4096_0131_crop

 

 

 

 

 

 

Le groupe AR2192 photographié par le satellite SDO sous plusieurs longueurs d’ondes (Credit: NASA/GSFC/SDO)

Le Soleil nous a mitraillé six fois depuis le 17 octobre

Or les astronomes savent bien qu’une tache est synonyme de perturbations : une tache est la partie visible d’un tube ou faisceau de lignes magnétiques plongeant au cœur du Soleil, qui ralenti le mouvement d’ascension du plasma (des noyaux d’hydrogène et d’hélium chargés et des électrons) vers la surface. Cela revient à bloquer l’évacuation de la chaleur, tel un couvercle. L’emmagasinement local de cette chaleur se résout généralement par de violentes radiations (rayons X et UV) et l’éjection de masse coronale (EMC) à 450 km/s qui constitue le vent solaire : le couvercle saute. Quand ce phénomène fait face à la Terre, celle-ci prend un double coup de Soleil :les radiations parviennent jusqu’à nous en 8 minutes, et la matière en 4 jours et demi.

En l’occurrence, la Terre a déjà reçu six bouffées de colère solaire, dont la plus violente date du 24 octobre.  Heureusement, le champ magnétique terrestre forme un bouclier naturel invisible qui dévie le vent solaire sur les cotés, et différentes molécules de l’atmosphère dont l’ozone absorbent les radiations lumineuses avant que celles-ci touchent le sol. Mais parfois l’attaque est trop forte pour que le champ magnétique et l’atmosphère fassent rempart : une partie de la matière solaire et de ses radiations peuvent alors faire de gros dégâts, comme cela est peut-être arrivé en l’an 775, et comme cela a failli arriver en juillet 2012 si la Terre avait été légèrement décalée sur son orbite, comme l’a annoncé la NASA en juillet dernier.

Le risque : la mise hors d’usage des satellites de télécommunications, des communications radio, des réseaux et systèmes électriques, sans parler des irradiations mortifères touchant les passagers des avions et, finalement, les habitants de la Terre. Un Armageddon technologique et humain, comme l’illustre cette infographie (cliquer dessus).

S&V994 Infographie

Pour l’heure les effets ont été limités. Mais le cycle n’est pas fini

Néanmoins,  malgré le classement des six évènements dans la catégorie X (video en anglais ci-dessous), la quatrième et plus forte dans l’échelle des éruptions, ces coups déjà reçus par la Terre n’ont eu que peu d’effets car l’éjection de masse coronale (EMC) a été de faible ampleur – cela dépend de l’humeur solaire : selon le jeu des forces magnétiques une très forte éruption peut ne pas engendrer d’EMC importante. Seules les radiations X et UV ont causé quelque problèmes aux communications radio à ondes courtes et aux systèmes GPS.

 

Les astronomes ont prévu que le groupe de taches solaires incriminé cesserait de nous faire face ces jours-ci car la « surface » Solaire (du gaz d’hydrogène et d’hélium chaud) est en rotation, comme la surface terrestre  : elles devraient disparaître de notre vue par la droite (du disque solaire)… mais pour réapparaître dans une dizaine de jours par la gauche ! Comme il est encore impossible de prévoir l’amplitude et l’étendue des irruptions solaires, malgré des modélisations encourageantes obtenues récemment par des chercheurs français, la National Oceanic and Atmospheric Administration (NOAA) tient des bulletins d’information, et la surveillance demeure.

R.I.

> Lire également dans les Grandes Archives de Science & Vie :

S&V1150

S&V1148

S&V1140

  • Champ magnétique et tempêtes du Soleil – S&V n°994 – 2000 – Où l’on comprend comment le Soleil s’enroule dans ses propres lignes de champ magnétique et comment il s’en libère violemment.

S&V994