La plus grande galaxie spirale connue dans l’Univers

Standard
La galaxie spirale géante NGC 6872, photographiée ici par le télescope spatial Hubble, se trouve entre 200 et 300 millions d'années-lumière de la Terre, dans la constellation australe du Paon. Photo Nasa/ESA/STSCI.

La galaxie spirale géante NGC 6872, photographiée ici par le télescope spatial Hubble, se trouve entre 200 et 300 millions d’années-lumière de la Terre, dans la constellation australe du Paon. Photo Nasa/ESA/STSCI.

C’est, aujourd’hui, la galaxie spirale la plus grande connue dans l’Univers. Plus de cinq cent mille années-lumière, d’un bout de son bras spiral à l’autre. Oui, vous avez bien lu : il faut un demi million d’années à la lumière émise par une étoile située à l’est de la galaxie NGC 6872 pour aller dessiner une constellation à l’ouest de celle-ci… NGC 6872 étant lancée dans un lent ballet gravitationnel depuis plus de cent millions d’années avec sa petite compagne, IC 4970, les deux galaxies sont soumises aux énormes effets de marées gravitationnelles qu’elles exercent l’une sur l’autre. Déséquilibrée dans sa rotation sur elle-même par IC 4970, NGC 6872 déploie deux immenses bras, dans lesquels naissent des millions d’étoiles.
Quand et comment ce vertigineux slow céleste va t-il s’achever ? Nous l’ignorons aujourd’hui. Si la vitesse de la petite spirale est suffisante, elle s’échappera du champ gravitationnel de sa grande compagne, et s’éloignera dans le cosmos, emportée par l’expansion universelle. Dans le cas contraire, et plus probablement, la course de IC 4970 autour de NGC 6872 va continuer, et, lentement, elle va s’approcher d’elle avant de fusionner. Quant aux deux bras immenses de NGC 6872, ils vont probablement se détacher lentement de leur galaxie et se perdre dans l’espace avec leurs étoiles…

C'est la plus grande galaxie spirale actuellement connue dans l'Univers : NGC 6872 mesure plus de 500 000 années-lumière de diamètre, soit cinq fois plus que notre propre galaxie, la Voie lactée. Photographie prise par le Very Large Telescope installé au sommet de Cerro Paranal, dans le désert d'Atacama, au Chili. Photo ESO.

C’est la plus grande galaxie spirale actuellement connue dans l’Univers : NGC 6872 mesure plus de 500 000 années-lumière de diamètre, soit cinq fois plus que notre propre galaxie, la Voie lactée. Photographie prise par le Very Large Telescope installé au sommet de Cerro Paranal, dans le désert d’Atacama, au Chili. Photo ESO.

NGC 6872 et IC 4970 se trouvent à une distance – inconnue précisément – de 200 à 300 millions d’années-lumière, dans la constellation australe du Paon. La question de l’avenir des centaines de milliards d’étoiles, et d’autant de mondes qui les accompagnent, demeurera à jamais académique : ces deux galaxies nous fuient inexorablement, emportées par l’expansion cosmique, à plus de 4500 kilomètres par seconde…
Serge Brunier

Sur ces gros-plans du couple de galaxies NGC 6872 et IC 4970, vues, à gauche, par le Very Large Telescope (VLT) et à droite par le télescope spatial Hubble, on remarque l'immense arche d'étoiles arrachées à la galaxie géante par la petite spirale. C'est la turbulence atmosphérique qui rend l'image du VLT un peu floue. L'image de Hubble, beaucoup plus nette, révèle avec précision les nébuleuses et les amas de jeunes étoiles supergéantes qui parsèment le disque de la galaxie NGC 6872. Photos ESO et Nasa/ESA/STSCI.

Sur ces gros-plans du couple de galaxies NGC 6872 et IC 4970, vues, à gauche, par le Very Large Telescope (VLT) et à droite par le télescope spatial Hubble, on remarque l’immense arche d’étoiles arrachées à la galaxie géante par la petite spirale. C’est la turbulence atmosphérique qui rend l’image du VLT un peu floue. L’image de Hubble, beaucoup plus nette, révèle avec précision les nébuleuses et les amas de jeunes étoiles supergéantes qui parsèment le disque de la galaxie NGC 6872. Photos ESO et Nasa/ESA/STSCI.

Des drones vont surveiller les supporters pendant un match de foot

Standard
Drone sur fond de Lune / Ph. Don McCullough via Flickr CC BY 2.0

Drone sur fond de Lune / Ph. Don McCullough via Flickr CC BY 2.0

Ce soir à 19 heures, les drones feront leur première entrée sur un terrain de foot français… ou plutôt, au-dessus du terrain : ils survoleront le stade Duvauchelle de Créteil (Val-de-Marne) lors du match de Ligue 2 entre Créteil et Clermont-Ferrand, dans un premier test du genre organisé par la Préfecture de Police de Paris (P.P). Deux machines volantes pilotées à distance surplombant le terrain à quelques dizaines de mètres de hauteur qui voleront certainement la vedette aux 22 joueurs terrestres.

La Préfecture de Police, qui teste ainsi la capacité de ces nouveaux outils de surveillance des foules, a prévu de lancer dans l’arène deux modèles bien distincts : un petit drone de 2 kilos portant une caméra et un drone d’une vingtaine de kilos équipé de deux caméras dont l’une à vision nocturne (infrarouge). A la clé : la mise au point du système de surveillance pour le Championnat d’Europe de football – l’Euro – qui se disputera en France en 2016.

Pas de législation claire sur l’usage des drones dans l’espace public

Les responsables de la P.P assurent que ce soir les drones respecteront la vie privée et la sécurité des supporters en évitant, d’une part de les filmer de trop prêt afin qu’ils gardent leur anonymat, d’autre part de les survoler et risquer une chute des engins aux conséquences dramatiques. Mais ces précautions nécessaires ne peuvent faire oublier que l’irruption des drones dans l’espace public, hors des usages militaires dans les zones en guerre, présente un danger global aussi bien en termes physiques que numériques et légaux.

Rappelons que parmi les questionnements soulevés par la future diffusion en masse de cette technologie, les plus aigus concernent : le problème de la gestion de l’espace aérien où des centaines des petits engins devront se côtoyer sans se heurter ni heurter les autres engins volants (avions, hélicoptères), les risques de piratage et donc de détournement à des fins criminelles, le manque d’une législation claire et globale sur les limites de l’usage des drones dans le domaine de la vie privée.

R.I.

 > Lire aussi dans les Grandes Archives de S&V :

S&V 1160 couv drone

 

 

 

La loi reconnaîtra le statut d’êtres sensibles aux animaux

Standard
Les animaux comme les chats et les chiens bénéficieront d'un statut juridique leur reconnaissant leur sensibilité.

Ph. Jeffrey WW via Flickr – CC BY 2.0

Une disposition qui accordera la qualité d’« êtres vivants doués de sensibilité » aux animaux a été confirmée par les députés français mercredi . Celle-ci devra être votée en octobre par l’Assemblée nationale et par le Sénat.

Le changement de statut juridique des animaux sera alors inscrit dans le code civil, dans lequel ils figurent actuellement comme des « biens meubles ». Dans les faits, cela ne changera pas grand-chose pour les poules ou les lapins. L’objectif est surtout symbolique : le code rural et pénal les considéraient déjà comme des êtres vivants et sensibles, il s’agissait d’harmoniser leur statut dans le code civil.

C’est suite à une pétition lancée par 30 Millions d’amis en 2012 que la proposition de changement de loi a été prise en compte. Plus de 750 000 signatures ont été recueillies depuis, à commencer par celles de l’astrophysicien Hubert Reeves, de philosophes, d’écrivains et d’autres scientifiques. Tous prônaient un statut spécifique pour les animaux, entre les personnes et les biens.

La sensibilité des animaux est reconnue par la science

Au point de vue scientifique, la question de la sensibilité des animaux ne fait plus débat depuis des décennies. Les découvertes les plus récentes sont allées jusqu’à mettre en évidence des capacités cognitives insoupçonnées chez les invertébrés (mollusques, insectes, crustacés…).

Pour l’instant, le fait d’accorder le statut d’êtres sensibles aux animaux n’aura aucune répercussion sur les normes d’élevage ou sur l’expérimentation animale, comme l’espèrent les organisations de défense des droits des animaux.

F.G.

> Lire aussi dans les Grandes Archives de S&V :

S&V 1444 invertébrés

S&V 1087 expérimentation animale

S&V 1014 poules

 

 

 

Deepsea challenge : le film de James Cameron livre des images inédites des grands fonds marins

Standard
Un panache de gaz à Brimstone Pit, dans un volcan sous-marin de la fosse des Mariannes.

Un panache de gaz à Brimstone Pit, dans un volcan sous-marin de la fosse des Mariannes. / Ph. John Doe/USFWS via Flickr – CC BY 2.0

A mi-chemin entre spectacle hollywoodien et documentaire scientifique, c’est un film exceptionnel qui sort aujourd’hui dans les salles de cinéma françaises. Son héros : James Cameron, le réalisateur canadien auteur des deux plus grands succès de l’histoire (Titanic et Avatar), qui a relevé le défi rêvé de tous les explorateurs sous-marins : plonger en solo tout au fond de la fosse des Mariannes.

Son objectif : atteindre le Challenger Deep, le point le plus profond jamais mesuré sous les eaux de la planète, avec plus de 10 900 mètres de profondeur ! A bord du Deepsea Challenger, un sous-marin spécialement conçu pour la tâche par des ingénieurs australiens, et bardé de caméras HD, James Cameron réussit l’exploit le 26 mars 2012.

Après deux heures et demie de descente à une vitesse de 1,2 mètre par seconde, le réalisateur-explorateur atteint 10 898 mètres de profondeur.

Certes, c’est 18 mètres de moins que le record détenu par les tout premiers explorateurs de la fosse des Mariannes, le Suisse Jacques Piccard et l’Américain Don Walsh, qui à bord du bathyscaphe Trieste avaient atteint 10 916 mètres le 23 janvier 1960.

Mais vu les moyens de l’époque, il n’avaient pas pu rester plus de 20 minutes tout au fond de la fosse, alors que le Deepsea Challenger a pu rester plusieurs heures à cette profondeur, ce qui a laissé tout le temps à son pilote d’explorer les alentours, et de filmer les formes de vie peuplant ces vallées submergées. Ce qui lui a permis de découvrir 68 nouvelles espèces !

La découverte de la vie dans les fonds marins remonte aux années 70

Piccard et son acolyte avaient déjà pu s’apercevoir, à leur grande stupeur, que les abysses abritent la vie. L’expérience fut répétée en 1977 par le géologue John Corliss, qui plongea à bord du célèbre sous-marin Alvin par 2600 mètres de profondeur au large des Galapagos.

Là, il découvrit un spectacle insoupçonné : du plancher océanique jaillissaient des panaches noirs de 20 mètres de haut, chauffant l’eau à 350 °C. Ils sont l’effet des sources hydrothermales, ces milieux aquatiques où la vie sur terre a probablement vu le jour. Rapidement, les biologistes ont multiplié les expéditions dans les abysses, et ont recensé jusqu’à 500 espèces vivant dans ces milieux pourtant à priori hostiles, avec leur conditions extrêmes de température et de pression, sans compter l’absence de lumière.

Le Deepsea Challenge, à la croisée des chemins entre le cinéma et la science, n’est pas sans rappeler le succès de Planète bleue, la série de la BBC diffusée en 2001 qui dévoilait au grand public le foisonnement de la vie sous-marine. A cette époque, les caméramans avaient intégré des équipes de chercheurs à 200 endroits dans les mers de la planète, produisant des images qui étaient à la fois d’une qualité inouïe pour la science et totalement inconnues du public, qui en fut époustouflé.

F.G.

> Lire aussi dans les Grandes Archives de S&V :

S&V 1129 extrêmophiles

S&V n°1037 planète bleue

S&V 997 habita sous-marin

 

 

 

 

Vaccins : vers une simplification des pratiques ?

Standard
vaccin

Ph. inferis via Flickr – CC BY-SA 2.0

« Complexe, illisible, inégalitaire » : la politique vaccinale de la France doit être remise à plat, estime le Haut conseil de la santé publique (HCSP). D’après cet organisme, qui se charge de conseiller le gouvernement sur les questions de santé, il faut notamment engager un débat sur les vaccinations obligatoires.

Avec l’Italie, la France est en effet le seul pays industrialisé où certains vaccins sont obligatoires pour les enfants (diphtérie, tétanos, poliomyélite). Pourtant, en adoptant une approche plus « volontariste », les autres pays parviennent à des taux de vaccination de 90 %, une couverture vaccinale qui garantit un bon niveau de protection de la population.

Si le HCSP demande une révision de ce système, ce n’est pas pour remettre en question l’utilité des vaccins. Loin de là : « la vaccination est l’action de santé publique la plus efficace », souligne-t-il. Il s’agit plutôt de faire évoluer la manière dont on les administre.

Simplifier la manière dont sont administrés les vaccins

Car comme tous les parents en ont fait l’expérience, le calendrier vaccinal des enfants est long et confus. Et plus tard, rares sont les adultes qui poursuivent le calendrier en faisant les rappels nécessaires. Résultat : la population est parfois mal couverte, et certaines maladies pourtant évitables se manifestent à l’âge adulte.

Pour simplifier les choses, et afin de garantir une couverture plus complète, le HCSP propose d’organiser la vaccination en milieu scolaire, de rendre entièrement gratuits les vaccins obligatoires, ainsi que de proposer les rappels des vaccins aux adultes – dans les entreprises et les maisons de retraite.

Le HCSP favorable au vaccin contre le cancer du col de l’utérus

Or, parmi les vaccinations préconisées dès l’âge scolaire (à partir de 9 ans), le HCSP inclut celle contre le HPV, le papillomavirus responsable du cancer du col de l’utérus. Très controversées, les deux préparations existantes (Cervarix et Gardasil) ont fait l’objet d’une campagne de vaccination à partir de 2008 en France.

Une campagne qui a échoué : après cinq ans, seules 40 % des jeunes filles ciblées s’étaient vaccinées, alors qu’un vaccin nécessite d’une couverture de 70 % au moins pour être efficace. Ce qui n’est malheureusement pas sans conséquences : les effets collatéraux du vaccins devancent ses bénéfices, et des souches virales résistantes risquent d’avoir été favorisées par cette vaccination partielle.

Reste à suivre si une meilleure organisation de la vaccination permettrait d’inverser la tendance pour cette maladie en particulier.

F.G.

> Lire aussi dans les Grandes Archives de S&V :

S&V 1140 vaccins

S&V 1136 vaccin HPV

  • GRAND DOSSIER Vaccins – Découvrez les articles des archives sélectionnés pour vous par la rédaction de S&V

Grand dossier vaccins

 

 

 

 

 

Quatre ans après la tempête Xynthia, le procès des autorités commence

Standard
La tempête Xynthia vue de l'espace le 27 février 2010 / Ph. NASA Goddard Space Flight Center via Flickr - CC BY 2.0

La tempête Xynthia vue de l’espace le 27 février 2010 / Ph. NASA Goddard Space Flight Center via Flickr – CC BY 2.0

Qui est responsable des 29 décès survenus à La Faute-sur-Mer le 28 février 2010 ? C’est ce que devrait déterminer le procès qui s’ouvre aujourd’hui aux Sables-d’Olonne (Vendée). Cette nuit-là, alors que la tempête Xynthia déferlait sur la côte Atlantique, les habitants de La Faute avaient été surpris à 1h du matin par une puissante inondation. En quelques minutes, l’eau était montée à 2,80 mètres.

Déchaînés, vents et marées avaient fait sauter les digues qui protègent la petite ville de la côte vendéenne. Une catastrophe naturelle ? Aujourd’hui, les 122 parties civiles formées par les survivants à l’inondation veulent savoir quelle est la part de responsabilité humaine dans cette tragédie.

Au banc des accusés comparaissent pour homicide involontaire cinq personnes. Au premier chef, René Marratier, le maire de La Faute-sur-Mer, accusé d’avoir fait longtemps obstruction au plan de prévention du risque d’inondation, aurait laissé s’étendre des lotissements dans cette zone qui pourtant aurait dû être inconstructible.

Xynthia a frappé sur des côtes déjà en péril

En cas de tempêtes, les constructions sauvages mettent clairement en péril les populations qui y habitent. Et ce alors que le littoral est déjà menacé par un ensemble de phénomènes dus à l’érosion et à la montée des eaux – en particulier dans une région de marais maritimes comme la Vendée.

Schématiquement, la montée des eaux due à la fonte des glaces ronge les côtes, qui sont aussi de moins en moins alimentées par les sédiments venant des fleuves à cause des barrages. A cela s’ajoute l’extraction abusive de sédiments (sable, galets) utilisés comme matériaux de construction, ainsi que la surexploitation du littoral pour les activités de plaisance.

Paradoxalement, les mesures de protection telles que les digues et les aménagements des côtes peuvent même empirer la situation. Trop souvent conçus à la hâte, ils modifient les forces hydrodynamiques qui s’exercent sur le milieu côtier, et ne font souvent que déplacer, voire renforcer, l’érosion.

Avec le Marais poitevin, Saint-Nazaire et Bordeaux, les marais vendéens figurent parmi les zones les plus vulnérables de l’Hexagone à la montée des eaux.

F.G.

 

> Lire aussi dans les Grandes Archives de S&V :

S&V 945 littoral

S&V 1090 montée eaux

S&V 1159 hiver

 

 

Fukushima : l’audition du directeur de la centrale rendue publique

Standard
Des experts de l'IAEA dans la centrale de Fukushima Daiichi en avril 2013 / Ph. IAEA via Flickr CC BY SA 2.0

Des experts de l’IAEA dans la centrale de Fukushima Daiichi en avril 2013 / Ph. IAEA via Flickr CC BY SA 2.0

Trois ans et demi exactement après l’accident nucléaire de Fukushima, les mots du directeur de la centrale Masao Yoshida ont été divulgués hier par le gouvernement japonais.

Le 11 mars 2011, Masao Yoshida dirigeait les opérations d’urgence engagées dans la centrale nucléaire de Fukushima Daiichi suite au tsunami qui avait ravagé trois des six réacteurs, entraînant leur fusion. Décédé l’an dernier d’un cancer, il avait été écouté en juillet et en novembre 2011, de même que l’ex-premier ministre Naoto Kan et d’autres membres du gouvernement, afin de clarifier la gestion de la crise.

Lors de la catastrophe, alors que trois des six réacteurs étaient en fusion, M. Yoshida était censé exécuter les ordres du quartier général de la compagnie électrique Tepco à Tokyo en dirigeant les équipes de techniciens sur place.

A Fukushima, des ordres incohérents venant de Tokyo

Cependant, dans les centaines de pages de ses déclarations, M. Yoshida se plaint d’avoir eu à gérer à lui seul de multiples ordres incohérents, lui venant à la fois de Tepco et du gouvernement japonais lui-même, sans intermédiaires. Une situation qu’il a toujours jugée « insensée ».

Face à des injonctions qu’il considérait dangereuses, il ne s’est ainsi pas toujours exécuté : par exemple lorsqu’il a continué de faire verser de l’eau de mer sur les réacteurs alors qu’on lui demandait d’arrêter. Une décision qui a sans doute été la bonne, freinant considérablement la fusion des réacteurs.

Que se passerait-il en cas d’accident nucléaire en France ?

Une telle crise est malheureusement impossible à exclure en France. Les autorités sont d’ailleurs en train de se pencher de plus près sur les différents scénarios d’accidents nucléaires pouvant frapper l’un des 58 réacteurs répartis sur 19 sites dans l’Hexagone.

En théorie, les calculs sont plutôt rassurants : un accident grave ne devrait se produire que tous les 100 000 ans. Sauf que ces évaluations ne tiennent compte que des défaillances internes des réacteurs, et pas des causes externes comme les séismes ou les inondations.

Des mesures de protection spécifiques sont donc en cours de préparation pour parer à ce genre d’évènement.

F.G.

> Lire à ce propos le numéro de S&V actuellement en kiosque :

S&V 1164 couv

 

 

 

Fukushima : l’audition du directeur de la centrale a été publiée

Standard
Des experts de l'IAEA dans la centrale de Fukushima Daiichi en avril 2013 / Ph. IAEA via Flickr CC BY SA 2.0

Des experts de l’IAEA dans la centrale de Fukushima Daiichi en avril 2013 / Ph. IAEA via Flickr CC BY SA 2.0

Trois ans et demi exactement après l’accident nucléaire de Fukushima, les mots du directeur de la centrale Masao Yoshida ont été divulgués hier par le gouvernement japonais.

Le 11 mars 2011, Masao Yoshida dirigeait les opérations d’urgence engagées dans la centrale nucléaire de Fukushima Daiichi suite au tsunami qui avait ravagé trois des six réacteurs, entraînant leur fusion. Décédé l’an dernier d’un cancer, il avait été écouté en juillet et en novembre 2011, de même que l’ex-premier ministre Naoto Kan et d’autres membres du gouvernement, afin de clarifier la gestion de la crise.

Lors de la catastrophe, alors que trois des six réacteurs étaient en fusion, M. Yoshida était censé exécuter les ordres du quartier général de la compagnie électrique Tepco à Tokyo en dirigeant les équipes de techniciens sur place.

A Fukushima, des ordres incohérents venant de Tokyo

Cependant, dans les centaines de pages de ses déclarations, M. Yoshida se plaint d’avoir eu à gérer à lui seul de multiples ordres incohérents, lui venant à la fois de Tepco et du gouvernement japonais lui-même, sans intermédiaires. Une situation qu’il a toujours jugée « insensée ».

Face à des injonctions qu’il considérait dangereuses, il ne s’est ainsi pas toujours exécuté : par exemple lorsqu’il a continué de faire verser de l’eau de mer sur les réacteurs alors qu’on lui demandait d’arrêter. Une décision qui a sans doute été la bonne, freinant considérablement la fusion des réacteurs.

Que se passerait-il en cas d’accident nucléaire en France ?

Une telle crise est malheureusement impossible à exclure en France. Les autorités sont d’ailleurs en train de se pencher de plus près sur les différents scénarios d’accidents nucléaires pouvant frapper l’un des 58 réacteurs répartis sur 19 sites dans l’Hexagone.

En théorie, les calculs sont plutôt rassurants : un accident grave ne devrait se produire que tous les 100 000 ans. Sauf que ces évaluations ne tiennent compte que des défaillances internes des réacteurs, et pas des causes externes comme les séismes ou les inondations.

Des mesures de protection spécifiques sont donc en cours de préparation pour parer à ce genre d’évènement.

F.G.

> Lire à ce propos le numéro de S&V actuellement en kiosque :

S&V 1164 couv

 

 

 

La France risque de manquer d’électricité après 2015

Standard
Ph. faceme via Flickr - CC BY 2.0

Ph. faceme via Flickr – CC BY 2.0

La sécurité électrique de la France risque d’être menacée à partir de l’hiver 2015. L’alerte vient du Réseau de transport d’électricité (RTE, la filiale d’EDF chargée des réseaux de très haute tension) qui se charge chaque année de surveiller l’équilibre entre production et consommation d’électricité. Et prévient, depuis plusieurs années, que l’Hexagone n’est pas à l’abri de pannes hivernales.

Comme l’affirme Dominique Maillard, patron de RTE :

« Il existe un risque d’une production insuffisante pour faire face à la demande dans les hivers à venir. La différence entre consommation et production pourrait atteindre 2000 MW pendant l’hiver 2016-2017. Soit un manque équivalent à deux réacteurs nucléaires ! »

L’hiver, chaque degré de température de moins entraîne une consommation de 2400 MW supplémentaires par les ménages français, largement dépendants du chauffage électrique. Et comme l’énergie électrique ne se stocke pas, le réseau doit être alimenté en permanence pour éviter la panne. Or, un black-out entraîne également des conséquences sur tous les équipements dépendant de l’électricité !

La fermeture de centrales à charbon et à fioul à l’origine du manque d’électricité

De fait, RTE a fréquemment signalé, ces dernières années, que l’hiver serait peut-être difficile à passer sans pannes. Cependant, cette fois l’alerte est justifiée par des changements à venir qui modifieront le panorama de la production électrique française.

Fin 2015, EDF devra fermer certaines centrales à charbon et à fioul, qui ne sont plus conformes aux nouvelles normes antipollution européennes. Perte de production calculée : 8 600 MW.

De plus, certaines centrales à gaz, pourtant toutes neuves, ont été mises « sous cocon » à cause du coût trop élevé du gaz en Europe. A cela s’ajoute le probable démantèlement de la centrale de Fessenheim, prévu pour fin 2016 par le gouvernement, qui entraînera une perte de 1 800 MW.

Comment colmater ces manques ? Pour l’instant, les énergies renouvelables ne sont pas encore à même d’y parvenir seules, d’autant que l’hiver l’ensoleillement est au minimum. Mettre aux normes les centrales à fioul et inciter les usagers à se déconnecter du réseau lors des pics de consommation figurent parmi les pistes explorées.

F.G.

> Lire dans les Grandes Archives de S&V :

S&V 1132 black-out

S&V 1126 réseaux

S&V 1145 démantèlement

S&V 1158 nucléeaire énergie

 

 

 

Autoportrait d’une sonde spatiale en mission

Standard
En orbite autour de la comète Churyumov-Gerasimenko, la sonde européenne Rosetta a réalisé ce spectaculaire autoportrait. Photo ESA.

En orbite autour de la comète Churyumov-Gerasimenko, la sonde européenne Rosetta a réalisé ce spectaculaire autoportrait. Photo ESA.

En approche de la comète Churyumov-Gerasimenko, la sonde européenne Rosetta a pris ce magnifique autoportrait. Plus exactement, c’est la caméra embarquée par le module Philaé qui a pris cette image. Une pratique qui n’a pas attendu l’apparition du mot « selfie » : depuis l’origine de la conquête spatiale ou presque, les sondes prennent des images de leur environnement, où elles se représentent avec plus ou moins de discrétion et de modestie… Ces images prises par des robots, paradoxalement, « humanisent » les paysages qu’elles nous font découvrir. Rosetta, aujourd’hui, s’approche de la comète. Les scientifiques européens vont annoncer dans quelques jours où et quand se posera à sa surface le module Philaé… Serge Brunier

En 2007, la sonde Rosetta avait frôlé la planète Mars, réalisant ce vertigineux autoportrait à quelques centaines de kilomètres seulement au dessus de sa surface. Photo ESA.

En 2007, la sonde Rosetta avait frôlé la planète Mars, réalisant ce vertigineux autoportrait à quelques centaines de kilomètres seulement au dessus de sa surface. Photo ESA.

Fière de ses prestations sur la planète Mars, l'an dernier, Curiosity s'est photographié en majesté. Photo NASA.

Fière de ses prestations sur la planète Mars, l’an dernier, Curiosity s’est photographié en majesté. Photo NASA.

C'est l'une des plus belles photographies de toute la conquête spatiale. En 2005, la sonde japonaise Hayabusa s'approche de l'astéroïde Itokawa, et photographie son ombre projetée sur l'astéroïde. Photo JAXA.

C’est l’une des plus belles photographies de toute la conquête spatiale. En 2005, la sonde japonaise Hayabusa s’approche de l’astéroïde Itokawa, et photographie son ombre projetée sur l’astéroïde. Photo JAXA.

Sur la planète Mars, encore, c'est le robot Opportunity, qui arpente Mars depuis plus de dix ans, qui s'offre un selfie bien mérité... Photo Nasa.

Sur la planète Mars, encore, c’est le robot Opportunity, qui arpente Mars depuis plus de dix ans, qui s’offre un selfie bien mérité… Photo Nasa.

L'un des premiers, et les plus impressionnants autoportraits de toute la conquête spatiale : il a été réalisé en 1982 par la sonde soviétique Venera 13 dans les conditions infernales de la planète Vénus. Deux heures après s'être posée,  Venera 13 a succombé à la température de +450 °C...

L’un des premiers, et les plus impressionnants autoportraits de toute la conquête spatiale : il a été réalisé en 1982 par la sonde soviétique Venera 13 dans les conditions infernales de la planète Vénus. Deux heures après s’être posée, Venera 13 a succombé à la température de +450 °C…

Cette photographie, réalisée par la sonde américaine Viking 2 en 1976, est une icône de la conquête spatiale. Photo Nasa.

Cette photographie, réalisée par la sonde américaine Viking 2 en 1976, est une icône de la conquête spatiale. Photo Nasa.