Quelques transactions bancaires « anonymes » suffisent à vous identifier

Standard
L'"anonymisation" des données personnelles sur les réseaux n'est pas efficace (Ph. Céline Martinet via Flickr CC BY 2.0)

L’ »anonymisation » des données personnelles sur les réseaux n’est pas efficace (Ph. Céline Martinet via Flickr CC BY 2.0)

Une étude révèle comment des informaticiens peuvent retrouver votre identité à partir de quelques informations supposément « anonymes » que gèrent et se transmettent les banques. Comme le révèle la revue Science, c’est un véritable défaut de sécurité dans l’infosphère qui appelle des changements rapides.

Il s’agit plus concrètement des données liées aux transactions avec une carte de crédit. Pour démontrer la facilité de « désanonymisation » des données bancaires, l’équipe d’Yves-Alexandre de Montjoye, mathématicien au Massachusetts Institute of Technology (MIT), a récupéré d’une banque (non nommée) 3 mois de données représentant les transactions bancaires de 1,1 millions de personnes auprès de 10 000 commerçants, dans un pays également non nommé dans l’étude.

Personne n’est vraiment anonyme dans la Toile

Ces données ne comportaient pas les noms, ni les numéros de carte, adresses ou heure exacte de la transaction. Seuls figuraient le montant de la transaction, le type de magasin (sport, vêtements, restaurant, etc.) et un numéro représentant chaque personne. Rien qu’avec cela, les mathématiciens du M.I.T disposaient pour chaque individu d’un schéma « de dépenses ». Or, ce schéma semble être aussi unique qu’une empreinte digitale !

La technique pour identifier ces personnes à partir de leur schéma de dépenses, nommée « attaque par corrélation » a consisté à aspirer du Web d’autres informations disponibles, notamment celles éventés par des organisations, soit par erreur soit suite à un piratage du site. De telles données sont légion sur la toile : Twitter, Facebook… Régulièrement des entreprises annoncent le vol et la publication de millions de données-client comportant des noms, des photos, des liens sur les réseaux sociaux, etc.

Un très sérieux problème de sécurité à l’ère des Big data

En fusionnant ces millions voire milliards de données dans un algorithme conçu par l’équipe d’après des modèles mathématiques sur les corrélations statistiques, les chercheurs ont peu à peu sorti de l’anonymat chacune des personnes : les noms, voire les photos ! Selon les chercheurs, pour pouvoir associer 90% des schémas de dépenses à des personnes bien identifiées, il a suffi à l’algorithme de disposer (grâce aux fuites de sites) d’informations sur seulement quatre lieux où s’est rendue cette personne dans d’autres circonstances.

Voilà donc qui montre de manière spectaculaire ce que de nombreux chercheurs annoncent depuis quelque temps : les techniques d’anonymisation utilisées par les banques, les systèmes de santé, les réseaux sociaux, etc. permettant de faire circuler les données sur des personnes supposément sans risque d’identification sont obsolètes. A l’ère des Big data, il faut repenser l’anonymat.

Román Ikonicoff

 

 > Lire également dans les Grandes Archives de Science & Vie :

  • L’heure du cryptage quantique a sonné – S&V n°1155 – 2013 – L’affaire Snowden a ébranlé le monde du renseignement, et la confiance entre de supposés pays alliés qui, finalement, n’ont pas cessé de s’espionner comme dans les pires cauchemars paranoïaques de la guerre froide… La recherche de nouvelles solutions techniques, comme la cryptographie quantique, vise à résoudre ce problème.

1155

  • Web : bien protéger sa vie privée - S&V 1126, juillet 2011 – Comment rester maître de ses données personnelles, si prisées par les firmes du Net ? Un petit guide pour améliorer sa sécurité quand on surfe sur le Web.

S&V 1126 - piratage

  • Google, le nouvel Einstein – S&V n°1138 – 2012 – Depuis une dizaine d’années, la plupart des données qui circulent dans la Toile sont conservées dans les serveurs des grandes firmes d’internet. Grâce à cela, nous possédons une mémoire détaillée des activités humaines et des évènements passés et présents… que les scientifiques exploitent pour pister des épidémies, découvrir de nouvelles lois, soigner des maladies. La science des Big Data est en route. 1138

Que deviendrait un objet tombant dans un trou qui traverserait la Terre ?

Standard
North_America_from_low_orbiting_satellite_Suomi_NPP

L’image de la Terre en très grande définition, prise en janvier 2012 depuis le satellite Suomi (NASA/NOAA/GSFC/Suomi NPP/VIIRS/Norman Kuring)

Quel que soit son poids ou sa forme, il oscillerait com­me un élastique. Dans le cas le plus simple, c’est-à-dire dans un tunnel totalement vide d’air, synonyme d’absence de frottement et donc de résistance, cet objet ne serait soumis qu’à la seule force gravitationnelle, qui agit comme des ressorts de chaque côté du globe. “Les équations du problème de la chute du corps et de la gravitation sont strictement identiques et de nombreux parallèles peuvent être faits entre les deux situations”, note ­Hervé Partouche, chargé de recherche au Centre de physique théorique de l’École polytechnique du CNRS, à Palaiseau.

En chute libre, l’objet fera donc des va-et-vient incessants entre les deux côtés du tunnel, et mettra quatre-vingt-quatre minutes pour effectuer l’aller-retour et revenir à son point de départ. La durée de sa traversée ne dépend d’ailleurs pas du rayon de la planète, mais seulement de sa gravité : en comparaison, l’aller-retour à travers la Lune durerait une heure quarante-huit, et un peu moins de trois heures dans le cas du Soleil.

84 minutes l’aller-retour à travers la Terre

La chute dans le vide est un problème plutôt simple à résoudre qui est donné à tous les élèves de première. En revanche, ça se complique un peu en présence de frottements”, poursuit le chercheur. Un avis partagé par Thierry Martin, directeur du Centre de physique théorique (université Aix-Marseille), pour qui “les forces de frottement ne peuvent être décrites qu’à travers des modèles basés sur l’observation expérimentale”. Dans ce cas, le mouvement devrait perdre de l’énergie à chaque oscillation. L’objet devrait donc terminer sa course au centre de la Terre après d’innombrables allers-retours, toujours plus réduits, jusqu’à l’arrêt total.

Les différentes couches de la Terre (Hawk-Eye via Wikicommons CC BY-SA 3.0)

Les différentes couches de la Terre (Ph. Hawk-Eye via Wikicommons CC BY-SA 3.0)

Cependant, si le tunnel ne passe pas exactement au centre de la Terre, et n’est pas précisément identique à son axe de rotation, la force dite de Coriolis déviera sa trajectoire, provoquant des collisions avec les parois et bloquant son passage. Notons pourtant qu’un tel tunnel est de toute façon absolument inenvisageable, ne serait-ce qu’en raison des températures au centre de la planète (jusqu’à 5 500°C) !

F.C.

 

> Lire également dans les Grandes Archives de Science & Vie :

  • Tectonique des plaques : l’hypothèse Armageddon- S&V n°1163 – 2014. Si aucun objet n’a jamais traversé de part en part la Terre, il se pourrait qu’un gigantesque cataclysme, la chute d’un astéroïde voici 3,26 milliards d’années, ait disloqué sa croûte au point de déclencher la tectonique des plaques.

1163

  • On a retrouvé la Lune ! – S&V n°1154 – 2013. Un autre cataclysme, qui a frappé la Terre voici 4,56 milliards d’années, lui a arraché une bonne partie de son manteau : cette éjection a créé la Lune.

1154

 

 

Pourquoi est-on fatigué après avoir pleuré ?

Standard
Pleurer est un mécanisme ancestral de survie (Ph.  Axel Naud via Flickr CC BY 2.0)

Pleurer est un mécanisme ancestral de survie (Ph. Axel Naud via Flickr CC BY 2.0)

C’est vrai : pleurer laisse toujours une sensation de grande fatigue physique, alors qu’a priori, on n’a pas l’impression d’avoir produit un effort. L’explication est à chercher du côté de la neurologie, car les pleurs font appel à des mécanismes du stress qui mobilisent beaucoup d’énergie. On ­pleure quand on a mal, quand on est triste, quand on a peur, quand on est en colère… Autant de situations de stress qui provoquent la libération d’hormones, essentiellement de l’adrénaline et du cortisol.

Libérées par les glandes surrénales, ces hormones préparent l’organisme à réagir, par la lutte ou la fuite, selon un mécanisme de survie ancestral. Elles accélèrent le rythme cardiaque et la respiration, dilatent les vaisseaux sanguins et les bronches, font affluer le sang vers les muscles qui se tendent, redressent les poils sur la peau, accentuent la vigilance…

Pleurer : un mécanisme de survie

Ces hormones induisent aussi la production d’une forme d’énergie directement utilisable par les muscles, de l’ATP, (adénosine triphosphate), à partir des réserves de glucose et d’acides gras. Du coup, ces réserves diminuent comme après un effort physique. Les pleurs, enfin, mobilisent des muscles peu sollicités car ils s’accompagnent de mouvements de la ­poitrine, du menton, à l’intérieur de la gorge et d’une tension dans tout le corps.

Puis le stress s’estompe. Le taux de cortisol diminue d’autant plus vite que les larmes en évacuent une grande partie. En plus de la baisse des stocks énergétiques et de l’accumulation de déchets métaboliques, les scientifiques supposent que cette diminution des hormones de stress provoque elle aussi une sensation de fatigue qui incite l’organisme à “recharger ses batteries” pour parer à une éventuelle nouvelle agression.

A.D.

 

> Lire également dans les Grandes Archives de Science & Vie :

  • Nos états d’âme modifient notre ADN – S&V n°1110 – 2010. La tristesse, la peur, le stress… La science commence à découvrir l’effet de nos états d’âmes sur notre matériel génétique. Édifiant !

1110

  • La dépression, une maladie qui dérange – S&V n°1047 – 2004 – La dépression touche aujourd’hui 350 millions d’individus selon l’OMS et génère d’énormes dépenses de santé publique. Pourtant c’est une maladie qu’on tait.

1047

Qu’appelle-t-on une température ressentie ?

Standard
En hiver, avec du vent, la température ressentie est souvent inférieure à ce qu'affiche le thermomètre ( Ph. Anthony Quintano via Flickr CC BY 2.0)

En hiver, avec du vent, la température ressentie est souvent inférieure à ce qu’affiche le thermomètre ( Ph. Anthony Quintano via Flickr CC BY 2.0)

Lors d’une vague de froid, l’expression “température ressentie” est souvent entendue. Mais ce n’est pas à proprement parler une tempéra­ture. “Il vaudrait mieux parler d’indice”, selon Etienne Kapikian, ingénieur à Météo-­France. Sous ce terme se cache en effet une équation ­complexe obtenue en calibrant des modèles d’échanges thermiques avec des données expérimentales acquises auprès de volontaires. Elle modélise ce que ressentirait un individu moyen exposé à la température mesurée en tenant compte de la vitesse du vent et de l’humidité.

Car nous l’avons tous éprouvé, un vent fort accentue la sensation de froid. En cause : les échanges de chaleur entre notre corps et l’air. Quand la température extérieure est inférieure à la nôtre, la chaleur s’échappe de notre corps ; la couche d’air située à la surface de la peau est donc plus chaude que l’air ambiant. Et le vent, en balayant cette couche d’air, ­accélère les déperditions d’énergie. La température ressentie, appelée aussi “indice de refroidissement éolien”, rend compte de cette perception.

L’été aussi il y a des températures ressenties

Ainsi, une température de –10 °C avec un vent de 30 km/h donne un indice de –20 : l’impression de froid en plein vent étant la même que celle ressentie à l’abri par –20 °C. L’été, la température ressentie est donnée par l’indice humidex. Un air très ­humide renforce la sensation de chaleur en rendant moins efficace l’évaporation de la sueur, et donc la régulation de la température corporelle.

Si le ressenti varie selon les individus, il reste un outil pédagogique et un indicateur utile pour activer la ­vigilance “grand froid”. Mais attention : de cet hiver, on retiendra peut-être que le mercure est descendu sous les –20 °C en France, en oubliant que c’était une “température ressentie”.

V.E.

 

> Voir également dans les Grandes Archives de Science & Vie :

  • L’homme peut-il faire la pluie et beau temps ? – S&V n°1109 – 2010 – Depuis les années 1950, la science explore la possibilité de contrôler la météo en provoquant la formation de nuages et de pluie ou, au contraire, en l’évitant. Si quelques techniques existent déjà, elles restent très aléatoires.
  • 1109

S&V 1139 défenses immunitaires

  • Et voici le froid qui vient du son – S&V n°1072 – 2007. Une lacune existe : nous ne disposons pas d’un équivalent des fours à micro-ondes pour le froid : un appareil capable de refroidir à grande vitesse des objets autrement que par échanges thermiques. Cela pourrait peut-être changer grâce à la découverte d’un phénomène lié aux ondes sonores.

1072

 

 

 

Le satellite Planck livre enfin sa plus belle vision de l’après Big bang

Standard
Zoom sur une région de l'espace montrant la polarisation des la lumière du Big bang (Credits: ESA and the Planck Collaboration)

Zoom sur une région de l’espace montrant la polarisation de la lumière à peine 380 000 ans après le Big bang (Credits: ESA and the Planck Collaboration)

 

De nouvelles images des observations du satellite européen Planck commencent à tomber comme une pluie de météorites ! Depuis hier en effet, plusieurs articles publiés par la revue Astronomy & Astrophysics (ou en préparation) dévoilent sous un jour nouveau l’Univers primordial mais aussi notre galaxie, la Voie Lactée, comme nous vous l’avions annoncé il y a deux mois. Parmi les nouveautés théoriques, la principale – pour l’instant – est un changement substantiel de la chronologie des évènements cosmiques qui ont suivi le Big bang.

Pour ressentir l’enchantement, il faut regarder les détails des images livrées par Planck : c’est là que se niche la beauté endiablée du Cosmos et de la cosmologie. En particulier dans la carte de l’Univers tout entier. Vue de loin, elle ressemble à ce que l’on connaissant déjà : un œuf couché dont la coquille est bariolé des couleurs bleu, jaune, turquoise, orange et rouge qui représentent des différences de températures des rayonnements émanant de l’époque du Big bang voici quelque 13,77 milliards d’années (Rayonnement cosmologique diffus ou Rayonnement fossile ou encore CMB).

Planck dévoile la chevelure du Big bang

Mais Planck s’en est « approché » comme jamais aucun autre télescope ! Un zoom sur une région quelconque de cette peinture abstraite révèle pour la première fois la très fine chevelure de ce rayonnement. Ces vagues représentent non pas les différences de température de la lumière (les fréquences de ses photons) que l’Univers a libérée à peine 380 000 ans après sa naissance, et qui sont, elles, matérialisées par les couleurs. Elles représentent l’orientation de cette lumière, ou « polarisation » et renseignent sur les évènements ayant suivi cette libération.

Polarisation du rayonnement cosmologique fossile (crédit : ESA and the Planck Collaboration )

Image de la polarisation du rayonnement cosmologique fossile sur la totalité du ciel (crédit : ESA and the Planck Collaboration )

Concrètement, les photons, au cours de leur course dans un Univers en expansion, ont commencé à rencontrer des atomes de matière qui ont agi comme des filtres polarisateurs : ces derniers ont orienté les plans de vibration des photons – telle une corde à sauter dont on orienterait le plan de vibration en l’agitant tantôt de haut en bas, tantôt de droite à gauche. Résultat : les « mouvements » de cette chevelure disent comment la matière s’est organisée dans les premières centaines de millions d’années après le Big bang. Et là, surprise !

Les premières étoiles et galaxies formées bien plus tardivement que prévu

Interprétée à l’aune de modèles théoriques transformés en algorithmes de calcul, cette chevelure murmure aux astronomes le secret suivant (via un calcul de densité de la matière présente) : les premières étoiles sont apparues quelque 550 millions d’années après le Big bang, soit 100 millions d’années après ce qu’on estimait jusqu’ici (450 millions d’années). Et ce seul résultat résout une énigme qui hantait les spécialistes.

En effet, la polarisation des photons est liée à un phénomène nommé « réionisation » : alors que l’Univers était encore tout jeune, et les premières étoiles et galaxies encore en formation, des atomes déjà constitués et formant une sorte de brouillard cosmique (période dite d’Age sombre) ont à nouveau été divisés en leurs constituants élémentaires (électrons, protons, neutrons). Et ce, grâce aux rayonnement très forts émis par les premières étoiles et galaxies alors en formation. Le problème était que la réionisation, si elle avait démarré seulement 450 millions d’années après le Big bang, n’aurait pas pu être expliquée par le seul rayonnement des étoiles et galaxies.

La résolution d’une énigme

Car ces jeunes étoiles et galaxies n’étaient alors pas assez nombreuses, au regard de la forte densité d’atomes libres dans l’Univers, bloquant la diffusion de la lumière ionisante (Age sombre). C’est du moins ce qu’affirmaient les observations des galaxies les plus anciennes effectuées par le télescope Hubble. En déplaçant de 100 millions d’années ce phénomène, la densité de matière diffuse étant plus basse (à cause notamment de l’expansion et de l’agglomération de matière en îlots), la lumière émise par les étoiles et galaxies en formation suffit à expliquer en grande partie le processus de réionisation. Exit, donc, la question d’une autre source d’énergie – exotique – qui aurait contribué majoritairement à la réionisation.

Zoom sur la Voie Lactée et son champs magnétique (ESA

Zoom sur la Voie Lactée et son champ magnétique (ESA/collaboration Planck)

Mais Planck a fourni d’autres images fortes (image 1 et image 2), cette fois de la Voie lactée, notre galaxie, qui permettent de connaitre en détail son environnement magnétique, plus précisément la structure même de son champ magnétique (ainsi que le montrent les images suivantes) :

allsky_30ghz_bpcorrected_combined_with_commander_noptsrc_nside512_fwhm60_len100_nit5esa_planck_galacticdust_polarisationImages de la polarisation de la poussière interstellaire de notre Galaxie. Les couleurs indiquent l’intensité de l’émission (Crédits : ESA/collaboration Planck/M.-A. Miville-Deschênes/CNRS)

Si, pour connaître tous les premiers apports de la mission de Planck, il faut s’armer de patience en consultant les dizaines d’articles déjà en libre accès sur le site de l’ESA, la moisson va certainement se poursuivre longtemps. Déjà, on sait que l’annonce, faite en mars 2014 par la collaboration BICEP 2, de l’observation d’ondes gravitationnelles provenant du big bang – autrement dit de la trace laissée sur le ciel par l’Univers au moment de sa naissance – n’est pas confirmée par Planck. Et d’autres annonces suivront avec, à n’en pas douter, de nombreuses nouveautés percutantes – et d’autres plus silencieuses mais qui, par accumulation, sont en passe de changer les modèles du Cosmos… et notre façon de le voir.

Román Ikonicoff

> Lire aussi dans les Grandes Archives de S&V :

S&V 1134 Les premiers signes de l'au-delà

  • Qu’y avait-il avant le Big Bang ? – S&V n°1054. Remonter le temps avant le big bang : ce rêve d’astrophysicien n’est plus impossible grâce aux fabuleux télescopes spatiaux tels WMAP.

S&V 1054 Avant le Big Bang

  • Où sont les limites de l’Univers ? – S&V n°1009. Le tout dernier outil d’observation spatiale, Archeops, est français. Les astronomes repoussent de plus en plus le limites des connaissances sur l’Univers, une quête datant de l’origine de l’Homme lui-même.

S&V 1009 limites de l'univers

  • La carte des origines – S&V n°993. Une carte partielle des origines de l’Univers a été livrée par le ballon-sonde Boomerang en 2000.

S&V 993 La carte des origines

Pourquoi la Lune s’éloigne-t-elle de la Terre ?

Standard
Lors des éclipses de Lune, quand la Terre s'interpose exactement entre elle et le Soleil, la Lune devient rousse à cause d la diffusion de la lumière rouge par l'atmosphère terrestre (Ph. Jonathan Leung via Flickr CC BY 2.0)

Lors des éclipses de Lune, quand la Terre s’interpose exactement entre elle et le Soleil, la Lune devient rousse à cause de la diffusion de la lumière rouge solaire par l’atmosphère terrestre (Ph. Jonathan Leung via Flickr CC BY 2.0)

Rappelons d’abord qu’effectivement, la Lune s’éloigne. L’installation de réflecteurs laser lors de la mission Apollo 11, en 1969, a permis de mesurer que notre satellite – situé à quelque 384 400 km – s’éloigne de 3,8 cm par an. En cause ? Les phénomènes de marée créés par la Lune, et dans une moindre mesure par le Soleil, qui déforment la Terre et provoquent son ralentissement. Ces marées libèrent en effet de l’énergie mécanique par frottement des océans sur les fonds marins, une dissipation d’énergie qui participe au ralentissement de la Terre… et agit sur le système Terre-Lune.

Un système isolé dans le vide spatial, dont le moment cinétique (la “quantité” de mouvements liés à la rotation de l’ensemble des deux globes) est “conservé” selon un principe physique établi : quand la Terre décélère, le moment cinétique de la Lune associé à son mouvement orbital augmente en compensation, ce qui se traduit par son accélération sur son orbite et, donc, son éloignement. Et cet éloignement est constant, comme en témoignent les relevés de l’heure des éclipses observées depuis l’Antiquité.

La fin annoncée des éclipses totales du Soleil par la Lune

A ce rythme, la diminution de la taille apparente de la Lune (aujourd’hui égale à celle du Soleil) fera que, dans 500 millions d’années, il n’y aura plus d’éclipses totales, seulement des éclipses annulaires. Notre satellite va continuer de s’éloigner jusqu’à ce que la Terre tourne sur elle-même à la même vitesse que la Lune tourne autour d’elle.

Les calculs montrent que, dans environ 10 milliards d’années, les deux corps se retrouveront ainsi face à face, la Lune ne devenant visible que d’une moitié de la Terre. Un spectacle qu’aucun Terrien ne pourra pourtant contempler car, d’ici là, le Soleil aura disparu…

L.B.

 

> Lire également dans les Grandes Archives de Science & Vie :

  • On a retrouvé la Lune ! – S&V n°1154 – 2013. Si proche, si loin… La Lune nous accompagne depuis 4,56 milliards d’années, et toutes les civilisations l’ont adorée, craint et étudiée. Mais malgré les moyens techniques dont nous disposons aujourd’hui et les visites in situ, elle conserve des secrets… qu’on perce progressivement.

1154

  • La Terre a deux lunes ! – S&V n°1136 – 2012. Mars à deux lunes, Phobos et Déimos, Jupiter en a au moins 67… Jalouse peut-être de cette inflation, la Terre s’en est découverte une deuxième : un astéroïde géocroiseur qu’elle a capturée dans son champs gravitationnel.

1136

  • Lune : son cœur a été mis à nu – S&V n°1123 – 2011. Parmi les inconnues entourant la Lune, son noyau : est-il solide et inerte ? Liquide et fluctuant ? Ce n’est qu’en 2011 que le profil en coupe de notre satellite a pu être complété : une graine solide en fer, un noyau externe liquide et une couche de roches fondues…

1123

 

 

 

Première mondiale : des chercheurs ont produit artificiellement un muscle humain fonctionnel

Standard
Le muscle humain artificiel filmé en train de se contracter (capture d'écran, Duke University)

Le muscle humain artificiel filmé en train de se contracter (capture d’écran, Duke University)

Il a grandi dans un tube à essai et n’a jamais vu ses semblables, mais il se comporte le plus naturellement possible !  Ce muscle humain de laboratoire se contracte sous l’effet d’une décharge électrique (vidéo ci-dessous) et réagit normalement aux substances chimiques et pharmaceutiques. Si l’on savait déjà produire de la chaire musculaire, l’équipe de chercheurs en ingénierie biomédicales de l’université Duke (Caroline du Nord) est la première au monde à concevoir artificiellement un véritable muscle humain fonctionnel.

Pour y arriver, c’est bien sûr la technologie des cellules souches (ou cellules pluripotentes) qui a été utilisée, comme pour toutes les expériences de ce type : extraites de muscles humains, elles ont été élevées, c’est-à-dire nourries, aux protéines dans un tube à essai.

Un échafaudage 3D pour bien orienter la croissance des fibres du muscle.

Mais là où l’équipe a innové, c’est dans la manière de les faire croitre, d’un facteur 1000, à l’aide d’un échafaudage enduit du gel protéinique nourrissant : cette structure tridimensionnelle, que les chercheurs ont mis plus d’un an à concevoir, a orienté la croissance des fibres musculaires.

Leur alignement a si bien été réussi que c’est devenu un muscle comme un autre : non seulement il réagit aux impulsions électriques, mais il a également tous les attributs nécessaires pour pouvoir être activé par des nerfs (par échange de signaux chimiques).

Un muscle extérieur pour des tests médicaux hyper-personnalisés

Mieux encore : saupoudrés de substances pharmacologiques comme la statine, un anti-cholestérique, ou le clenbutérol, un anti-catabolisant qui sert notamment au dopage des sportifs, les muscles ont réagi comme leurs cousins naturels (accumulation de graisse, renforcement, etc.)

En attendant de pouvoir créer des muscles de substitution pour l’homme – le grand rêve attaché à la technologie des cellules souches – l’équipe voit dans son invention une application assez immédiate : un dispositif de traitement hyper-personnalisé pour des individus présentant une pathologie musculaire, sur lequel on pourrait tester l’effet d’un médicament in vitro.

Aspect au microscope des fibres nerveuses humaines obtenues en laboratoire à partir de cellules (en bleu). Crédit : Duke University.  Bursac_Engineered_Muscle_2_smallA-microscopic-view-of-lab-grown-human-muscle-bundles-stained-to-show-patterns-made-by-basic-muscle-units-and-their-associated-proteins-red-which-are-a-hallmark-of-hum

Aspect au microscope des fibres nerveuses humaines obtenues en laboratoire à partir de cellules (en bleu). Crédit : Duke University.

L’équipe espère aussi pouvoir se passer des cellules souches musculaires, nécessairement extraites par biopsie d’un muscle, au profit de cellules de la peau ou du sang transformées en muscles par la technique dite de cellule souche pluripotente induite (CSPi).

Román Ikonicoff

 

 > Lire aussi dans les Grandes Archives de S&V :

  • Cellules souches embryonnaires: c’est parti ! — S&V n°1134 — 2013. Le premier exploit des cellules souches embryonnaires : réparer la rétine d’un malade. Il n’est plus interdit de rêver à un corps humain éternellement régénéré.

S&V 1134 cellules souches embryonnaires

S&V 1120 cellules souches

 

 

 

Pourquoi l’eau chaude gèle-t-elle plus rapidement que l’eau froide ?

Standard
On ignore pourquoi les glaçons se forment plus vite si l'eau utilisée est chaude (Ph. Andrew Gustar via Flickr CC BY 2.0)

Les glaçons se forment plus vite si l’eau utilisée est chaude (Ph. Andrew Gustar via Flickr CC BY 2.0)

Vous avez donc fait l’expérience de ce petit truc amusant : placer un bac à glaçons rempli d’eau chaude au freezer pour obtenir de la glace plus rapidement qu’avec de l’eau froide. Curieusement, il n’y a pas encore d’explication bien établie à ce phénomène étrange appelé “effet Mpemba” (du nom de son découvreur tanzanien en 1963). Les scientifiques ont néanmoins proposé cinq hypothèses, qui peuvent être complémentaires, et qui jouent un rôle variable en fonction des conditions.

La plus simple met en cause l’évaporation de l’eau chaude : ce phénomène entraînerait principalement une diminution de la masse d’eau, ce qui favoriserait son refroidissement par rapport à un même volume initial d’eau froide. Ajoutons à cela, deuxième hypothèse, le fait que l’évaporation consomme beaucoup de chaleur, ce qui accélère encore le refroidissement. Mais le phénomène pourrait aussi être dû à la perte de gaz dissous ­(dioxyde de carbone, azote…), qui s’échappent quand l’eau est chauffée ; or, sans ces gaz, l’eau gèlerait plus rapidement.

L’eau chaude est-elle moins sensible à l’effet de surfusion ? Engendre-t-elle des courants de convection plus intenses ?

Troisième hypothèse : l’eau chaude refroidirait plus vite car elle serait moins sensible à l’effet de “surfusion” qui permet à un liquide de conserver sa viscosité alors que sa température est passée sous son seuil de solidification. Un état qui se produit de préférence lorsque le refroidissement est lent et que l’eau contient peu d’impuretés. Or, comme l’eau chaude aurait moins tendance à la surfusion que la froide, elle gèlerait à une température supérieure, et donc plus vite.

La quatrième explication repose sur l’existence de courants de convection plus importants dans l’eau chaude : ces courants accéléreraient les transferts thermiques entre l’eau chaude et son environnement, ce qui favoriserait là encore un refroidissement plus rapide. Enfin, la cinquième hypothèse fait intervenir une modification de l’environnement autour de l’échantillon provoquée par la chaleur de l’eau. Par exemple, si le récipient repose sur de la glace pilée, l’eau chaude, contrairement à l’eau froide, peut faire fondre la glace, établissant ainsi une meilleure conduction de la chaleur durant l’expérience et favorisant le refroidissement de l’eau chaude.

Ces cinq thèses n’ont pas été validées rigoureusement car les tests dépendent d’un grand nombre de facteurs mal définis. L’effet Mpemba reste donc difficile à reproduire et à étudier.

K.B.

 

> Voir également dans les Grandes Archives de Science & Vie :

  • Et voici le froid qui vient du son – S&V n°1072 – 2007. Une lacune existe : nous ne disposons pas d’un équivalent des fours à micro-ondes pour le froid : un appareil capable de refroidir à grande vitesse des objets autrement que par échanges thermiques. Cela pourrait peut-être changer grâce à la découverte d’un phénomène lié aux ondes sonores.

1072

  • L’expérience quantique qui jette un froid – S&V n°1074 – 2007. La physique du froid, c’est-à-dire de l’absence de chaleur, n’est pas aussi bien connue qu’on ne le croit. Ainsi, en physique quantique, le froid (ou le refroidissement) intrigue les chercheurs.

1074

  • Le point sur le réfrigérateur – S&V n°1068 – 2006. Alors que la production chaleur, via le feu et la combustion, est connue et maîtrisée depuis au moins 350 000 ans, la production de froid, elle, n’a été maîtrisée qu’au XIXe siècle. Pourquoi un tel déséquilibre entre ces deux phénomènes antagonistes ? Une plongée dans l’histoire et la thermodynamique…

1068

 

 

Une simulation dévoile comment la pollution asiatique crée des cyclones en Amérique

Standard
Les particules de suie et autres aérosols émis par l'Asie crée des cyclones en Amérique (capture d'écran - Nasa)

Les particules de suie et autres aérosols émis par l’Asie créent des cyclones en Amérique (capture d’écran – NASA/GSFC)

Pour la première fois une simulation des flux climatiques obtenue via des satellites et un modèle informatique révèle le lien entre les particules de suie produites en Asie et l’augmentation des cyclones en Amérique. La simulation mise en ligne par la Nasa (ci-dessous) est riche de couleurs et surtout d’enseignements : elle montre comment les polluants passent d’un continent à l’autre, via les nuages, et modifient le climat.

La vidéo suit l’évolution de tous les flux atmosphériques, heure par heure, entre le 1er septembre 2006 et le 10 avril 2007 – une époque déjà « ancienne » dans l’histoire du réchauffement climatique tant celle-ci évolue rapidement.

Mais elle donne une base rigoureuse à l’analyse des modifications actuelles liées à la diffusion dans l’atmosphère des « aérosols« , ces particules (d’un diamètre de 1 micromètre ou moins) de « carbone-noir » ou suie et de « carbone-organique » soit un agglomérat de molécules à chaine carbonée.

Circulation des aérosols d’origine humaine et naturelle (en rouge et en jaune) entre le 1er septembre 2006 et le 10 avril 2007 (Crédit: NASA Goddard Space Flight Center).

Outre leur effet sur la santé, allergies, asthmes et pathologies respiratoires, ces aérosols produits en partie par les activités industrielles humaines interagissent dans l’atmosphère avec la vapeur d’eau : ils lui servent de support pour se condenser, créant des nuages. C’est ce dernier phénomène qui a été visé par une équipe de chercheurs du Jet Propulsion Laboratory de la Nasa et le California Institute of Technology ou CalTech : s’appuyant sur les relevés des flux atmosphériques globaux fournis par les satellites Terra et Aqua de la Nasa, ils ont effectué leur simulation selon un modèle incluant des informations comme les températures, les précipitations et la pression mesurées par les milliers de capteurs et instruments dont disposent les climatologues.

La pollution en aérosols d’origine humaine augmente la couverture nuageuse

Ensuite, ils ont intégré les données connues sur la production, la diffusion et le mode de transport des aérosols. Ceux-ci étant engendrés aussi bien par des phénomènes naturels (feux de forêt, volcans, émissions par des organismes biologiques, etc.) que par les activités humaines (industries), les chercheurs ont soustrait de leur modèle le taux produit par les phénomènes naturels.

Conclusion : les aérosols en surplus, émanant principalement de l’Asie et surtout de Chine (mais pas seulement), se chargent d’eau durant leur traversée du Pacifique (zone humide) et accroissent ainsi la couverture nuageuse notamment des zones proches des cotes de l’Ouest américain – les chercheurs ayant approfondi leur analyse sur cette partie du Globe. Cette croissance nuageuse augmenterait alors le nombre et la force des cyclones – qui s’en alimentent – et produirait également davantage d’épisodes pluvieux et neigeux non cycloniques.

Quelles conséquences pour le climat de l’Europe ?

La simulation prouve ainsi les mécanismes d’un phénomène observé depuis une trentaine d’années : l’augmentation de la couverture nuageuse de l’océan Pacifique et de la force des tempêtes (+ 10 %). Elle devrait également dissuader les géo-ingenieurs qui, depuis quelques années, imaginent des solutions pour refroidir la Planète via une augmentation artificielle de sa couverture nuageuse (au moyen de la diffusion d’aérosols).

La simulation montre également les flux d’aérosols asiatiques (et autres) sur l’Europe et les autres régions terrestres, mais les chercheurs n’ont pas encore affiné suffisamment leur analyse pour clarifier les conséquences sur le climat local – travail en cours, selon leur affirmation. Mais un simple visionnage de la simulation montre déjà que ces conséquences existent bel et bien…

Román Ikonicoff

 

> Lire aussi dans les Grandes Archives de S&V :

GA

  • Les molécules cachées du réchauffementS&V n°1160 – Depuis une dizaine d’années les chercheurs découvrent dans l’atmosphère des molécules industrielles passées jusqu’ici inaperçues, responsables également de l’effet de serre qui réchauffe la planète.

S&V1160

SV1147(dp)

 

Existe-t-il un éclairage optimal pour bien voir ?

Standard
Selon l'éclairage, nos cellules rétiniennes réagissent différemment (Ph. Phillip Grondin via Flickr CC BY 2.0)

Selon l’éclairage, nos cellules rétiniennes réagissent différemment (Ph. Phillip Grondin via Flickr CC BY 2.0)

Oui : l’acuité, qui augmente avec l’éclairement, est optimale quand celui-ci atteint 1 000 lux, seuil au-delà duquel notre acuité n’en dépend plus. Cette intensité correspond à un fort éclairage artificiel (lampe de bureau puissante). Selon l’INRS, un organisme de prévention des risques au travail, pour les tâches ne nécessitant pas de percevoir les détails (repassage), 300 lux (éclairage “normal” des habitations) conviennent. S’il s’agit de lire ou d’écrire, 500 à 1 000 lux seront nécessaires. Pour comparer, l’éclairement du soleil à 50 ° au-dessus de l’horizon par ciel clair est de 105 lux ; celui de la circulation de nuit de 50 lux ; et celui de la pleine lune de 0,2 lux.

Ce seuil de 1 000 lux correspond à l’optimum de fonctionnement des 6 millions de cellules visuelles de la rétine spécialisées dans la vision des détails et des couleurs, les cônes. Sensibles à la lumière rouge, verte ou bleue (notre œil est dit “trichromate”), ils transforment les rayons lumineux en signaux nerveux traités par le cerveau.

L’éclairage des étoiles fait déjà réagir nos cellules rétiniennes

C’est par addition des informations perçues par les trois types de cônes que le cerveau perçoit les couleurs.Ces cônes sont spécialisés dans la vision de jour à haute ­luminosité (“vision photopique”) et assurent une très bonne acuité (20/20), à la différence de nos 120 millions de bâtonnets (2/20 ou moins) adaptés, eux, à la vision de nuit (vision “scotopique”).

Entre les deux, au crépuscule par exemple, cônes et bâtonnets fonctionnent simultanément (vision “mésopique”). Cependant, les cônes fonctionnent dès que l’éclairement est équivalent à la lumière des étoiles (0.0005 lux), ne permettant à ce stade ni de lire ni de distinguer les couleurs… Idem sous la pleine lune (0,2 lux). Au fur et à mesure que l’éclairement augmente, les cônes jouent un rôle plus important jusqu’à devenir les seuls acteurs de la vision à grande luminosité.

Mais trop de lumière peut rendre aveugle

Si une lumière très intense survient comme un flash dans l’obscurité, elle entraîne un “aveuglement” momentané dès le retour dans le noir. En effet, ce flash inhibe fortement les bâtonnets par la dégradation d’une protéine, la rhodopsine. Au retour dans le noir, il faudra 20 à 30 min pour que cette rhodopsine soit suffisamment reconstituée pour permettre un fonctionnement “normal” desdits bâtonnets.

K.B.

 

> Lire également dans les Grandes Archives de Science & Vie :

1098

  • Vision nocturne : le tour de passe-passe de l’ADN – S&V n°1103 – 2009 – Avoir un bon éclairage, c’est bien… Mais dans l’obscurité, la vue est capable de prouesses impressionnantes, en particulier chez les mammifères nocturnes : la vision de nuit. Des chercheurs ont réussi à comprendre comment l’évolution a façonné cette aptitude, qui sollicite l’ADN des cellules visuelles.

1103

  • Lentilles infrarouges, voir la nuit comme en plein jour – S&V n°1162 – 2014 – La technologie s’empare des incroyables capacités de vision des espèces nocturnes pour la transférer à l’homme : des lentilles. Une solution pour réduire le besoin d’éclairage nocturne ?

1152