Pourquoi rester debout est-il plus fatigant que marcher ?

Standard
Ph. will ockenden via Flickr CC BY 2.0

Ph. will ockenden via Flickr CC BY 2.0

Chacun en a fait l’expérience : alors qu’on peut marcher une bonne heure sans se sentir fatigué, attendre un bus ou contempler des œuvres d’art au musée se révèle très vite épuisant. Il y a plusieurs explications à cela.

Premièrement, la posture debout n’est pas une position de repos pour le corps humain : tout le poids du corps repose alors sur la plante des pieds, ce qui est fatigant à la longue. Surtout, pour maintenir son équilibre, un ensemble de muscles dits “posturaux”, dans les mollets et les hanches, travaillent conjointement pour ajuster une posture sans cesse perturbée par les phénomènes extérieurs (gravité, vent) et intérieurs (battements du cœur, respiration).

Marcher demande de se rééquilibrer constamment

Comme l’explique Alain Hamaoui, du groupe de physiologie de la posture et du mouvement à l’université Champollion d’Albi, “l’équilibre ne s’obtient que si le centre de gravité du corps se situe au-dessus du polygone de sustentation”, c’est-à-dire la surface au sol comprise entre les pieds. Le cerveau est informé de la position du centre de gravité par les propriocepteurs, des capteurs sensoriels situés dans les articulations et les muscles ; à chaque écart de la position de référence, il enclenche des réajustements au niveau des articulations des chevilles et des hanches. Le muscle le plus sollicité est le triceps sural, le muscle principal du mollet. Il nous empêche de basculer en avant, car la ligne de gravité tombe devant les chevilles. Pour cela, il lui suffit de se contracter périodiquement, ce qui nécessite seulement 10 % de son effort maximal. Mais alors, comment expliquer la fatigue ?

Des messages d’alerte

En passant du temps debout sans bouger, la gravité fait s’accumuler le sang dans les veines des jambes. Celles-ci sont équipées de valves qui l’empêchent de circuler à contre-courant, mais le cœur n’est pas assez puissant pour le pomper complètement. “Trois mécanismes interviennent pour pallier cela, indique Alain Hamaoui, l’appui alterné sur les semelles plantaires, qui chasse le sang vers les mollets ; la contraction périodique du triceps sural, qui fait office de pompe ; et les changements de pression cycliques dus à la respiration, qui créent une aspiration vers le haut.” Or, si la posture debout est maintenue trop longtemps, le volume de sang en circulation diminue, il est de moins en moins bien oxygéné par les poumons, et la pression artérielle est réduite au minimum. Des messages d’alerte sont alors produits dans les grandes artères… jusqu’à provoquer ­l’évanouissement.

Au contraire, en marchant, les muscles des jambes, du tronc et de la ceinture pelvienne sont mobilisés. Si cela induit un coût énergétique supérieur, il reste suffisamment modéré pour se poursuivre longtemps sans fatigue. Et puisqu’on avance un pied à la fois, l’autre pied est toujours soulevé, ce qui accorde à une des jambes un instant de “détente” à chaque pas… équivalant à la moitié du temps de marche. De plus, chaque pas que l’on pose exerce une poussée du sang veineux vers le haut, stimulant la circulation, d’autant plus que le cœur, sollicité par l’effort, bat à un rythme plus soutenu qu’à la station debout.

F.G.

 

 > Lire également dans les Grandes Archives de Science & Vie :

Test : Bougez-vous assez ? – S&V n°1083 – 2007 – Marcher plutôt que rester immobile. L’évolution a favorisé la bipédie chez les hominidés car cette morphologie avait l’avantage de permettre aux individus de courir plus vite et plus longtemps – devant un prédateur ou derrière une proie. Mais aujourd’hui, c’est l’immobilité qui prévaut dans la vie professionnelle et privée. Des habitudes à contre-courant de notre nature de coureurs de fond que nous payons cher. Et vous, bougez-vous assez ?

1083

  • L’homme a-t-il atteint ses limites ? – S&V n°1091 – 2008 – Le corps humain, en particulier celui des sportifs, peut-il développer chaque fois plus de capacités physiques ? Certainement pas, disent les scientifiques. Mais avec l’aide de la technologie et beaucoup d’imagination, il n’y a pas de limite qui tienne.

sv1091

 

10 millions de dollars à qui aura la tête de Terminator !

Standard
La peur d'un scénario à la Terminator a conduit le milliardaire Elon Musk à proposer 10 millions de dollars pour éviter ce risque (Ph. Dick Thomas Johnson via Flickr CC BY 2.0)

La peur d’un scénario à la Terminator a conduit le milliardaire Elon Musk à proposer 10 millions de dollars pour éviter ce risque (Ph. Dick Thomas Johnson via Flickr CC BY 2.0)

Il faut éviter à tout prix que les robots et les systèmes d’intelligence artificielle prennent le pouvoir. A tout prix ? Non. A 10 millions de dollars ! C’est le montant qu’Elon Musk, multi-milliardaire et personnalité du monde des technologies de pointe et des projets fous, déboursera à partir de ce lundi pour financer la recherche scientifique contre l’intelligence artificielle. Ou plutôt contre le risque d’un scénario à la Terminator. Cela fait suite à des mois de déclarations publiques et d’articles dans les grands quotidiens sur ce risque (lire ce  post), portées par les voix de Musk, mais aussi de Stephen Hawking et d’autres dont le prix Nobel de physique Frank Wilczek. Maintenant l’heure est à l’assaut réel contre « SkyNet » (la firme à l’origine de la révolte des IA dans le film Terminator) !

Musk, qui est par ailleurs le cofondateur de PayPal (service on-line de paiement d’achats), de Tesla Motors, (voitures électriques autonomes) et de SpaceX (entreprise astronomique en contrat avec la Station spatiale internationale), a décidé de financer la recherche en « AI-friendly » (IA amicale) via le Future of Life Institute, dont il fait partie avec Hawking et d’autres. L’IA amicale se centre sur le concept d’éthique, à savoir : comment donner aux entités autonomes, robots ou programmes, des principes opérationnels éthiques, à l’image des célèbres lois inventées par l’écrivain et physicien Isaac Asimov dans sa saga Le grand livre des robots :

1- Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit exposé au danger ; 2- Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; 3- Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.

Terminator est encore du domaine de la fiction

Partant du principe qu’une entité IA exécute des programmes écrits en langage logique et n’a pas conscience de ses actes, ni du mal qu’il pourrait faire à un humain, l’idée des spécialistes est de trouver un langage de programmation dans lequel on puisse exprimer des commandes comme : “tu dois” (obligation), “tu ne dois pas” (interdiction), “tu peux” (permission). Celles-ci doivent côtoyer dans un programme les règles classiques de type : « si [tu reçois cette information] alors [tu fais cette action] » mais avec un plus grand niveau de priorité. Un tel langage permettrait d’exprimer dans un programme un principe comme « quelle que soit la tâche commandée, si tu vois un humain, tu ne dois pas t’approcher à plus de 1 m », quitte au robot de calculer une nouvelle solution pour accomplir sa tâche en respectant l’interdiction.

Mais le problème posé par l’éthique « automatique » est plus complexe : ce sont souvent les situations contradictoires nécessitent un choix éthique (lire Robot : tu ne tueras point !). Par exemple : je dois respecter la limitation de vitesse de 90 km/h pour la sécurité de mes passagers humains, mais je vois dans le rétro un poids-lourd qui nous fonce dessus à 120 km/h (cas de figure étudié dans la perspective de l’automatisation de la conduite). Une situation contradictoire qui oppose la règle de limitation de vitesse à celle de la sauvegarde du véhicule et ses passagers, non gérable par les langages de programmation classiques. D’où la recherche de nouveaux langages plus souples pouvant choisir de déroger ponctuellement à certaines règles (limitation de vitesse) au profit d’autres (accélérer).

Mettre le débat sur la place publique pour anticiper le risque d’un rejet massif de l’IA

Doter les IA d’une fonctionnalité éthique contrôlant les autres modules logiques de leur cerveau électronique, voilà le genre de recherche que vise la donation d’Elon Musk. Néanmoins, ses déclarations surpassent nettement ce cadre : avec Hawking et les autres donneurs d’alerte, il est question du risque très hollywoodien d’une réelle prise de conscience des IA et de leur volonté de détruire l’humanité. Pourquoi une telle exagération alors que rien dans les technologies IA ne s’approche d’une conscience, même de très très loin ? Selon le magazine Forbes, Musk, qui investit massivement dans le domaine de l’IA, entend mettre en débat public ce fantasme de l’humanité afin d’y apporter une solution (par la recherche) avant que l’opinion publique ne se mette à la rejeter l’IA massivement, ce qui briderait fortement son développement. Finalement, ce n’est pas une mauvaise idée…

Román Ikonicoff

 

 > Lire également dans les Grandes Archives de Science & Vie

  • Robot : tu ne tueras point ! – S&V n°1133 – 2012 – Et si la solution contre le risque d’une IA hors de contrôle passait par l’intégration d’un sous-programme « éthique » dans les robots et systèmes IA ? Dans la perspective d’une arrivée massive de ces machines dans l’espace public et privé, les chercheurs tentent de les doter d’une morale, à l’aide de programmes inspirés par des principes philosophiques.

1133

  • Robots : leur intelligence dépasse déjà la nôtre – S&V n°1166 – 2014 – Peu à peu et sans grandes vagues, l’intelligence artificielle et la robotique sont sorties de l’échec relatif des années 1980 pour finir par devenir des acteurs essentiels dans nos activités. Ils nous dépassent déjà. Quels dangers ?

1166

1162

 

Une nouvelle comète dans le ciel d’hiver

Standard
La comète Lovejoy dans le ciel d'hiver. La comète est passée près du Soleil voici environ onze mille ans ; son prochain passage aura lieu dans huit mille ans. Photo Damian Peach.

La comète Lovejoy dans le ciel d’hiver. La comète est passée près du Soleil voici environ onze mille ans ; son prochain passage aura lieu dans huit mille ans. Photo Damian Peach.

Elle brille depuis quelques jours dans le ciel d’hiver. La comète Lovejoy, découverte en août 2014, vient de passer au plus près de la Terre, à quelques 70 millions de kilomètres de notre planète, et elle file maintenant vers le Soleil, dont elle s’approchera à moins de 200 millions de kilomètres le 30 janvier.
Ces deux dernières semaines, la Lune, trop brillante dans le ciel, empêchait d’apprécier la comète Lovejoy à sa juste valeur : son activité, supérieure aux prédictions des astronomes, permet désormais de percevoir la comète à l’œil nu et aux jumelles ! Bien sûr, l’astre n’est pas très brillant : les spécialistes le comparent à une étoile de quatrième magnitude. Cela signifie qu’il faut chercher la comète Lovejoy sous un beau ciel de campagne, ou de montagne, éloigné de la lumière des villes. Dans ces conditions, la comète apparaît comme une tache lumineuse, se déplaçant très lentement dans les constellations du Taureau, jusqu’au 16 janvier, du Bélier, jusqu’au 25 janvier et du Triangle, jusqu’au 30 janvier.

Au delà, l’astre s’éloignant de la Terre et du Soleil, se perdra dans les vagues obscures de l’espace. Perceptible à l’œil nu, la comète est bien sûr mieux vue aux jumelles ou dans un petit instrument astronomique. En revanche, détecter son immense queue de gaz et de poussières, qui s’étend sur des millions de kilomètres, exige un bon télescope d’amateur.
Serge Brunier

La comète Lovejoy traverse les constellations du Taureau, du Bélier et du Triangle entre le 15 et le 30 janvier 2015. La comète est perceptible à l'oeil nu sous un bon ciel de campagne et bien visible avec des jumelles.

La comète Lovejoy traverse les constellations du Taureau, du Bélier et du Triangle entre le 15 et le 30 janvier 2015. La comète est perceptible à l’oeil nu sous un bon ciel de campagne et bien visible avec des jumelles.

Désormais, vous pouvez donner un nom à une planète lointaine.

Standard
L'exoplanète Gliese 581g, aussi nommée Zarmina, du nom de la femme du découvreur (vue reconstruite - Crédit: Celestia)

L’exoplanète Gliese 581g située à 20.3 années-lumière, informellement nommée Zarmina, du nom de la femme du découvreur (vue reconstruite – Crédit: Celestia)

C’est mardi 13 janvier que l’Union astronomique internationale (UAI) a lancé la compétition publique mondiale NameExoWorlds, soit « Nommez les exo-mondes ». A condition d’être inscrit dans un club d’astronomie ou une association reconnus par l’Union, vous pouvez désormais tenter votre chance d’être celui qui renommera une vingtaine d’exo-mondes lointains, parmi les quelque 1800 connus à ce jour – dont certains abriteraient peut-être de la vie. Mais si vous n’appartenez à aucun club, vous pourrez tout de même participer au concours dès mars prochain, en votant pour les noms que vous préférez parmi ceux proposés en ce moment par les clubs. Les exoplanètes gagnantes seront officiellement (re)baptisées lors d’une cérémonie publique qui aura lieu au cours de 29e Assemblée générale de l’UAI à Honolulu, entre le 3 et le 14 août prochain.

51 Peg b, GJ 1214 b, Kepler-186 f, CoRoT-7b, OGLE-2005-BLG-390L b… On comprend que l’UAI ait finalement cédé à la pression des clubs d’astronomie pour « humaniser » le nom de ces systèmes lointains (parfois situés à des centaines d’années-lumière voire plus). Une revendication ancienne et persistante contre la froideur technique de noms abscons mais porteurs d’informations – par exemple « 51 Peg b » a été découverte autour de l’étoile « 51 Peg », « OGLE-2005-BLG-390L b » signifie que l’exoplanète a été découverte autour de l’étoile « OGLE-2005-BLG-390″ avec l’Optical Gravitational Lensing Experiment (OGLE) soit à travers une lentille gravitationnelle – phénomène de courbure spatio-temporelle créé par la présence dans l’espace d’une grande densité de matière, et servant de « loupe » aux astronomes.

Les exoplanètes portant le nom OGLE ont été découvertes par la technique de micro-lentille gravitationnelle (Nasa)

Les exoplanètes portant le nom OGLE ont été découvertes par la technique de micro-lentille gravitationnelle (Nasa)

De fait, les noms des exoplanètes, dont l’UAI détient le droit d’homologation, font référence à de multiples sources : ils peuvent être liés à la constellation d’appartenance du système étoile-planète (Pégase, Cancer, etc.), ou au type de système stellaire (système binaire, pulsar, etc.), au catalogue qui les a référencés en premier (Messier, Gliese, Henry Draper, etc.), au télescope ou sonde qui les a captés ou confirmés (Kepler, CoRoT, OGLE, etc.).

La fin des exoplanètes au noms imprononçables

Souvent des informations complémentaires sont accolés au nom, comme la date de découverte ou de confirmation, la position, etc. Sans oublier les lettres majuscules (A, B) et minuscules (a, b, c, …) qui indiquent respectivement le nombre d’étoiles-soleils gravitant dans le système (systèmes binaires ou multiples) et la position de la planète dans ce système (lorsqu’il contient plusieurs planètes). Certaines exoplanètes ont même l’honneur de porter un nom propre, à l’instar des planètes du Système solaire, comme Osiris, Bellérophon, Zarmina, Mathusalem. Et il n’est pas du tout exceptionnel qu’une même planète soit référencée par plusieurs acronymes et noms.

Après avoir longtemps refusé de partager son autorité en la matière, l’UAI n’est finalement pas restée insensible à sa mission d’être également le porte-voix des milliers de clubs astronomiques amateurs. D’autant que les astrophysiciens pourront continuer d’utiliser le nom technique des astres. Aussi, en juillet 2014 l’Union, qui à mis en jeu 305 exoplanètes confirmées appartenant à 260 systèmes planétaires, avait demandé aux associations et clubs désirant participer de s’inscrire auprès d’elle. Aujourd’hui, ces organisations peuvent commencer à choisir dans la liste une vingtaine de mondes extra-solaires qu’ils désirent renommer, via le site NameExoworlds.org.

Chaque être humain pourra participer au dernier vote fixant le nouveau nom de 20 exo-mondes

Le 15 février prochain, l’UAI rendra publiques les 20 candidats les plus populaires parmi tous ceux proposés : ceux-ci deviendront donc officiellement les exo-systèmes et planètes à renommer. Dès lors, chaque organisation pourra proposer un nom pour un des ces 20 candidats, en justifiant son choix et en respectant quelques règles listées dans la Convention comme : ne pas dépasser plus de 16 lettres, être prononçable, ne pas être choquant ou offensant, etc. Chacun des 20 systèmes aura dès lors sa liste de noms possibles, le choix définitif revenant au public, sans condition d’appartenance à une organisation, qui par vote sur le site NameExoworlds.org fixera définitivement les noms des 20 candidats.

Román Ikonicoff

 

> Lire également dans les Grandes Archives de S&V :

  • Kepler 186f : la terre a une jumelle – S&V n°1161 – 2014 – Depuis la mise en service du télescope spatial Kepler par la Nasa en 2009, les surprises n’ont pas manqué : plusieurs exoplanètes similaires à la Terre ont été détectées, dont l’exoplanète Kepler-186f, découverte en 2013, qui semble réunir les conditions propices à la vie. Sera-t-elle parmi les nouvelles nommées ?

1161

  • Exoplanètes cette fois on les voit vraiment ! – S&V n°1096 – 2009 – L’année 2009 marque un tournant dans la chasse aux planètes extrasolaires : si l’on en avait déjà repéré plus de 300, pour la première fois, les télescopes ont pu capter directement l’image d’une d’entre-elles grâce aux progrès en optique adaptative. Dès lors, l’étude de leur atmosphère et des conditions d’habitabilité était possible.

1096

  • Planètes extrasolaires : nouvelles découvertes – S&V n°940 – 1996 – La fin de l’année 1995 restera dans les Annales de l’astronomie : une équipe de l’observatoire de Genève et de l’observatoire de Haute-Provence dirigée par Michel Major et Didier Queloz a découvert la première planète extrasolaire : 51 Pegasi b – informellement nommée Bellérophon.

940

Grâce à un test sanguin, le sevrage tabagique peut devenir deux fois plus efficace

Standard
Un simple dosage sanguin donne des indications précieuses sur la meilleure méthode de sevrage tabagique à adopter. / Ph. thirteenofclubs via Flickr CC BY SA 2.0

Un simple dosage sanguin donne des indications précieuses sur la meilleure méthode de sevrage tabagique à adopter. / Ph. thirteenofclubs via Flickr CC BY SA 2.0

Doubler les chances de réussite du sevrage tabagique : une percée qui viendrait d’un simple test sanguin élaboré par des chercheurs de l’université de Pennsylvanie. Il renseigne sur la réaction d’une personne à la nicotine, la molécule contenue dans la fumée de tabac qui est la principale responsable de l’addiction.

L’idée des chercheurs est de proposer à chaque personne souhaitant arrêter de fumer la méthode de sevrage qui a le plus de chances de marcher pour elles, en fonction de la manière dont leur organisme réagit à la nicotine. Car certaines personnes (environ 60 %) métabolisent lentement cette molécule, alors que les autres la détruisent plus rapidement.

Or, l’envie de fumer monte lorsque la présence de nicotine dans le sang chute : à la longue, c’est ce qui fait que beaucoup de personnes recommencent à fumer (le taux de réussite n’est que de 4%). Et c’est justement sur ce mécanisme qu’agit un médicament censé apaiser l’envie de fumer, la varénicline (commercialisé par Pfizer sous le nom de Champix). En se liant aux récepteurs de la nicotine présents à la surface des neurones, il soulage la sensation de manque, tout en réduisant les sensations de plaisirs produites par la prise de nicotine. Fumer devient alors moins agréable.

Mais il y a un hic : ce médicament n’est pas toujours efficace et peut produire au niveau psychique des effets indésirables graves, allant de l’agressivité à la dépression. En France, il n’est prescrit qu’en second recours, lorsqu’un patient a déjà essayé d’autres méthodes de sevrage.

Avoir un métabolisme lent de la nicotine favorise l’efficacité du médicament antitabac

Ainsi, la psychiatre Caryn Lerman et son équipe ont voulu cerner quelles personnes ont le plus de chances de bien réagir au traitement. Elles ont recruté 1246 personnes souhaitant arrêter de fumer, et leur ont fait suivre un programme thérapeutique de 11 semaines où elles étaient reçues régulièrement par un psychologue et recevaient un patch et un cachet : dans un tiers de cas, les deux étaient dépourvus de substance active (groupe placebo), dans un autre tiers le patch contenait de la nicotine (groupe patch), enfin dans le derniers tiers c’était le cachet qui contenait la varéniciline.

Avant le traitement, les participants avaient subi une prise de sang afin d’évaluer leur niveaux de métabolisme de la nicotine, donné par le rapport entre les concentrations de deux substances dérivées de la nicotine (l’hydroxycotinine et la cotinine). Verdict : chez les 662 personnes qui la métabolisent lentement, les chances que la pilule antitabac fonctionne étaient 2,17 fois plus élevées par rapport au patch !

Ces chercheurs préconisent donc d’exécuter ce simple test sanguin sur tous les patients qui veulent en finir avec la cigarette afin de les orienter vers la méthode qui convient le mieux à leur métabolisme. Bonus : si le Champix n’était prescrit qu’aux seuls « métaboliseurs lents » de la nicotine, cela permettrait également de réduire ses effets indésirables, qui sont plus fréquents chez les « métaboliseurs rapides ».

Fiorenza Gracci

 

> Lire aussi dans les Grandes Archives de S&V :

S&V 1166 vapoter fumer

Les avantages de la cigarette électronique - S&V n°1153

  • Arrêter de fumer — Pourquoi est-il si difficile d’arrêter ? Que valent les méthodes existantes ? Il ne s’agit pas d’une simple affaire de volonté — S&V n°1040.

Méthode pour arrêter de fumerS&V n°1040

 

Un test sanguin rend plus efficace le sevrage tabagique

Standard
Un simple dosage sanguin donne des indications précieuses sur la meilleure méthode de sevrage tabagique à adopter. / Ph. thirteenofclubs via Flickr CC BY SA 2.0

Un simple dosage sanguin donne des indications précieuses sur la meilleure méthode de sevrage tabagique à adopter. / Ph. thirteenofclubs via Flickr CC BY SA 2.0

Doubler les chances de réussite du sevrage tabagique : une percée qui viendrait d’un simple test sanguin élaboré par des chercheurs de l’université de Pennsylvanie. Il renseigne sur la réaction d’une personne à la nicotine, le principe actif de la fumée de tabac principal responsable de l’addiction.

L’idée des chercheurs est de proposer à chaque personne souhaitant arrêter de fumer la méthode de sevrage qui a le plus de chances de marcher pour elles, en fonction de la manière dont leur organisme réagit à la nicotine. Car certaines personnes (environ 60 %) métabolisent lentement cette molécule, alors que les autres la détruisent plus rapidement.

Or, l’envie de fumer monte lorsque la présence de nicotine dans le sang chute : à la longue, c’est ce qui fait que beaucoup de personnes recommencent à fumer (le taux de réussite n’est que de 4%). Et c’est justement sur ce mécanisme qu’agit un médicament censé apaiser l’envie de fumer, la varénicline (commercialisé par Pfizer sous le nom de Champix). En se liant aux récepteurs de la nicotine présents à la surface des neurones, il soulage la sensation de manque, tout en réduisant les sensations de plaisirs produites par la prise de nicotine. Fumer devient alors moins agréable.

Mais il y a un hic : ce médicament n’est pas toujours efficace et peut produire au niveau psychique des effets indésirables graves, allant de l’agressivité à la dépression. En France, il n’est prescrit qu’en second recours, lorsqu’un patient a déjà essayé d’autres méthodes de sevrage.

Avoir un métabolisme lent de la nicotine favorise l’efficacité du médicament antitabac

Ainsi, la psychiatre Caryn Lerman et son équipe ont voulu cerner quelles personnes ont le plus de chances de bien réagir au traitement. Elles ont recruté 1246 personnes souhaitant arrêter de fumer, et leur ont fait suivre un programme thérapeutique de 11 semaines où elles étaient reçues régulièrement par un psychologue et recevaient un patch et un cachet : dans un tiers de cas, les deux étaient dépourvus de substance active (groupe placebo), dans un autre tiers le patch contenait de la nicotine (groupe patch), enfin dans le derniers tiers c’était le cachet qui contenait la varéniciline.

Avant le traitement, les participants avaient subi une prise de sang afin d’évaluer leur niveaux de métabolisme de la nicotine, donné par le rapport entre les concentrations de deux substances dérivées de la nicotine (l’hydroxycotinine et la cotinine). Verdict : chez les 662 personnes qui la métabolisent lentement, les chances que la pilule antitabac fonctionne étaient 2,17 fois plus élevées par rapport au patch !

Ces chercheurs préconisent donc d’exécuter ce simple test sanguin sur tous les patients qui veulent en finir avec la cigarette afin de les orienter vers la méthode qui convient le mieux à leur métabolisme. Bonus : si le Champix n’était prescrit qu’aux seuls « métaboliseurs lents » de la nicotine, cela permettrait également de réduire ses effets indésirables, qui sont plus fréquents chez les « métaboliseurs rapides ».

Fiorenza Gracci

 

> Lire aussi dans les Grandes Archives de S&V :

S&V 1166 vapoter fumer

Les avantages de la cigarette électronique - S&V n°1153

  • Arrêter de fumer — Pourquoi est-il si difficile d’arrêter ? Que valent les méthodes existantes ? Il ne s’agit pas d’une simple affaire de volonté — S&V n°1040.

Méthode pour arrêter de fumerS&V n°1040

 

Pourquoi l’année 2015 durera une seconde de plus que 2014

Standard
Pour définir le temps, l'unité de mesure est la seconde atomique. / Ph. manannan_alias_fanch via Flickr CC BY 2.0

Pour définir le temps, l’unité de mesure est la seconde atomique. / Ph. manannan_alias_fanch via Flickr CC BY 2.0

Le 30 juin prochain, les horloges de la Terre entière tiqueront une fois de plus que d’habitude : à 23 heures 59 minutes et 59 secondes, avant de passer à la minuit du 1er juillet, elles devront marquer la seconde 60 ! Cette seconde « intercalaire »  est ajoutée par convention certaines années au temps universel coordonné (UTC), en raison de l’allongement de la durée du jour terrestre.

Pour compléter son tour annuel autour du Soleil, en effet, notre planète ne met pas exactement 365 jours, mais un peu plus : voilà pourquoi, tous les quatre ans (années bissextiles), on comble ce décalage par l’ajout d’un jour supplémentaire le 29 février. Mais cela ne suffit pas !

Tous les trois ans environ depuis 1972, une seconde intercalaire est introduite soit le 31 décembre, soit le 30 juin. C’est l’autorité compétente en matière de temps universel, le Service international de la rotation terrestre et des systèmes de référence, basé à l’Observatoire de Paris, qui en ordonne l’ajout six mois à l’avance, pour permettre à chaque pays de s’adapter… en temps et en heure.

Le temps conventionnel n’est pas identique au temps universel…

Qu’est-ce qui justifie cet ajout ? Il sert en fait à rapprocher le temps conventionnel du temps universel. Pour comprendre, il faut savoir que le temps de référence utilisé sur la planète Terre, le temps conventionnel (UTC) n’est pas identique au temps universel (appelé UT1) : le premier est le système de référence artificiel utilisé par les hommes pour se synchroniser ; le deuxième est donné par la rotation réelle de la Terre autour du Soleil.

Or, ce mouvement de rotation terrestre est perturbé par un ensemble de phénomènes naturels, qui vont du régime des vents soufflant autour du globe, aux courants de matière circulant à l’intérieur du noyau terrestre, en passant par l’effet de gravité exercé par la Lune et par le Soleil lui-même sur notre planète. Alors que la rotation de la Terre ralentit progressivement à cause de cette gravité, elle s’accélère par moments sous l’effet des fluctuations dans les vents et le noyau terrestre.

Conséquence : le temps universel est fort peu régulier, et même si ce n’est que de manière imperceptible, la durée du jour n’est pas constante tout au long de l’année. En février, la Terre tourne sur elle-même plus lentement qu’en août, ce qui donne des journées… d’une à deux millisecondes plus longues.

…il est en fait basé sur le temps atomique.

Il a donc fallu prendre pour référence une mesure invariable et plus fiable. Laquelle ? Celle des horloges atomiques, développées à partir des années 50. Elles permettent de mesurer le temps avec une précision un million de fois plus grande que les horloges astronomiques !

Ainsi, alors qu’une seconde valait (1/86 400)ème de la durée du jour solaire (une mesure astronomique), depuis 1967 la convention a changé en faveur de l’atome : la seconde se définit à l’aide d’une onde électromagnétique absorbée par un atome de césium 133, dont la fréquence est de 9 192 631 770 hertz. Dans le temps atomique, une seconde vaut ainsi 9 192 631 770 périodes de cette onde.

Puis, en 1972, le temps atomique est devenu l’étalon de base pour établir le temps conventionnel (UTC). A l’aide d’un réseau de centaines d’horloges atomiques, les gardiens du temps donnent l’heure à la planète entière depuis leurs quartiers généraux au Bureau International des Poids et Mesures (BIPM), à Sèvres.

Cependant, pour ne pas trop s’écarter du temps universel, qui rythme les journées sur Terre, la convention stipule que l’écart entre UTC et UT1 ne doit pas dépasser 0,9 seconde. Ainsi, tous les trois ans environ, il faut ajouter une seconde à l’UTC.

Mais cette seconde de plus ne passe pas partout comme une lettre à la poste. « Elle est compliquée à mettre en oeuvre dans les appareils de navigation spatiale et les grands réseaux informatiques, explique Daniel Gamblis, responsable du Service international de la rotation de la Terre, à l’observatoire de Paris. Ils risquent des dysfonctionnements importants lors de ce changement ou en cas d’oubli, parce que la synchronisation est pour eux extrêmement importante ».

C’est pourquoi, certains préconisent d’abandonner le système de la seconde intercalaire. L’alternative ? « Laisser progressivement le temps conventionnel s’écarter du temps universel. Dans ce cas, le siècle prochain, nous aurons peut-être une minute d’écart entre les deux », précise Daniel Gamblis. Mais à long terme, midi pourrait sonner à 14 heures ! Verdict au mois de novembre, lors d’une convention qui se tiendra à Genève.

Fiorenza Gracci

 

> Lire aussi dans les Grandes Archives de S&V :

S&V 1154 planète jour année

  • Cette horloge va redéfinir la seconde — S&V n°1152. A l’aide d’atomes de strontium, des chercheurs de l’observatoire de Paris ont obtenu des horloges atomiques 20 fois plus précises !

S&V 1152 horloge seconde

 

  • Notions de physique. Temps, matière, énergie : voici comment on les mesure au Troisième millénaire. — S&V n°1031

S&V 1031 temps notions

 

 

Les femmes sont-elles vraiment plus frileuses que les hommes ?

Standard
La croyance en la frilosité des femmes n'est pas prouvée scientifiquement - "La Frileuse" de Houdon (1787)

La croyance en la frilosité des femmes n’est pas prouvée scientifiquement – « La Frileuse » de Houdon (1787)

Il n’est pas certain qu’elles le soient. Les travaux sur cette question sont rares et ne permettent pas de répondre clairement. Pour certains scientifiques, cela ne fait pas de doute, les femmes seraient plus frileuses du fait d’une régulation de leur température corporelle spécifique. Pour d’autres, non : à corpulence égale, hommes et femmes seraient aussi sensibles les uns que les autres au froid.

Lors d’une étude publiée en 1998 et menée sur 78 hommes et 141 femmes de moins de 2 ans à 84 ans, l’équipe américaine de Han Kim a constaté que les mains des femmes sont en moyenne 1,5 °C plus froides que celles des hommes (30,66 °C, contre 32,22). Or, toujours en moyenne, leur température interne (celle de leurs organes vitaux) est légèrement plus élevée (36,55 contre 36,33 °C). D’où l’hypothèse d’une différence de thermorégulation liée au sexe : les femmes retiennent mieux la chaleur au niveau de leurs organes internes, au détriment de leurs extrémités ; et comme la plupart des capteurs sensibles à la température se trouvent dans la peau, elles ressentent davantage le froid. C.Q.F.D.

Les femmes plus frileuses ? Le débat reste ouvert

Cette étude ne tient cependant pas du tout compte de la corpulence des sujets. Publiée en 2000, celle de l’équipe canadienne de ­ Peter Tikuisis tend pourtant à montrer que ce facteur est déterminant. Les chercheurs ont plongé pendant une heure dans un bain à 18 °C, 6 femmes et 5 hommes de masse adipeuse et de surface corporelle similaires. Et montré que leur taux de refroidissement était le même (0,47 °C/h) pour tous. Ce dont ils concluent que si, dans la vie courante, les femmes sont apparemment plus frileuses, c’est simplement parce qu’elles sont généralement de moindre corpulence : car, plus on est petit, plus notre ­rapport surface/volume corporel est grand, plus on perd de chaleur au niveau de la peau et plus on ressent le froid.

Quant à la masse graisseuse (supérieure chez les femmes, à volume égal), elle rendrait plus frileux en isolant la peau de la chaleur corporelle. Mais l’échantillon est trop faible pour pouvoir trancher en sa faveur. Et le débat reste ouvert entre différence de thermo­ré­gu­­lation ou différence de mensurations. Une certitude demeure : dans la seconde moitié de leur cycle menstruel, les femmes ont une température interne qui monte de 0,3 à 0,5 °C et ressentent donc plus le froid qu’au début de leur cycle.

K. B.

 

 > Lire sur ce site :

> Lire aussi dans les Grandes Archives de S&V :

  •  Médicaments : ils soignent mieux les hommes que les femmes – S&V n°1163 – Il y a peu d’études sur les différences entre les hommes et les femmes face à la maladie ou aux phénomènes biologiques… Le XXe siècle a connu des progrès fulgurants dans le domaine de la Santé et de l’allongement de la durée de vie dans les sociétés développées, mais ces progrès ont plus servi les hommes que les femmes. Par exemple, l’on découvre aujourd’hui que les médicaments ne soignent pas aussi bien les femmes que les hommes.

S&V1163

  • Le cerveau a-t-il un sexe ? – S&V n°977 – 1999 – Ce n’est que récemment que la recherche biologique et médicale est sortie du paradigme implicite selon lequel tous les êtres humains sont à l’image de l’homme, pour prendre en considération la possibilité que l’on doive distinguer l’homme de la femme à tous les niveaux, même celui cognitif.

977

 

 

 

 

 

Certains sont-ils hypersensibles aux ondes électromagnétiques ?

Standard

 

Sommes-nous attaqués par les ondes électromagnétiques ? (Ph. librement inspirée du "Cri" d'Edward Munch, par Arkangel via Flickr CC BY 2.0)

Sommes-nous attaqués par les ondes électromagnétiques ? (Ph. librement inspirée du « Cri » d’Edvard Munch, par Arkangel via Flickr CC BY 2.0)

Il n’y a pas encore de réponse bien établie à cette question. Il n’est même pas sûr que les personnes qui s’en plaignent soient réellement sensibles aux ondes électromagnétiques. Certes, ces personnes et les associations qui les défendent affirment que les symptômes dont elles souffrent (rougeurs, picotements, fatigue, difficultés de concentration, palpitations cardiaques, troubles digestifs…) sont dus aux ondes électromagnétiques émises par les téléphones portables, les antennes relais, le wi-fi, les lignes haute tension et pratiquement tous les appareils émetteurs. Mais nombre de scientifiques (et les opérateurs de téléphonie) soutiennent que les ondes n’y sont pour rien, attribuant surtout à ­cette “électrohypersensibilité” (EHS) une origine psychologique. Lever le voile sur les vraies causes de la maladie est donc plus complexe qu’il n’y paraît. Techniquement et socialement.

Pas de preuves de l’existence d’une sensibilité aux ondes

A commencer par la caractérisation même de la maladie. Cette “hypersensibilité électromagnétique”, décrite pour la première fois en Suède au début des années 1980, touche de 1,5 à 13 % de la population française, selon les symptômes et les degrés de sévérité pris en compte. A ce jour, l’Organisation mondiale de la santé (OMS) et les autorités médicales françaises reconnaissent officiellement les souffrances des patients, mais pas le lien avec une exposition aux ondes électro­magnétiques.

Pourtant, l’hypothèse selon laquelle certains champs magnétiques de grande intensité (lignes à haute tension) puissent perturber notre organisme est acceptée par de nombreux chercheurs. Sauf que “depuis 2005, aucun auteur n’a apporté la preuve d’une relation de causalité entre l’exposition et l’EHS”, souligne le rapport 2009 de l’Agence française de sécurité sanitaire de l’environnement et du travail (Afsset), “Expertise ­collective relative aux radiofréquences”, le plus ­récent sur le sujet.

L’OMS et l’Afsset s’appuient sur des dizaines d’expériences réalisées ces deux dernières décennies, qui consistent à recueillir les troubles ressentis par des personnes atteintes lorsqu’elles sont mises en présence d’un dispositif émetteur allumé ou éteint sans que l’expérimentateur et la personne testée sachent s’il est en marche ou non (étude en “double aveugle”). Or, jusqu’ici, aucune étude sérieuse n’a montré que les “électrosensibles” sont capables de percevoir la présence d’ondes électromagnétiques. Toutes ont donc échoué à établir un lien entre exposition et troubles.

Les rares études qui suggèrent le contraire présentent toutes des faiblesses méthodologiques qui les discréditent. “La subjectivité, la complexité et la non-­spécificité des symptômes cliniques, et la ­quasi-négativité des études de provocation conduisent légitimement à se demander si l’EHS n’est pas un trouble psychosomatique”, conclut l’Afsset.

Pas d’outils de diagnostic

Mais voilà, l’absence de preuve n’est pas la preuve de l’absence… “D’autres études sont nécessaires”, selon le neurologue ­Jean-Pierre Marc-Vergnes, co-auteur du rapport. Car il n’est pas exclu que l’EHS découle de plusieurs facteurs biologiques, psychologiques ou psychosociaux simultanés. Il faudrait donc examiner minutieusement diverses causes possibles. Sachant qu’il reste aussi des hypothèses à creuser, “comme la possibilité d’une réactivité plus élevée du système nerveux central des électrosensibles”, précise le neurologue.

Pour réaliser ce type ­d’étude, il faudra surmonter deux obstacles. “Mettre au point un système permettant de mieux analyser les caractéristiques des ondes électromagnétiques susceptibles d’avoir des effets sanitaires autres qu’un échauffement des tissus vivants, détaille Jean-Pierre Marc-Vergnes. Et développer un outil de diagnostic objectif pour mieux distinguer les personnes réellement électrosensibles…” Le seul diagnostic disponible à ce jour étant l’affirmation par les patients eux-mêmes de leur électrosensibilité… Enfin, à toutes ces difficultés s’ajoute le manque de financement. D’autant plus cruel que pour les opérateurs et les autorités de santé, la preuve de l’innocuité semble faite.

Voilà pourquoi les médecins préfèrent axer leurs efforts sur le développement d’un protocole de prise en charge spécialisée des patients. Dans ce but, a été lancée en février une vaste étude pilotée par l’hôpital Cochin, à Paris, visant à suivre pendant un an des électrosensibles à travers 24 centres. Une étude critiquée par les associations qui préféreraient qu’on se concentre sur l’analyse des causes.

 PS : deux autres syndromes tout aussi énigmatiques

Tout aussi mystérieuse que l’électrohypersensibilité (EHS) est l’intolérance aux odeurs chimiques. Elle se manifeste par des maux de tête, nausées ou vertiges chez des personnes exposées de façon chronique à de faibles concentrations de produits chimiques non toxiques. L’OMS propose de l’associer à l’EHS dans la rubrique des intolérances environnementales “idiopathiques” (de cause inconnue).

Autre syndrome aussi énigmatique : le syndrome du bâtiment malsain (SBM), caractérisé par une irritation de la peau, du nez, de la gorge, des yeux, des maux de tête, etc. Lui aussi reste médicalement inexpliqué. A ce jour, les scientifiques soupçonnent les contaminants chimiques et biologiques de l’air urbain et/ou des matériaux du bâtiment lui-même. Mais sans certitude.

K.B.

 

> Lire également dans le site des Grandes Archives de Science & Vie :

  • Ondes, les dessous d’une interminable polémique – S&V n°1110 – 2010 – Les ondes radio peuvent traverser la matière. C’est une chance pour nos communications… mais elles peuvent aussi traverser notre boîte crânienne. Est-ce un risque pour notre santé ? La polémique est encore vive.

1110

  • Le point sur les antennes-relais – S&V n°1102 – 2009 – En l’absence de preuves directes d’un quelconque phénomène d’hypersensibilité aux ondes électromagnétiques, il est important de faire le point sur la technologie en jeu dans ce débat. C’est au moins un bon antidote contre le risque d’hallucination collective.

1102

  • Ondes électromagnétiques et exposition – S&V n°1096 – 2009 – Smartphones, wi-fi… Depuis une dizaine d’années, les ondes radio nous baignent littéralement. Et depuis les premières études sur les liens possibles avec le développement de tumeurs cérébrales, nombre d’utilisateurs s’interrogent sur leur exposition à ces ondes. Quelques données sur la question…

1096

 

 

 

Pourquoi le vent se lève-t-il juste avant la pluie ?

Standard
Le vent qui précède la pluie est engendré par le phénomène d'évaporation-condensation (Ph. Jeanne Menj via Flickr CC BY 2.0)

Le vent qui précède la pluie est engendré par le phénomène d’évaporation-condensation (Ph. Jeanne Menj via Flickr CC BY 2.0)

Parce qu’il pleut déjà… en altitude ! Cette rafale d’air frais, qui soulève les poussières et fait bruisser les feuilles en même temps que le ciel s’assombrit, naît souvent à la fin d’une journée estivale, sous le nuage le plus dense et le plus épais, doté du plus grand développement vertical du bestiaire météorologique : le cumulonimbus. Lorsque l’air humide des basses couches de l’atmosphère, chauffé par le soleil, se dilate, il entame une irrésistible ascension. En altitude, il rencontre des masses d’air froid et se condense, donnant naissance à ces fameux cumulonimbus. Au centre de ce nuage, de minuscules gouttelettes d’eau, à force de grossir, nourries par l’humidité ambiante, finissent par chuter sous l’effet de la gravité : il pleut.

Et cette machine à produire de la pluie s’auto-entretient tant qu’elle trouve de l’air chaud et humide pour l’alimenter… “ça, c’est la théorie, mais dans la réalité, les courants d’air chaud et d’air froid au sein du cumulonimbus sont très désordonnés, précise ­Etienne Kapikian, prévisionniste à Météo France. Au-delà de ces grands courants que l’on a l’habitude de schématiser, il existe une multitude de petits phénomènes locaux.” Ainsi, des masses d’air chaud et humide peuvent remonter en tourbillonnant comme des bulles dans une casserole d’eau bouillante, fendant les courants froids ; ou bien des filets d’air chaud et sec ne cessent de s’infiltrer par la base et les bords du nuage…

Ce vent peut dépasser 100 km/h

Dans ce grand mélange turbulent, les gouttes ont la vie dure : elles peuvent se scinder de nouveau en une multitude de gouttelettes à cause de la pression de l’air et stopper leur chute, voire remonter… ou rencontrer un courant d’air chaud et sec sur leur trajet. Dans ce cas, la différence de température et d’humidité est trop grande, et les gouttes ne résistent pas : elles s’évaporent. C’est ce phénomène qui est à l’origine des rafales qui naissent sous les nuages.

Info

Car le changement d’état de liquide à gaz nécessite de l’énergie que les physiciens appellent “chaleur latente de vaporisation”. Les gouttes prennent cette énergie dans l’air environnant, qui se refroidit localement. Un petit volume d’air frais, donc plus dense, se met alors à descendre rapidement jusqu’au sol, où il finit par s’étaler, formant ce qu’on appelle un front de rafale et une multitude de tourbillons. : un vent qui peut dépasser les 100 km/h et se propager sur quelques kilomètres. Et comme ce vent avance avec le nuage, il laisse juste le temps de trouver un abri avant l’arrivée de la pluie.

M.F.

 

> Lire également dans les Grandes Archives de Science & Vie :

  • Ils ont résolu l’énigme des gouttes de pluie – S&V n°1104 – 2009 – C’est un mystère minuscule mais qui titillait la curiosité des savants depuis 1904 : la taille des gouttes d’eau. Désormais l’on sait pourquoi il y a peu de gouttes qui dépassent quelques millimètres de diamètre en arrivant au sol.

1104

  • Nuages : la physique ne prédit toujours pas la pluie – S&V n°1026 – 2003 – Les météorologistes savent prévoir globalement les risques d’averses grâce à des calculs statistiques, mais ils ne disposent pas de modèle physique leur permettant de dire avec exactitude si la vapeur en suspension dans un nuage va se condenser suffisamment pour être précipité vers le sol, car les mécanismes en jeu sont aussi complexes que microscopiques…

1026

  • L’homme peut-il faire la pluie et beau temps ? – S&V n°1109 – 2010 – Depuis les années 1950, la science explore la possibilité de contrôler la météo en provoquant la formation de nuages et de pluie ou, au contraire, en l’évitant. Si quelques techniques existent déjà, elles restent très aléatoires.

1109