Particule X : l’angoisse du vide – Le blog de Mathieu Grousson

Standard

Le vide quantique fourmille d’énergie et de particules en devenir. Qui sait si le LHC parviendra finalement à y débusquer définitivement le X. - Crédit : CERN

Le vide quantique fourmille d’énergie et de particules en devenir. Qui sait si le LHC parviendra finalement à y débusquer définitivement le X. – Crédit : CERN

La révolution ou le vide. Telle est aujourd’hui la seule promesse inscrite dans le petit excès observé dans les données collectées en 2015 par le LHC, l’accélérateur géant du Cern, et rendu public le 15 décembre dernier. En l’absence d’indices suffisants, soit une nouvelle particule qu’aucune théorie n’avait prévu, synonyme d’entrée dans une nouvelle ère pour la physique des particules. Soit, aux dires des expérimentateurs, la plus diabolique fluctuation statistique de ces 30 dernières années, autrement dit, rien.

> Lire à ce propos :

Le rien qui, pour les spécialistes de l’infiniment petit, est bien la chose la plus inconfortable qui soit. Car c’est un fait, selon la théorie quantique des champs qui sert d’armature mathématique au modèle standard, le vide, loin d’être… vide, serait en réalité tout entier empli de particules fantômes appelées « fluctuations de point zéro » ou encore « énergie du vide ».

L’effet Casimir montre les fluctuations du vide

Pour étrange que soit cette idée, elle a pourtant des effets bien réels. L’un des plus spectaculaire est l’effet Casimir, du nom du physicien néerlandais qui l’a décrit en 1948. On l’observe en créant un vide intégral entre deux miroirs se faisant face. Précisément, d’après la théorie quantique, la cavité ainsi définie limite les possibilités de fluctuations du vide, un peu comme une corde de violon de longueur donnée ne peut vibrer qu’à certaines fréquences.

Or cette limitation n’a pas cours à l’extérieur de la cavité, où, pour filer la métaphore, les possibilités de vibration de la corde (ici aussi longue que l’espace entier) sont quasi infinies. Autrement dit, le vide est moins vide à l’extérieur de la cavité qu’à l’intérieur, d’où il résulte une pression s’exerçant sur les faces extérieures de la cavité. Résultat : les deux miroirs ont tendance à se rapprocher l’un de l’autre, tel qu’observé dès 1958.

Dont acte, le vide n’est pas rien ! Mais cette bizarrerie n’est pas grand chose en regard de l’absurdité à laquelle les physiciens font face dès lors qu’ils tentent de calculer précisément l’énergie contenue dans un mètre cube de vide dans le cadre des théories en vigueur : l’infini ! Une catastrophe telle que, comme l’exprime en plaisantant Alvaro de Rujula, au service de physique théorique du Cern, « chaque physicien qui ne consacre pas au moins une heure par jour à ce problème devrait être jeté en prison ! »

Une théorie au-delà du modèle standard

De l’avis général, la solution viendra le jour où une théorie au-delà du modèle standard, probablement fondée sur un socle différent de la théorie quantique des champs, verra le jour. Comme si finalement, la « catastrophe du vide » était le signe le plus flagrant de l’incomplétude de la vision que les physiciens donnent aujourd’hui de l’univers élémentaire.

La particule X sera-t-elle dans cette quête d’un quelconque secours ? Nul ne peut l’affirmer. A moins que s’évaporant en une simple fluctuation des données sans la moindre signification physique, elle renvoie les physiciens à un vide plus angoissant encore que celui de la théorie quantique…

—Mathieu Grousson

 

Mathieu Grousson est un journaliste collaborateur de Science & Vie spécialiste de la physique fondamentale. Suivez son blog “Particule X” :

cartouche-particule-X

> En savoir plus :

Capture

> Lire aussi dans les Grandes Archives de S&V :

S&V 1152 - LHC boson de Higgs

  • La matière va enfin parler S&V n°1129 (2011). Moment clou : tout le monde a les yeux rivés sur le LHC, qui confirmera enfin l’existence du boson de Higgs, des décennies après sa théorisation.

S&V 1129 - boson de Higgs LHC

  • LHC, l’accélérateur de l’extrême S&V n°1013 (2002). L’impatience règne chez les physiciens : en cours de construction à cheval entre la France et la Suisse, le grand collisionneur de hadrons est le plus grand outil scientifique jamais réalisé, qui repoussera les frontières de la physique.

S&V 1013 - LHC

 

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Les risques de l’IA deviennent enfin un sujet sérieux !

Standard

Plutôt que de spéculer sur une prise de pouvoir par les IA, des chercheurs ont identifié les véritables risques du futur déploiement des machines intelligentes (R.E. Barber Photography via Flickr CC 2.0).

Plutôt que de spéculer sur une prise de pouvoir par les IA, des chercheurs ont identifié les véritables risques du futur déploiement des machines intelligentes (R.E. Barber Photography via Flickr CC 2.0).

Souvenez-vous, c’était en mai 2014 : le physicien Stephen Hawking et d’autres scientifiques publiaient une lettre d’avertissement sur le risque que les IA ne déciment l’humanité. Ils craignaient un scénario à la “Terminator”, un brin tiré par les cheveux.

Mais ce catastrophisme très hollywoodien teinté de millénarisme a finalement eu un effet bénéfique : un article coécrit par des chercheurs des universités de Berkeley, de Stanford, de Google (eh oui!) et de l’association internationale OpenAI, expose enfin une réflexion sur les véritables risques de cette technologie. Là, ça devient constructif !

Cinq risques de l’IA classés en trois catégories

Dans l’article, dont on trouve un résumé (en anglais) sur le blog de Google, les auteurs listent cinq risques d’accidents, classés en trois catégories.

Ainsi, il y a les accidents liés à une mauvaise évaluation/programmation des objectifs d’un système IA par les concepteurs, les accidents liés à la saturation par les sollicitations des IA, et enfin les accidents liés aux comportements des IA mal ou insuffisamment “éduqués”.

En voici la liste, avec des exemples domestiques qui peuvent sembler anodins. Mais détrompez-vous, ils se généralisent aux IA de tout type : voiture autonome, robot-soldat, drones, etc. Et ils peuvent poser de vrais problèmes…

Mauvaise évaluation/programmation des objectifs d’un système IA

  • Prenons un robot-nettoyeur (version futuriste) dont la “fonction objectif” est de minimiser la poussière et les saletés. S’il est (mal) programmé pour cela, rien ne l’empêcherait de jeter toutes vos babioles décoratives (dont un vase de Chine authentique) car cela rend le nettoyage plus rapide et efficace.

Ce risque, nommé par les auteurs “effets secondaires négatifs“, est loin d’être anodin car s’il s’agissait d’un robot-infirmier devant veiller au bon repos d’un malade, ce même défaut pourrait pourrait l’amener à lui injecter régulièrement des somnifères.

  • Imaginez maintenant que votre robot-nettoyeur ait été programmé avec l’objectif de ne pas voir, après son travail, des traces de poussière – ce qu’on fait en lui intégrant une fonction de “récompense” qui lui donne une note de réussite de sa mission. Il pourrait alors décider d’éteindre sa caméra, ce qui lui permettrait d’obtenir le meilleur score…

Ce risque, de “détournement de récompense“, pourrait amener une IA à altérer des informations ou d’autres systèmes informatiques afin de maximiser sa fonction de récompense.

Saturation des humains ou des systèmes par un trop plein de sollicitations

  • Que se passerait-il si votre robot-nettoyeur passe son temps à s’activer pour nettoyer la moindre poussière qui arrive sur le sol ? Et si le robot-infirmier n’arrête pas de demander au patient s’il a besoin de quelque chose ? Et si votre agent virtuel à qui vous avez demandé de vous trouver les billets d’avion les moins chers pour vos vacances vous réveille à 4H du matin pour vous dire qu’il a trouvé ?

Ce type d’”effet de saturation” fait courir un risque aux réseaux et peut également conduire les humains à rejeter ces assistants trop communicants.

IA mal éduquées

Les IA sont programmées pour explorer l’univers des solutions possibles à un problème et pour améliorer leur efficacité – sinon, ce ne seraient pas des systèmes intelligents. Cette fonction d’exploration est souvent lié techniquement à des générateurs de nombres aléatoires (ou pseudo-aléatoires), qui leur permettent donc de varier leurs comportements, au-delà de ce qu’ils ont appris lors de leur phase d’apprentissage.

  • Mais que se passerait-il si votre robot-nettoyeur, qui se sert d’eau pour astiquer les sols, s’en sert pour faire reluire votre ordinateur, téléviseur et chaine Hi-fi ? Ce risque d’”exploration catastrophique” pourrait également conduire une voiture autonome à se jeter dans l’eau pour tenter d’optimiser le temps et la distance de parcours entre les deux rives du fleuve de votre ville…
  • Et quid des “situations totalement inconnues” ? Nous, les humains, avons la possibilité intellectuelle d’admettre notre ignorance et ne pas tenter, par exemple, de piloter un semi-remorque ou un avion – même si cela pourrait résoudre un problème. Mais qu’arriverait-il à notre nouveau poisson rouge ou chien, chat, perroquet si le robot-nettoyeur en voyait pour la première fois? Un drame, assurément.

Des solutions techniques

Bien évidemment, les auteurs ne se contentent d’une analyse qualitative. Leur article, basé sur les recherches en pointe en IA, esquisse des solutions techniques qui sont autant de voies de recherche à approfondir. Finalement, il s’agit d’une “feuille de route” pour les années à venir.

–Román Ikonicoff

 

> Voir la vidéo de Science&Vie TV :

S&V TV - IA

> Lire aussi :

> Lire également dans le site des Grandes Archives de Science & Vie :

  • Robots : leur intelligence dépasse déjà la nôtre – S&V n°1166 – 2014 – Peu à peu et sans grandes vagues, l’intelligence artificielle et la robotique sont sorties de l’échec relatif des années 1980 pour finir par devenir des acteurs essentiels dans nos activités. Ils nous dépassent déjà.

1166

  • Robot : tu ne tueras point ! – S&V n°1133 – 2012 – Les robots font ce qu’on leur dit de faire. Mais ils n’ont aucune éthique ! Dans la perspective d’une arrivée massive de ces machines dans l’espace public et privé, les chercheurs tentent de les doter d’une morale, à l’aide de programmes inspirés par des principes philosophiques.

1133

1162