Éric Salobir : “L’intelligence artificielle peut être une opportunité de renforcer le bien commun“

Standard


De la voiture autonome aux assistants personnels, des diagnostics médicaux prédictifs aux jeux vidéo les plus immersifs, en passant par la très contestée plateforme d’orientation postbac Parcoursup : l’intelligence artificielle (IA) s’immisce presque partout. Le « presque » est en sursis. « Révolution », pour les uns, « grand mythe de notre temps », pour les autres, l’IA interroge chacun sur son rapport à la technologie, voire… sur son humanité ! À la tête du réseau Optic (Ordre des prêcheurs pour les technologies, l’information et la communication), initié par l’ordre des Dominicains, le frère Éric Salobir en est convaincu : l’Église et les chrétiens ne peuvent rester étrangers à ces nouvelles technologies. Ils auraient même un message à porter auprès d’industriels qui, d’après celui qui a multiplié les connexions dans la Silicon Valley, sont bien plus à l’écoute qu’on ne le croit. Nous l’avons rencontré dans son bureau du couvent de l’Annonciation, dans le VIIIe arrondissement de Paris, où la pierre côtoie le verre, entre tradition et modernité. Tout un symbole.


Vous parlez de l’IA comme d’une « technologie de rupture », qu’entendez-vous par là ?


L’IA vient faire brèche dans de nombreux domaines, en renouvelant profondément les règles du jeu. On parle en anglais de « disruptive technology », c’est-à-dire d’une technologie qui bouscule, qui dérange. Dans le cas de l’IA, cela change non seulement la façon dont on fait les choses, mais aussi ce que l’on fait tout court. C’est une forme de « destruction créatrice », pour reprendre les mots de l’économiste Schumpeter : certaines activités disparaissent, d’autres émergent. Mais si l’on sait ce que l’on perd, on ignore souvent ce que l’on gagne, ce qui peut induire de l’angoisse et du rejet. Il faut donc d’emblée préciser que l’IA est artificielle, mais pas encore vraiment intelligente. Cet abus de langage a une utilité pratique, mais aucun spécialiste ne prétend en réalité que des machines « intelligentes » sont déjà disponibles. Mieux vaut parler « d’apprentissage profond » : ces technologies maîtrisent très bien tout ce qui est de l’ordre de la répétition, de la reconnaissance, de la statistique. Elles sont très puissantes mais encore dépourvues de cette forme d’intelligence qu’on appelle le « bon sens ».


Pourquoi l’IA émerge-t-elle aujourd’hui et qu’est-ce que cela traduit de notre époque ?


Avant tout, l’IA a connu une subite accélération car nous avons désormais la possibilité de rassembler  – par les moteurs de recherche, les réseaux sociaux ou le stockage dématérialisé – les masses immenses de données (big data) nécessaires à son fonctionnement. Mais une technologie n’est adoptée par une société que dans la mesure où elle correspond à un besoin. Si se créer des serviteurs (« robot » est dérivé du tchèque robota, le « travail servile ») répond à un vieux rêve humain, à l’image du golem, c’est aussi une façon de se rassurer sur sa propre condition. Or nous sommes dans une période d’incertitude, du moins dans le nord de l’Occident, où les individus se questionnent sur leur identité. De nombreuses barrières sociales sont tombées et l’on s’interroge sur ce que c’est qu’être humain. Tout en façonnant une nouvelle angoisse (l’humain aime bien se faire peur) : qu’arrivera-t-il le jour où la machine dira non ? C’est à cette peur que répondent les lois imaginées par l’écrivain de science-fiction Isaac Asimov, sorte de Tables de la Loi pour les machines.


Quand bien même, en réalité, les capacités de reconnaissance des machines dites intelligentes restent encore bien inférieures à celles d’un enfant, concevoir de tels systèmes nous fait dépasser notre seul statut de créature pour devenir à notre tour créateur. Mais l’acte d’invention fait partie de la nature humaine, ce que beaucoup oublient en opposant systématiquement le naturel à l’artificiel. Non seulement cette technologie nous ressemble (elle n’est que ce que nous voulons), mais cela nous ressemble de bâtir de la technologie. C’est aussi cela, être à l’image d’un Dieu créateur.


Cela nous ressemble de bâtir de la technologie. C’est aussi cela, être à l’image d’un Dieu créateur.


Le danger n’est donc pas tant du côté de la machine que de l’homme ?


Le risque c’est de tomber dans l’hubris, la démesure. Et il n’est pas seulement du côté des développeurs de ces technologies, mais aussi de celui des utilisateurs qui peuvent avoir l’impression d’être omnipotents grâce à la technique. Ce rêve de toute-puissance est porteur de désillusions, et s’il y a un risque de « se prendre pour Dieu », il est sans doute davantage ici que dans la création de machines artificielles. De ce point de vue, la science-fiction nous rend service car elle nous permet d’explorer sans frais un certain nombre de risques et, du coup, de nous aider à les appréhender. C’est, par exemple, le cas du film Ex Machina (d’Alex Garland, 2015) qui nous confronte à une IA ultraréaliste.


Comment l’IA peut-elle avoir des répercussions sur notre sociabilité, notre rapport aux autres, voire sur le vivre-ensemble ?


Il s’agit en bonne partie de technologies de la médiation qui incitent à privilégier une communication médiate par rapport à une communication immédiate. Alors que les deux sont complémentaires. La communication médiate est interstitielle ; elle vient combler les blancs d’une relation. Par exemple, lorsque je poste des photos à mes proches quand je suis loin d’eux. Comme pour toute nouvelle technologie, le risque réside dans son dévoiement. Un certain nombre de scandales récents ont montré l’impact fort d’un mésusage des réseaux sociaux sur le bon fonctionnement de la démocratie. Mais si l’on s’en donne les moyens, l’IA peut être une opportunité de renforcer le bien commun. L’important est de garder la société « dans la boucle ». Certains pensent que remplacer un humain par une machine revient à ne changer qu’un composant dans la chaîne. C’est pourtant bien davantage !


Si l’on prend l’exemple du droit, l’humain rend une justice de causalité : vous commettez un acte illégal, vous êtes sanctionné. La machine rend, elle, une justice de corrélation : des mesures coercitives peuvent s’imposer même si vous n’êtes qu’au stade de l’intention, ou pire, parce que vous appartenez à une catégorie d’individus qui, statistiquement, a plus de chance de passer à l’acte. Entre les deux, le vivre-ensemble peut donc être affecté. Partant de là, un bon critère éthique revient à se demander si la technologie développée nous aide à être plus humains ensemble, ou non.


Et individuellement, comment l’IA nous amène-t-elle à repenser l’humain ? Y a-t-il un risque de réductionnisme, un risque à ne voir plus en l’homme qu’un esprit dans une boîte ?


L’humain se définit, entre autres, par la façon dont il perçoit ce qui l’entoure. Le réductionnisme revient à éliminer tout ce qui n’est pas modélisable d’un point de vue mathématique. Or, dans ce cas, tout se prédit et tout se résout. À terme, le danger est de vivre dans une société où l’humain ne supporte plus le moindre risque et considère que tout doit être planifié. D’un côté, les humains risquent de déléguer à une machine leur capacité d’endosser la responsabilité et, de l’autre, d’attendre une hyperresponsabilisation d’autrui.


Les problèmes que peut poser l’IA ne viennent pas de la technologie mais de la façon dont l’humain l’utilise. 


Or, pour emprunter le vocabulaire de la psychanalyse, on devient humain en faisant le deuil de notre toute-puissance infantile comme celui de dominer des esclaves à notre service et en acceptant que des efforts soient parfois nécessaires. Et surtout, le jour où l’on prend ses responsabilités : c’est ce qu’exprime le magnifique poème de Rudyard Kipling, Tu seras un homme, mon fils (1910). Certains usages de l’IA nous déresponsabilisent et, par là, touchent à notre humanité. Mais ne nous méprenons pas : les problèmes que peut poser l’IA ne viennent pas de la technologie mais de la façon dont l’humain l’accepte et l’utilise. Et c’est là une forme de responsabilisation : il faut être pleinement humain pour que la machine soit pleinement machine.


Ne serait-ce pas là, aussi, que réside la responsabilité du politique ?


En ce sens, le rapport remis au président de la République par le député LREM Cédric Villani, en mars 2018, est encourageant. Car si, au départ, sa mission pouvait sembler orientée business, le texte final plaide pour « une IA au service de l’humain » : c’est un glissement très positif. Reste à voir si l’opinion publique va permettre au politique de mener à bien ces chantiers, pour certains assez profonds (réforme éducative, transformation du marché du travail…). Car ils ne seront véritablement pertinents que s’ils peuvent être conduits à leur terme.


Quelle voix l’Église a-t-elle à faire entendre ? Les chrétiens ont-ils une responsabilité particulière à prendre ?


L’Église a une expérience, un vécu, qui est un trésor à partager d’un point de vue anthropologique. Face à bon nombre d’anthropologies bricolées, où l’on déconnecte l’esprit du corps, dans lesquelles on est prêt à abandonner une partie de son humanité, l’Église a une véritable expertise sur ce que c’est qu’être humain. Elle est passée par suffisamment de situations et de cultures différentes, pour être capable de dire quel est le fonds commun à l’humanité et pointer les limites à ne pas franchir. Mais plus que d’apporter des réponses, l’Église peut questionner d’une façon différente, et ainsi s’adresser autant aux développeurs de technologies qu’aux utilisateurs, politiques et régulateurs. Plutôt que de produire des textes qui pourraient être rendus rapidement obsolètes par les avancées techniques, la voie à privilégier me semble être celle du dialogue.


C’est ce que nous essayons de faire au sein du réseau Optic, en faisant le pari de l’interdisciplinarité. L’Église a non seulement beaucoup à apporter, mais aussi à apprendre. Il y a une urgence à se former, pas tant à ces technologies, mais surtout à l’interaction avec celles-ci. Plusieurs membres de l’entourage du pape François et lui-même ont compris que l’IA était un sujet clé. C’est un homme très écouté. Il est étonnant de constater l’autorité morale qu’il a sur des décideurs de haut niveau, pourtant habitués à rencontrer chefs d’État et leaders d’opinion. Les entreprises de la Silicon Valley sont plus à l’écoute qu’on ne le pense : il y a des interactions possibles, à nous de les provoquer.


Pensez-vous que l’Église puisse contribuer à construire la vision européenne de l’IA, qui demande à être développée ?


L’Église a développé une vision particulière de ses humanités, en interaction avec la philosophie continentale. Elle est ainsi dotée d’un appareil conceptuel à même d’aider des développeurs de l’IA et notamment ceux qui souhaitent explorer d’autres voies que celles empruntées par les grands acteurs actuels que sont la Chine et les États-Unis. L’Europe peut s’appuyer sur ce fond pour développer des solutions techniques qui correspondent à ses attentes. En tant qu’institution, l’Église prend part au débat, mais elle est aussi un peuple de croyants. Tout chrétien est appelé à se saisir de ce sujet dont l’impact sur notre économie et notre société est fort. En tant que consommateur et que citoyen, tout comme dans son travail, il peut y apporter sa marque. Ainsi, pourra s’ouvrir une voie pragmatique entre les cassandres qui hurlent au drame et les candides qui pensent que tout va forcément bien se passer.



Les trois lois d’Asimov


L’écrivain de science-fictionaméricano-russe,Isaac Asimov(1920-1992), a formulétrois lois auxquellesdoit se soumettretout robot.
1 Un robot ne peutporter atteinte à un êtrehumain, ni, en restantpassif, permettrequ’un être humain soitexposé au danger.
2 Un robot doit obéiraux ordres qui lui sontdonnés par un êtrehumain, sauf side tels ordres entrenten conflit avecla première loi.
3 Un robot doitprotéger son existencetant que cetteprotection n’entrepas en conflitavec la première oula deuxième loi.


De la science et du sens


Le train de l’intelligence artificielle (IA) avance à grande vitesse et la France serait avisée de le prendre en marche. C’est, en substance, le message passé par le mathématicien Cédric Villani, député LREM de l’Essonne, lors de la remise du rapport de sa mission, en mars 2018, après six mois de consultations. Considérées comme le moteur de la quatrième révolution industrielle, les technologies de l’IA sont aujourd’hui surinvesties par la Chine et les États-Unis, tandis que la France et l’Europe sont à la traîne. Pour y remédier, la mission Villani a proposé de mettre l’accent sur quatre domaines clés : santé, environnement, transports et sécurité. En intitulant son rapport « Donner un sens à l’IA », le groupe d’experts a aussi rappelé l’importance de concilier l’ambition industrielle avec une approche éthique. La balle est désormais dans le camp du gouvernement.


Optic, une plateforme de dialogue sur l’IA


Lancé en 2012, le réseau Optic a été initié par l’ordre des Prêcheurs, les Dominicains, et s’intéresse aux enjeux éthiques des technologies de l’information et de la communication. C’est une institution qui se veut ouverte au dialogue avec différentes sensibilités. Ça n’est pas une institution catholique. Pluridisciplinaire, appuyée sur une anthropologie judéo-chrétienne, la structure rassemble des développeurs de technologie (issus des secteurs privé et public), des chercheurs en sciences humaines, des représentants de la société civile (telle Mitchell Baker, la directrice de la Fondation Mozilla). Partagé entre la recherche et l’innovation, Optic accompagne les entreprises qui le souhaitent et le secteur public dans la mise en oeuvre de projets, par exemple pour définir des critères éthiques ou anticiper les usages positifs et négatifs des technologies.



 


Les dix dates clés


1921 L’écrivain tchèque Karel Capek écrit la pièce les Robots universels de Rossumqui met en scène, pour la première fois de l’histoire, des machines intelligentes. 


1936 Le mathématicien britannique Alan Turing théorise l’ordinateur avec son concept de « machine de Turing universelle »capable d’apprendre et d’exécuter un programme. 


1950 Alan Turing publie les Ordinateurs et l’intelligence, dans lequel il décrit un test servant à évaluer l’intelligence d’une machine en testant sa faculté à se faire passer pour un humain lors d’une conversation par écrans interposés. 


1956 L’expression « intelligence artificielle » est employée pour la première fois lors d’une conférence au Dartmouth College (New Hampshire, États-Unis). Des chercheurs annoncent l’apparition imminente de machines capables d’effectuer n’importe quel travail humain ou dotées d’une intelligence aussi poussée que celle d’un homme. 


1957 Frank Rosenblatt, psychologue américain, invente Perceptron, premier programme d’apprentissage grâce à un réseau de neurones simples. Son compatriote Noam Chomsky, linguiste, met au point un modèle mathématique du langage humain compréhensible par les machines. C’est le début de la traduction automatique. 


1968 La culture populaire s’empare de l’IA. Dans 2001, l’Odyssée de l’espace, film de Stanley Kubrick, le supercalculateur Hal 9000 (photo) prend les commandes du vaisseau spatial Discovery One


De 1970 à 1980 Les machines n’ont pas atteint le niveau d’intelligence des humains. La désillusion conduit à des baisses drastiques des crédits alloués à la recherche en IA. Apparaissent aussi les questionnements éthiques. Ce sont les « hivers de l’IA ». Le développement de l’informatique pendant cette période va toutefois permettre à l’IA de prendre un nouvel essor dans les années 1990. 


1997 Le supercalculateur Deep Blue d’IBM bat le champion du monde d’échecs Garry Kasparov. 


2011 Le programme informatique Watson d’IBM bat des candidats au jeu télévisé Jeopardy ! grâce à sa capacité à rechercher des informations dans des millions de pages web. 


2015 AlphaGo, développé par Google DeepMind, bat Fan Hui, meilleur joueur de go en Europe. Le programme se perfectionne et enchaîne ensuite les victoires. En 2016, il bat Lee Sedol, meilleur joueur du monde.


Leave a Reply