
Retour sur l'intelligence artificielle
Deux ans après la publication de mon premier article sur ce sujet, la mise à disposition publique d’un outil comme « Chat GPT » m’encourage à revenir sur ce thème. Jamais l’évolution des outils numériques qu’ils soient matériels ou logiciels n’a ouvert des perspectives si ambivalentes:
Deux ans après la publication de mon premier article sur ce sujet, la mise à disposition publique d’un outil comme « Chat GPT » m’encourage à revenir sur ce thème.
Jamais l’évolution des outils numériques qu’ils soient matériels ou logiciels n’a ouvert des perspectives si ambivalentes:
– Une évolution positive pour certain avec la mise à disposition d’outils hyperperformants qui seront utilisés pour le bien de la société et le confort de tous. (Comme l’arrivée des calculatrices scientifiques (HP 35 et autres) au début des années septante). Par exemple avec des perspectives éblouissantes en médecine notamment pour l’aide à l’anamnèse et au diagnostique, ce qui est indéniable.
– Un énorme danger potentiel pour d’autres dont je suis. Le danger principal est une perte de maîtrise du réel et donc de la conscience. Heureusement, aujourd’hui je ne suis pas seul à percevoir ce danger; alors j’étais bien isolé en mai 2021 à la publication de mon premier article sur ce sujet.
Bien mieux que moi, Martin Vetterli, Président de l’EPFL, a décrit l’évolution actuelle au regard de la mise à disposition de « Chat GPT » et de l’évolution à venir des puissances du numérique tant logiciel que matériel.
Je remercie la Rédaction du Journal Le Temps de m’avoir autorisé à publier ci-dessous cet interview particulièrement éclairant que je souhaitait pouvoir partager avec vous. (Article publié le lundi 6 mars).
* * * * * * * * * * * * * * * * * * *
« ChatGPT nous montre pourquoi il faut réglementer l’IA »
ÉTHIQUE Les derniers développements de l’intelligence artificielle (IA) questionnent les fondements même de l’approche scientifique: les liens de causalité et donc la preuve de vérité. Pour le président de l’EPFL Martin Vetterli, ils mettent aussi en lumière des rivalités comparables à la course aux armements nucléaires.
PROPOS RECUEILLIS PAR ALAIN JEANNET
Comme chercheur au plus haut niveau, professeur et cofondateur de plusieurs start-up, Martin Vetterli a participé au développement des technologies de l’information depuis plus de quarante ans. Comme président de l’EPFL, il s’exprime aussi sur les responsabilités et le rôle de cette institution. Et s’étonne du peu d’anticipation des gouvernements face aux enjeux sociétaux de l’intelligence artificielle et de l’informatique quantique, the- next big thing.
Dans vingt ou vingt-cinq ans, quel regard jetterons-nous sur le choc provoqué par le lancement de ChatGPT, un agent conversationnel basé sur l’intelligence artificielle?ChatGPT n’est que la pointe de l’iceberg. Ce programme particulier rend visible les potentialités de l’intelligence artificielle, mais aussi les dangers qui vont de pair. La multiplication des fake news [«fausses informations», ndlr], l’élargissement du fossé numérique entre les pays, les classes sociales – les «have» et les «have nots», pour reprendre une expression en anglais. Il révèle les biais – linguistiques, culturels, de genre… – sous-jacents au développement des algorithmes d’un tel chatbot [agent conversationnel, ndlr]. Plus fondamentalement encore, un programme comme ChatGPT fonctionne selon un principe de probabilité – en gros: si l’on trouve tel mot dans un texte, il y a de fortes chances qu’il soit suivi de tel autre et ainsi de suite – et ne satisfait donc pas aux critères de causalité et donc de vérité. Ce qui reste encore et toujours le fondement même de la science. Il est d’ailleurs assez facile de piéger ChatGPT, comme le montrent des tests aux résultats assez cocasses.
Par exemple? Un de nos professeurs, Pierre Dillenbourg, s’est amusé à questionner ChatGPT sur les vertus comparées des œufs de poule et des œufs… de vache. L’IA a donné des réponses tout à fait plausibles jusqu’à ce qu’elle finisse par concéder après de longs développements… que les œufs de vache n’existent pas. Le test donnait d’ailleurs des résultats différents selon qu’il était mené en français ou en anglais. Simplement parce que les corpus de données qui ont servi à entraîner la machine n’étaient pas les mêmes.
Les enseignants et professeurs s’inquiètent de ne plus pouvoir repérer les travaux d’écoliers ou d’étudiants réalisés par ou avec l’aide de ChatGPT. Avec raison. Quelques semaines après avoir lancé ChatGPT, l’entreprise Open AI a elle-même développé un programme pour débusquer les textes produits avec son propre outil. Avec un score qui fait peur: ledit programme n’a repéré qu’un quart des textes produits par cette intelligence artificielle.
Comment la formation et la recherche à l’EPFL vont-elles évoluer à l’ère ChatGPT et post-ChatGPT? Le génie ne va pas retourner dans sa bouteille, tout comme ce fut le cas, à l’époque, avec l’arrivée de la machine à calculer. A l’EPFL, nous utilisons déjà massivement l’IA pour faire de la science et nous allons continuer.
Quid des examens ce printemps? Nous sommes encore en discussion pour déterminer quelles seront les règles du jeu. Je ne vais donc pas entrer dans le détail. Mais nous appliquerons en gros les principes éthiques suivis par les publications scientifiques comme Nature ou Science qui sont confrontées à une problématique semblable à la nôtre. Si vous avez recours à une IA du genre de ChatGPT, il s’agira simplement d’expliciter quelle est la partie de votre travail générée par la machine. On ne va pas se priver de ces outils performants, mais il faut les utiliser de manière documentée, transparente. Et en toute conscience.
Quelles sont les disciplines concernées?L’utilisation de l’IA touche à l’ensemble des disciplines scientifiques. La science des données est une branche transversale désormais appliquée à tous les domaines de l’ingénierie, mais aussi aux sciences naturelles et sociales, dès lors qu’il s’agit de traiter et d’analyser de grandes quantités de données. Et ce n’est pas un hasard si le cours le plus suivi de l’EPFL est celui de machine learning donné par les professeurs Nicolas Flammarion et Martin Jaggi. Nous n’avons d’ailleurs pas d’auditoire assez grand pour accueillir les 550 étudiants inscrits.
Vous comparez volontiers le développement de l’IA à la course aux armements. En effet. Nous sommes confrontés à des risques potentiels similaires à ceux encourus avec l’arme nucléaire. Mais, dans ce cas, les gouvernements et la communauté internationale n’ont même pas commencé à y réfléchir. Personne n’en parle. Et pourtant, un contrôle et des réglementations de l’IA sont essentiels.
Vous semblez pessimiste. Les intérêts économiques en jeu sont trop importants pour qu’on bride son développement. On va donc se focaliser sur les applications commerciales de l’IA alors que nous pourrions l’utiliser en priorité pour résoudre les dérèglements climatiques, par exemple. C’est du reste la même histoire depuis les origines d’internet, et elle tend à se répéter une fois encore. La technologie peut être utilisée à bon escient pour le bien commun, mais la pression commerciale pousse dans une autre direction…
En 1997, après votre retour des Etats- Unis, nous nous étions rencontrés pour une interview publiée dans «Le Nouveau Quotidien», dans laquelle vous lanciez un cri d’alarme contre le risque d’une domination des technologies de l’information par les Etats-Unis. Où en est-on aujourd’hui? Notre retard s’est encore aggravé et c’est un euphémisme! Et quand l’Europe produit une pépite comme Skype [créé en 2003 au Luxembourg par des ingénieurs suédois et danois, ndlr], elle est rapidement rachetée par Microsoft. Et je ne parle même pas de DeepMind, l’entreprise anglaise reprise par Google qui a développé le programme de jeu de Go AlphaGo ainsi qu’AlphaFold, l’IA qui permet de prédire la structure des protéines à partir de leurs séquences d’acides aminés. Une vraie révolution. Moins médiatisée que ChatGPT, mais avec un plus fort impact d’un point de vue scientifique, elle est utilisée dans la recherche de nouveaux médicaments, par exemple. Alors que la Commission européenne intervient quand un groupe extra-européen tente de s’emparer d’une aciérie, là rien du tout. Silence radio.Je ne suis pas forcément en faveur d’une intervention de l’état , mais s’il doit y en avoir une, qu’elle s’applique au moins aux secteurs d’avenir, pas à ceux du passé.
Entre-temps, la Chine a émergé comme puissance technologique de premier plan et investit des milliards dans l’IA.Il y a trois modèle de développement de l’IA en concurrence. Celui des Etats-Unis, pour lesquels les données sont sont une marchandise comme une autre qu’on peut partager, vendre, exploiter à l’envi sans se soucier des intérêts des citoyens. L’important, c’est que l’économie tourne de manière fluide, si possible sans régulation aucune. Le far west. Le modèle autoritaire chinois repose sur une politique industrielle forte, et les données constituent pour ce gouvernement l’un des éléments essentiels du dispositif de contrôle de l’Etat sur la population. L’Europe, elle, tente de trouver un équilibre entre l’intérêt de l’économie et de la société, la défense de la liberté de ses citoyens et des considérations éthiques – avec l’Etat comme régulateur. On peut la critiquer, mais en la matière elle montre le chemin, comme l’illustre d’ailleurs l’adoption par les Etats-Unis des principes RGPD (Règlement géné- ral de la protection des données) à la suite de l’Europe.
Justement, l’application SwissCovid, développée par les EPF, questionne la protection de la sphère privée et a suscité de vives réactions. Le protocole, dont l’architecte principale a été la professeure Carmela Troncoso de l’EPFL, a été repris dans le monde entier. Y compris par Apple et Google. Ce qui n’est pas fréquent et montre la qualité de notre recherche. Pourquoi? Parce qu’il permet justement d’éviter un traçage individualisé. En Suisse, l’adoption de cette application s’est certes révélée… compliquée. Peut- être en raison du manque de maturité numérique de la population et de ses représentants ou d’une difficulté de notre part à expliquer clairement son fonctionnement. Mais, dans le même temps, cette question a fait l’objet d’un large débat démocratique. Ce qui est positif. Et unique au monde!
L’informatique quantique est le prochain grand saut technologique. Avec quels enjeux? L’informatique quantique et l’IA, c’est comme l’invention du feu. On peut en faire le pire ou le meilleur des usages. Voilà pourquoi, si l’on cherche le bien commun, il faut soumettre le développement des techniques à des règles et des principes éthiques. Les humains ont créé ce qu’on appelle la société… Un signe de civilisation que les grands patrons libertariens de la Silicon Valley ne semblent pas encore avoir compris et intégré. Et donc, nous allons, comme pour ChatGPT, assister à une course entre les grands groupes et les gouvernements des grandes puissances pour savoir qui développera le premier ordinateur quantique. Avec comme conséquence un nouvel élargissement du fossé numérique.
Dans quel horizon temporel? J’ai fait un pari avec un collègue. Sous forme d’une boutade: «Je verrai un ordinateur quantique de mon vivant, lui ai-je dit. Ce qui est pour moi la meilleure des assurances vie.» Plus sérieusement: l’une des applications de l’informatique quantique, c’est qu’elle permettra de casser les codes crypto- graphiques des transactions financières actuelles. La position officielle des Etats-Unis, c’est qu’il faut d’ici au début des années 2030 remplacer les algorithmes de cryptographie classique, comme le protocole RSA, par des dispositifs qui résistent aux attaques quantiques.
Ceux qui disposeront les premiers d’ordinateurs quantiques pourront-ils vider les coffres des banques? C’est peu probable, et l’on peut faire confiance aux banques pour qu’elles trouvent d’ici-là les bons systèmes de cryptage. En revanche, de grandes quantités d’informations dérangeantes, enregistrées aujourd’hui, voire des secrets d’Etat, vont refaire surface. Ça ne fait aucun doute.
La Suisse est à la pointe de la recherche en informatique quantique. Exclue du programme Horizon, elle est désormais tenue à l’écart des projets européens. Avec quelles conséquences? C’est vrai. Mais, dans le même temps, nous avons des échanges avec d’autres pays. Notamment les Etats- Unis, le Royaume-Uni. De toute façon, même si nous faisions encore partie intégrante d’Horizon, nous ne pourrions pas participer aux programmes de recherche en informatique quantique. L’Union européenne (UE) en a fait une priorité stratégique qui exclut les pays non membres. Dommage pour la Suisse. Et pour l’UE.
Vous alertez régulièrement les politiques et la population sur les dangers d’une érosion de la place scientifique suisse. En avril 2022, la start-up Ligentec, active justement dans les technologies quantiques, a annoncé qu’elle allait délocaliser une partie de son activité de Recherche & Développement en France. Plus généralement, notre monitoring montre que le nombre des nouvelles collaborations avec des partenaires de recherche européens a baissé de 20% l’an passé. Et même si, à l’EPFL, nous n’avons pas encore à déplorer le départ de professeurs en raison de notre non-appartenance aux programmes européens, la menace est bien réelle. A terme, cette érosion se manifestera aussi en termes d’emplois. Malheureusement pour nous, la Suisse romande est la région du pays qui a le plus à perdre: dans le cadre du programme européen, entre 2014 et2020, nous captions 43% des fonds investis en Suisse (contre 34% pour Zurich, par exemple).
La Suisse manque d’informaticiens. Pourquoi l’EPFL ne propose-t-elle pas un cursus allégé qui permettrait de pallier cette pénurie? D’abord, notre campus arrive à saturation. Mais plus fondamentalement, notre vocation est de former des polytechniciens et d’assurer à nos diplômés la maîtrise des branches de base qui leur permet d’évoluer tout au long de leur vie professionnelle. Imaginez que, dans dix ou quinze ans, les ordinateurs quantiques se généralisent. Les informaticiens qui n’auront pas de solides connaissances en physique seront peu embauchés. Il n’est pas exclu qu’on assiste bientôt à une sorte d’«hiver» pour les informaticiens insuffisamment formés, et donc susceptibles de se retrouver à la rue au premier retournement de tendance. Il ne se passe d’ailleurs pas une semaine sans que les géants de la tech annoncent des milliers, voire des dizaines de milliers de licenciements.
Que vous inspire l’annonce de l’éditeur allemand Axel Springer de remplacer – pour certaines tâches – les journalistes par des IA? Je ne crois pas qu’une profession ou une autre y échappe. D’ailleurs, plusieurs agences de presse utilisent depuis des années des machines pour écrire des comptes rendus de matchs ou de résultats économiques. Ce qui me fait peur dans votre question, c’est le terme «remplacer»: l’IA doit aider l’humain à faire mieux. C’est un outil. S’il n’y a plus de journalistes derrière le clavier, c’est un risque majeur. Mais si les journalistes utilisent intelligemment l’IA pour passer moins de temps sur les passages les plus triviaux de leurs articles, c’est une autre affaire! Dans le cadre de l’Initiative pour l’innovation dans les médias (IMI), nous planchons d’ailleurs sur ce genre de questions, en collaboration avec l’Académie du journalisme de l’Université de Neuchâtel.
Face au phénomène ChatGPT et aux craintes d’une surveillance généralisée, comme en témoigne la controverse sur l’installation de caméras dans les gares CFF, quelle place l’EPFL peut-elle jouer dans le débat public? D’abord, nous avons pour mission prioritaire de former des ingénieurs équipés de notions éthiques qui en fassent des citoyens responsables. Et non pas ce que j’appellerais des idiots savants. Tous nos étudiants passent par des cours en éthique, mais aussi en durabilité, et peuvent approfondir leurs connaissances en sciences sociales, économie, etc. au sein du Collège des humanités. Nous avons aussi créé, fin 2017, le Center for Digital Trust, une institution assez unique qui met en réseau les laboratoires de l’EPFL, les ONG comme le CICR, les hôpitaux universitaires, les entreprises actives dans la cybersécurité… pour justement réfléchir aux conséquences de la numérisation. Nous voulons ainsi répondre aux besoins de l’économie, de même qu’aux préoccupations de la société dans son ensemble. Sans confiance, pas de progrès scientifique et technologique durable.
Quels sont au final le potentiel et les limites de l’IA? On peut voir trois étapes de son développement: l’interpolation, l’extrapolation et la création. L’interpolation, c’est l’IA qui a vu des millions d’images de chiens et de chats, et à qui on demande une image de chien-chat. Et qui propose un résultat assez crédible. L’extrapolation, c’est le programme d’échecs qui invente une nouvelle ouverture, à laquelle personne n’a jamais pensé, en explorant l’espace des possibles. La création, c’est Picasso qui fonde le cubisme, ou Schoenberg le dodécaphonisme… Ou AlphaGo qui parviendrait à concevoir un nouveau jeu de société. Mais voilà, cette étape, celle de la création, je la crois réservée au génie humain! ■
Lien vers l’article original (Journal Le Temps du lundi 6 mars 2023): https://www.letemps.ch/economie/cyber/martin-vetterli-chatgpt-montre-faut-reglementer-lia-personne-nen-parle