La semaine dernière, nous avons abordé le problème de la panique induite par les médias concernant l’intelligence artificielle. Comme je vous l’ai dit, c’est un moyen de nier un débat sain sur les opportunités et les risques de cette technologie qui peut complètement changer notre société. Il y a bien sûr un revers à la médaille : un groupe important de scientifiques qui ne se soucie pas du tout des dangers potentiels. À tort ou à raison ?
Pourquoi certains ferment les yeux
« Avez-vous déjà pensé que l’intelligence artificielle pourrait causer la fin de l’humanité ? ». Lors d’une récente conférence de presse à la Maison Blanche, la porte-parole Karine Jean-Pierre a ri face à cette question. Dommage que la réponse soit un sérieux « non ». Malgré les avertissements de pionniers de l’IA tels que Alan Turing sur les risques que les « machines prennent le contrôle », de nombreux chercheurs actuels semblent ne pas s’en soucier du tout. Pourtant, l’IA progresse à une vitesse incroyable. Alors, pourquoi n’en discutent-ils pas davantage ?

David Krueger, professeur au Département d’Ingénierie de l’Université de Cambridge, affirme que les raisons sont principalement culturelles et historiques. Après diverses phases où des attentes excessives et idéalistes ont été placées sur ces technologies (utopie ou dystopie), les chercheurs ont décidé de passer à la pratique. Ils se sont donc concentrés sur des domaines spécifiques, tels que la conduite autonome, en cessant de se poser des questions sur les implications à long terme.
Ont-ils bien fait ou mal fait? Et si les risques étaient réels ?
Un argument de base des « inquiets » (une catégorie très différente des « catastrophistes », attention) est l’analogie entre l’IA et les êtres humains. Tout comme l’homme a éteint d’autres espèces pour concourir pour les ressources, l’intelligence artificielle pourrait en faire de même avec nous. Elle pourrait nous remplacer, en d’autres termes. Économiquement et politiquement. Physiquement.
Ce sont des thèmes qui paraissent énormes, presque de la science-fiction. Et en effet, souvent les risques de l’IA sont ignorés car ils sont considérés comme « non scientifiques ». Cependant, cela ne justifie pas le manque d’attention. Au contraire, nous devrions aborder ces problèmes comme nous le faisons avec d’autres questions sociales complexes. Et ici, un élément crucial intervient : le financement. La plupart des chercheurs en intelligence artificielle reçoivent des financements de géants technologiques, créant ainsi des conflits d’intérêts qui peuvent influencer la manière dont les experts abordent les problèmes liés à l’IA, conduisant à une négation des risques plutôt qu’à une évaluation objective des menaces possibles.
C’est pourquoi, au lieu de « s’incliner » vers l’un des deux pôles, dans l’exercice qui plaît le plus à ceux qui dirigent les finances et les médias (diviser pour régner), le public devrait regarder en avant, voire à l’intérieur. À l’intérieur des choses, en exigeant que le sujet soit approfondi.
Il est temps de prendre cela au sérieux
Les risques existentiels de l’intelligence artificielle peuvent être plus spéculatifs que réels par rapport à des problématiques urgentes telles que les préjugés et les fausses informations, mais la solution de base est la même : la réglementation. Il est temps de lancer un débat public solide et d’aborder les questions éthiques liées à l’IA. Tout le reste est ennuyeux, voire obtus.
Parce que nous le savons : nous ne pouvons pas nous permettre d’ignorer les risques potentiels de l’intelligence artificielle pour l’humanité. Un débat public ouvert et honnête est essentiel, en tenant compte des conflits d’intérêts et des responsabilités éthiques. C’est ainsi que nous pourrons comprendre si les rires d’une porte-parole à la Maison Blanche sont réellement appropriés ou, au contraire, un signe d’une (cette fois-ci) dangereuse inconscience collective.