Accueil Intelligence artificielle Refutation des risques et des conflits d’intérêts

Refutation des risques et des conflits d’intérêts

581
0

La semaine dernière, nous avons abordé le problème de la panique induite par les médias concernant l’. Comme je vous l’ai dit, c’est un moyen de nier un débat sain sur les opportunités et les risques de cette technologie qui peut complètement changer notre société. Il y a bien sûr un revers à la médaille : un groupe important de scientifiques qui ne se soucie pas du tout des dangers potentiels. À tort ou à raison ?

Pourquoi certains ferment les yeux

« Avez-vous déjà pensé que l’intelligence artificielle pourrait causer la fin de l’humanité ? ». Lors d’une récente conférence de presse à la Maison Blanche, la porte-parole a ri face à cette question. Dommage que la réponse soit un sérieux « non ». Malgré les avertissements de pionniers de l’IA tels que sur les risques que les « machines prennent le contrôle », de nombreux chercheurs actuels semblent ne pas s’en soucier du tout. Pourtant, l’IA progresse à une vitesse incroyable. Alors, pourquoi n’en discutent-ils pas davantage ?

risques de l'intelligence artificielle

David Krueger, professeur au Département d’ de l’, affirme que les raisons sont principalement culturelles et historiques. Après diverses phases où des attentes excessives et idéalistes ont été placées sur ces technologies (utopie ou ), les chercheurs ont décidé de passer à la pratique. Ils se sont donc concentrés sur des domaines spécifiques, tels que la conduite autonome, en cessant de se poser des questions sur les implications à long terme.

Lire aussi :  L'IA traduit instantanément le langage cunéiforme vieux de 5000 ans

Ont-ils bien fait ou mal fait? Et si les risques étaient réels ?

Un argument de base des « inquiets » (une catégorie très différente des « catastrophistes », attention) est l’analogie entre l’IA et les êtres humains. Tout comme l’homme a éteint d’autres espèces pour concourir pour les ressources, l’intelligence artificielle pourrait en faire de même avec nous. Elle pourrait nous remplacer, en d’autres termes. Économiquement et politiquement. Physiquement.

Ce sont des thèmes qui paraissent énormes, presque de la . Et en effet, souvent les risques de l’IA sont ignorés car ils sont considérés comme « non scientifiques ». Cependant, cela ne justifie pas le manque d’attention. Au contraire, nous devrions aborder ces problèmes comme nous le faisons avec d’autres questions sociales complexes. Et ici, un élément crucial intervient : le financement. La plupart des chercheurs en intelligence artificielle reçoivent des financements de géants technologiques, créant ainsi des conflits d’intérêts qui peuvent influencer la manière dont les experts abordent les problèmes liés à l’IA, conduisant à une négation des risques plutôt qu’à une évaluation objective des menaces possibles.

Lire aussi :  Maintenant, l'IA redessine également nos espaces de travail

C’est pourquoi, au lieu de « s’incliner » vers l’un des deux pôles, dans l’exercice qui plaît le plus à ceux qui dirigent les finances et les médias (diviser pour régner), le public devrait regarder en avant, voire à l’intérieur. À l’intérieur des choses, en exigeant que le sujet soit approfondi.

Il est temps de prendre cela au sérieux

Les risques existentiels de l’intelligence artificielle peuvent être plus spéculatifs que réels par rapport à des problématiques urgentes telles que les préjugés et les fausses informations, mais la solution de base est la même : la réglementation. Il est temps de lancer un débat public solide et d’aborder les questions éthiques liées à l’IA. Tout le reste est ennuyeux, voire obtus.

Parce que nous le savons : nous ne pouvons pas nous permettre d’ignorer les risques potentiels de l’intelligence artificielle pour l’humanité. Un débat public ouvert et honnête est essentiel, en tenant compte des conflits d’intérêts et des responsabilités éthiques. C’est ainsi que nous pourrons comprendre si les rires d’une porte-parole à la Maison Blanche sont réellement appropriés ou, au contraire, un signe d’une (cette fois-ci) dangereuse inconscience collective.

5/5 - (11 votes)
Article précédentMatériaux du futur : les laboratoires autonomes nous aideront à les trouver
Article suivantHumane, l’IA portable qui ouvre l’ère des assistants personnels
Sébastien Moutier est un rédacteur talentueux pour le site d'actualité Actualités-du-web.com. Il est passionné par tout ce qui concerne l'actualité et la politique, et s'intéresse en particulier à l'évolution de l'environnement et des technologies. Il aime en particulier travailler sur des sujets difficiles et complexes, et a un don pour la synthèse et l'analyse des données. Sébastien est un athlète accompli et un grand amateur de ski alpin et de randonnée. Il est diplômé en journalisme et communication et en sciences politiques. Ses articles sont toujours très bien documentés et il est reconnu pour son style précis et clair.