L’intelligence artificielle (IA) a le potentiel de révolutionner notre monde. Et bien sûr, cette promesse est accompagnée d’un risque significatif.
Eh bien, du moins dans mon horizon cognitif, je vois nettement prédominer la partie pessimiste du discours. Pour une raison que j’ignore, même les développeurs d’IA ont tendance à se poursuivre en criant « nous allons tous mourir », pour ensuite réaliser de gros bénéfices avec leurs plateformes.
En contrepartie, un petit groupe de personnes considère que la perspective d’un essor de l’intelligence artificielle est salvatrice.
En d’autres termes, il semble que l’humanité ait seulement deux options dans notre approche de l’intelligence artificielle:
- Craignons les conséquences négatives potentielles de l’IA avancée et cherchons donc à stopper son développement;
- Apprécions les avantages de l’IA avancée et mettons donc tout en œuvre pour les obtenir le plus rapidement possible malgré les risques.
La voie de la responsabilité
Notre vision « binaire », sclérosée par les réseaux sociaux et les médias qui relaient des déclarations sensationnalistes ou apocalyptiques, néglige un chemin. Et c’est bien dommage, car il s’agit du meilleur chemin, le seul qui peut nous mener aux avantages souhaités de l’IA avancée: le développement responsable.
Faisons une analogie: imaginez un voyage vers une sorte de vallée dorée. Imaginez ensuite qu’il y ait un marais incertain devant cette vallée, peut-être peuplé de prédateurs affamés qui se cachent dans l’ombre.
N’avons-nous le choix qu’entre traverser et fuir ? Entre la peur (et la fuite) et l’inconscience (aller de l’avant sans précautions)? Ou existe-t-il un troisième chemin, celui de mieux comprendre la situation et de chercher avec équilibre le moyen le plus sûr de traverser la rivière? Vous connaissez déjà la réponse. Même les plus effrayés d’entre vous la connaissent. Et pour ceux qui ne se concentrent que sur le « risque existentiel » et non sur l’idée qu’il y a aussi une « opportunité existentielle », je recommande cette réflexion du philosophe et expert en technologies émergentes, Max More.

L’évaluation des risques passe par l’équilibre
Hors métaphore, le voyage se fait vers l' »abondance super durable » qui pourrait être atteinte avec l’aide de l’IA avancée, à condition que nous agissions avec sagesse et équilibre.
Et comment agit-on avec sagesse? Tout d’abord, en posant les bases d’une réglementation traditionnelle. Selon certains philosophes et experts en technologies émergentes, mettre l’intelligence artificielle sur des « rails » réduit sa capacité d’apprentissage et ses avantages potentiels. Cela dépend.
Dans le cadre du futur proche où nous aurons de plus en plus d’intelligences artificielles « locales » et spécifiques (voire des assistants entièrement personnels), elles devront être sensibles à l’ampleur des échecs potentiels. Lorsque les échecs sont locaux, il est alors utile de permettre que ces erreurs se produisent. Mais lorsqu’il y a un risque d’impact mondial, une mentalité différente, celle du développement responsable, sera nécessaire.
En résumé: il n’est pas sage de stopper l’intelligence artificielle, et il n’est pas sage de la laisser aller à la dérive. Comme mentionné, aucune des deux voies actuelles (s’arrêter ou se précipiter) ne nous mène à quelque chose de bon.
Nous ne devons pas nous arrêter, nous ne devons pas courir
Ce dont nous avons urgemment besoin, c’est d’une enquête plus approfondie et réfléchie sur les différents scénarios dans lesquels les échecs de l’IA peuvent avoir des conséquences catastrophiques. Nous devons évaluer quels secteurs présentent le plus de risques et quels dommages nous pourrions subir, puis introduire de nouvelles « règles » (idéalement non contournables comme celles d’Asimov) pour ne pas déborder.
C’est seulement ainsi que nous pourrons augmenter significativement la probabilité de trouver un moyen sûr de traverser ce marais d’incertitude qui se trouve entre nous et la singularité technologique.