Il n’en est pas à son coup d’essai, mais Eric Schmidt, l’ancien PDG de Google est très inquiet au sujet de l’IA. Celui qui officie en tant que président de la Commission nationale de sécurité sur l’intelligence artificielle aux États-Unis, a ainsi pris la parole lors d’une conférence organisée par le média américain Axios récemment.
Il compare même cette technologie à la création de la bombe atomique en 1945 : “Après Nagasaki et Hiroshima, il a fallu 18 ans pour parvenir à un traité sur l’interdiction des essais et d’autres aspects. Nous n’avons pas ce genre de temps aujourd’hui.”
Une IA qui mène l’humanité à sa perte ?
Le dirigeant évoque un scénario sombre digne d’un film de science-fiction “où l’ordinateur peut commencer à prendre ses propres décisions pour faire des choses. S’il est capable d’accéder à des systèmes d’armes ou d’atteindre d’autres capacités terrifiantes, les machines pourraient nous mentir à nous, les humains, à ce sujet. “
D’après lui, ce cauchemar peut être évité. Comment ? En mettant en place une organisation semblable au Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) des Nations unies. Cette organisation viendrait “fournir des informations précises aux décideurs politiques” pour les aider à encadrer l’IA.
À noter qu’Eric Schmidt n’est pas le seul spécialiste à s’inquiéter des dangers de ces technologies. Nous vous parlions notamment cette année de Mo Gawdat, ancien dirigeant de Google, qui a dit craindre que l’IA crée ses propres “machines tueuses”.
De son côté, Sam Altman, le PDG d’OpenAI, a aussi fait part de ses craintes : “l’une de mes plus grandes peurs, c’est que nous, cette industrie, cette technologie causions des dommages significatifs à la société. Si cette technologie va dans le mauvais sens, elle peut aller assez loin. (…) Et nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise.”
Tous les experts de l’IA ne partagent pas ce point de vue. Par exemple, le Français Yann LeCun de chez Meta a battu en brèche ces doutes chez nos confrères du Financial Times : “Le débat sur le risque existentiel est très prématuré tant que nous n’aurons pas conçu un système capable de rivaliser avec un chat en termes de capacités d’apprentissage. Ce qui n’est pas le cas pour l’instant”.
Que pensez-vous de ce débat sur les dangers de l’IA ? N’hésitez pas à partager vos espoirs, vos doutes ou vos craintes dans les commentaires.