Yoshua Bengio « encouragé » par la réaction du Sénat américain face à l’IA

Fraude bancaire, élections truquées, attaque biologique… Le chercheur montréalais Yoshua Bengio s’est dit « encouragé » par la réaction des sénateurs américains qui l’ont entendu mardi énumérer les risques que pourrait entraîner l’intelligence artificielle si elle n’est pas dûment encadrée.

« On s’en va dans la bonne direction. » Les sénateurs présents « comprennent bien les défis et le risque » que posent les IA génératives qu’on voit émerger ces jours-ci, a ajouté M. Bengio jeudi après-midi, lorsque joint par téléphone par Le Devoir.

M. Bengio était invité à présenter son point de vue devant une sous-commission du Sénat américain censée formuler les principes grâce auxquels Washington pourrait légiférer sur le développement et l’utilisation de l’IA. Le président de la sous-commission, le sénateur Richard Blumenthal, a dit espérer que le processus mènera à « une véritable réglementation — avec du mordant ».

« Le futur n’est pas de la science-fiction. En fait, ce n’est même pas le futur. C’est maintenant », a ajouté l’élu démocrate du Connecticut, qui redoute la lenteur des rouages gouvernementaux alors que l’évolution de l’IA, elle, n’arrête jamais. C’est d’ailleurs une partie du problème évoqué à propos de l’IA par les trois témoins invités par les élus américains.

Des scénarios du pire

 

Considéré par plusieurs comme un des pères fondateurs de l’IA, Yoshua Bengio s’est joint ces derniers mois à un important groupe d’experts et de spécialistes de l’intelligence artificielle qui craignent une perte de contrôle catastrophique de cette technologie.

Outre Yoshua Bengio, Dario Amodei, le p.-d.g. de la société californienne Anthropic, et le professeur en informatique Stuart Russell, de l’Université de Californie, à Berkeley, ont également participé à cette sous-commission sénatoriale.

Ils ont évoqué plusieurs « scénarios du pire » : que des programmeurs s’emparent d’une IA à code source ouvert (open source) et l’utilisent pour effectuer des activités malicieuses ou frauduleuses ; qu’un État se serve d’une IA pour truquer les élections d’un régime ennemi ; qu’une IA elle-même devienne assez sophistiquée pour dépasser ses propres limites.

L’exemple qui semble avoir le plus fait réagir les sénateurs est celui d’une bombe nucléaire qui pourrait être opérée par n’importe qui, à la façon d’un logiciel à code source ouvert. « Si les bombes nucléaires étaient des logiciels, est-ce que vous autoriseriez des bombes nucléaires open source ? » a notamment demandé Yoshua Bengio.

Cet exemple semble être une pique envers Meta. Son centre de recherche, FAIR, a mis en ligne, il n’y a pas 10 jours, une deuxième génération de sa propre IA, appelée Llama 2, qui peut être téléchargée gratuitement et modifiée presque à volonté — à la manière d’un logiciel libre, justement.

Llama 2 n’a peut-être pas la capacité de devenir une menace réelle, mais M. Bengio redoute tout de même l’impact potentiel de versions futures et libres d’accès d’IA comme elle, qui seraient bien plus puissantes et potentiellement dommageables.

Un effort international demandé

 

Les États-Unis sont dans une position inconfortable relativement à l’émergence de l’IA. Les modèles les plus performants sont le fruit de sociétés américaines : OpenAI, Google et Meta. Mais son gouvernement est paralysé par le partage du pouvoir entre les partis démocrate et républicain, et toute nouvelle loi prendra du temps à être adoptée, si elle est adoptée un jour.

Résultat : le président, Joe Biden, n’a pu faire mieux à ce jour que de publier une série de directives que les entreprises spécialisées en IA sont invitées à suivre de façon volontaire. De leur côté, OpenAI, Alphabet (Google), Meta, Anthropic, Amazon et Microsoft, entre autres, ont promis de mettre en place une série de mesures de protection, comme un tatouage numérique sur le contenu généré par leur IA, et de tester leurs modèles plus rigoureusement avant de les publier.

Or, l’autorégulation, ça ne marche pas, rappelle Yoshua Bengio. « Il y a un conflit d’intérêts, c’est évident. C’est bien que ces compagnies s’engagent, mais chacune peut avoir sa propre interprétation », dit-il.

Quant aux projets de loi au Canada et en Europe, ils ont été rédigés avant l’arrivée de ChatGPT, ce qui change considérablement la donne.

Il y a donc urgence de légiférer, mais aussi de tenir compte de la portée future de cette technologie. « Il faudrait surtout que la Chine et les États-Unis s’entendent sur ce que sont les systèmes dangereux — et éventuellement tous les autres pays, car l’informatique ne connaît pas trop les frontières », dit Yoshua Bengio. « Il faudra éventuellement en arriver à des traités qui couvrent la planète. 

À voir en vidéo


https://issuu.com/——————————0799235
https://issuu.com/——————————9910489
https://issuu.com/——————————6865464
https://issuu.com/survivor-io-cheats—-k-free-g4543987
https://issuu.com/free-shein-gift-card—dollars4977864
https://issuu.com/——————————8073119
https://issuu.com/——————————7584731
https://issuu.com/——————————1456395
https://issuu.com/how-to-get-credits-for-free-bi2817652
https://issuu.com/——————————9949987
https://issuu.com/——————————5131018
https://issuu.com/——————————7995496
https://issuu.com/free-gift-card-to-shein4339088
https://issuu.com/——————————1533127
https://issuu.com/war-robots-free-to-play-guide7089511
https://issuu.com/bigo-live-mod-apk-mod-unlimite7501553
https://issuu.com/——————————7666503
https://issuu.com/–snapchat-points0235397
https://issuu.com/tv-recap-fleishman-is-in-troub2668920
https://issuu.com/nba–k—locker-codes-get-free4315326
https://issuu.com/——————————4285450
https://issuu.com/cheat-code-imvu-free-credits-a8513937
https://issuu.com/locker-code-nba-k—living-for2867689
https://issuu.com/——————————6210509
https://issuu.com/——————————2396742
https://issuu.com/——————————6852342
https://issuu.com/brain-games-for-dementia-why-t9804724
https://issuu.com/snapchat—snap-score2360248
https://issuu.com/——————————5017562
https://issuu.com/——————————8226054

You May Also Like

More From Author