OpenAI cherche à contrer la désinformation lors d’élections

La société californienne OpenAI, créatrice de ChatGPT, a annoncé le lancement d’outils visant à combattre la désinformation avant les dizaines de scrutins prévus cette année dans divers pays où vit presque la moitié de la population mondiale.

Le succès de l’application ChatGPT a popularisé l’intelligence artificielle (IA) générative, mais également suscité des inquiétudes sur son utilisation éventuelle dans des campagnes de désinformation qui auraient pour but d’orienter le vote des électeurs.

Comme des dizaines d’élections sont prévues cette année, en particulier aux États-Unis, en Inde et au Royaume-Uni, OpenAI a souligné lundi sa volonté de ne pas permettre l’utilisation de ses outils technologiques, dont ChatGPT et le générateur d’images DALL-E 3, à des fins politiques.

« Nous voulons être certains que notre technologie ne sera pas utilisée de manière à porter atteinte » au processus démocratique, explique OpenAI sur un blogue.

« Nous sommes toujours en train d’évaluer l’efficacité potentielle de nos outils pour la persuasion individuelle. Jusqu’à ce que nous en sachions plus, nous ne permettrons pas aux gens de construire des applications pour des campagnes politiques ou militantes », ajoute l’entreprise.

La désinformation — la diffusion volontaire d’une fausse information — et la mésinformation — la diffusion involontaire d’une fausse information — utilisant l’IA pourraient « miner la légitimité des gouvernements nouvellement élus », a prévenu la semaine dernière le Forum économique mondial, qui se tient jusqu’au 19 janvier à Davos, en Suisse.

Les craintes de désinformation électorale remontent à plusieurs années, mais l’accès du grand public aux puissants générateurs de textes et d’images fondés sur l’IA renforce grandement la menace, selon les experts.

OpenAI a expliqué lundi travailler à des outils permettant de déterminer de manière fiable la provenance d’un texte généré par ChatGPT et de donner aux utilisateurs la possibilité de détecter si une image a été créée à l’aide de DALL-E 3.

« Au début de cette année, nous allons mettre en oeuvre la Coalition pour la provenance et l’authenticité des contenus [Coalition for Content Provenance and Authenticity’s Digital Credentials] », explique la compagnie.

Cette coalition, dite C2PA, réunira notamment Microsoft, Sony, Adobe, Nikon et Canon.

 

Selon OpenAI, ChatGPT, lorsqu’il sera interrogé sur les élections américaines, orientera par exemple les électeurs vers des sites reconnus.

« Les leçons tirées de ce travail seront la base de notre approche pour d’autres pays et régions », explique la société, ajoutant que DALL-E 3 contient des « garde-fous » pour empêcher les utilisateurs de générer des images de personnes réelles, notamment de candidats.

Les géants américains Google et Meta ont déjà annoncé l’an dernier des initiatives destinées à encadrer l’utilisation de l’IA dans les campagnes politiques.

À voir en vidéo

You May Also Like

More From Author