Google invente un watermark pour les images générées par IA

DeepMind, la filiale de Google spécialisée dans l’intelligence artificielle, a dévoilé SynthID, une technologie de filigrane pour identifier les images générées par IA. Malgré son intégration actuelle au sein de l’écosystème Google, le dispositif soulève des questions sur son efficacité à grande échelle pour lutter contre la désinformation et les deepfakes.

Avec SynthID, DeepMind a trouvé le moyen d’intégrer un filigrane invisible dans les pixels des images générées par l’intelligence artificielle. Cette méthode serait capable de détecter des images fausses ou manipulées sans altérer la qualité originale de l’image. Cependant, la technologie n’est actuellement compatible qu’avec les systèmes de génération d’image natifs de Google.

Identifier les deepfakes… mais uniquement dans l’écosystème Google

Le programme SynthID est en effet intégré à la plateforme Vertex AI de Google, et pour le moment, il est uniquement disponible pour les grands partenaires d’entreprise qui utilisent le modèle Imagen de Google. DeepMind n’a pas divulgué les détails techniques de cette méthode de watermark, probablement pour empêcher que des personnes malveillantes ne trouvent un moyen de la contourner.

L’administration Biden a souligné à gros traits la nécessité de développer des moyens d’identifier les images générées par IA. Mais les experts sont divisés sur l’efficacité réelle de telles méthodes. Hany Farid, professeur en informatique à UC Berkeley, a qualifié le filigranage de « stratégie d’atténuation » contre les risques associés aux deepfakes, plutôt qu’une solution définitive.

De plus, la technologie actuelle fonctionne en circuit fermé au sein de l’écosystème Google. Quelle est l’utilité de cette fonctionnalité dans un environnement où coexistent plusieurs générateurs d’images basés sur l’IA ? Claire Leibowicz, chercheuse en IA, note que le filigranage pourrait aider à discréditer des images manipulées, mais il ne préviendra pas leur circulation en ligne. Elle ajoute que des méthodes pour éliminer les filigranes pourraient être développées, remettant en question la robustesse à long terme de cette stratégie.

Les technologies d’IA générative connaissent une évolution rapide, ce qui rend de plus en plus difficile la distinction entre les images synthétiques et celles produites sans intervention d’un système d’IA. Bien que cette avancée ouvre d’immenses possibilités créatives, elle soulève également de nouveaux risques, notamment la diffusion de fausses informations, volontairement ou non.

Il devient donc crucial de pouvoir identifier les contenus générés par l’IA. C’est essentiel non seulement pour informer les personnes lorsqu’elles interagissent avec les médias générés, mais également pour freiner la propagation de la désinformation. Dans ce contexte, DeepMind veut s’engager en faveur des informations de qualité et pour le maintien de la confiance entre créateurs et utilisateurs. Un vaste programme qui passe par le développement d’outils plus avancés pour identifier les images générées par l’IA, y compris leurs versions modifiées, pour qu’elles puissent être retracées.

You May Also Like

More From Author

Fre Fre The Fre The The Max Max Max Ult Fre Acc Unl Zum Fre Str Coi The Hac Sex Acc The Get The Max Unl Hac Fre Str Get Fre Hac Blo Fre Tea Fre Unl Vid Sym The Max Acc The Cla Blo Pur The Lp Yoo Eli The The The Fre Unl The The Unl Sym Acc The Cla Fre Str Hac Dat Fre Unl The The Tin Unl Yyc Unl Muz Max Cla The Acc Fli Vid Blo Max Fre Pem Fre Coi Rou Cla Int Sec Dis Fre Coi Onl Acc Acc Ind Mas Ear Coi Unl Fre Fre Max Bum The Dat The Onl The Acc The Unl The