Des blagues innocentes aux détournements plus offensants, le chatbot Grok d’Elon Musk, développé par la société xAI, a provoqué une explosion de contenus synthétiques sur la toile. Cette situation remet en lumière les problématiques liées à la création d’images de personnes réelles.
Depuis quelques jours, les utilisateurs de Twitter/X ont accès gratuitement à Grok, le chatbot de xAI. Conçu pour rivaliser avec des outils comme ChatGPT ou DALL-E d’OpenAI, Grok se distingue par une approche beaucoup plus permissive. Là où OpenAI impose des restrictions pour éviter les dérapages, Grok laisse le champ libre à des créations parfois polémiques ou dérangeantes.
Rapidement, les images synthétiques produites par Grok ont inondé le web. Beaucoup de ces visuels illustrent les capacités impressionnantes de l’IA à générer des images photoréalistes et fidèles aux demandes des utilisateurs, même lorsque celles-ci sont abstraites ou complexes — une performance notable pour une IA de ce type.
Une liberté sans filtres, source de controverses
Cependant, certains utilisateurs ont exploité cette liberté pour produire des contenus bien plus controversés. Afin de se différencier d’OpenAI, avec laquelle Elon Musk est en désaccord, xAI a doté Grok d’une personnalité impertinente et sarcastique. Contrairement aux IA d’OpenAI ou de Google, Grok ne bloque pas les sujets sensibles, ce qui facilite la création de contenus problématiques.
Contrairement à DALL-E, qui évite soigneusement de représenter des personnes réelles pour limiter les risques de deepfakes, Grok génère sans hésiter des images réalistes de célébrités et figures publiques. Des internautes ont ainsi utilisé Grok pour créer des images de personnalités politiques dans des situations absurdes ou compromettantes. Le post d’Ari Kouts, un chercheur, illustre bien le potentiel et les risques de cet outil.
Si certaines utilisations relèvent de l’humour ou de la démonstration technique, d’autres vont beaucoup plus loin, flirtant avec le vulgaire, le trompeur ou le diffamatoire. Une simple navigation sur X suffit pour trouver des exemples qui ne peuvent être relayés ici pour des raisons évidentes. Cette facilité d’accès à des contenus potentiellement nuisibles soulève des questions complexes sur les plans éthique et juridique.
Des implications juridiques préoccupantes
En Europe, le RGPD interdit l’exploitation des données personnelles, y compris les images, sans consentement (articles 4, 5 et 17). Or, Grok semble ignorer ces principes en récupérant et détournant librement des images issues du web. Le droit français protège également l’image et la réputation des individus, mais l’absence de filtre chez Grok laisse le champ libre à des dérives. Pire encore, le ton irrévérencieux de l’IA peut inciter certains utilisateurs à enfreindre ces règles.
Faut-il une régulation adaptée ?
Les détournements de ce type n’ont pas attendu l’IA pour exister — des outils comme Photoshop permettent depuis longtemps ce genre de manipulations. Toutefois, l’arrivée d’IA génératives comme Grok démocratise ces pratiques, les rendant accessibles en quelques secondes à tout un chacun, sans besoin de compétences techniques particulières.
Face à cette évolution, une question se pose : faut-il créer une régulation spécifique pour ces technologies capables de détourner des images de personnes réelles ? Cette régulation devient particulièrement pertinente à l’approche d’échéances politiques importantes, comme les élections présidentielles. Mais une telle loi risquerait-elle de brider la liberté d’expression et d’innovation ?
Autant de questions qui exigent une réflexion approfondie alors que les IA continuent de progresser à une vitesse fulgurante.