lundi 27 mai 2024

Intelligence artificielle : OpenAI lance un outil pour détecter les images issues de l’IA générative

-

OpenAI, l’entreprise créatrice de logiciels d’intelligence artificielle (IA) générative (ChatGPT et DALL-E), vient de lancer un outil pour les chercheurs afin de détecter si des images numériques ont été créées par des programmes d’IA. Il s’agit d’une fonctionnalité attendue tant l’origine des contenus mis en ligne est devenue une préoccupation majeure suite à l’explosion de l’IA générative.

Depuis plusieurs mois, cette nouvelle technologie est au cœur des discussions en raison de nombreux risques de création de fausses photographies ou de faux enregistrements audio, notamment à des fins de fraudes ou pour produire des deepfakes.

   Un outil uniquement pour DALL-E3

Pour le moment, ce programme se limite aux images générées par DALL-E3. « Il identifie correctement environ 98 % des images de DALL-E3. Moins de 0,5 % des images non générées par l’IA ont été incorrectement attribuées à DALL-E3 », a indiqué la start-up californienne, après avoir réalisé des tests en interne sur une version antérieure de l’outil. Évidemment, tout n’est pas encore parfait comme l’a précisé l’entreprise. Selon elle, ce programme voit ses performances se réduire quand des images crées avec DALL-E3 ont été retouchées ou quand elles ont été générées par d’autres modèles.

OpenAI a aussi annoncé l’ajout de marques en filigrane aux images issues de l’IA générative. L’objectif est de respecter les normes de la Coalition for Content Provenance and Authenticity (C2PA). Cette « Coalition » a été fondée par les grands acteurs de l’industrie technologique afin d’établir des normes techniques pour connaître la provenance et l’authenticité des contenus numériques.

OpenAI suit ainsi un mouvement engagé par des poids lourds de la tech comme le groupe Meta (Facebook, Instagram) et Google. Depuis le mois de mai, Meta procède à l’étiquetage des contenus générés par l’IA en se basant sur la norme C2PA.

- Advertisment -