L’intelligence artificielle (IA) a pris d’assaut le monde numérique, générant à la fois de l’émerveillement et de l’inquiétude. Le potentiel de l’IA est indéniable, mais la question se pose : sommes-nous toujours en mesure de distinguer le contenu produit par une IA de celui créé par un humain ? Pour assurer une transparence accrue, la Commission européenne a récemment pris une initiative inédite, demandant aux géants de l’industrie numérique de clairement identifier les contenus créés par l’IA.

Des géants du numérique appelés à la transparence

Afin de lutter contre la désinformation potentielle véhiculée par les contenus générés par l’IA, l’UE a fait une demande explicite aux plateformes signataires de son code de bonnes pratiques contre la désinformation. Les entreprises concernées comprennent de grands noms comme Facebook, Google, YouTube et TikTok.

Un objectif clair : contrebalancer les risques de désinformation

L’idée principale est d’assurer que les contenus générés par l’IA – y compris les images, les sons et les textes – soient clairement identifiés. Cette annonce a été faite par Vera Jourova, vice-présidente de la Commission européenne, qui s’est adressée aux signataires du code de bonnes pratiques lors d’une réunion à Bruxelles.

Chatgpt

Une action ciblée : responsabiliser les plateformes intégrant l’IA

Ce mouvement de transparence concerne plus spécifiquement les signataires qui utilisent l’IA générative dans leurs services. Bing Chat de Microsoft et Bard de Google ont été explicitement cités. Vera Jourova a insisté sur le fait que ces services devraient mettre en place des garanties empêchant leur utilisation pour la diffusion de désinformation. En parallèle, les plateformes susceptibles de propager la désinformation générée par l’IA devraient intégrer une technologie pour reconnaître et indiquer clairement ce contenu aux utilisateurs.

Une lutte renforcée contre la diffusion de fausses informations

La diffusion de fausses images générées par l’IA sur les réseaux sociaux, comme celle du pape en doudoune ou de l’arrestation de Donald Trump, a souligné la nécessité d’un tel mouvement. Dès le 25 août, les très grandes plateformes avec plus de 45 millions d’utilisateurs actifs dans l’UE seront soumises à de nouvelles obligations grâce à la législation sur les services numériques (DSA). Ce cadre réglementaire demande une signalisation bien visible des contenus générés ou manipulés par l’IA.

Un avenir prometteur : vers une application rapide du label

La Commission européenne souhaite une mise en place immédiate de ce label au sein du code de bonnes pratiques contre la désinformation. Ceci inciterait les plateformes signataires à se conformer au plus tôt au DSA, dont l’application sera contraignante. Par ailleurs, l’UE travaille sur une législation spécifique à l’IA, qui inclut des obligations de transparence pour les générateurs de contenus tels que ChatGPT. Cependant, ces discussions prennent du temps et la législation ne devrait entrer en vigueur qu’au plus tôt à la fin de 2025.

Le mot de la fin

Avec cette décision, l’UE affirme son désir de garantir une transparence accrue sur le contenu généré par l’IA. C’est un pas en avant important pour la responsabilisation des géants du numérique et la lutte contre la désinformation. La prochaine étape sera de voir comment ces entreprises vont répondre à cette demande, et quel impact cela aura sur notre expérience quotidienne des plateformes numériques.