Étiquetage IA Meta

Meta étiquette l’IA pour stopper la désinformation

Un nouveau système pour identifier les contenus générés par l’intelligence artificielle (IA) sera mis en place par Meta, le géant américain des réseaux sociaux. Cette initiative vise à lutter contre la désinformation, particulièrement en cette année riche en scrutins électoraux.

Identification des contenus générés par IA

À partir du mois de mai, Meta commencera à étiqueter les contenus générés par l’IA sur ses plateformes. Cette mention « Made with AI » sera apposée sur un grand nombre de contenus vidéo, audio et images. La détection se fera grâce à des indicateurs d’image IA conformes aux normes de l’industrie ou si des utilisateurs indiquent qu’ils mettent en ligne des contenus générés par l’IA.

Le rôle du « watermarking »

En plus de la détection de marqueurs visibles, Meta compte aussi déceler toute trace de « watermarking ». Il s’agit d’une forme de « tatouage » numérique qui consiste à insérer une marque invisible à l’intérieur d’une image lorsqu’un outil utilisant l’IA la génère. Cependant, cette technique n’est pas infaillible. Par exemple, les logiciels en source ouverte (« open source ») n’ont pas toujours recours à ce type de « tatouage » lorsqu’ils créent une image.

Modification du traitement des contenus modifiés par une IA

Meta annonce également qu’il va modifier sa manière de traiter les contenus modifiés par une IA. Désormais, l’entreprise préfère ajouter « des étiquettes et du contexte » à ces contenus, plutôt que de les supprimer comme elle le faisait jusqu’à présent. Cependant, elle continuera à retirer de ses plateformes tout contenu, qu’il soit créé par un humain ou une IA, qui enfreint ses règles.

Cet article pourrait vous intéresser :   Midjourney : Une révolution dans la création d'images générées par IA

Fact-checkers indépendants

Meta compte également sur son réseau « d’environ 100 fact-checkers indépendants » pour repérer les contenus générés par IA « faux ou trompeurs ».

Engagements similaires d’autres géants de la tech

  • Microsoft
  • Google
  • OpenAI
  • Adobe

Ces entreprises ont également pris des engagements similaires pour lutter contre la désinformation.

Les risques de l’IA générative

L’essor de l’IA générative fait craindre que des personnes n’utilisent ces outils pour semer le chaos politique, notamment par le biais de la désinformation ou de la mésinformation. De plus, le développement de programmes d’IA générative s’accompagne de la production d’un flux de contenus dégradants, comme les fausses images (« deepfakes ») pornographiques de femmes célèbres, phénomène qui vise également des anonymes.

Auteur / autrice

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GoHighLevel

Clarkup

Snapvid AI

Systeme IO

Tugan AI

meydeey 2024

Medhi EL OUARDOUNI

Cet article a été rédigé par Medhi EL OUARDOUNI alias Meydeey, spécialiste en automatisation avec l’intelligence artificielle (IA) et ingénieur système.

Partager cet article :

Twitter
LinkedIn
Facebook
Email
Imprimer