Tu as probablement remarqué que de plus en plus de contenus en ligne sont créés par des intelligences artificielles. Meta, l’entreprise derrière Facebook et Instagram, a décidé de prendre des mesures pour que tu puisses facilement identifier ces contenus. C’est une réponse directe aux préoccupations croissantes concernant la désinformation, surtout en période électorale.
Comment Meta identifie les contenus générés par l’IA
À partir de mai, Meta commencera à étiqueter les contenus générés par l’IA sur ses plateformes. Tu verras la mention “Made with AI” sur de nombreuses vidéos, audios et images. Cette détection se fera grâce à des indicateurs spécifiques qui respectent les normes de l’industrie. En plus, si un utilisateur indique qu’il met en ligne un contenu créé par l’IA, cela sera aussi signalé.
Le “watermarking” : une empreinte digitale invisible
Meta utilise également le “watermarking” pour identifier les contenus IA. Imagine un tatouage invisible sur une image qui révèle qu’elle a été générée par une machine. Cependant, cette méthode n’est pas parfaite. Par exemple, les logiciels en open source ne l’utilisent pas toujours, rendant certaines images difficiles à détecter.
Comment Meta gère les contenus modifiés par l’IA
Plutôt que de supprimer les contenus modifiés par l’IA, Meta préfère maintenant ajouter des étiquettes et des explications. Cela te permet de savoir si un contenu a été altéré. Toutefois, tout contenu qui enfreint les règles de la plateforme sera retiré, qu’il soit créé par un humain ou une machine.
Le rôle crucial des fact-checkers
Meta s’appuie sur un réseau d’environ 100 fact-checkers indépendants pour détecter les contenus générés par l’IA qui pourraient être trompeurs. Ces experts jouent un rôle essentiel dans la lutte contre la désinformation.
Les autres géants de la tech suivent le mouvement
- Microsoft
- OpenAI
- Adobe
Ces entreprises prennent également des mesures similaires pour combattre la désinformation. Elles s’engagent à rendre leurs plateformes plus transparentes et fiables pour toi.
Les risques associés à l’IA générative
L’IA générative, bien qu’impressionnante, peut être utilisée à des fins nuisibles. Il y a une inquiétude grandissante que ces outils soient utilisés pour semer le désordre politique par la désinformation. De plus, ils peuvent produire des contenus inappropriés, comme des fausses images (“deepfakes”) qui nuisent à la réputation de personnes, célèbres ou anonymes.
En fin de compte, Meta et d’autres entreprises technologiques travaillent dur pour s’assurer que tu puisses naviguer en ligne en toute sécurité, en sachant d’où proviennent les contenus que tu consommes.