Deepfake, fake news, infox et désinfo : Les maux de l'IA derrière les mots
C’est un jour comme les autres, ou presque. En parcourant mes notifications LinkedIn, je tombe sur un post d’un docteur : "Bill Gates aurait déclaré que seuls trois métiers survivront à l’IA : l’énergie, la biologie et la programmation." Intrigué, je cherche à en savoir plus sur l'article de JVTECH qui a inspiré ce post, mais je ne trouve aucune trace de cette déclaration nulle part, et évidemment, aucune source n'est citée par l’auteur.
Et ce n’est pas tout. Juste après, j’apprends que le JT de France 2 a diffusé une bande-annonce exclusive de Superman : Legacy. Les fans s’enthousiasment, mais il y a un hic : cette bande-annonce n’existe tout simplement pas. Un montage réalisé par une IA, sorti de nulle part, publié sur YouTube cet été. James Gunn, le réalisateur, n'a pas manqué de réagir…
Bienvenue dans l’ère des fake news, infox, désinformation automatisées — à vous de choisir votre mot ou maux. Les IA produisent désormais des contenus plus vite qu’on ne peut les vérifier. Ce n’est pas juste une question de fausses bandes-annonces ou de citations imaginaires. Nous sommes face à un écosystème entier de désinformation, où réalité et fiction s’entremêlent si habilement qu’on finit par se demander si ce n’est pas la machine qui contrôle l’histoire.
Un mois après : la contagion d’une fake news...
Et ce fameux article JVTECH sur Bill Gates qui prédit « Seuls 3 métiers survivront à l'IA » ? Toujours en ligne, affichant fièrement plus de 1 200 000 vues, comme si de rien n’était. Après avoir contacté leur rédacteur en chef adjoint, voilà sa réponse :
"Alors, je ne m'occupe pas directement de la partie 'news', mais la source de cet article est… et elle nous vient de nos confrères de Webedia en Espagne. Pas grand-chose à dire de plus, mais j'entends vos remarques et vos inquiétudes."
Merci d'avoir pris le temps, vraiment. Mais lorsque je demande s’il compte corriger ou supprimer l’article ? Silence radio. Mon mail semble avoir fini au cimetière des emmerdeurs. Pendant ce temps, l'article continue de récolter les clics, sans une once de remords.
Et ailleurs sur le web ? L’info, aimant à likes, a évidemment été recyclée, remixée (merci ChatGPT), et repartie sur des sites comme linfo.re, mizane.info, ou actutana.com. Relayée ensuite par un joyeux troupeau d’"experts" autoproclamés sur LinkedIn, X, TikTok, et YouTube. Mention spéciale à Samuel Étienne, le journaliste-champion des questions, qui a relayé cette infox en vidéo TikTok sur MVP - Ma Vie Pro . Mon commentaire, pour signaler l’erreur ? Supprimé, sûrement par inadvertance.
La fake news, c’est un virus numérique. Une fois lâchée, elle prolifère à la vitesse d’un clic, mute d’un site à l’autre, et se renforce avec chaque partage. Elle gagne en visibilité, et, pire, en crédibilité. Parce sur internet, ce n’est pas la vérité qui fait loi, mais l’audience.
La fake news, c’est un virus numérique. Une fois lâchée, elle prolifère à la vitesse d’un clic, mute d’un site à l’autre, et se renforce avec chaque partage. Elle gagne en visibilité, et, pire, en crédibilité. Parce sur internet, ce n’est pas la vérité qui fait loi, mais l’audience.
L’IA : nouvelle plume des fake news
L’arrivée des IA génératives, comme ChatGPT ou Claude, a bouleversé la production de contenu. Besoin d’un article ? Quelques secondes et c’est en ligne. Un billet de blog ? L’IA s’en charge à la volée, pour une fraction du coût humain. Le rêve, non ? En apparence seulement. Car derrière cette efficacité se cache un visage bien moins reluisant : celui de la désinformation automatisée.
Contrairement aux journalistes, ces IA n'ont ni flair, ni conscience éthique… ou plutôt, conscience tout court. Elles brassent les données du web, en font un joli remix, mais sans jamais vérifier la moindre chose. Pas de recoupement, pas d’enquête, juste une répétition algorithmique. Ce qu’elles trouvent, elles le diffusent. Et ce qui commence par une petite erreur (ou "hallucination", ça sonne plus IA) peut vite devenir une fausse vérité amplifiée à l’échelle mondiale.
Une étude de NewsGuard a révélé qu’il existe aujourd'hui plus de 1 100 sites d'actualités générés par des IA, dans pas moins de 16 langues. Ces sites, avec des noms aussi anodins que Daily News Update ou Top World Times, couvrent tous les sujets possibles : politique, divertissement, faits divers... mais la plupart des contenus sont truffés d’erreurs, voire totalement inventés. Le problème ? Il n'y a personne derrière l’écran pour vérifier quoi que ce soit. Aucune équipe de rédaction, juste des algorithmes tournant à plein régime.
Les IA ne se limitent pas à écrire des articles : elles génèrent aussi des images et des vidéos, sans se poser de questions. Une fausse preuve en image pour valider une infox ? En quelques clics, c’est fait. Besoin d’une vidéo pour manipuler l’opinion publique ? Un jeu d’enfant pour l’IA. Ce n’est plus une question de rumeurs lancées dans une conversation, mais de désinformation à la chaîne, automatisée, industrialisée.
Et ce n’est que la surface de l’iceberg numérique. Les IA ne font pas que produire des contenus ; elles scrutent aussi le web pour en aspirer chaque octet d'information. Ce phénomène, connu sous le nom de scraping, permet aux machines de récupérer des contenus existants pour les transformer en quelque chose de "neuf". Sauf que dans cette transformation, les informations douteuses sont souvent dupliquées, remixées et redistribuées sous une nouvelle forme, gagnant une crédibilité qu’elles n’avaient pas au départ. Un simple article de Pinocchio peut ainsi grossir plus vite que son nez et se retrouver cité par une dizaine de plateformes, donnant l'impression qu’il est fiable parce qu’il est repris partout. Ça doit être vrai, non ?
Le plus inquiétant dans tout ça, c’est l'apparence de crédibilité. Un article bien rédigé, un titre accrocheur, une présentation soignée… et les lecteurs y croient. Comment pourraient-ils deviner que ce contenu a été généré par une IA, sans âme, sans vérification, et non par un journaliste enquêtant sur le terrain ? L’illusion de la vérité est complète, et le public incrédule est pris au piège.
Le paradoxe des sources fiables face aux fake news
Pendant que ces sites peu fiables laissent grand ouvert leurs portes aux robots d'indexation des IA, les médias traditionnels et les grands sites d'actualité prennent une direction totalement opposée. Pour protéger leur contenu et leurs droits d’auteur, ils verrouillent l'accès à leurs informations. Selon NewsGuard, environ 67 % des sites d’information les plus fiables, comme The New York Times, bloquent les chatbots d’IA.
Le résultat est aussi prévisible qu’inquiétant. Privées de ces sources d’information rigoureuses, les IA se rabattent sur des sites beaucoup moins scrupuleux, notamment les fameuses usines à contenu gérées par des IA. Là, elles trouvent des contenus souvent douteux, qu’elles avalent avec enthousiasme avant de les régurgiter sous forme d’articles tout aussi erronés. C’est là que l’expression bien connue Garbage In, Garbage Out prend tout son sens : une IA nourrie de données de piètre qualité produira forcément du contenu du même calibre.
C’est un peu comme si, affamés, nous nous retrouvions contraints de nous tourner vers la malbouffe, faute d’accès à une alimentation plus saine. Privées de sources fiables, les IA avalent tout ce qu'elles trouvent, sans discernement ni vérification. Partagés massivement sur les réseaux sociaux, ces contenus finissent par être pris pour argent comptant par un public souvent non averti, convaincu d’avoir sous les yeux une information digne de confiance.
La boucle est bouclée : plus les IA s’appuient sur des sources douteuses, plus elles produisent du contenu trompeur. Ce contenu alimente ensuite de nouvelles générations d’algorithmes, qui perpétuent et amplifient la désinformation. L’information devient alors une spirale infernale où les erreurs, même anodines, se répètent et s’amplifient à chaque clic, brouillant un peu plus la frontière entre réalité et fiction.
En deux mots : pollution numérique.
🤔 Deepfake vs Fake News : Quelle différence ? Entre illusion et désillusion
Avec le numérique, de nouveaux termes font irruption dans notre quotidien, et il n’est pas toujours facile de s'y retrouver. Si la « langue de Rabelais » nous a offert le verbe, le monde des IA nous apporte la langue du fake, où manipulation et tromperie deviennent monnaie courante.
Fake News : Ces fausses nouvelles, diffusées sous forme d’articles, de posts ou même de vidéos, cherchent à nous faire prendre des vessies pour des lanternes. Leur but ? Manipuler l’opinion publique, souvent en attribuant des propos imaginaires à des personnalités pour nous faire avaler des couleuvres.
Deepfake : Plus visuel, plus insidieux, le deepfake se sert de l’IA pour altérer des vidéos ou des enregistrements audio, faisant dire ou faire à quelqu’un ce qu’il n’a jamais dit ou fait. En quelques clics, on peut créer une « preuve » vidéo des plus trompeuses : on y voit, on y croit, et pourtant… tout est faux.
La fake news nous trompe par les mots ; le deepfake, par les images. Ensemble, ils forment un tandem redoutable, jouant avec nos perceptions et brouillant la frontière entre le vrai et le faux.
Que faire face à ce tsunami de fake news ?
La situation est préoccupante, mais des solutions existent. L'IA transformera inévitablement la production de contenu, mais cela ne signifie pas que nous devons rester inactifs. Voici quelques pistes pour contenir cette vague de désinformation avant qu'elle ne nous submerge :
-
Promouvoir la transparence
Les plateformes doivent indiquer clairement lorsqu'un contenu est généré par une IA. De nombreux lecteurs croient encore que ces contenus automatisés proviennent de sources fiables, ce qui complique la détection des fake news. Des labels indépendants, attribués à des articles vérifiés par des humains, pourraient faciliter la distinction entre les articles fiables et les productions automatisées.
-
Renforcer la vérification des faits
Le fact-checking est une des meilleures armes contre les fake news, mais il ne peut fonctionner de manière isolée. La collaboration avec les géants de la tech est indispensable pour accélérer la détection des infox. Il est nécessaire de développer des outils automatisés capables de filtrer la désinformation à grande échelle. Des organisations comme NewsGuard et Reporters sans Frontières agissent déjà dans ce sens, mais elles manquent de soutien à grande échelle.
-
Éduquer le public
Dans un monde où le partage de contenu est presque instantané, sensibiliser le public aux dangers de la désinformation générée par l'IA devient une priorité. Chaque clic peut propager de fausses informations, et il est crucial d'apprendre à vérifier les sources avant de relayer des contenus sensationnalistes. Le développement d'un esprit critique est une compétence incontournable face à l’essor des IA génératives.
-
Encourager les médias fiables à collaborer
Plutôt que de bloquer l'accès à leurs contenus, les médias de qualité pourraient envisager des alternatives. En partageant leurs données de manière contrôlée et rémunérée avec les IA, ils contribueraient à améliorer la qualité des informations ingérées par ces algorithmes. Cela permettrait de rehausser le niveau global d’information sur le web tout en garantissant la transparence des sources.
-
Le rôle des journalistes
Dans cette lutte contre la désinformation, les journalistes sont la première ligne de défense. Leur mission est d’enquêter, d’analyser et de fournir des informations vérifiées, même dans un environnement où les machines produisent à la chaîne. Les exemples de la fausse déclaration de Bill Gates et de la bande-annonce fictive de Superman montrent que même les journalistes peuvent se tromper. Mais sérieusement, peut-on écrire un article sans citer ses sources ? Il est temps de rétablir des normes strictes.
Un bon exemple : après avoir signalé mes doutes sur l'article viral concernant Bill Gates au site JVTECH le 23 octobre 2024, aucune réponse. L’article continue pourtant d'accumuler des vues. Tant qu'il atteint le million, c'est ce qui semble importer... non ?
Mettre les sources ne devrait plus être une option, mais une obligation.
-
Mettre en place un organisme indépendant de vérification
Il devient urgent de créer un organisme indépendant, financé par les acteurs du numérique, chargé de la vérification des contenus en ligne. Cet organisme n'attribuerait pas des labels aux articles eux-mêmes, mais aux sites qui les publient, responsabilisant ainsi directement les plateformes de diffusion. Si un site manque à ses obligations de transparence ou publie régulièrement des contenus douteux, son label pourrait lui être retiré. Par ailleurs, cet organisme devrait également permettre aux utilisateurs de signaler des contenus suspects. En incitant les IA à ignorer les articles provenant de sites non labellisés, cela dissuaderait efficacement les producteurs de fake news de continuer à inonder le web.
-
Utiliser le référencement comme arme de dissuasion
Google et d’autres moteurs de recherche pourraient jouer un rôle décisif en décidant de ne plus référencer les contenus issus des usines à fake news. Si les IA ne peuvent plus s'appuyer sur ces sources pour alimenter leurs algorithmes, le modèle économique de la désinformation automatisée s'effondrerait. Ce serait une solution radicale pour freiner la prolifération des infox. À terme, les acteurs du numérique et les utilisateurs en sortiraient gagnants. Après tout, qui veut naviguer sur un web saturé de CopyGPT
Conclusion : L'humain, dernier rempart contre les fake news automatisées
Face à ce déferlement de fake news orchestrées par les IA génératives, une vérité s'impose : seul l'humain peut encore distinguer l’information de l’illusion. Les machines brassent les données sans flair, sans contexte, et surtout sans responsabilité. Elles ignorent les répercussions sociales et politiques de ce qu’elles produisent. C’est là que nous devons reprendre la main.
Cet article soulève des points cruciaux sur les défis posés par les IA génératives dans le paysage médiatique actuel. Néanmoins, une analyse plus nuancée, reconnaissant la complexité du problème et évitant de trop simplifier la question en blâmant uniquement la technologie, permettrait d'enrichir le débat. Après tout, les machines ne font que ce qu'on leur a appris à faire. C'est à nous, en tant que société, de définir les règles du jeu et de veiller à ce que la technologie serve nos intérêts communs plutôt que de les menacer.
Chaque contenu généré par une IA doit être validé par un humain, qui se porte garant de ce qui est publié. Sans ce filtre, la désinformation se répand à la vitesse d’un clic. L’humain, avec son discernement et sa capacité à vérifier et corriger, reste notre meilleure défense face à cette avalanche de contenus trompeurs produits à la chaîne.
Nous ne pourrons pas stopper l’avancée des IA, mais nous pouvons – et devons – en garder le contrôle. Sans vigilance, nous risquons de nous noyer dans un monde où la désinformation devient un simple produit algorithmique. Il est temps que ceux qui ont créé cette situation, comme ChatGPT, Google & co, apportent des solutions pour éviter de scier la branche sur laquelle ils sont assis.
Finalement, le problème est profondément humain : notre capacité à détourner la technologie pour servir des intérêts personnels. Sans règles, c’est la porte ouverte à toutes les dérives.
Alors, combien de contenus générés par une IA avez-vous consultés aujourd’hui ? Et surtout, avez-vous pris le temps de les remettre en question ?
🎯 Envie d’aller plus loin ?
Dernière mise à jour : 19 novembre 2024