Extrait de l'interview de Mathilde Saliou pour le livre 'L'IA au service du marketing'
En achetant le livre 'L'IA au service du marketing', vous aurez accès à des ressources complémentaires, dont l'interview complète de Mathilde Saliou. Voici un extrait pour vous donner un avant-goût.
Avec l'émergence des algorithmes personnalisés, je m'interroge sur leur impact sur notre perception de la réalité. Comment, selon vous, les bulles d'information créées par ces algorithmes affectent-elles notre compréhension du monde et nos interactions sociales ?
Mathilde Saliou : Les bulles d'information se nourrissent de nos interactions en ligne, chaque like, chaque tweet, alimentant cette 'machine algorithmique'. Cependant, contrairement à une idée reçue, ces bulles ne sont pas toujours un lieu de confort pour ses utilisateurs.
Parfois, pour maximiser l'engagement, les plateformes peuvent nous exposer à des contenus controversés. C'est un jeu dangereux, surtout lorsqu'on considère la tendance des médias à sélectionner et diffuser des moments polémiques pour attirer l'attention sur les réseaux sociaux, sans forcément en mesurer les conséquences. Les algorithmes des plateformes et des réseaux sociaux, ces recettes informatiques complexes, personnalisent notre expérience en ligne selon notre profil et notre historique de navigation.
Chaque interaction indique à ces systèmes ce qui nous captive, ce qui nous retient en ligne. Ce modèle économique, fondé sur la publicité, cherche à nous maintenir connectés le plus longtemps possible, nous entraînant vers une 'bulle de filtre'. L'existence de ces bulles est sujette à débat. Bien qu'elles semblent limiter notre spectre informationnel, nous avons toujours la possibilité de nous en extraire en recherchant activement des contenus variés.
Néanmoins, il y a une préoccupation légitime concernant des effets plus insidieux, comme les spirales de radicalisation. Un intérêt initial pour une théorie du complot sur YouTube, par exemple, peut rapidement nous entraîner dans un tourbillon de contenu similaire.
Les algorithmes des plateformes sociales exploitent nos émotions, en particulier les réactions négatives, pour générer de l'engagement. Cette tendance est particulièrement alarmante pour les jeunes qui s'informent principalement via les réseaux sociaux. Et malgré certaines promesses de transparence, comme celle d'Elon Musk concernant l'algorithme de X, l'opacité reste la norme, ce qui empêche les spécialistes d’étudier en profondeur comment fonctionnent ces machines. La question des bulles algorithmiques illustre aussi le débat classique entre confort et inconfort.
La logique de “bulle”, de tri algorithmique, vise à nous garder dans un cocon de contenu un peu fascinant. Cet excès de confort peut engendrer de la complaisance. Même s’il s’agit d’une logique inverse à ce que la majorité de nos outils numériques cherchent à nous proposer, garder un certain degré d'inconfort dans la navigation ou le type de contenu qui nous est proposé incite à grandir, à explorer, à questionner. C'est dans ces moments d'inconfort que l'innovation, la créativité et la découverte émergent.
Quels en sont les dangers de ces bulles d'information ?
Mathilde Saliou : Dans le passé, on s'abonnait à des journaux qui reflétaient nos opinions, créant de facto une bulle informationnelle. Aujourd'hui, notre inquiétude est exacerbée, car bien que l'information provienne de sources variées, elle est triée par des algorithmes et non plus par des éditeurs humains. Cette automatisation, souvent imperceptible, peut nous faire oublier l’omniprésence de logiques de tri et de hiérarchisation des contenus auxquels nous sommes exposés. Sans prise de conscience de cette influence, comment pouvons-nous nous en prémunir ? Pour les jeunes, il est vital de renforcer l'éducation aux médias numériques, mais cette nécessité s'étend à toutes les générations, chacune ayant ses propres compétences et lacunes numériques. Les plus âgés peuvent offrir une perspective enrichissante basée sur leur expérience du monde pré-internet, les plus jeunes partager leur expertise en matière de nouveaux usages. Je suis pour une éducation aux médias plus approfondie et un dialogue intergénérationnel plus marqué.
Nous sommes passés d'une époque où les informations étaient certifiées par des journalistes à une ère de surinformation amplifiée par l'IA. Quel est votre avis en tant que journaliste ?
Mathilde Saliou : C'est un véritable paradoxe. L'internet originel promettait un accès sans précédent à l'information et à la connaissance, un potentiel qui s'est décuplé avec l'avènement du Web 2.0. Cela a permis à chacun de consommer de l'information et de contribuer activement à sa création et à sa diffusion. Au début, il y avait une réelle excitation autour du journalisme citoyen et la perspective d'écouter une pluralité de voix semblait révolutionnaire. Cependant, la surinformation et les défis du triage de l'information ne sont devenus évidents que progressivement, et parfois trop tard.
Des algorithmes ont été introduits par la plupart des plateformes pour organiser et hiérarchiser le contenu, mais ils obéissent aux logiques de leurs constructeurs : ils visent, aussi, à garder les internautes engagés, connectés sur leurs outils. Par ailleurs, la facilité avec laquelle chacune peut créer de l’information, la diffuser, voire l’amplifier a également ouvert la porte à des campagnes de désinformation, dont certaines ont eu des répercussions significatives, notamment lors des élections américaines. En réponse, des initiatives comme les badges de vérification d'identité sur X (anciennement Twitter) ont été développées pour aider les utilisateurs à identifier des sources fiables.
Ces mesures sont cependant imparfaites et font l'objet de controverses. Elles sont particulièrement importantes sur des plateformes influentes comme X, où un changement de gestion comme celui entrepris par Elon Musk influence directement la dynamique de partage et la crédibilité de l'information. Aujourd’hui, les badges bleus sont attribués à ceux qui paient l’abonnement à Twitter Blue, or ils sont loin de tous avoir la fiabilité de l’information à cœur. Pour moi, en tant que journaliste, cela signifie que notre rôle de vérificateur et de gardien de l'information est plus crucial que jamais. Nous devons produire du contenu de qualité et éduquer le public sur la manière de discerner le vrai du faux, le substantiel du superficiel. Notre profession de journaliste a déjà été fortement impactée, notamment à cause d'internet et des décisions prises dans les années 2000 concernant la gratuité des médias.
Mais face à la complexité croissante de l'information, je suis persuadée que les gens vont réaliser la nécessité de médias fiables, où l'information a été vérifiée avec rigueur. Car pouvoir se reposer sur des faits est capital pour la démocratie. Si l’on parle du récent boom de l’IA générative, je crains que tous les médias ne survivent pas à cette transition, en particulier ceux qui ne priorisent pas la qualité et la vérification de l'information.
Avec tout ce flot d'informations générées par l'IA, comment garantir un accès équitable et préserver la qualité des informations ?
Mathilde Saliou : Le numérique a indéniablement bouleversé notre rapport au savoir et à l'information. Au-delà de l'origine et de la véracité de l'information, la préoccupation majeure réside dans l'interconnectivité des données.
Prenons l'exemple des théories du complot sur le changement climatique ou les élections. Le danger ne réside pas tant dans ces idées isolées, mais plutôt dans la capacité d'Internet à les amplifier et à créer des réseaux de croyances qui peuvent déclencher des vagues d'inaction (vis-à-vis du changement climatique) ou de désinformation massive. Notre rôle en tant que journalistes s'étend au-delà de la navigation dans ces eaux troubles : il s'agit de diriger le public vers des sources sûres et de souligner l'importance de la vérification des faits. Il faut promouvoir un esprit critique et un scepticisme constructif, surtout dans un paysage médiatique où l'abondance d'informations va de pair avec la manipulation et les mauvaises interprétations potentielles. Face à cette réalité, la gestion de l'interconnexion de l'information s'avère être un défi majeur de notre temps.
Nous devons tirer parti du potentiel du numérique pour le bien commun, tout en minimisant les risques de désinformation. Cela nécessite une collaboration continue entre les développeurs, les utilisateurs, les décideurs politiques et les spécialistes de l'information pour façonner un environnement numérique qui favorise l'accès à un savoir authentique et encourage l'engagement civique. Dans ce contexte, la dynamique automatique de génération de contenu renforce une tendance déjà existante dans notre sphère numérique : une surabondance de données et une communication croissante entre les robots. Cela suscite des interrogations sur l'essence de l'information, sur la vérité, et sur les motivations derrière cet accroissement exponentiel des interactions robot-robot.
Pourquoi consacrons-nous autant d'efforts à faciliter ces échanges entre machines ? Quels en sont les enjeux humains sous-jacents ? Considérons, par exemple, la création de faux engagements sur les réseaux sociaux par des robots, destinée à manipuler les algorithmes (on parle d’astro-turfing). C'est un scénario presque kafkaïen : nous construisons des machines pour interagir entre elles, et nous craignons ensuite qu'elles nous surpassent. Avec les avancées de l'IA générative, nous courons le risque de voir émerger des modèles auto-propagateurs, semblables à des virus !
Et si ces machines peuvent certes exacerber les biais existants, il est vital de se rappeler que ces biais sont le reflet de notre société humaine. Qu'il s'agisse de discrimination ou d'autres formes d'inégalités, l'IA agit souvent comme un miroir grossissant, montrant et amplifiant les failles de notre propre construction sociale.