L’intelligence artificielle n’est peut-être pas la solution pour arrêter la propagation des fausses nouvelles

L'intelligence artificielle n'est peut-être pas la solution pour arrêter la propagation des fausses nouvelles

L’intelligence artificielle n’a pas encore développé le bon sens nécessaire pour identifier les fausses nouvelles. Crédit : Shutterstock

La désinformation a été utilisée dans la guerre et la stratégie militaire au fil du temps. Mais il est indéniablement intensifié par l’utilisation des technologies intelligentes et des médias sociaux. En effet, ces technologies de communication offrent un moyen relativement peu coûteux et peu difficile de diffuser des informations pratiquement n’importe où.

La question à un million de dollars est alors : ce problème d’échelle et de portée produit par la technologie peut-il également être résolu à l’aide de la technologie ?

En effet, le développement continu de nouvelles solutions technologiques, telles que l’intelligence artificielle (IA), peut apporter une partie de la solution.

Les entreprises technologiques et les entreprises de médias sociaux travaillent à la détection automatique des fausses nouvelles grâce au traitement du langage naturel, à l’apprentissage automatique et à l’analyse de réseau. L’idée est qu’un algorithme identifiera les informations comme « fake news » et les classera plus bas pour réduire la probabilité que les utilisateurs les rencontrent.

Répétition et exposition

D’un point de vue psychologique, l’exposition répétée au même élément d’information rend plus probable pour quelqu’un d’y croire. Lorsque l’IA détecte la désinformation et réduit la fréquence de sa circulation, cela peut briser le cycle des modèles de consommation d’informations renforcés.

Cependant, la détection de l’IA reste encore peu fiable. Premièrement, la détection actuelle est basée sur l’évaluation du texte (contenu) et de son réseau social pour déterminer sa crédibilité. Malgré la détermination de l’origine des sources et du mode de diffusion des fausses nouvelles, le problème fondamental réside dans la manière dont l’IA vérifie la nature réelle du contenu.

Théoriquement, si la quantité de données d’entraînement est suffisante, le modèle de classification soutenu par l’IA serait capable d’interpréter si un article contient ou non de fausses nouvelles. Pourtant, la réalité est que faire de telles distinctions nécessite des connaissances politiques, culturelles et sociales préalables, ou du bon sens, qui manquent encore aux algorithmes de traitement du langage naturel.

De plus, les fausses nouvelles peuvent être très nuancées lorsqu’elles sont délibérément modifiées pour « apparaître comme de vraies nouvelles mais contenant des informations fausses ou manipulatrices », comme le montre une étude pré-imprimée.






Un reportage de la BBC sur les dangers des contrefaçons profondes.

Partenariats homme-IA

L’analyse de la classification est également fortement influencée par le thème : l’IA différencie souvent les sujets, plutôt que véritablement le contenu du problème pour déterminer son authenticité. Par exemple, les articles liés à COVID-19 sont plus susceptibles d’être étiquetés comme de fausses nouvelles que d’autres sujets.

Une solution serait d’employer des personnes pour travailler aux côtés de l’IA pour vérifier l’authenticité des informations. Par exemple, en 2018, le ministère lituanien de la Défense a développé un programme d’IA qui « signale la désinformation dans les deux minutes suivant sa publication et envoie ces rapports à des spécialistes humains pour une analyse plus approfondie ».

Une approche similaire pourrait être adoptée au Canada en créant une unité ou un département spécial national pour lutter contre la désinformation, ou en soutenant les groupes de réflexion, les universités et d’autres tiers pour rechercher des solutions d’IA pour les fausses nouvelles.

Éviter la censure

Le contrôle de la diffusion de fausses informations peut, dans certains cas, être considéré comme de la censure et une menace pour la liberté de parole et d’expression. Même un humain peut avoir du mal à juger si une information est fausse ou non. Et donc peut-être que la plus grande question est : qui et quoi déterminent la définition des fausses nouvelles ? Comment pouvons-nous nous assurer que les filtres d’IA ne nous entraîneront pas dans le piège des faux positifs et étiqueteront à tort les informations comme fausses en raison des données associées ?

Un système d’IA pour identifier les fausses nouvelles peut avoir des applications sinistres. Les gouvernements autoritaires, par exemple, peuvent utiliser l’IA comme excuse pour justifier la suppression de tout article ou pour poursuivre des individus qui ne sont pas en faveur des autorités. Ainsi, tout déploiement de l’IA – et toutes les lois ou mesures pertinentes qui émergent de son application – nécessitera un système transparent avec un tiers pour le surveiller.

Les défis futurs demeurent, car la désinformation, en particulier lorsqu’elle est associée à une intervention étrangère, est un problème permanent. Un algorithme inventé aujourd’hui pourrait ne pas être en mesure de détecter de futures fausses nouvelles.

Par exemple, les contrefaçons profondes – qui sont « des manipulations numériques très réalistes et difficiles à détecter de l’audio ou de la vidéo » – sont susceptibles de jouer un rôle plus important dans la future guerre de l’information. Et la désinformation diffusée via des applications de messagerie telles que WhatsApp et Signal devient de plus en plus difficile à suivre et à intercepter en raison du cryptage de bout en bout.

Une étude récente a montré que 50 pour cent des répondants canadiens recevaient régulièrement de fausses nouvelles via des applications de messagerie privée. Pour réglementer cela, il faudrait trouver un équilibre entre la vie privée, la sécurité individuelle et la répression de la désinformation.

S’il vaut vraiment la peine d’allouer des ressources à la lutte contre la désinformation à l’aide de l’IA, la prudence et la transparence sont nécessaires compte tenu des ramifications potentielles. Les nouvelles solutions technologiques, malheureusement, ne sont peut-être pas une solution miracle.


Une étude montre que les utilisateurs vérifiés sont parmi les plus grands coupables lorsqu’il s’agit de partager de fausses nouvelles


Fourni par La Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original.La conversation

Citation: L’intelligence artificielle n’est peut-être pas réellement la solution pour arrêter la propagation de fausses nouvelles (2021, 29 novembre) récupéré le 29 novembre 2021 sur https://techxplore.com/news/2021-11-artificial-intelligence-solution-fake-news .html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.