Dans la vague de controverses et de poursuites liées à l’IA, CNET a été publiquement réprimandé depuis qu’il a commencé à publier du contenu à peine voilé généré par l’IA sur son site fin 2022 – un scandale qui a abouti à la rétrogradation du site de sources fiables à sources non fiables sur Wikipédia. [h/t Futurism].
Considérant que CNET est présent dans le secteur depuis 1994 et a maintenu une réputation de premier plan sur Wikipédia jusqu'à fin 2020, ce changement est intervenu après de nombreux débats entre les éditeurs de Wikipédia et a attiré l'attention de nombreux médias, y compris de certains membres du personnel de CNET. .
Il est important de se rappeler que même si Wikipédia est « l’encyclopédie libre que tout le monde peut modifier », ce n’est pas vraiment le Far West. La communauté d'éditeurs et de bénévoles de Wikipédia exige des citations pour toute information ajoutée aux pages Wiki, ce qui confère un certain degré de responsabilité à l'immense communauté responsable du fonctionnement de Wikipédia. Bien qu'il ne doive jamais être utilisé comme source principale, Wikipédia a tendance à être au moins un excellent endroit pour commencer des recherches sur ces sujets en raison de ces exigences de citation.
La chute (apparente) de CNET sur Wikipédia a commencé avant que son contenu généré par l'IA ne soit découvert. En octobre 2020, l'acquisition de CNET par l'éditeur Red Ventures a commencé à faire baisser CNET sur Wikipédia, car les preuves semblaient indiquer une baisse des normes éditoriales et un contenu davantage favorisé par les annonceurs.
Mais après novembre 2023, lorsque Red Ventures a commencé à publier du contenu généré par l'IA sur ce qui était autrefois l'un des sites technologiques les plus réputés, les éditeurs de Wikipédia ont presque immédiatement commencé à faire pression pour rétrograder entièrement CNET de la liste des sources fiables de Wikipédia. CNET affirme avoir cessé de publier du contenu généré par l'IA puisque la nature de la recherche impitoyable de capitaux de Red Ventures et la publication de fausses informations sur d'autres sites détenus (comme Healthline) ont tenu CNET hors de la liste actuelle des sources fiables.
Un éditeur de Wikipédia, Chess, a cité l'article de Futurism comme disant : « Nous ne devrions pas imposer à plusieurs reprises aux éditeurs la responsabilité de prouver que Red Ventures a ruiné un site avant que nous puissions commencer à le supprimer ; ils peuvent facilement en acheter ou en créer un autre. Je pense que nous Nous devrions examiner le dénominateur commun ici, à savoir Red Ventures, et cibler le problème (un réseau de spam) à sa source. »
Il s’agit d’une prise véritablement brûlante, mais elle pourrait bien être justifiée. Le problème ici ne réside pas uniquement dans l’utilisation dissimulée de l’IA générative dans des articles publiés sur l’un des sites d’actualités technologiques les plus connus de tous les temps. Au lieu de cela, c'est le fait que ces articles générés par l'IA ont tendance à être mal rédigés et inexacts.
Avant l’ère de l’IA, les éditeurs de Wikipédia étaient déjà confrontés à des contenus générés automatiquement et indésirables sous la forme de robots spammeurs et d’acteurs malveillants. De cette manière, le traitement réservé par les éditeurs au contenu généré par l’IA est remarquablement cohérent avec leur politique passée : il s’agit simplement de spam, n’est-ce pas ?
Dans une histoire connexe il y a quelques mois, un soi-disant « braquage SEO » a été découvert sur Twitter. Cela n'aurait peut-être pas été découvert si la personne responsable ne s'était pas ouvertement vantée de cette « réussite », qui impliquait de consulter le site d'un concurrent, de tout exécuter via l'IA, et immédiatement IA générant un site Web concurrent complet avec 1800 articles ciblant le même créneau pour « voler 3,6 millions de trafic total à un concurrent ».
Le site qui a été touché par ce soi-disant braquage SEO s'appelle Exceljet, un site géré par l'expert Excel David Bruns pour aider les autres à mieux utiliser Excel. En plus de se voir voler son travail acharné de la manière la plus louche et la plus paresseuse possible, Bruns a également découvert que la plupart de ce contenu était inexact. La couverture de cette histoire par Hubspot explique également comment, heureusement, Google a fini par s'en rendre compte.
Malheureusement, l’essor de l’IA générative commence également à se faire au détriment d’un Internet utilisable avec du contenu écrit par des humains capables de tester et de véritablement comprendre les choses. On ne peut qu'espérer que des histoires comme celle-ci aideront à décourager les éditeurs de laisser de côté le contrôle qualité au point de générer automatiquement du contenu trompeur.
Surtout si l’on considère également que des procès comme le New York Times contre OpenAI et Microsoft nous rappellent que ces IA dites génératives sont quasiment nécessaires pour voler le travail des autres pour fonctionner. Au moins, lorsqu'un voleur régulier vole un objet, cela fonctionne toujours. Avec l’IA générative, vous ne pouvez même pas garantir que le résultat sera précis, surtout si vous n’avez pas déjà l’expertise nécessaire pour faire la différence.