Grâce aux mèmes, les utilisateurs des réseaux sociaux sont devenus des équipes rouges pour les fonctionnalités d'IA à moitié cuites

“Courir avec des ciseaux est un exercice cardio qui peut augmenter votre fréquence cardiaque et nécessite de la concentration et de la concentration”, indique la nouvelle fonctionnalité de recherche IA de Google. “Certains disent que cela peut également améliorer vos pores et vous donner de la force.”

La fonctionnalité IA de Google a extrait cette réponse d'un site Web appelé Little Old Lady Comedy, qui, comme son nom l'indique clairement, est un blog humoristique. Mais la gaffe est tellement ridicule qu’elle circule sur les réseaux sociaux, ainsi que d’autres aperçus manifestement incorrects de l’IA sur Google. En effet, les utilisateurs quotidiens associent désormais ces produits sur les réseaux sociaux.

Dans le domaine de la cybersécurité, certaines entreprises embauchent des « équipes rouges » – des pirates informatiques éthiques – qui tentent de pirater leurs produits comme s'ils étaient de mauvais acteurs. Si une équipe rouge découvre une vulnérabilité, l'entreprise peut la corriger avant l'expédition du produit. Google a certainement mené une forme d'équipe rouge avant de lancer un produit d'IA sur la recherche Google, dont on estime qu'il traite des milliards de requêtes par jour.

Il est donc surprenant qu'une entreprise dotée de ressources considérables comme Google continue de proposer des produits présentant des défauts évidents. C’est pourquoi il est désormais courant de faire le clown sur les échecs des produits d’IA, surtout à une époque où l’IA devient de plus en plus omniprésente. Nous l'avons vu avec une mauvaise orthographe sur ChatGPT, l'incapacité des générateurs de vidéos à comprendre comment les humains mangent des spaghettis et des résumés d'actualités de Grok AI sur X qui, comme Google, ne comprennent pas la satire. Mais ces mèmes pourraient en réalité servir de retour d’information utile aux entreprises développant et testant l’IA.

Malgré la nature très médiatisée de ces failles, les entreprises technologiques minimisent souvent leur impact.

“Les exemples que nous avons vus sont généralement des requêtes très rares et ne sont pas représentatifs des expériences de la plupart des gens”, a déclaré Google à Testeur Joe dans un communiqué envoyé par courrier électronique. “Nous avons effectué des tests approfondis avant de lancer cette nouvelle expérience et utiliserons ces exemples isolés pour continuer à affiner l'ensemble de nos systèmes.”

Tous les utilisateurs ne voient pas les mêmes résultats de l’IA, et au moment où une suggestion d’IA particulièrement mauvaise circule, le problème a souvent déjà été corrigé. Dans un cas plus récent devenu viral, Google a suggéré que si vous préparez une pizza mais que le fromage ne colle pas, vous pouvez ajouter environ un huitième de tasse de colle à la sauce pour « lui donner plus de collant ». Il s’est avéré que l’IA tire cette réponse d’un commentaire Reddit vieux de onze ans d’un utilisateur nommé « f––smith ».

Au-delà d’être une erreur incroyable, cela indique également que les offres de contenu IA pourraient être surévaluées. Google a un contrat de 60 millions de dollars avec Reddit pour licencier son contenu pour la formation de modèles d'IA, par exemple. Reddit a signé un accord similaire avec OpenAI la semaine dernière, et les propriétés Automattic WordPress.org et Tumblr seraient en pourparlers pour vendre des données à Midjourney et OpenAI.

Il faut reconnaître que beaucoup d'erreurs qui circulent sur les réseaux sociaux proviennent de recherches non conventionnelles conçues pour faire trébucher l'IA. Au moins, j’espère que personne ne recherche sérieusement les « bienfaits pour la santé de courir avec des ciseaux ». Mais certaines de ces erreurs sont plus graves. La journaliste scientifique Erin Ross a publié sur X que Google crache des informations incorrectes sur ce qu'il faut faire en cas de morsure de serpent à sonnette.

Le message de Ross, qui a reçu plus de 13 000 likes, montre qu'AI a recommandé d'appliquer un garrot sur la plaie, de couper la plaie et d'aspirer le venin. Selon le US Forest Service, ce sont toutes des choses que vous devriez pas faites, si vous êtes mordu. Pendant ce temps, sur Bluesky, l'auteur T Kingfisher a amplifié un article montrant Gemini de Google identifiant par erreur un champignon vénéneux comme un champignon de Paris commun – des captures d'écran de l'article se sont répandues sur d'autres plates-formes en guise d'avertissement.

Lorsqu’une mauvaise réponse de l’IA devient virale, l’IA pourrait être encore plus confuse par le nouveau contenu autour du sujet qui en résulte. Mercredi, le journaliste du New York Times, Aric Toler, a publié une capture d'écran sur X montrant une requête demandant si un chien a déjà joué dans la LNH. La réponse de l'IA a été oui – pour une raison quelconque, l'IA a traité le joueur des Flames de Calgary, Martin Pospisil, de chien. Désormais, lorsque vous effectuez la même requête, l'IA récupère un article du Daily Dot expliquant comment l'IA de Google continue de penser que les chiens font du sport. L’IA est nourrie de ses propres erreurs, ce qui l’empoisonne encore davantage.

C’est le problème inhérent à la formation de ces modèles d’IA à grande échelle sur Internet : parfois, les internautes mentent. Mais tout comme il n’existe aucune règle interdisant à un chien de jouer au basket-ball, il n’existe malheureusement aucune règle interdisant aux grandes entreprises technologiques d’expédier de mauvais produits d’IA.

Comme le dit le proverbe : les déchets rentrent, les déchets sortent.


rewrite this content and keep HTML tags

“Courir avec des ciseaux est un exercice cardio qui peut augmenter votre fréquence cardiaque et nécessite de la concentration et de la concentration”, indique la nouvelle fonctionnalité de recherche IA de Google. “Certains disent que cela peut également améliorer vos pores et vous donner de la force.”

La fonctionnalité IA de Google a extrait cette réponse d'un site Web appelé Little Old Lady Comedy, qui, comme son nom l'indique clairement, est un blog humoristique. Mais la gaffe est tellement ridicule qu’elle circule sur les réseaux sociaux, ainsi que d’autres aperçus manifestement incorrects de l’IA sur Google. En effet, les utilisateurs quotidiens associent désormais ces produits sur les réseaux sociaux.

Dans le domaine de la cybersécurité, certaines entreprises embauchent des « équipes rouges » – des pirates informatiques éthiques – qui tentent de pirater leurs produits comme s'ils étaient de mauvais acteurs. Si une équipe rouge découvre une vulnérabilité, l'entreprise peut la corriger avant l'expédition du produit. Google a certainement mené une forme d'équipe rouge avant de lancer un produit d'IA sur la recherche Google, dont on estime qu'il traite des milliards de requêtes par jour.

Il est donc surprenant qu'une entreprise dotée de ressources considérables comme Google continue de proposer des produits présentant des défauts évidents. C’est pourquoi il est désormais courant de faire le clown sur les échecs des produits d’IA, surtout à une époque où l’IA devient de plus en plus omniprésente. Nous l'avons vu avec une mauvaise orthographe sur ChatGPT, l'incapacité des générateurs de vidéos à comprendre comment les humains mangent des spaghettis et des résumés d'actualités de Grok AI sur X qui, comme Google, ne comprennent pas la satire. Mais ces mèmes pourraient en réalité servir de retour d’information utile aux entreprises développant et testant l’IA.

Malgré la nature très médiatisée de ces failles, les entreprises technologiques minimisent souvent leur impact.

“Les exemples que nous avons vus sont généralement des requêtes très rares et ne sont pas représentatifs des expériences de la plupart des gens”, a déclaré Google à Testeur Joe dans un communiqué envoyé par courrier électronique. “Nous avons effectué des tests approfondis avant de lancer cette nouvelle expérience et utiliserons ces exemples isolés pour continuer à affiner l'ensemble de nos systèmes.”

Tous les utilisateurs ne voient pas les mêmes résultats de l’IA, et au moment où une suggestion d’IA particulièrement mauvaise circule, le problème a souvent déjà été corrigé. Dans un cas plus récent devenu viral, Google a suggéré que si vous préparez une pizza mais que le fromage ne colle pas, vous pouvez ajouter environ un huitième de tasse de colle à la sauce pour « lui donner plus de collant ». Il s’est avéré que l’IA tire cette réponse d’un commentaire Reddit vieux de onze ans d’un utilisateur nommé « f––smith ».

Au-delà d’être une erreur incroyable, cela indique également que les offres de contenu IA pourraient être surévaluées. Google a un contrat de 60 millions de dollars avec Reddit pour licencier son contenu pour la formation de modèles d'IA, par exemple. Reddit a signé un accord similaire avec OpenAI la semaine dernière, et les propriétés Automattic WordPress.org et Tumblr seraient en pourparlers pour vendre des données à Midjourney et OpenAI.

Il faut reconnaître que beaucoup d'erreurs qui circulent sur les réseaux sociaux proviennent de recherches non conventionnelles conçues pour faire trébucher l'IA. Au moins, j’espère que personne ne recherche sérieusement les « bienfaits pour la santé de courir avec des ciseaux ». Mais certaines de ces erreurs sont plus graves. La journaliste scientifique Erin Ross a publié sur X que Google crache des informations incorrectes sur ce qu'il faut faire en cas de morsure de serpent à sonnette.

Le message de Ross, qui a reçu plus de 13 000 likes, montre qu'AI a recommandé d'appliquer un garrot sur la plaie, de couper la plaie et d'aspirer le venin. Selon le US Forest Service, ce sont toutes des choses que vous devriez pas faites, si vous êtes mordu. Pendant ce temps, sur Bluesky, l'auteur T Kingfisher a amplifié un article montrant Gemini de Google identifiant par erreur un champignon vénéneux comme un champignon de Paris commun – des captures d'écran de l'article se sont répandues sur d'autres plates-formes en guise d'avertissement.

Lorsqu’une mauvaise réponse de l’IA devient virale, l’IA pourrait être encore plus confuse par le nouveau contenu autour du sujet qui en résulte. Mercredi, le journaliste du New York Times, Aric Toler, a publié une capture d'écran sur X montrant une requête demandant si un chien a déjà joué dans la LNH. La réponse de l'IA a été oui – pour une raison quelconque, l'IA a traité le joueur des Flames de Calgary, Martin Pospisil, de chien. Désormais, lorsque vous effectuez la même requête, l'IA récupère un article du Daily Dot expliquant comment l'IA de Google continue de penser que les chiens font du sport. L’IA est nourrie de ses propres erreurs, ce qui l’empoisonne encore davantage.

C’est le problème inhérent à la formation de ces modèles d’IA à grande échelle sur Internet : parfois, les internautes mentent. Mais tout comme il n’existe aucune règle interdisant à un chien de jouer au basket-ball, il n’existe malheureusement aucune règle interdisant aux grandes entreprises technologiques d’expédier de mauvais produits d’IA.

Comme le dit le proverbe : les déchets rentrent, les déchets sortent.

Laisser un commentaire