L’artefact de l’application d’actualités des fondateurs d’Instagram est en fait un jeu d’IA

L’invasion de les chatbots ont perturbé les plans d’innombrables entreprises, y compris certaines qui travaillaient sur cette même technologie depuis des années (en vous regardant, Google). Mais pas Artifact, l’application de découverte d’actualités créée par les cofondateurs d’Instagram Kevin Systrom et Mike Krieger. Lorsque j’ai parlé à Systrom cette semaine de sa startup – un suivi très attendu du réseau social d’un milliard d’utilisateurs qui soutient Meta depuis quelques années – il a insisté sur le fait qu’Artifact est un produit de la récente révolution de l’IA, même s’il a été conçu avant que GPT ne commence à discuter. En fait, Systrom dit que lui et Krieger ont commencé avec l’idée d’exploiter les pouvoirs de l’apprentissage automatique, puis se sont retrouvés avec une application d’actualités après avoir cherché un problème sérieux que l’IA pourrait aider à résoudre.

Ce problème est la difficulté de trouver des articles de presse individuellement pertinents et de haute qualité – ceux que les gens veulent le plus voir – et de ne pas avoir à parcourir des pièges à clics non pertinents, des canulars partisans trompeurs et des distractions hypocaloriques pour obtenir ces histoires. Artifact fournit ce qui ressemble à un flux standard contenant des liens vers des articles d’actualité, avec des titres et des extraits descriptifs. Mais contrairement aux liens affichés sur Twitter, Facebook et autres médias sociaux, ce qui détermine la sélection et le classement n’est pas OMS les suggère, mais le contenu des histoires elles-mêmes. Idéalement, le contenu que chaque utilisateur souhaite voir, à partir de publications dont la fiabilité a été vérifiée.

L’application d’actualités Artifact peut désormais utiliser la technologie de l’IA pour réécrire les titres que les utilisateurs ont signalés comme trompeurs.

Avec l’aimable autorisation de Nokto

Ce qui rend cela possible, me dit Systrom, c’est l’engagement de sa petite équipe envers la transformation de l’IA. Bien qu’Artifact ne converse pas avec des utilisateurs comme ChatGPT, du moins pas encore, l’application exploite un grand modèle de langage qui lui est propre, qui joue un rôle déterminant dans le choix de l’article d’actualité que chaque individu voit. Sous le capot, Artifact digère les articles de presse afin que leur contenu puisse être représenté par une longue chaîne de chiffres.

En comparant ces hachages numériques d’actualités disponibles à ceux pour lesquels un utilisateur donné a montré sa préférence (par ses clics, son temps de lecture ou son désir déclaré de voir des informations sur un sujet donné), Artifact fournit une collection d’histoires adaptées à un unique être humain. “L’avènement de ces grands modèles de langage nous permet de résumer le contenu dans ces chiffres, puis nous permet de trouver des correspondances pour vous beaucoup plus efficacement que vous ne l’auriez fait dans le passé”, déclare Systrom. “La différence entre nous et GPT ou Bard est que nous ne générons pas de texte, mais que nous le comprenons.”

Cela ne signifie pas qu’Artifact a ignoré le récent boom de l’IA qui génère du texte pour les utilisateurs. La startup a une relation commerciale avec OpenAI qui donne accès à l’API pour GPT-4, le dernier et le plus grand modèle de langage d’OpenAI qui alimente la version premium de ChatGPT. Lorsqu’un utilisateur d’Artifact sélectionne une histoire, l’application offre la possibilité de faire en sorte que la technologie résume les articles de presse en quelques puces afin que les utilisateurs puissent comprendre l’essentiel de l’histoire avant de s’engager à continuer à lire. (Artifact avertit que, puisque le résumé a été généré par l’IA, “il peut contenir des erreurs”.)

Aujourd’hui, Artifact fait un autre saut sur la fusée à IA générative pour tenter de résoudre un problème ennuyeux: les gros titres clickbaity. L’application offre déjà aux utilisateurs un moyen de signaler les histoires de clickbait, et si plusieurs personnes taguent un article, Artifact ne le diffusera pas. Mais, explique Systrom, parfois le problème n’est pas l’histoire mais le titre. Cela pourrait promettre trop, ou induire en erreur, ou inciter le lecteur à cliquer juste pour trouver des informations qui ne figurent pas dans le titre. Du point de vue de l’éditeur, gagner plus de clics est un gros plus, mais c’est frustrant pour les utilisateurs, qui pourraient avoir l’impression d’avoir été manipulés.

Systrom et Krieger ont créé un moyen futuriste d’atténuer ce problème. Si un utilisateur signale un titre comme risqué, Artifact soumettra le contenu à GPT-4. L’algorithme analysera ensuite le contenu de l’histoire puis écrire son propre titre. Ce titre plus descriptif sera celui que l’utilisateur verra dans son flux. “Quatre-vingt-dix-neuf fois sur 100, ce titre est à la fois factuel et plus clair que l’original sur lequel l’utilisateur pose la question”, déclare Systrom. Ce titre n’est partagé qu’avec l’utilisateur plaignant. Mais si plusieurs utilisateurs signalent un titre clickbaity, tous des utilisateurs d’Artifact verront le titre généré par l’IA, et non celui fourni par l’éditeur. Finalement, le système trouvera comment identifier et remplacer les titres offensants sans intervention de l’utilisateur, explique Systrom. (GPT-4 peut le faire tout seul maintenant, mais Systrom ne lui fait pas suffisamment confiance pour confier le processus à l’algorithme.)

rewrite this content and keep HTML tags

L’invasion de les chatbots ont perturbé les plans d’innombrables entreprises, y compris certaines qui travaillaient sur cette même technologie depuis des années (en vous regardant, Google). Mais pas Artifact, l’application de découverte d’actualités créée par les cofondateurs d’Instagram Kevin Systrom et Mike Krieger. Lorsque j’ai parlé à Systrom cette semaine de sa startup – un suivi très attendu du réseau social d’un milliard d’utilisateurs qui soutient Meta depuis quelques années – il a insisté sur le fait qu’Artifact est un produit de la récente révolution de l’IA, même s’il a été conçu avant que GPT ne commence à discuter. En fait, Systrom dit que lui et Krieger ont commencé avec l’idée d’exploiter les pouvoirs de l’apprentissage automatique, puis se sont retrouvés avec une application d’actualités après avoir cherché un problème sérieux que l’IA pourrait aider à résoudre.

Ce problème est la difficulté de trouver des articles de presse individuellement pertinents et de haute qualité – ceux que les gens veulent le plus voir – et de ne pas avoir à parcourir des pièges à clics non pertinents, des canulars partisans trompeurs et des distractions hypocaloriques pour obtenir ces histoires. Artifact fournit ce qui ressemble à un flux standard contenant des liens vers des articles d’actualité, avec des titres et des extraits descriptifs. Mais contrairement aux liens affichés sur Twitter, Facebook et autres médias sociaux, ce qui détermine la sélection et le classement n’est pas OMS les suggère, mais le contenu des histoires elles-mêmes. Idéalement, le contenu que chaque utilisateur souhaite voir, à partir de publications dont la fiabilité a été vérifiée.

L’application d’actualités Artifact peut désormais utiliser la technologie de l’IA pour réécrire les titres que les utilisateurs ont signalés comme trompeurs.

Avec l’aimable autorisation de Nokto

Ce qui rend cela possible, me dit Systrom, c’est l’engagement de sa petite équipe envers la transformation de l’IA. Bien qu’Artifact ne converse pas avec des utilisateurs comme ChatGPT, du moins pas encore, l’application exploite un grand modèle de langage qui lui est propre, qui joue un rôle déterminant dans le choix de l’article d’actualité que chaque individu voit. Sous le capot, Artifact digère les articles de presse afin que leur contenu puisse être représenté par une longue chaîne de chiffres.

En comparant ces hachages numériques d’actualités disponibles à ceux pour lesquels un utilisateur donné a montré sa préférence (par ses clics, son temps de lecture ou son désir déclaré de voir des informations sur un sujet donné), Artifact fournit une collection d’histoires adaptées à un unique être humain. “L’avènement de ces grands modèles de langage nous permet de résumer le contenu dans ces chiffres, puis nous permet de trouver des correspondances pour vous beaucoup plus efficacement que vous ne l’auriez fait dans le passé”, déclare Systrom. “La différence entre nous et GPT ou Bard est que nous ne générons pas de texte, mais que nous le comprenons.”

Cela ne signifie pas qu’Artifact a ignoré le récent boom de l’IA qui génère du texte pour les utilisateurs. La startup a une relation commerciale avec OpenAI qui donne accès à l’API pour GPT-4, le dernier et le plus grand modèle de langage d’OpenAI qui alimente la version premium de ChatGPT. Lorsqu’un utilisateur d’Artifact sélectionne une histoire, l’application offre la possibilité de faire en sorte que la technologie résume les articles de presse en quelques puces afin que les utilisateurs puissent comprendre l’essentiel de l’histoire avant de s’engager à continuer à lire. (Artifact avertit que, puisque le résumé a été généré par l’IA, “il peut contenir des erreurs”.)

Aujourd’hui, Artifact fait un autre saut sur la fusée à IA générative pour tenter de résoudre un problème ennuyeux: les gros titres clickbaity. L’application offre déjà aux utilisateurs un moyen de signaler les histoires de clickbait, et si plusieurs personnes taguent un article, Artifact ne le diffusera pas. Mais, explique Systrom, parfois le problème n’est pas l’histoire mais le titre. Cela pourrait promettre trop, ou induire en erreur, ou inciter le lecteur à cliquer juste pour trouver des informations qui ne figurent pas dans le titre. Du point de vue de l’éditeur, gagner plus de clics est un gros plus, mais c’est frustrant pour les utilisateurs, qui pourraient avoir l’impression d’avoir été manipulés.

Systrom et Krieger ont créé un moyen futuriste d’atténuer ce problème. Si un utilisateur signale un titre comme risqué, Artifact soumettra le contenu à GPT-4. L’algorithme analysera ensuite le contenu de l’histoire puis écrire son propre titre. Ce titre plus descriptif sera celui que l’utilisateur verra dans son flux. “Quatre-vingt-dix-neuf fois sur 100, ce titre est à la fois factuel et plus clair que l’original sur lequel l’utilisateur pose la question”, déclare Systrom. Ce titre n’est partagé qu’avec l’utilisateur plaignant. Mais si plusieurs utilisateurs signalent un titre clickbaity, tous des utilisateurs d’Artifact verront le titre généré par l’IA, et non celui fourni par l’éditeur. Finalement, le système trouvera comment identifier et remplacer les titres offensants sans intervention de l’utilisateur, explique Systrom. (GPT-4 peut le faire tout seul maintenant, mais Systrom ne lui fait pas suffisamment confiance pour confier le processus à l’algorithme.)

Laisser un commentaire