L’IA générative comme ChatGPT révèle des problèmes systémiques profonds au-delà de l’industrie technologique

L'IA générative comme ChatGPT révèle des problèmes systémiques profonds au-delà de l'industrie technologique

Certains critiques ont affirmé que le chatbot d’intelligence artificielle ChatGPT avait “tué l’essai”, tandis que DALL-E, un générateur d’images d’IA, a été décrit comme une menace pour l’intégrité artistique. Crédit : Shutterstock

ChatGPT a jeté de longues ombres sur les médias en tant que dernière forme de technologie perturbatrice. Pour certains, ChatGPT est un signe avant-coureur de la fin de l’intégrité académique et scientifique, et une menace pour les emplois de cols blancs et nos institutions démocratiques.

À quel point devrions-nous nous préoccuper de l’intelligence artificielle générative (IA) ? Les développeurs de ChatGPT le décrivent comme “un modèle… qui interagit de manière conversationnelle” tout en le qualifiant de “produit horrible” pour ses résultats incohérents.

Il peut écrire des e-mails, résumer des documents, réviser du code et fournir des commentaires, traduire des documents, créer du contenu, jouer à des jeux et, bien sûr, discuter. Ce n’est guère l’étoffe d’un futur dystopique.

Nous ne devons pas craindre l’introduction de technologies, mais nous ne devons pas non plus présumer qu’elles servent nos intérêts. Les sociétés sont dans un processus constant d’évolution culturelle définie par l’inertie du passé, un consensus temporaire et des technologies perturbatrices qui introduisent de nouvelles idées et approches.

Nous devons comprendre et adopter la co-évolution des humains et de la technologie en considérant ce pour quoi une technologie est conçue, comment elle nous concerne et comment nos vies vont changer.

ChatGPT et DALL-E sont-ils vraiment des créateurs ?

Avec l’intelligence, la créativité est souvent considérée comme une capacité humaine unique. Mais la créativité n’est pas exclusive aux humains – c’est une propriété qui a émergé à travers les espèces en tant que produit d’une évolution convergente.

Des espèces aussi diverses que les corbeaux, les poulpes, les dauphins et les chimpanzés peuvent également improviser et utiliser des outils.

Malgré l’utilisation libérale du terme, la créativité est notoirement difficile à saisir. Ses caractéristiques incluent la quantité de sortie, l’identification des connexions entre des éléments apparemment sans rapport (associations distantes) et la fourniture de solutions atypiques aux problèmes.

La créativité ne réside pas simplement dans l’individu ; nos réseaux sociaux et nos valeurs sont également importants. À mesure que la présence de variantes culturelles augmente, nous disposons d’un plus grand bassin d’idées, de produits et de processus dans lesquels puiser.

Nos expériences culturelles sont des ressources pour la créativité. Plus nous sommes exposés à des idées diverses, plus nous pouvons créer de nouveaux liens. Des études ont suggéré que l’expérience multiculturelle est positivement associée à la créativité. Plus la distance entre les cultures est grande, plus nous pouvons observer de produits créatifs.

La créativité peut également conduire à la convergence. Différentes personnes peuvent créer des idées similaires indépendamment les unes des autres, un processus appelé co-découverte scientifique. L’invention du calcul et la théorie de la sélection naturelle en sont les exemples les plus marquants.

L’intelligence artificielle se définit par sa capacité à apprendre, à identifier des modèles et à utiliser des règles de prise de décision.

Si les produits linguistiques et artistiques sont des modèles, alors l’IA, en particulier ceux comme ChatGPT et DALL-E, devrait être capable de créativité en assimilant et en combinant des modèles divergents de différents artistes. Le chatbot Bing de Microsoft affirme que c’est l’une de ses valeurs fondamentales.

L’IA a besoin de personnes

Il y a un problème fondamental avec de tels programmes : l’art est maintenant une donnée. En ramassant ces produits à travers un processus d’analyse et de synthèse, nous pouvons ignorer les contributions et les traditions culturelles des créateurs humains. Sans citer et créditer ces sources, elles peuvent être considérées comme du plagiat de haute technologie, s’appropriant des produits artistiques qui ont mis des générations à s’accumuler. Les préoccupations d’appropriation culturelle doivent également s’appliquer à l’IA.

L’IA pourrait un jour évoluer de manière imprévisible, mais pour le moment, elle dépend toujours des humains pour ses données, sa conception et ses opérations, ainsi que les défis sociaux et éthiques qu’ils présentent.

Les humains sont toujours nécessaires pour le contrôle de la qualité. Ces efforts résident souvent dans la boîte noire impénétrable de l’IA, ces opérations étant souvent externalisées vers des marchés où la main-d’œuvre est moins chère.

La récente histoire très médiatisée du “journaliste IA” de CNET présente un autre exemple de la nécessité d’interventions humaines qualifiées.

Crumpe a commencé à utiliser discrètement un bot d’IA pour écrire des articles en novembre 2020. Après que d’importantes erreurs aient été signalées par d’autres sites d’actualités, le site Web a fini par publier de longues corrections pour le contenu écrit par l’IA et a effectué un audit complet de l’outil.

À l’heure actuelle, il n’existe aucune règle permettant de déterminer si les produits d’IA sont créatifs, cohérents ou significatifs. Ce sont des décisions qui doivent être prises par les gens.

À mesure que les industries adoptent l’IA, les anciens rôles occupés par les humains seront perdus. La recherche nous indique que ces pertes seront ressenties le plus par ceux qui occupent déjà des positions vulnérables. Ce modèle suit une tendance générale à adopter des technologies avant de comprendre – ou de se soucier de – leurs implications sociales et éthiques.

Les industries considèrent rarement comment une main-d’œuvre déplacée sera recyclée, laissant ces personnes et leurs communautés faire face à ces perturbations.

Les problèmes systémiques vont au-delà de l’IA

DALL-E a été décrit comme une menace pour l’intégrité artistique en raison de sa capacité à générer automatiquement des images de personnes, de mondes exotiques et d’images fantastiques. D’autres prétendent que ChatGPT a tué l’essai.

Plutôt que de voir l’IA comme la cause de nouveaux problèmes, nous pourrions mieux comprendre l’éthique de l’IA comme attirant l’attention sur les anciens. L’inconduite académique est un problème courant causé par des problèmes sous-jacents, notamment l’influence des pairs, le consensus perçu et la perception des sanctions.

Des programmes comme ChatGPT et DALL-E ne feront que faciliter un tel comportement. Les institutions doivent reconnaître ces vulnérabilités et élaborer de nouvelles politiques, procédures et normes éthiques pour résoudre ces problèmes.

Les pratiques de recherche douteuses ne sont pas non plus rares. Les inquiétudes suscitées par les articles de recherche rédigés par l’IA ne sont qu’une extension de pratiques d’auteur inappropriées, telles que la paternité fantôme et la paternité de cadeaux dans les sciences biomédicales. Ils reposent sur des conventions disciplinaires, des systèmes de récompense académiques obsolètes et un manque d’intégrité personnelle.

Alors que les éditeurs se posent des questions sur la paternité de l’IA, ils doivent faire face à des problèmes plus profonds, comme pourquoi la production de masse d’articles universitaires continue d’être encouragée.

De nouvelles solutions à de nouveaux problèmes

Avant de transférer la responsabilité aux institutions, nous devons nous demander si nous leur fournissons des ressources suffisantes pour relever ces défis. Les enseignants sont déjà épuisés et le système d’évaluation par les pairs est surchargé.

Une solution consiste à combattre l’IA par l’IA en utilisant des outils de détection de plagiat. D’autres outils peuvent être développés pour attribuer une œuvre d’art à ses créateurs ou détecter l’utilisation de l’IA dans des documents écrits.

Les solutions à l’IA ne sont pas simples, mais elles peuvent être énoncées simplement : la faute n’est pas dans notre IA, mais en nous-mêmes. Pour paraphraser Nietzsche, si vous regardez dans l’abîme de l’IA, elle vous regardera en retour.

Fourni par La Conversation

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.La conversation

Citation: L’IA générative comme ChatGPT révèle des problèmes systémiques profonds au-delà de l’industrie technologique (2023, 6 mars) récupéré le 6 mars 2023 sur https://techxplore.com/news/2023-03-generative-ai-chatgpt-reveal-deep- assis.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.

Laisser un commentaire