3 façons d’apprivoiser ChatGPT

Cette année, nous avons vu l’introduction de puissants systèmes d’IA générative qui ont la capacité de créer des images et du texte à la demande.

Dans le même temps, les régulateurs bougent. L’Europe est en train de finaliser sa réglementation sur l’IA (la loi sur l’IA), qui vise à imposer des règles strictes aux systèmes d’IA à haut risque. Le Canada, le Royaume-Uni, les États-Unis et la Chine ont tous introduit leurs propres approches pour réglementer l’IA à fort impact. Mais l’IA à usage général semble être une réflexion après coup plutôt que l’objectif principal. Lorsque les nouvelles règles réglementaires européennes ont été proposées en avril 2021, il n’y avait aucune mention de modèles fondamentaux à usage général, y compris l’IA générative. À peine un an et demi plus tard, notre compréhension de l’avenir de l’IA a radicalement changé. Une exemption injustifiée des modèles fondamentaux actuels de ces propositions transformerait les réglementations en matière d’IA en tigres de papier qui semblent puissants mais ne peuvent pas protéger les droits fondamentaux.

ChatGPT a fait le Le changement de paradigme de l’IA est tangible. Aujourd’hui, quelques modèles, tels que GPT-3, DALL-E, Stable Diffusion et AlphaCode, deviennent la base de presque tous les systèmes basés sur l’IA. Les startups d’IA peuvent ajuster les paramètres de ces modèles fondamentaux pour mieux répondre à leurs tâches spécifiques. De cette manière, les modèles fondamentaux peuvent alimenter un grand nombre d’applications en aval dans divers domaines, notamment le marketing, les ventes, le service client, le développement de logiciels, la conception, les jeux, l’éducation et le droit.

Bien que les modèles fondamentaux puissent être utilisés pour créer de nouvelles applications et de nouveaux modèles commerciaux, ils peuvent également devenir un moyen puissant de diffuser des informations erronées, d’automatiser des spams de haute qualité, d’écrire des logiciels malveillants et de plagier du contenu et des inventions protégés par le droit d’auteur. Il a été prouvé que les modèles fondamentaux contiennent des biais et génèrent un contenu stéréotypé ou préjugé. Ces modèles peuvent imiter avec précision le contenu extrémiste et pourraient être utilisés pour radicaliser les individus vers des idéologies extrémistes. Ils ont la capacité de tromper et de présenter de fausses informations de manière convaincante. Fait inquiétant, les défauts potentiels de ces modèles seront transmis à tous les modèles ultérieurs, ce qui pourrait entraîner des problèmes généralisés s’ils ne sont pas délibérément gouvernés.

Le problème du « plusieurs mains » fait référence au défi d’attribuer la responsabilité morale des résultats causés par plusieurs acteurs, et c’est l’un des principaux moteurs de l’érosion de la responsabilité lorsqu’il s’agit de sociétés algorithmiques. La responsabilité des nouvelles chaînes d’approvisionnement de l’IA, où les modèles fondamentaux alimentent des centaines d’applications en aval, doit reposer sur une transparence de bout en bout. Plus précisément, nous devons renforcer la transparence de la chaîne d’approvisionnement à trois niveaux et établir une boucle de rétroaction entre eux.

Transparence dans les modèles fondamentaux est essentiel pour permettre aux chercheurs et à l’ensemble de la chaîne d’approvisionnement en aval des utilisateurs d’étudier et de comprendre les vulnérabilités et les biais des modèles. Les développeurs des modèles ont eux-mêmes reconnu ce besoin. Par exemple, les chercheurs de DeepMind suggèrent que les méfaits des grands modèles de langage doivent être traités en collaborant avec un large éventail de parties prenantes en s’appuyant sur un niveau suffisant d’explicabilité et d’interprétabilité pour permettre une détection, une évaluation et une atténuation efficaces des méfaits. Des méthodologies de mesure et d’analyse comparative normalisées, telles que le HELM de l’Université de Standford, sont nécessaires. Ces modèles deviennent trop puissants pour fonctionner sans évaluation par des chercheurs et des auditeurs indépendants. Les régulateurs doivent se demander : Avons-nous suffisamment de connaissances pour être en mesure d’évaluer où les modèles doivent être appliqués et où ils doivent être interdits ? La sécurité et la robustesse des applications en aval à haut risque peuvent-elles être correctement évaluées avec les informations disponibles ?

Laisser un commentaire