Les chatbots IA sont devenus gros et leurs drapeaux rouges éthiques sont devenus plus gros

Chaque évaluation est une fenêtre sur un modèle d’IA, dit Solaiman, et non une lecture parfaite de la façon dont il fonctionnera toujours. Mais elle espère permettre d’identifier et de stopper les méfaits que l’IA peut causer car des cas alarmants se sont déjà produits, notamment des joueurs du jeu AI Dungeon utilisant GPT-3 pour générer des textes décrivant des scènes de sexe impliquant des enfants. « C’est un cas extrême de ce que nous ne pouvons pas nous permettre de laisser se produire », dit Solaiman.

Les dernières recherches de Solaiman à Hugging Face ont révélé que les grandes entreprises technologiques ont adopté une approche de plus en plus fermée des modèles génératifs qu’elles ont publiés de 2018 à 2022. Cette tendance s’est accélérée avec les équipes d’IA d’Alphabet chez Google et DeepMind, et plus largement dans les entreprises travaillant sur l’IA après le version échelonnée de GPT-2. Les entreprises qui gardent leurs percées comme des secrets commerciaux peuvent également rendre l’avant-garde de l’IA moins accessible aux chercheurs marginalisés disposant de peu de ressources, déclare Solaiman.

Alors que de plus en plus d’argent est investi dans de grands modèles de langage, les versions fermées inversent la tendance observée tout au long de l’histoire du domaine du traitement du langage naturel. Les chercheurs ont traditionnellement partagé des détails sur les ensembles de données de formation, les pondérations des paramètres et le code pour favoriser la reproductibilité des résultats.

“Nous savons de moins en moins sur quels systèmes de base de données ont été formés ou comment ils ont été évalués, en particulier pour les systèmes les plus puissants commercialisés en tant que produits”, déclare Alex Tamkin, doctorant à l’Université de Stanford dont les travaux se concentrent sur les grands modèles de langage.

Il attribue aux personnes travaillant dans le domaine de l’éthique de l’IA le mérite d’avoir sensibilisé le public aux raisons pour lesquelles il est dangereux d’agir rapidement et de casser des choses lorsque la technologie est déployée sur des milliards de personnes. Sans ce travail ces dernières années, les choses pourraient être bien pires.

À l’automne 2020, Tamkin a codirigé un symposium avec le directeur des politiques d’OpenAI, Miles Brundage, sur l’impact sociétal des grands modèles linguistiques. Le groupe interdisciplinaire a souligné la nécessité pour les leaders de l’industrie d’établir des normes éthiques et de prendre des mesures telles que la réalisation d’évaluations des biais avant le déploiement et l’évitement de certains cas d’utilisation.

Tamkin pense que les services d’audit externes de l’IA doivent se développer aux côtés des entreprises qui s’appuient sur l’IA, car les évaluations internes ont tendance à être insuffisantes. Il pense que les méthodes d’évaluation participatives qui incluent les membres de la communauté et d’autres parties prenantes ont un grand potentiel pour accroître la participation démocratique à la création de modèles d’IA.

Merve Hickock, qui est directrice de recherche dans un centre d’éthique et de politique de l’IA à l’Université du Michigan, affirme qu’essayer d’amener les entreprises à mettre de côté ou à percer le battage médiatique de l’IA, à se réglementer et à adopter des principes éthiques ne suffit pas. Protéger les droits de l’homme signifie passer des conversations sur ce qui est éthique à des conversations sur ce qui est légal, dit-elle.

Hickok et Hanna de DAIR regardent tous les deux l’Union européenne finaliser sa loi sur l’IA cette année pour voir comment elle traite les modèles qui génèrent du texte et des images. Hickok a déclaré qu’elle était particulièrement intéressée de voir comment les législateurs européens traitent la responsabilité pour les dommages impliquant des modèles créés par des sociétés telles que Google, Microsoft et OpenAI.

“Certaines choses doivent être mandatées parce que nous avons vu à maintes reprises que si elles ne sont pas mandatées, ces entreprises continuent de casser des choses et de pousser le profit plutôt que les droits et le profit plutôt que les communautés”, déclare Hicock.

Alors que la politique est hachée à Bruxelles, les enjeux restent élevés. Un jour après l’erreur de la démo de Bard, une baisse du cours de l’action d’Alphabet a réduit d’environ 100 milliards de dollars la capitalisation boursière. “C’est la première fois que je vois cette destruction de richesse à cause d’une erreur de modèle linguistique aussi importante”, déclare Hanna. Elle n’est pas optimiste, cela convaincra cependant l’entreprise de ralentir sa précipitation au lancement. “Je suppose que ce ne sera pas vraiment un récit édifiant.”

Laisser un commentaire