Pourquoi arrêter la recherche sur l’IA alors que nous savons déjà comment la rendre plus sûre

La semaine dernière, le Future of Life Institute a publié une lettre ouverte proposant un moratoire de six mois sur la « dangereuse » course à l’IA. Il a depuis été signé par plus de 3 000 personnes, dont certains membres influents de la communauté de l’IA. Mais s’il est bon que les risques des systèmes d’IA gagnent en visibilité au sein de la communauté et de la société, les problèmes décrits et les actions proposées dans la lettre sont irréalistes et inutiles.

L’appel à une pause dans le travail sur l’IA est non seulement vague, mais également irréalisable. Alors que la formation de grands modèles linguistiques par des entreprises à but lucratif attire le plus l’attention, c’est loin d’être le seul type de travail d’IA en cours. En fait, la recherche et la pratique de l’IA se déroulent dans les entreprises, dans les universités et dans les compétitions Kaggle partout dans le monde sur une multitude de sujets allant de l’efficacité à la sécurité. Cela signifie qu’il n’y a pas de bouton magique sur lequel n’importe qui peut appuyer pour arrêter la recherche « dangereuse » sur l’IA tout en n’autorisant que le type « sûr ». Et les risques de l’IA qui sont nommés dans la lettre sont tous hypothétiques, basés sur un état d’esprit longtermiste qui tend à ignorer les vrais problèmes comme la discrimination algorithmique et la police prédictive, qui nuisent actuellement aux individus, au profit de risques existentiels potentiels pour l’humanité.

Au lieu de nous concentrer sur les façons dont l’IA pourrait échouer à l’avenir, nous devrions nous concentrer sur une définition claire de ce qui constitue un succès de l’IA dans le présent. Cette voie est éminemment claire : au lieu d’arrêter la recherche, nous devons améliorer la transparence et la responsabilité tout en élaborant des lignes directrices concernant le déploiement des systèmes d’IA. Des initiatives politiques, de recherche et dirigées par les utilisateurs dans ce sens existent depuis des décennies dans différents secteurs, et nous avons déjà des propositions concrètes avec lesquelles travailler pour faire face aux risques actuels de l’IA.

Les autorités de régulation du monde entier rédigent déjà des lois et des protocoles pour gérer l’utilisation et le développement des nouvelles technologies d’IA. L’Algorithmic Accountability Act du Sénat américain et des initiatives similaires dans l’UE et au Canada font partie de celles qui aident à définir quelles données peuvent et ne peuvent pas être utilisées pour former des systèmes d’IA, à résoudre les problèmes de droit d’auteur et de licence, et à peser les considérations particulières nécessaires à l’utilisation de l’IA. dans les milieux à haut risque. Un élément essentiel de ces règles est la transparence : obliger les créateurs de systèmes d’IA à fournir plus d’informations sur les détails techniques tels que la provenance des données de formation, le code utilisé pour former les modèles et la manière dont des fonctionnalités telles que les filtres de sécurité sont mises en œuvre. Les développeurs de modèles d’IA et leurs utilisateurs en aval peuvent soutenir ces efforts en s’engageant avec leurs représentants et en aidant à façonner la législation autour des questions décrites ci-dessus. Après tout, ce sont nos données qui sont utilisées et nos moyens de subsistance qui en sont affectés.

Mais la mise à disposition de ce type d’informations ne suffit pas à elle seule. Les entreprises qui développent des modèles d’IA doivent également permettre des audits externes de leurs systèmes et être tenues responsables de traiter les risques et les lacunes s’ils sont identifiés. Par exemple, bon nombre des modèles d’IA les plus récents tels que ChatGPT, Bard et GPT-4 sont également les plus restrictifs, disponibles uniquement via une API ou un accès sécurisé entièrement contrôlé par les entreprises qui les ont créés. Cela en fait essentiellement des boîtes noires dont la sortie peut changer d’un jour à l’autre ou produire des résultats différents pour différentes personnes. Bien qu’il y ait eu une équipe rouge d’outils approuvés par l’entreprise comme GPT-4, il n’y a aucun moyen pour les chercheurs d’accéder aux systèmes sous-jacents, ce qui rend l’analyse scientifique et les audits impossibles. Cela va à l’encontre des approches d’audit des systèmes d’IA qui ont été proposées par des universitaires comme Deborah Raji, qui a appelé à une vue d’ensemble à différentes étapes du processus de développement du modèle afin que les comportements à risque et les dommages soient détectés avant que les modèles ne soient déployés dans la société.

Une autre étape cruciale vers la sécurité consiste à repenser collectivement la façon dont nous créons et utilisons l’IA. Les développeurs et les chercheurs en IA peuvent commencer à établir des normes et des lignes directrices pour la pratique de l’IA en écoutant les nombreuses personnes qui plaident pour une IA plus éthique depuis des années. Cela inclut des chercheurs comme Timnit Gebru, qui a proposé un mouvement “IA lente”, et Ruha Benjamin, qui a souligné l’importance de créer des principes directeurs pour une IA éthique lors de sa présentation lors d’une récente conférence sur l’IA. Des initiatives communautaires, comme le code d’éthique mis en œuvre par la conférence NeurIPS (un effort que je préside), font également partie de ce mouvement et visent à établir des lignes directrices sur ce qui est acceptable en termes de recherche sur l’IA et comment considérer son impacts plus larges sur la société.

rewrite this content and keep HTML tags

La semaine dernière, le Future of Life Institute a publié une lettre ouverte proposant un moratoire de six mois sur la « dangereuse » course à l’IA. Il a depuis été signé par plus de 3 000 personnes, dont certains membres influents de la communauté de l’IA. Mais s’il est bon que les risques des systèmes d’IA gagnent en visibilité au sein de la communauté et de la société, les problèmes décrits et les actions proposées dans la lettre sont irréalistes et inutiles.

L’appel à une pause dans le travail sur l’IA est non seulement vague, mais également irréalisable. Alors que la formation de grands modèles linguistiques par des entreprises à but lucratif attire le plus l’attention, c’est loin d’être le seul type de travail d’IA en cours. En fait, la recherche et la pratique de l’IA se déroulent dans les entreprises, dans les universités et dans les compétitions Kaggle partout dans le monde sur une multitude de sujets allant de l’efficacité à la sécurité. Cela signifie qu’il n’y a pas de bouton magique sur lequel n’importe qui peut appuyer pour arrêter la recherche « dangereuse » sur l’IA tout en n’autorisant que le type « sûr ». Et les risques de l’IA qui sont nommés dans la lettre sont tous hypothétiques, basés sur un état d’esprit longtermiste qui tend à ignorer les vrais problèmes comme la discrimination algorithmique et la police prédictive, qui nuisent actuellement aux individus, au profit de risques existentiels potentiels pour l’humanité.

Au lieu de nous concentrer sur les façons dont l’IA pourrait échouer à l’avenir, nous devrions nous concentrer sur une définition claire de ce qui constitue un succès de l’IA dans le présent. Cette voie est éminemment claire : au lieu d’arrêter la recherche, nous devons améliorer la transparence et la responsabilité tout en élaborant des lignes directrices concernant le déploiement des systèmes d’IA. Des initiatives politiques, de recherche et dirigées par les utilisateurs dans ce sens existent depuis des décennies dans différents secteurs, et nous avons déjà des propositions concrètes avec lesquelles travailler pour faire face aux risques actuels de l’IA.

Les autorités de régulation du monde entier rédigent déjà des lois et des protocoles pour gérer l’utilisation et le développement des nouvelles technologies d’IA. L’Algorithmic Accountability Act du Sénat américain et des initiatives similaires dans l’UE et au Canada font partie de celles qui aident à définir quelles données peuvent et ne peuvent pas être utilisées pour former des systèmes d’IA, à résoudre les problèmes de droit d’auteur et de licence, et à peser les considérations particulières nécessaires à l’utilisation de l’IA. dans les milieux à haut risque. Un élément essentiel de ces règles est la transparence : obliger les créateurs de systèmes d’IA à fournir plus d’informations sur les détails techniques tels que la provenance des données de formation, le code utilisé pour former les modèles et la manière dont des fonctionnalités telles que les filtres de sécurité sont mises en œuvre. Les développeurs de modèles d’IA et leurs utilisateurs en aval peuvent soutenir ces efforts en s’engageant avec leurs représentants et en aidant à façonner la législation autour des questions décrites ci-dessus. Après tout, ce sont nos données qui sont utilisées et nos moyens de subsistance qui en sont affectés.

Mais la mise à disposition de ce type d’informations ne suffit pas à elle seule. Les entreprises qui développent des modèles d’IA doivent également permettre des audits externes de leurs systèmes et être tenues responsables de traiter les risques et les lacunes s’ils sont identifiés. Par exemple, bon nombre des modèles d’IA les plus récents tels que ChatGPT, Bard et GPT-4 sont également les plus restrictifs, disponibles uniquement via une API ou un accès sécurisé entièrement contrôlé par les entreprises qui les ont créés. Cela en fait essentiellement des boîtes noires dont la sortie peut changer d’un jour à l’autre ou produire des résultats différents pour différentes personnes. Bien qu’il y ait eu une équipe rouge d’outils approuvés par l’entreprise comme GPT-4, il n’y a aucun moyen pour les chercheurs d’accéder aux systèmes sous-jacents, ce qui rend l’analyse scientifique et les audits impossibles. Cela va à l’encontre des approches d’audit des systèmes d’IA qui ont été proposées par des universitaires comme Deborah Raji, qui a appelé à une vue d’ensemble à différentes étapes du processus de développement du modèle afin que les comportements à risque et les dommages soient détectés avant que les modèles ne soient déployés dans la société.

Une autre étape cruciale vers la sécurité consiste à repenser collectivement la façon dont nous créons et utilisons l’IA. Les développeurs et les chercheurs en IA peuvent commencer à établir des normes et des lignes directrices pour la pratique de l’IA en écoutant les nombreuses personnes qui plaident pour une IA plus éthique depuis des années. Cela inclut des chercheurs comme Timnit Gebru, qui a proposé un mouvement “IA lente”, et Ruha Benjamin, qui a souligné l’importance de créer des principes directeurs pour une IA éthique lors de sa présentation lors d’une récente conférence sur l’IA. Des initiatives communautaires, comme le code d’éthique mis en œuvre par la conférence NeurIPS (un effort que je préside), font également partie de ce mouvement et visent à établir des lignes directrices sur ce qui est acceptable en termes de recherche sur l’IA et comment considérer son impacts plus larges sur la société.

Laisser un commentaire