La tournée mondiale de Sam Altman espère rassurer les doomers de l’IA | FILAIRE

L’effervescence autour l’arrivée à Londres du PDG d’OpenAI, Sam Altman, était palpable depuis la file d’attente qui serpentait autour du bâtiment de l’University College London avant son discours de mercredi après-midi. Des centaines d’étudiants enthousiastes et d’admirateurs du chatbot ChatGPT d’OpenAI étaient venus ici pour regarder l’étape britannique de la tournée mondiale d’Altman, où il prévoit de se rendre dans environ 17 villes. Cette semaine, il s’est déjà rendu à Paris et à Varsovie. La semaine dernière, il était à Lagos. Ensuite, il est à Munich.

Mais la file d’attente a été enregistrée par un petit groupe de personnes qui avaient voyagé pour exprimer bruyamment leur inquiétude que l’IA avance trop vite. “Sam Altman est prêt à parier l’humanité sur l’espoir d’une sorte d’utopie transhumaniste”, a crié un manifestant dans un mégaphone. Ben, un autre manifestant, qui a refusé de partager son nom de famille au cas où cela affecterait ses perspectives d’emploi, était également inquiet. “Nous sommes particulièrement préoccupés par le développement de futurs modèles d’IA qui pourraient être existentiellement dangereux pour la race humaine.”

S’adressant à un auditorium bondé de près de 1 000 personnes, Altman semblait sans phase. Vêtu d’un costume bleu vif avec des chaussettes à motifs verts, il a parlé dans des réponses coupées, toujours au point. Et son ton était optimiste, alors qu’il expliquait comment il pensait que l’IA pourrait revigorer l’économie. “Je suis ravi que cette technologie puisse ramener les gains de productivité manquants des dernières décennies”, a-t-il déclaré. Mais, bien qu’il n’ait pas mentionné les manifestations à l’extérieur, il a admis ses inquiétudes quant à la manière dont l’IA générative pourrait être utilisée pour répandre la désinformation.

« Les humains sont déjà doués pour faire de la désinformation, et peut-être que les modèles GPT facilitent la tâche. Mais ce n’est pas ce dont j’ai peur », a-t-il déclaré. “Je pense qu’une chose sera différente [with AI] est la capacité interactive, personnalisée et persuasive de ces systèmes.

Bien qu’OpenAI envisage de créer des moyens pour que ChatGPT refuse de diffuser de la désinformation et prévoit de créer des systèmes de surveillance, a-t-il déclaré, il sera difficile d’atténuer ces impacts lorsque l’entreprise publiera des modèles open source au public, comme elle l’a annoncé il y a plusieurs semaines. il y a ce qu’il a l’intention de faire. “Les techniques OpenAI de ce que nous pouvons faire sur nos propres systèmes ne fonctionneront pas de la même manière.”

Malgré cet avertissement, Altman a déclaré qu’il était important que l’intelligence artificielle ne soit pas trop réglementée alors que la technologie est encore en train d’émerger. Le Parlement européen débat actuellement d’une législation appelée loi sur l’IA, de nouvelles règles qui façonneraient la manière dont les entreprises peuvent développer de tels modèles et pourraient créer un bureau de l’IA pour superviser la conformité. Le Royaume-Uni a cependant décidé de répartir la responsabilité de l’IA entre différents régulateurs, y compris ceux qui couvrent les droits de l’homme, la santé et la sécurité et la concurrence, au lieu de créer un organe de surveillance dédié.

“Je pense qu’il est important de trouver le juste équilibre ici”, a déclaré Altman, faisant allusion aux débats en cours parmi les décideurs politiques du monde entier sur la manière d’élaborer des règles pour l’IA qui protègent les sociétés des dommages potentiels sans freiner l’innovation. “La bonne réponse est probablement quelque chose entre l’approche traditionnelle européenne-britannique et l’approche traditionnelle américaine”, a déclaré Altman. “J’espère que nous pourrons tous faire les choses ensemble cette fois.”

rewrite this content and keep HTML tags

L’effervescence autour l’arrivée à Londres du PDG d’OpenAI, Sam Altman, était palpable depuis la file d’attente qui serpentait autour du bâtiment de l’University College London avant son discours de mercredi après-midi. Des centaines d’étudiants enthousiastes et d’admirateurs du chatbot ChatGPT d’OpenAI étaient venus ici pour regarder l’étape britannique de la tournée mondiale d’Altman, où il prévoit de se rendre dans environ 17 villes. Cette semaine, il s’est déjà rendu à Paris et à Varsovie. La semaine dernière, il était à Lagos. Ensuite, il est à Munich.

Mais la file d’attente a été enregistrée par un petit groupe de personnes qui avaient voyagé pour exprimer bruyamment leur inquiétude que l’IA avance trop vite. “Sam Altman est prêt à parier l’humanité sur l’espoir d’une sorte d’utopie transhumaniste”, a crié un manifestant dans un mégaphone. Ben, un autre manifestant, qui a refusé de partager son nom de famille au cas où cela affecterait ses perspectives d’emploi, était également inquiet. “Nous sommes particulièrement préoccupés par le développement de futurs modèles d’IA qui pourraient être existentiellement dangereux pour la race humaine.”

S’adressant à un auditorium bondé de près de 1 000 personnes, Altman semblait sans phase. Vêtu d’un costume bleu vif avec des chaussettes à motifs verts, il a parlé dans des réponses coupées, toujours au point. Et son ton était optimiste, alors qu’il expliquait comment il pensait que l’IA pourrait revigorer l’économie. “Je suis ravi que cette technologie puisse ramener les gains de productivité manquants des dernières décennies”, a-t-il déclaré. Mais, bien qu’il n’ait pas mentionné les manifestations à l’extérieur, il a admis ses inquiétudes quant à la manière dont l’IA générative pourrait être utilisée pour répandre la désinformation.

« Les humains sont déjà doués pour faire de la désinformation, et peut-être que les modèles GPT facilitent la tâche. Mais ce n’est pas ce dont j’ai peur », a-t-il déclaré. “Je pense qu’une chose sera différente [with AI] est la capacité interactive, personnalisée et persuasive de ces systèmes.

Bien qu’OpenAI envisage de créer des moyens pour que ChatGPT refuse de diffuser de la désinformation et prévoit de créer des systèmes de surveillance, a-t-il déclaré, il sera difficile d’atténuer ces impacts lorsque l’entreprise publiera des modèles open source au public, comme elle l’a annoncé il y a plusieurs semaines. il y a ce qu’il a l’intention de faire. “Les techniques OpenAI de ce que nous pouvons faire sur nos propres systèmes ne fonctionneront pas de la même manière.”

Malgré cet avertissement, Altman a déclaré qu’il était important que l’intelligence artificielle ne soit pas trop réglementée alors que la technologie est encore en train d’émerger. Le Parlement européen débat actuellement d’une législation appelée loi sur l’IA, de nouvelles règles qui façonneraient la manière dont les entreprises peuvent développer de tels modèles et pourraient créer un bureau de l’IA pour superviser la conformité. Le Royaume-Uni a cependant décidé de répartir la responsabilité de l’IA entre différents régulateurs, y compris ceux qui couvrent les droits de l’homme, la santé et la sécurité et la concurrence, au lieu de créer un organe de surveillance dédié.

“Je pense qu’il est important de trouver le juste équilibre ici”, a déclaré Altman, faisant allusion aux débats en cours parmi les décideurs politiques du monde entier sur la manière d’élaborer des règles pour l’IA qui protègent les sociétés des dommages potentiels sans freiner l’innovation. “La bonne réponse est probablement quelque chose entre l’approche traditionnelle européenne-britannique et l’approche traditionnelle américaine”, a déclaré Altman. “J’espère que nous pourrons tous faire les choses ensemble cette fois.”

Laisser un commentaire