L’ancien PDG de Google, Eric Schmidt, déclare

L’ancien PDG de Google, Eric Schmidt, a déclaré qu’il voyait des “risques existentiels” avec l’intelligence artificielle à mesure que la technologie devenait plus avancée.

Lucas Schulze | Dossier sportif | Getty Images

L’intelligence artificielle pourrait poser des “risques existentiels” et les gouvernements doivent savoir comment s’assurer que la technologie n’est pas “abusée par des personnes malveillantes”, a averti mercredi l’ancien PDG de Google, Eric Schmidt.

L’avenir de l’IA a été propulsé au centre des conversations entre les technologues et les décideurs politiques aux prises avec ce à quoi ressemblera la technologie à l’avenir et comment elle devrait être réglementée.

ChatGPT, le chatbot qui est devenu viral l’année dernière, a sans doute suscité une plus grande prise de conscience de l’intelligence artificielle alors que de grandes entreprises du monde entier cherchent à lancer des produits concurrents et à parler de leurs capacités d’IA.

S’exprimant lors du Sommet du Conseil des PDG du Wall Street Journal à Londres, Schmidt a déclaré que son inquiétude était que l’IA est un “risque existentiel”.

“Et le risque existentiel est défini comme beaucoup, beaucoup, beaucoup, beaucoup de personnes blessées ou tuées”, a déclaré Schmidt.

“Il existe des scénarios, pas aujourd’hui, mais assez bientôt, où ces systèmes seront capables de trouver des exploits zero-day dans le cyber ou découvrir de nouveaux types de biologie. Maintenant, c’est de la fiction aujourd’hui, mais son raisonnement est susceptible d’être vrai. Et lorsque cela se produit, nous voulons être prêts à savoir comment nous assurer que ces choses ne sont pas utilisées à mauvais escient par des personnes malveillantes.”

Les exploits zero-day sont des vulnérabilités de sécurité trouvées par les pirates dans les logiciels et les systèmes.

Schmidt, qui a été PDG de Google de 2001 à 2011, n’avait pas une vision claire de la manière dont l’IA devrait être réglementée, mais a déclaré qu’il s’agissait d’une “question plus large pour la société”. Cependant, il a déclaré qu’il était peu probable qu’une nouvelle agence de réglementation soit créée aux États-Unis et dédiée à la réglementation de l’IA.

Schmidt n’est pas la première grande figure technologique à mettre en garde contre les risques de l’IA.

Sam Altman, le PDG d’Open AI qui a développé ChatGPT, a admis en mars qu’il avait “un peu peur” de l’intelligence artificielle. Il a dit qu’il s’inquiétait des gouvernements autoritaires développant la technologie,

Tesla Le PDG Elon Musk a déclaré dans le passé qu’il pensait que l’IA représentait l’un des “plus grands risques” pour la civilisation.

Même Google actuel et Alphabet Le PDG Sundar Pichai, qui a récemment supervisé le lancement par la société de son propre chatbot appelé Bard AI, a déclaré que la technologie “aura un impact sur chaque produit dans chaque entreprise”, ajoutant que la société doit se préparer aux changements.

Schmidt faisait partie de la National Security Commission on AI aux États-Unis qui, en 2019, a commencé un examen de la technologie, y compris un cadre réglementaire potentiel. La commission a publié son examen en 2021, avertissant que les États-Unis étaient sous-préparés à l’ère de l’IA.

L'IA pourrait-elle prendre votre travail ?

rewrite this content and keep HTML tags

L’ancien PDG de Google, Eric Schmidt, a déclaré qu’il voyait des “risques existentiels” avec l’intelligence artificielle à mesure que la technologie devenait plus avancée.

Lucas Schulze | Dossier sportif | Getty Images

L’intelligence artificielle pourrait poser des “risques existentiels” et les gouvernements doivent savoir comment s’assurer que la technologie n’est pas “abusée par des personnes malveillantes”, a averti mercredi l’ancien PDG de Google, Eric Schmidt.

L’avenir de l’IA a été propulsé au centre des conversations entre les technologues et les décideurs politiques aux prises avec ce à quoi ressemblera la technologie à l’avenir et comment elle devrait être réglementée.

ChatGPT, le chatbot qui est devenu viral l’année dernière, a sans doute suscité une plus grande prise de conscience de l’intelligence artificielle alors que de grandes entreprises du monde entier cherchent à lancer des produits concurrents et à parler de leurs capacités d’IA.

S’exprimant lors du Sommet du Conseil des PDG du Wall Street Journal à Londres, Schmidt a déclaré que son inquiétude était que l’IA est un “risque existentiel”.

“Et le risque existentiel est défini comme beaucoup, beaucoup, beaucoup, beaucoup de personnes blessées ou tuées”, a déclaré Schmidt.

“Il existe des scénarios, pas aujourd’hui, mais assez bientôt, où ces systèmes seront capables de trouver des exploits zero-day dans le cyber ou découvrir de nouveaux types de biologie. Maintenant, c’est de la fiction aujourd’hui, mais son raisonnement est susceptible d’être vrai. Et lorsque cela se produit, nous voulons être prêts à savoir comment nous assurer que ces choses ne sont pas utilisées à mauvais escient par des personnes malveillantes.”

Les exploits zero-day sont des vulnérabilités de sécurité trouvées par les pirates dans les logiciels et les systèmes.

Schmidt, qui a été PDG de Google de 2001 à 2011, n’avait pas une vision claire de la manière dont l’IA devrait être réglementée, mais a déclaré qu’il s’agissait d’une “question plus large pour la société”. Cependant, il a déclaré qu’il était peu probable qu’une nouvelle agence de réglementation soit créée aux États-Unis et dédiée à la réglementation de l’IA.

Schmidt n’est pas la première grande figure technologique à mettre en garde contre les risques de l’IA.

Sam Altman, le PDG d’Open AI qui a développé ChatGPT, a admis en mars qu’il avait “un peu peur” de l’intelligence artificielle. Il a dit qu’il s’inquiétait des gouvernements autoritaires développant la technologie,

Tesla Le PDG Elon Musk a déclaré dans le passé qu’il pensait que l’IA représentait l’un des “plus grands risques” pour la civilisation.

Même Google actuel et Alphabet Le PDG Sundar Pichai, qui a récemment supervisé le lancement par la société de son propre chatbot appelé Bard AI, a déclaré que la technologie “aura un impact sur chaque produit dans chaque entreprise”, ajoutant que la société doit se préparer aux changements.

Schmidt faisait partie de la National Security Commission on AI aux États-Unis qui, en 2019, a commencé un examen de la technologie, y compris un cadre réglementaire potentiel. La commission a publié son examen en 2021, avertissant que les États-Unis étaient sous-préparés à l’ère de l’IA.

L'IA pourrait-elle prendre votre travail ?

Laisser un commentaire