Tout le monde veut réglementer l’IA. Personne ne peut convenir comment

Je suis d’accord avec chacun de ces points, qui peuvent potentiellement nous guider sur les limites réelles que nous pourrions envisager pour atténuer le côté obscur de l’IA. Des choses comme partager ce qui se passe dans la formation de grands modèles de langage comme ceux derrière ChatGPT, et autoriser les refus pour ceux qui ne veulent pas que leur contenu fasse partie de ce que les LLM présentent aux utilisateurs. Règles contre les préjugés intégrés. Des lois antitrust qui empêchent quelques entreprises géantes de créer une cabale d’intelligence artificielle qui homogénéise (et monétise) à peu près toutes les informations que nous recevons. Et la protection de vos informations personnelles telles qu’elles sont utilisées par ces produits d’intelligence artificielle qui savent tout.

Mais la lecture de cette liste met également en évidence la difficulté de transformer des suggestions édifiantes en une véritable loi contraignante. Lorsque vous examinez attentivement les points du plan de la Maison Blanche, il est clair qu’ils ne s’appliquent pas seulement à l’IA, mais à peu près à tout dans la technologie. Chacun semble incarner un droit d’usage bafoué depuis toujours. Les grandes technologies n’attendaient pas que l’IA générative développe des algorithmes inéquitables, des systèmes opaques, des pratiques abusives en matière de données et un manque d’opt-out. Ce sont des enjeux de table, mon pote, et le fait que ces problèmes soient évoqués dans une discussion sur une nouvelle technologie ne fait que souligner l’incapacité à protéger les citoyens contre les effets néfastes de notre technologie actuelle.

Au cours de cette audience du Sénat où Altman a pris la parole, sénateur après sénateur a chanté le même refrain : Nous avons tout gâché lorsqu’il s’agissait de réglementer les médias sociaux, alors ne nous trompons pas avec l’IA. Mais il n’y a pas de délai de prescription pour faire des lois pour lutter contre les abus antérieurs. La dernière fois que j’ai regardé, des milliards de personnes, y compris à peu près toutes les personnes aux États-Unis qui ont les moyens de piquer l’écran d’un smartphone, sont toujours sur les réseaux sociaux, victimes d’intimidation, compromises dans leur vie privée et exposées à des horreurs. Rien n’empêche le Congrès de durcir le ton envers ces entreprises et, surtout, d’adopter une législation sur la protection de la vie privée.

Le fait que le Congrès n’ait pas fait cela jette un doute sérieux sur les perspectives d’un projet de loi sur l’IA. Pas étonnant que certains régulateurs, notamment la présidente de la FTC, Lina Khan, n’attendent pas de nouvelles lois. Elle affirme que la loi actuelle donne à son agence beaucoup de compétence pour s’attaquer aux problèmes de partialité, de comportement anticoncurrentiel et d’atteinte à la vie privée que présentent les nouveaux produits d’IA.

Pendant ce temps, la difficulté de proposer de nouvelles lois – et l’énormité du travail qui reste à faire – a été soulignée cette semaine lorsque la Maison Blanche a publié une mise à jour sur cette déclaration des droits de l’IA. Il a expliqué que l’administration Biden transpirait énormément en proposant une stratégie nationale d’IA. Mais apparemment, les « priorités nationales » de cette stratégie ne sont toujours pas définies.

Désormais, la Maison Blanche souhaite que les entreprises technologiques et les autres parties prenantes de l’IA, ainsi que le grand public, soumettent des réponses à 29 questions sur les avantages et les risques de l’IA. Tout comme le sous-comité sénatorial a demandé à Altman et à ses collègues panélistes de suggérer une voie à suivre, l’administration demande aux entreprises et au public des idées. Dans sa demande d’informations, la Maison Blanche promet de “considérer chaque commentaire, qu’il contienne un récit personnel, des expériences avec des systèmes d’IA, ou des documents techniques juridiques, de recherche, politiques ou scientifiques, ou tout autre contenu”. (J’ai poussé un soupir de soulagement en voyant que les commentaires des grands modèles de langage ne sont pas sollicités, même si je suis prêt à parier que GPT-4 sera un gros contributeur malgré cette omission.)

rewrite this content and keep HTML tags

Je suis d’accord avec chacun de ces points, qui peuvent potentiellement nous guider sur les limites réelles que nous pourrions envisager pour atténuer le côté obscur de l’IA. Des choses comme partager ce qui se passe dans la formation de grands modèles de langage comme ceux derrière ChatGPT, et autoriser les refus pour ceux qui ne veulent pas que leur contenu fasse partie de ce que les LLM présentent aux utilisateurs. Règles contre les préjugés intégrés. Des lois antitrust qui empêchent quelques entreprises géantes de créer une cabale d’intelligence artificielle qui homogénéise (et monétise) à peu près toutes les informations que nous recevons. Et la protection de vos informations personnelles telles qu’elles sont utilisées par ces produits d’intelligence artificielle qui savent tout.

Mais la lecture de cette liste met également en évidence la difficulté de transformer des suggestions édifiantes en une véritable loi contraignante. Lorsque vous examinez attentivement les points du plan de la Maison Blanche, il est clair qu’ils ne s’appliquent pas seulement à l’IA, mais à peu près à tout dans la technologie. Chacun semble incarner un droit d’usage bafoué depuis toujours. Les grandes technologies n’attendaient pas que l’IA générative développe des algorithmes inéquitables, des systèmes opaques, des pratiques abusives en matière de données et un manque d’opt-out. Ce sont des enjeux de table, mon pote, et le fait que ces problèmes soient évoqués dans une discussion sur une nouvelle technologie ne fait que souligner l’incapacité à protéger les citoyens contre les effets néfastes de notre technologie actuelle.

Au cours de cette audience du Sénat où Altman a pris la parole, sénateur après sénateur a chanté le même refrain : Nous avons tout gâché lorsqu’il s’agissait de réglementer les médias sociaux, alors ne nous trompons pas avec l’IA. Mais il n’y a pas de délai de prescription pour faire des lois pour lutter contre les abus antérieurs. La dernière fois que j’ai regardé, des milliards de personnes, y compris à peu près toutes les personnes aux États-Unis qui ont les moyens de piquer l’écran d’un smartphone, sont toujours sur les réseaux sociaux, victimes d’intimidation, compromises dans leur vie privée et exposées à des horreurs. Rien n’empêche le Congrès de durcir le ton envers ces entreprises et, surtout, d’adopter une législation sur la protection de la vie privée.

Le fait que le Congrès n’ait pas fait cela jette un doute sérieux sur les perspectives d’un projet de loi sur l’IA. Pas étonnant que certains régulateurs, notamment la présidente de la FTC, Lina Khan, n’attendent pas de nouvelles lois. Elle affirme que la loi actuelle donne à son agence beaucoup de compétence pour s’attaquer aux problèmes de partialité, de comportement anticoncurrentiel et d’atteinte à la vie privée que présentent les nouveaux produits d’IA.

Pendant ce temps, la difficulté de proposer de nouvelles lois – et l’énormité du travail qui reste à faire – a été soulignée cette semaine lorsque la Maison Blanche a publié une mise à jour sur cette déclaration des droits de l’IA. Il a expliqué que l’administration Biden transpirait énormément en proposant une stratégie nationale d’IA. Mais apparemment, les « priorités nationales » de cette stratégie ne sont toujours pas définies.

Désormais, la Maison Blanche souhaite que les entreprises technologiques et les autres parties prenantes de l’IA, ainsi que le grand public, soumettent des réponses à 29 questions sur les avantages et les risques de l’IA. Tout comme le sous-comité sénatorial a demandé à Altman et à ses collègues panélistes de suggérer une voie à suivre, l’administration demande aux entreprises et au public des idées. Dans sa demande d’informations, la Maison Blanche promet de “considérer chaque commentaire, qu’il contienne un récit personnel, des expériences avec des systèmes d’IA, ou des documents techniques juridiques, de recherche, politiques ou scientifiques, ou tout autre contenu”. (J’ai poussé un soupir de soulagement en voyant que les commentaires des grands modèles de langage ne sont pas sollicités, même si je suis prêt à parier que GPT-4 sera un gros contributeur malgré cette omission.)

Laisser un commentaire