L’IA et vous : les grandes technologies affirment qu’une réglementation de l’IA est nécessaire, Microsoft assume les risques liés aux droits d’auteur

Dans une démarche qui ne devrait surprendre personne, les dirigeants technologiques qui se sont réunis cette semaine lors de réunions à huis clos à Washington, DC, pour discuter de la réglementation de l’IA avec les législateurs et les groupes industriels, ont convenu de la nécessité de lois régissant la technologie de l’IA générative. Mais ils ne parvenaient pas à s’entendre sur la manière d’aborder ces réglementations.

“Le sénateur démocrate Chuck Schumer, qui a qualifié la réunion d'”historique”, a déclaré que les participants soutenaient vaguement l’idée de réglementations, mais qu’il y avait peu de consensus sur ce à quoi ressembleraient de telles règles”, a rapporté le Guardian. “Schumer a déclaré qu’il avait demandé à tout le monde dans la salle – y compris plus de 60 sénateurs, près de deux douzaines de dirigeants du secteur technologique, de défenseurs et de sceptiques – si le gouvernement devait jouer un rôle dans la surveillance de l’intelligence artificielle, et que” chaque personne a levé la main, même même s’ils avaient des points de vue divergents.

Je suppose que « points de vue divers » est une nouvelle façon de dire « le diable est dans les détails ».

Parmi les PDG et dirigeants technologiques présents à ce que Schumer a appelé le AI Insight Forum figuraient Sam Altman d’OpenAI, Sundar Pichai de Google, Mark Zuckerberg de Meta, le co-fondateur de Microsoft Bill Gates et le propriétaire de X/Twitter Elon Musk. Parmi les autres personnes présentes dans la salle figuraient Charles Rivkin, PDG de la Motion Picture Association ; l’ancien chef de Google Eric Schmidt ; Tristan Harris, cofondateur du Center for Humane Technology ; Deborah Raji, chercheuse à l’Université de Californie à Berkeley ; Elizabeth Shuler, présidente de l’AFL-CIO ; Randi Weingarten, présidente de la Fédération américaine des enseignants ; Janet Murguía, présidente du groupe latino-américain de défense des droits civiques UnidosUS ; et Maya Wiley, présidente et directrice générale de la Leadership Conference on Civil and Human Rights, a déclaré le Guardian.

“Réglementez les risques liés à l’IA, pas les algorithmes d’IA”, a déclaré le PDG d’IBM, Arvind Krishna, dans un communiqué. “Toutes les utilisations de l’IA ne comportent pas le même niveau de risque. Nous devrions réglementer les utilisations finales – quand, où et comment les produits d’IA sont utilisés. Cela contribue à promouvoir à la fois l’innovation et la responsabilité.”

En plus de discuter de la manière dont les élections américaines de 2024 pourraient être protégées contre la désinformation alimentée par l’IA, le groupe a discuté avec 60 sénateurs des deux partis de l’opportunité d’une agence indépendante pour l’IA et de « comment les entreprises pourraient être plus transparentes et comment les États-Unis pourraient garder une longueur d’avance sur la Chine et d’autres pays”, a rapporté le Guardian.

L’AFL-CIO a également soulevé la question des droits des travailleurs en raison de l’impact généralisé que l’IA devrait avoir sur l’avenir de tous types d’emplois. Le chef de l’AFL-CIO, Shuler, dans une déclaration à l’issue du rassemblement, a déclaré que les travailleurs sont nécessaires pour aider à « exploiter l’intelligence artificielle pour créer des salaires plus élevés, de bons emplois syndiqués et un avenir meilleur pour ce pays. Étoile polaire du Congrès. Les travailleurs ne sont pas les victimes du changement technologique – nous sommes la solution.

Pendant ce temps, d’autres ont appelé à la réunion pour savoir qui n’était pas là et ont noté que les opinions des leaders technologiques qui devraient bénéficier de la technologie genAI devraient être mises en balance avec d’autres points de vue.

“La moitié des personnes présentes dans la salle représentent des industries qui profiteront d’une réglementation laxiste en matière d’IA”, a déclaré au Guardian Caitlin Seeley George, directrice des campagnes et directrice générale du groupe de défense des droits numériques Fight for the Future. “Les entreprises technologiques exploitent le jeu de l’IA depuis assez longtemps et nous savons où cela nous mène.”

Dans le même temps, la Maison Blanche a également déclaré cette semaine qu’un total de 15 entreprises technologiques notables avaient désormais signé un engagement volontaire pour garantir la sécurité des systèmes d’IA et la transparence de leur fonctionnement. En plus des sept entreprises qui ont initialement signé en juillet – OpenAI, Microsoft, Meta, Google, Amazon, Anthropic et Inflection AI – l’administration Biden a déclaré que huit autres entreprises avaient adhéré. Il s’agit d’Adobe, Salesforce, IBM, Nvidia, Palantir, Stability AI, Cohere et Scale AI.

“Le président a été clair : exploitez les avantages de l’IA, gérez les risques et agissez vite, très vite”, a déclaré Jeff Zients, chef de cabinet de la Maison Blanche, dans un communiqué, selon le Washington Post. “Et c’est exactement ce que nous faisons en nous associant avec le secteur privé et en tirant tous les leviers dont nous disposons pour y parvenir.”

Mais cela reste un engagement volontaire et l’opinion est qu’il “ne va pas aussi loin que les dispositions d’une série de projets de loi réglementaires soumis par des membres du Congrès ces dernières semaines – et pourrait être utilisé comme justification pour ralentir plus fort”. -législation avant-gardiste”, a rapporté Axios en juillet.

Voici les autres réalisations en IA qui méritent votre attention.

Google lance le Digital Futures Project pour étudier l’IA

Google a annoncé cette semaine le Digital Futures Project, « une initiative qui vise à rassembler diverses voix pour promouvoir les efforts visant à comprendre et à relever les opportunités et les défis de l’intelligence artificielle (IA). Grâce à ce projet, nous soutiendrons les chercheurs, organiserons réunions et favoriser le débat sur les solutions de politique publique pour encourager le développement responsable de l’IA.

La société a également annoncé qu’elle accorderait 20 millions de dollars de subventions aux « principaux groupes de réflexion et institutions universitaires du monde entier pour faciliter le dialogue et l’enquête sur cette technologie importante ». (Cela semble être un chiffre important jusqu’à ce que vous vous souveniez qu’Alphabet/Google a déclaré un bénéfice de 18,4 milliards de dollars au cours du seul deuxième trimestre 2023.)

Google affirme que le premier groupe de subventions a été accordé à l’Aspen Institute, à la Brookings Institution, au Carnegie Endowment for International Peace, au Center for a New American Security, au Center for Strategic and International Studies, à l’Institute for Security and Technology et à la Leadership Conference Education. Fund, MIT Work of the Future, le R Street Institute et SeedAI.

Les subventions mises à part, maîtriser l’IA est un très gros problème pour Google, qui se bat maintenant pour la domination du marché de l’IA contre ChatGPT d’OpenAI et Bing propulsé par ChatGPT de Microsoft. Le PDG d’Alphabet, Sundar Pichai, a déclaré à ses 180 000 employés dans une lettre du 5 septembre célébrant le 25e anniversaire de Google que « l’IA sera le plus grand changement technologique que nous verrons dans notre vie. plus grand qu’Internet lui-même. Il s’agit d’un recâblage fondamental de la technologie et d’un incroyable accélérateur de l’ingéniosité humaine.

Lorsque Wired lui a demandé s’il était trop prudent avec les investissements de Google dans l’IA et s’il aurait dû publier Google Bard avant qu’OpenAI ne publie ChatGPT en octobre 2022, Pichai a essentiellement déclaré qu’il jouait le long jeu. “Le fait est que nous pourrions faire plus une fois que les gens auront vu comment cela fonctionne. Cela n’aura vraiment pas d’importance dans les cinq à dix prochaines années.”

Adobe ajoute l’IA à son ensemble d’outils de création, y compris Photoshop

Firefly, la famille d’outils d’IA générative d’Adobe, n’est plus en phase de test bêta. Cela signifie que “les créatifs ont désormais le feu vert pour l’utiliser pour créer des images dans Photoshop, pour essayer des effets de texte farfelus sur le site Web Firefly, pour recolorer des images dans Illustrator et pour embellir des affiches et des vidéos réalisées avec Adobe Express”, rapporte Testeur Joe. Stephen Shankland.

Adobe inclura des crédits pour utiliser Firefly en montants variables en fonction du plan d’abonnement Creative Cloud que vous payez. Shankland a indiqué que si vous disposez de l’abonnement complet à Creative Cloud, qui vous donne accès à tous les logiciels Adobe pour 55 $ par mois, vous pouvez produire jusqu’à 1 000 créations d’IA par mois. Si vous disposez d’un abonnement à une seule application pour utiliser Photoshop ou Premiere Pro à 21 $ par mois, cela représente 500 créations d’IA par mois. Les abonnements à Adobe Express, une application mobile polyvalente coûtant 10 $ par mois, incluent 250 utilisations de Firefly.

Mais attention : Adobe augmentera ses prix d’abonnement d’environ 9 à 10 % en novembre, citant l’ajout de Firefly et d’autres fonctionnalités d’IA, ainsi que de nouveaux outils et applications. Alors oui, tout ce plaisir de l’IA a un prix.

Microsoft propose d’aider les développeurs d’IA à protéger les droits d’auteur

Les problèmes de droit d’auteur et de propriété intellectuelle reviennent souvent lorsqu’on parle d’IA, car la loi évolue toujours autour de la question de savoir qui possède les résultats générés par l’IA et si les chatbots IA ont supprimé du contenu protégé par le droit d’auteur sur Internet sans l’autorisation des propriétaires.

Cela a conduit Microsoft à déclarer que les développeurs qui paient pour utiliser ses services commerciaux d’IA « Copilot » pour créer des produits d’IA se verront offrir une protection contre les poursuites judiciaires, l’entreprise les défendant devant les tribunaux et payant des règlements. Microsoft a déclaré qu’il offre cette protection parce que c’est l’entreprise, et non ses clients, qui doit trouver la bonne façon de répondre aux préoccupations des propriétaires de droits d’auteur et de propriété intellectuelle à mesure que le monde de l’IA évolue. Microsoft a également déclaré qu’il “incorporait des filtres et d’autres technologies conçus pour réduire la probabilité que les Copilots renvoient du contenu contrefait”.

” Alors que les clients demandent s’ils peuvent utiliser les services Copilot de Microsoft et les résultats qu’ils génèrent sans se soucier des réclamations liées aux droits d’auteur, nous leur fournissons une réponse simple : oui, vous pouvez, et si vous êtes contesté pour des raisons de droits d’auteur, nous assumerons la responsabilité des éventuelles risques juridiques impliqués”, a écrit la société dans un article de blog.

“Ce nouvel engagement étend notre soutien existant en matière d’indemnisation de la propriété intellectuelle aux services commerciaux Copilot et s’appuie sur nos précédents engagements clients en matière d’IA”, indique le message. “Plus précisément, si un tiers poursuit un client commercial pour violation du droit d’auteur en raison de l’utilisation des copilotes de Microsoft ou des résultats qu’ils génèrent, nous défendrons le client et paierons le montant de tout jugement ou règlement défavorable résultant du procès, à condition que le client Nous avons utilisé les garde-fous et les filtres de contenu que nous avons intégrés à nos produits. »

Les étudiants se connectent à ChatGPT, trouvent un ami sur Character.ai

Après une énorme augmentation du trafic lorsque OpenAI a publié ChatGPT en octobre dernier, le trafic vers le chatbot a chuté au cours des derniers mois alors que des chatbots IA rivaux, notamment Google Bard et Microsoft Bing, sont entrés en scène. Mais maintenant que les vacances d’été sont terminées, les étudiants semblent générer une légère augmentation du trafic pour ChatGPT, selon les estimations publiées par Similarweb, une société de données et d’analyses numériques.

“ChatGPT continue de se classer parmi les plus grands sites Web au monde, attirant 1,4 milliard de visites dans le monde en août, contre 1,2 milliard pour le moteur de recherche Bing de Microsoft, par exemple. De zéro avant son lancement fin novembre, chat.openai.com a atteint 266 million de visiteurs en décembre, a encore augmenté de 131 % le mois suivant et a culminé à 1,8 milliard de visites en mai. Similarweb classe openai.com au 28e rang mondial, principalement grâce à ChatGPT.

Mais l’un des sites d’IA qui attire encore plus de visiteurs est le rival de ChatGPT, Character.ai, qui invite les utilisateurs à personnaliser leurs chatbots en tant que personnalités célèbres ou personnages fictifs et à leur faire répondre avec cette voix. Fondamentalement, vous pouvez avoir une conversation avec un chatbot se faisant passer pour une personne célèbre comme Cristiano Ronaldo, Taylor Swift, Albert Einstein ou Lady Gaga ou un personnage fictif comme Super Mario, Tony Soprano ou Abraham Lincoln.

“Se connecter avec le marché des jeunes est un moyen fiable de trouver un large public, et selon cette mesure, le concurrent de ChatGPT, Character AI, a un avantage”, a déclaré Similarweb. « Le site Character.ai rassemble près de 60 % de son audience dans la tranche d’âge 18-24 ans, un chiffre qui a bien résisté au cours de l’été. Character.AI a également transformé les utilisateurs du site en utilisateurs de son application mobile. dans une plus grande mesure que ChatGPT, qui est également désormais disponible sous forme d’application.

La raison “peut être simplement parce que Character AI est un compagnon ludique, pas seulement une aide aux devoirs”, a déclaré le cabinet de recherche.

Terme de la semaine en IA : sécurité de l’IA

Avec toutes les discussions autour de la réglementation de l’IA et de la façon dont la technologie devrait être « sûre », j’ai pensé qu’il valait la peine de partager quelques exemples de la façon dont la sécurité de l’IA est caractérisée.

La première est une explication simple tirée du glossaire IA de CNBC : Comment parler de l’IA comme un initié :

Sécurité de l’IA : ” Décrit la crainte à long terme que l’IA progresse si soudainement qu’une IA super intelligente puisse nuire, voire éliminer l’humanité. “

Le second provient d’un livre blanc de la Maison Blanche intitulé « Assurer une IA sûre, sécurisée et digne de confiance ». Celui-ci décrit les engagements volontaires signés par ces 15 entreprises technologiques visant à garantir que leurs systèmes ne nuisent pas aux personnes.

Sécurité: Les entreprises ont le devoir de s’assurer que leurs produits sont sûrs avant de les présenter au public. Cela signifie tester la sécurité et les capacités de leurs systèmes d’IA, les soumettre à des tests externes, évaluer leurs risques potentiels biologiques, de cybersécurité et sociétaux, et rendre publics les résultats de ces évaluations. »

Note de l’éditeur : Testeur Joe utilise un moteur d’IA pour créer certaines histoires. Pour en savoir plus, consultez cet article.

Laisser un commentaire

%d blogueurs aiment cette page :