Cet accord Microsoft n’est pas exclusif, la vidéo arrive et plus encore du PDG d’OpenAI, Sam Altman • TechCrunch

Le co-fondateur et PDG d’OpenAI, Sam Altman, s’est assis pour une large interview avec cet éditeur à la fin de la semaine dernière, répondant à des questions sur certains de ses investissements personnels les plus ambitieux, ainsi que sur l’avenir d’OpenAI.

Il y avait beaucoup à discuter. La tenue maintenant âgée de huit ans a dominé la conversation nationale au cours des deux mois qui ont suivi la sortie de ChatGPT, un chatbot qui répond aux questions comme une personne. Les produits d’OpenAI n’ont pas seulement étonné les utilisateurs ; la société serait en pourparlers pour superviser la vente d’actions existantes à de nouveaux investisseurs à une valorisation de 29 milliards de dollars malgré ses revenus relativement nominaux.

Altman a refusé de parler des relations commerciales actuelles de l’entreprise, tirant un petit coup de semonce lorsqu’on lui a posé une question connexe lors de notre entretien.

Il a cependant révélé un peu les plans de l’entreprise pour l’avenir. D’une part, en plus de ChatGPT et du générateur d’art numérique populaire de la tenue, DALL-E, Altman a confirmé qu’un modèle vidéo est également à venir, bien qu’il ait déclaré qu’il “ne voudrait pas faire une prédiction compétente sur le moment”, ajoutant que «cela pourrait être très bientôt; c’est un projet de recherche légitime. Cela pourrait prendre un certain temps.

Altman a clairement indiqué que le partenariat évolutif d’OpenAI avec Microsoft – qui a investi pour la première fois dans OpenA en 2019 et a confirmé plus tôt dans la journée son intention d’intégrer des outils d’IA comme ChatGPT dans tous ses produits – n’est pas un pacte exclusif.

En outre, Altman a confirmé qu’OpenAI peut créer ses propres produits et services logiciels, en plus de concéder sous licence sa technologie à d’autres sociétés. C’est remarquable pour les observateurs de l’industrie qui se sont demandé si OpenAI pourrait un jour concurrencer directement Google via son propre moteur de recherche. (Interrogé sur ce scénario, Altman a déclaré: «Chaque fois que quelqu’un parle d’une technologie comme la fin d’une autre entreprise géante, c’est généralement faux. Les gens oublient qu’ils peuvent faire un contre-mouvement ici, et ils sont assez intelligents, assez compétents. ”)

Quant à savoir quand OpenAI prévoit de publier la quatrième version du GPT, le modèle de langage sophistiqué sur lequel ChatGPT est basé, Altman dirait seulement que le produit très attendu « sortira à un moment donné lorsque nous serons convaincus que nous pouvons [release] de manière sûre et responsable. Il a aussi a tenté de tempérer les attentes concernant GPT-4, en disant que “nous n’avons pas d’AGI réelle”, c’est-à-dire une intelligence générale artificielle, ou une technologie avec sa propre intelligence émergente, par rapport aux modèles d’apprentissage en profondeur actuels d’OpenAI qui résolvent les problèmes et identifient les modèles par essai et erreur.

“Je pense [AGI] est en quelque sorte ce qu’on attend de nous » et le GPT-4 « va décevoir » les gens avec cette attente, a-t-il dit.

En attendant, interrogé sur lorsque Altman s’attend à voir l’intelligence artificielle générale, il a postulé qu’elle est plus proche qu’on ne pourrait l’imaginer, mais aussi que le passage à “AGI” ne sera pas aussi brusque que certains le pensent. « Plus nous nous rapprochons [to AGI]plus j’ai de mal à répondre parce que je pense que la transition sera beaucoup plus floue et beaucoup plus graduelle que les gens ne le pensent », a-t-il déclaré.

Naturellement, avant de conclure, nous avons passé du temps à parler de sécurité, y compris si la société a suffisamment de garde-corps en place pour la technologie qu’OpenAI a déjà lancée dans le monde. De nombreux critiques pensent que non, y compris des éducateurs inquiets qui bloquent de plus en plus l’accès à ChatGPT par crainte que les étudiants ne l’utilisent pour tricher. (Google, notamment, aurait été réticent à publier son propre chatbot d’IA, LaMDA, en raison de préoccupations concernant son “risque de réputation”.)

Altman a déclaré ici qu’OpenAI a “un processus interne dans lequel nous essayons en quelque sorte de casser les choses et d’étudier les impacts. Nous utilisons des auditeurs externes. Nous avons des équipes rouges externes. Nous travaillons avec d’autres laboratoires et des organisations de sécurité examinent des choses.

En même temps, a-t-il dit, la technologie arrive – d’OpenAI et d’ailleurs – et les gens doivent commencer à comprendre comment vivre avec, a-t-il suggéré. “Il y a des changements sociétaux que ChatGPT va provoquer ou est en train de provoquer. Un gros problème en ce moment concerne son impact sur l’éducation et l’intégrité académique, tout cela. Pourtant, a-t-il soutenu, « en commençant ces [product releases] maintenant [makes sense]où les enjeux sont encore relativement faibles, plutôt que de simplement publier ce que l’ensemble de l’industrie aura dans quelques années sans que la société ait le temps de se mettre à jour.

En fait, les éducateurs – et peut-être aussi les parents – devraient comprendre qu’il est impossible de remettre le génie dans la bouteille. Alors qu’Altman a déclaré qu’OpenAI et d’autres équipes d’IA “expérimenteront” les technologies de filigrane et d’autres techniques de vérification pour aider à évaluer si les étudiants essaient de faire passer la copie générée par l’IA comme la leur, il a également laissé entendre que se concentrer trop sur ce scénario particulier est futile.

“Il y a peut-être des moyens d’aider les enseignants à être un peu plus susceptibles de détecter la sortie d’un système de type GPT, mais honnêtement, une personne déterminée va les contourner, et je ne pense pas que ce sera quelque chose que la société pourra faire. ou devrait compter sur le long terme.

Ce ne sera pas la première fois que les gens réussiront à s’adapter à des changements majeurs, a-t-il ajouté. Observant que les calculatrices “ont changé ce que nous testons dans les cours de mathématiques” et que Google a rendu le besoin de mémoriser des faits beaucoup moins important, Altman a déclaré que les modèles d’apprentissage en profondeur représentent “une version plus extrême” des deux développements. Mais il a fait valoir que «les avantages sont également plus extrêmes. Nous entendons des enseignants qui sont naturellement très inquiets de l’impact de cela sur les devoirs. Nous entendons aussi beaucoup d’enseignants dire : « Wow, c’est un tuteur personnel incroyable pour chaque enfant. » »

Pour la conversation complète sur OpenAI et l’évolution des vues d’Altman sur la marchandisation de l’IA, les réglementations et pourquoi l’IA va dans “exactement la direction opposée” que beaucoup imaginaient il y a cinq à sept ans, cela vaut la peine de regarder le clip ci-dessous.

Vous entendrez également Altman aborder les meilleurs et les pires scénarios en ce qui concerne les promesses et les dangers de l’IA. La version courte ? “Le bon cas est tellement incroyablement bon que vous avez l’air d’une personne vraiment folle pour commencer à en parler”, a-t-il déclaré. “Et le mauvais cas – et je pense que c’est important de le dire – est, comme, les lumières s’éteignent pour nous tous.”