Apple serait en train d’expérimenter une IA génératrice de langage

Si ce n’est l’effondrement de la Silicon Valley Bank (SVB) de la semaine dernière, presque toutes les conversations dans le domaine de la technologie semblent être centrées sur l’IA et les chatbots. Au cours des derniers jours, OpenAI, soutenu par Microsoft, a publié un nouveau modèle de langage appelé GPT-4. Son concurrent Anthropic a sorti le chatbot Claude. Google a déclaré qu’il intégrait l’IA dans ses outils Workspace comme Gmail et Docs. Microsoft Bing a attiré l’attention sur lui-même avec une recherche activée par chatbot. Le seul nom qui manque à l’action ? Pomme.

Le mois dernier, la société basée à Cupertino a organisé un événement interne axé sur l’IA et les grands modèles linguistiques. Selon un rapport du New York Times, de nombreuses équipes, y compris des personnes travaillant sur Siri, testent régulièrement des “concepts générateurs de langage”.

Les gens se sont plaints du fait que Siri ne comprenait pas les requêtes (y compris les miennes) depuis longtemps. Siri (et d’autres assistants comme Alexa et Google Assistant) n’ont pas réussi à comprendre les différents accents et phonétiques des personnes vivant dans différentes parties du monde, même si elles parlent la même langue.

La nouvelle renommée de ChatGPT et de la recherche textuelle permet aux utilisateurs d’interagir plus facilement avec différents modèles d’IA. Mais actuellement, la seule façon de discuter avec l’assistant IA d’Apple, Siri, est d’activer une fonctionnalité dans les paramètres d’accessibilité.

Dans une interview avec le NYT, l’ancien ingénieur d’Apple John Burke, qui a travaillé sur Siri, a déclaré que l’assistant d’Apple avait connu une évolution lente en raison d’un “code maladroit”, ce qui rendait plus difficile la mise à jour des fonctionnalités de base. Il a également mentionné que Siri avait une grosse base de données avec une tonne de mots. Ainsi, lorsque les ingénieurs avaient besoin d’ajouter des fonctionnalités ou des phrases, la base de données devait être reconstruite – un processus qui aurait pris jusqu’à six semaines.

Le rapport du NYT n’a pas précisé si Apple construit ses propres modèles de langage ou souhaite adopter un modèle existant. Mais tout comme Google et Microsoft, la société dirigée par Tim Cook ne voudrait pas se limiter à proposer un chatbot alimenté par Siri. Apple s’est longtemps targué d’être un allié des artistes et des créateurs, on s’attendrait à ce qu’il veuille appliquer les progrès des modèles linguistiques à ces domaines.

La société utilise des fonctionnalités alimentées par l’IA depuis un certain temps maintenant, même si elles ne sont pas apparentes au début. Cela inclut de meilleures suggestions sur le clavier, le traitement en photographie, le déverrouillage du masque avec Face ID, la séparation des objets de l’arrière-plan à travers le système, le lavage des mains et la détection des collisions sur Apple Watch, et plus récemment la fonction karaoké sur Apple Music. Mais aucun d’entre eux ne pourrait être en face en tant que chatbots.

Apple a été généralement discret sur ses efforts en matière d’IA. Mais en janvier, la société a lancé un programme offrant aux auteurs des services de narration basés sur l’IA pour transformer leurs livres en livres audio. Cela indiquait que le fabricant d’iPhone réfléchissait déjà à des cas d’utilisation de l’IA générative. Je ne serais pas surpris si nous entendions plus sur les efforts de l’entreprise dans ces domaines lors de la conférence mondiale des développeurs (WWDC) dans quelques mois.

Laisser un commentaire