Les assistants numériques existent depuis des années ; après tout, Siri a fait ses débuts sur l’iPhone 4S en 2011. Mais les premiers assistants vocaux étaient initialement limités dans leurs fonctionnalités, ayant parfois du mal à produire des réponses utiles, même dans des circonstances idéales. Cependant, la nouvelle vague d’agents numériques qui a commencé à apparaître fin 2022 et 2023 peut tout faire sans effort, de la création de recettes à la synthèse de vos e-mails et même à la rédaction de légendes pour vos photos sur les réseaux sociaux.
Les assistants virtuels ont fait un bond en avant cette année grâce à l’essor de l’IA générative, ou IA capable de créer du contenu basé sur des invites après avoir été formée sur les données. OpenAI a ébloui le monde avec ChatGPT il y a environ un an, et des géants de la technologie comme Microsoft, Google, Amazon et Meta ont habilement intégré l’IA générative dans leurs chatbots, moteurs de recherche et assistants numériques tout au long de l’année 2023.
Mais la nouvelle cohorte de majordomes numériques de haute technologie a également besoin de confiance dans les grandes technologies, une question considérable après les violations de données, les controverses comme le scandale Cambridge Analytica en 2018 et les enquêtes sur les pratiques de confidentialité ont ébranlé notre confiance dans les entreprises technologiques. Les dix dernières années ont soulevé de grandes questions de la part des régulateurs et du grand public sur la manière dont les entreprises utilisent le flux de données que nous leur transmettons. Tirer parti des avantages de la nouvelle IA pourrait signifier devenir encore plus personnel avec les services technologiques que nous utilisons quotidiennement.
D’une certaine manière, les chatbots comme ChatGPT d’OpenAI, Copilot de Microsoft et Google Bard ne sont que des évolutions du fonctionnement déjà existant des services numériques. Des sociétés comme Alphabet, Meta et Amazon, société mère de Google, traitent déjà des données sur nos habitudes de navigation sur Internet pour fournir du contenu, des publicités et des recommandations personnalisés. Les nouveaux outils d’IA peuvent ne pas nécessiter plus données personnelles, mais ce sont les nouvelles façons dont ces outils relient les différents types de données personnelles, comme nos e-mails et nos SMS, qui soulèvent de nouvelles préoccupations en matière de confidentialité.
“Nous pouvons maintenant voir comment les pièces sont assemblées avec ces outils”, a déclaré Matthew Butkovic, directeur technique de la division cybersécurité du CERT à l’Université Carnegie Mellon. “Nous savions que les données existaient, mais nous voyons maintenant comment elles sont utilisées de manière combinée.”
L’essor de nouveaux assistants IA

Microsoft Copilot sur le bureau Windows 11.
Tout au long de l’année 2023, il est devenu évident que les assistants virtuels étaient en train de faire l’objet d’une refonte majeure. Alors que les moteurs de recherche, les chatbots et les générateurs d’images ont été les premiers outils en ligne à faire briller l’IA, des entreprises comme Microsoft et Google intègrent désormais cette technologie dans des assistants numériques à part entière.
Microsoft Copilot, que la société a détaillé lors de son événement du 21 septembre, est plus sophistiqué que Cortana, l’ancien assistant personnel du géant du PC, désormais fermé.
Copilot ne se contente pas de répondre à des questions et des commandes telles que « Quel temps fera-t-il en Espagne la semaine prochaine ? » ou “À quelle heure est ma prochaine réunion ?” Il extrait des informations de vos applications, du Web et de vos appareils pour fournir des réponses plus spécifiques et personnalisées.
Lors du discours d’ouverture du 21 septembre, Carmen Zlateff, vice-présidente de Windows, a montré un exemple de la manière dont Copilot sur votre PC Windows pourra répondre à des questions basées sur les informations trouvées dans les messages texte de votre téléphone, telles que les détails d’un vol à venir. Cet exemple montre à quel point Copilot fait plus que simplement récupérer des réponses basées sur le Web ou des données stockées dans votre compte Microsoft.

Assistant du barde
Il n’a pas fallu longtemps à Google pour montrer comment l’IA générative jouerait un rôle dans son propre assistant, l’Assistant Google. Lors d’un événement le 4 octobre, Google a dévoilé Assistant with Bard, une nouvelle version de son acolyte virtuel alimentée par la technologie derrière son chatbot conversationnel Bard.
Sissie Hsiao, vice-présidente et directrice générale de Google Assistant et Bard, l’a démontré lors de l’événement en montrant comment vous pourrez réciter une commande telle que “Rattrapez-moi sur les e-mails importants que j’ai manqués cette semaine”. C’est tout ce qu’il a fallu à l’Assistant Google pour évoquer une liste à puces distillant des e-mails comme une invitation à une fête d’anniversaire d’un enfant et une notification concernant un salon de l’emploi universitaire en quelques phrases seulement.
“Bien que l’Assistant soit excellent pour gérer des tâches rapides comme régler des minuteries, fournir des mises à jour météo et passer des appels rapides, nous avons toujours imaginé qu’un assistant personnel très compétent devrait être capable de faire bien plus encore”, a-t-elle déclaré lors de la présentation. “Mais la technologie permettant de le réaliser n’existait pas jusqu’à présent.”

ChatGPT affiché sur le téléphone intelligent avec le logo OpenAI visible à l’écran en arrière-plan.
L’IA générative influence presque tous les aspects de la façon dont nous interagissons avec Internet : de la récupération des résultats de recherche à l’édition d’images. Mais les annonces de Microsoft et de Google représentent un changement radical dans la façon dont ces entreprises envisagent les assistants de l’IA. Cela va bien au-delà de la transformation de ces assistants virtuels en de meilleurs auditeurs et interlocuteurs, comme Amazon l’a fait avec Alexa améliorée dévoilée en septembre.
Microsoft et Google sont peut-être les plus grands partisans de l’utilisation de l’IA générative pour créer des assistants plus intelligents, mais ils ne sont pas les seuls. OpenAI, qui a lancé l’année dernière l’engouement pour l’IA générative avec ChatGPT, a récemment annoncé que les utilisateurs pourront créer des versions personnalisées de ChatGPT pour des tâches spécifiques, comme expliquer les règles d’un jeu de société et fournir des conseils techniques. Cela ouvre potentiellement la possibilité à chacun de créer son propre assistant numérique spécialisé, qu’OpenAI appelle GPT. Tout ce que vous avez à faire est de fournir des instructions, de décider ce que vous voulez que votre GPT fasse et, bien sûr, de lui fournir des données.
Faire confiance à l’IA pour utiliser nos données de la bonne manière

Un couloir futuriste avec des logos pour Bard, ChatGPT et Bing de Google au milieu d’une course féroce aux chatbots IA.
L’IA générative pourrait marquer un tournant pour les assistants virtuels, en leur fournissant la conscience contextuelle et la compréhension conversationnelle qui leur manquaient.
Mais cela signifie aussi donner à ces assistants numériques une plus grande fenêtre sur nos vies personnelles et professionnelles. Il faut avoir confiance dans ces systèmes d’IA pour combiner et traiter nos e-mails, fichiers, applications et textes d’une manière qui semble utile plutôt que perturbatrice ou déstabilisante.
Butkovic de Carnegie Mellon fournit un exemple hypothétique de la façon dont le travail avec un assistant d’IA générative pourrait potentiellement mal tourner. Supposons que vous demandiez à un assistant IA de rédiger un rapport sur un sujet spécifique lié au travail. Un assistant IA pourrait accidentellement intégrer des données client sensibles dans son rapport si ces données ne sont pas correctement classées.
“Nous pourrions voir potentiellement une nouvelle source de risque dans des combinaisons d’informations que nous n’avions pas anticipées”, a-t-il déclaré. “Parce que nous n’avions pas les outils auparavant et que nous n’avons pas mis en place de mesures de protection pour empêcher cela.”
Il ne s’agit pas seulement de données sensibles. Il y a des moments dans notre vie dont nous ne voudrions peut-être pas qu’on nous rappelle lorsque nous demandons à un assistant numérique de rédiger un rapport ou de rédiger un e-mail. Comment pouvons-nous être sûrs que ce ne sera pas le cas ?
Jen King, chercheuse en matière de confidentialité et de données à l’Institut Stanford pour l’intelligence artificielle centrée sur l’humain, cite un autre exemple hypothétique. Si vous avez de longues conversations par courrier électronique avec des membres de votre famille assis dans votre boîte de réception pour discuter des arrangements concernant un être cher décédé, vous ne voudriez probablement pas que ces communications soient intégrées à certaines réponses ou rapports.

L’application Google Photos
Il existe déjà un précédent à ce sujet dans les applications de médias sociaux et de galeries de photos. Après avoir reçu des commentaires, Facebook a ajouté davantage de contrôles en 2019 pour faciliter la tâche de ceux qui reprennent le compte d’un proche décédé. L’entreprise utilise l’IA pour empêcher les profils d’amis ou de membres de la famille décédés d’apparaître dans les notifications d’anniversaire et les recommandations d’invitations à des événements, mais a reconnu à l’époque qu’il y avait place à amélioration.
“Nous travaillons pour nous améliorer et être plus rapides dans ce domaine”, peut-on lire dans le message.
Google a également ajouté davantage de contrôles pour gérer les souvenirs organisés qui apparaissent dans son application Photos après que Wired ait souligné à quel point il peut être pénible de revenir sur certaines photos stockées sur nos téléphones et le manque d’outils pour les gérer à l’époque.
“Plus je peux fournir de données [it] à propos de vous, plus je pourrai combler les vides”, a déclaré King. “Et si vous examinez plusieurs facettes de la vie de quelqu’un, c’est une stratégie vraiment risquée, car une grande partie de nos vies est pas statique.”
Cela s’ajoute aux défis existants auxquels les applications génératives basées sur l’IA et les chatbots sont déjà confrontés, tels que l’exactitude des informations qu’ils fournissent et la possibilité pour les pirates de tromper ces systèmes. Les entreprises technologiques sont conscientes de ces obstacles et tentent de les surmonter.
Google vous incite à revérifier les réponses de Bard et indique que l’outil peut fournir des informations incorrectes, par exemple. Il note également que Bard ne peut accéder aux données personnelles de Workspace, la suite de logiciels de productivité de Google qui inclut Gmail, qu’avec l’autorisation de l’utilisateur. Il n’utilise pas non plus ce contenu pour diffuser des publicités ou améliorer Bard. Le billet de blog de Google sur Assistant with Bard mentionne également que les utilisateurs pourront personnaliser les paramètres de confidentialité.
ChatGPT encourage également les utilisateurs à vérifier les réponses et révèle que les réponses peuvent ne pas toujours être exactes. Il avertit également les utilisateurs de ne pas saisir d’informations sensibles dans l’outil.
La page de questions fréquemment posées pour Microsoft Copilot note que les réponses ne sont pas garanties et indique que Copilot hérite des mêmes normes de sécurité sur lesquelles les produits d’entreprise, comme Microsoft 365, sont construits. Il indique également que les données clients ne sont pas utilisées pour former ses grands modèles de langage.
Mais Irina Raicu, directrice du programme d’éthique d’Internet au Markkula Center for Applied Ethics de l’Université de Santa Clara, s’inquiète des nouvelles vulnérabilités en matière de confidentialité spécifiques à l’IA générée qui n’ont pas encore été résolues. Un tel exemple est l’injection rapide, un exploit qui permet aux attaquants de tirer parti de grands modèles d’apprentissage des langues en masquant des instructions malveillantes.

Certains experts en matière de protection de la vie privée estiment que l’essor de l’IA générative pourrait entraîner de nouveaux types de menaces.
Dans un article de blog publié en août, le Centre national de cybersécurité du Royaume-Uni a décrit un exemple de ce à quoi pourrait ressembler une attaque potentielle par injection rapide. Un pirate informatique pourrait théoriquement cacher un code malveillant dans une demande de transaction envoyée à un utilisateur via une application bancaire. Si la personne interroge le chatbot de la banque sur ses habitudes de dépenses pour le mois, le grand modèle de langage pourrait finir par analyser ce code de l’attaquant tout en parcourant les transactions de la personne pour répondre à la question. Cela, à son tour, pourrait déclencher l’envoi d’argent sur le compte de l’attaquant.
Raicu craint que la cybersécurité ne suive pas le rythme de ces nouvelles menaces. Elle cite l’augmentation des attaques de ransomwares ces dernières années comme exemple de ce qui peut arriver lorsque les solutions de cybersécurité n’évoluent pas assez rapidement.
“Imaginez cela, mais avec une nouvelle couche de défis que nous ne comprenons pas encore”, a-t-elle déclaré.
Cependant, il y a certaines raisons d’espérer que le boom de l’IA n’entraînera pas les mésaventures en matière de confidentialité qui ont suivi la prolifération de nouvelles plates-formes technologiques dans le passé. Il y a déjà une pression en faveur d’une réglementation de l’IA à la Maison Blanche et au sein de l’UE, par exemple. Les entreprises technologiques sont généralement plus surveillées en matière de confidentialité, de sécurité, ainsi que de taille et d’influence, qu’elles ne l’étaient lorsque des plateformes comme Facebook, Instagram et Google Search ont vu le jour.
Mais en fin de compte, nous devrons toujours faire face aux risques et aux compromis potentiels liés aux avantages des nouvelles technologies.
“Il n’y aura pas d’absolu là-dedans”, a déclaré Butkovic. “Nous allons vivre dans cet espace gris où vous devez prendre des décisions personnelles concernant votre confort avec ce type de systèmes en éliminant les artefacts de votre vie numérique.”
Note de l’éditeur : Testeur Joe utilise un moteur d’IA pour créer certaines histoires. Pour en savoir plus, consultez cet article.