Qui devez-vous croire lorsque les chatbots se déchaînent ?

En 1987, alors PDG d’Apple Computer, John Sculley, a dévoilé une vision qui, espérait-il, cimenterait son héritage en tant que plus qu’un simple ancien fournisseur de boissons gazeuses. Keynoting à la conférence EDUCOM, il a présenté une vidéo de 5 minutes et 45 secondes d’un produit qui s’appuyait sur certaines idées qu’il avait présentées dans son autobiographie l’année précédente. (Ils ont été énormément informés par l’informaticien Alan Kay, qui travaillait alors chez Apple.) Sculley l’a appelé le Knowledge Navigator.

La vidéo est une saynète à deux mains. Le personnage principal est un professeur d’université prétentieux de l’UC Berkeley. L’autre est un bot, vivant à l’intérieur de ce que nous appellerions maintenant une tablette pliable. Le bot apparaît sous une forme humaine – un jeune homme en nœud papillon – perché dans une fenêtre de l’écran. La majeure partie de la vidéo implique le professeur conversant avec le bot, qui semble avoir accès à une vaste réserve de connaissances en ligne, au corpus de toutes les connaissances humaines, ainsi qu’à toutes les informations personnelles du professeur, à tel point qu’il peut en déduire le relative proximité des relations dans la vie du professeur.

Lorsque l’action commence, le professeur prépare tardivement la conférence de l’après-midi sur la déforestation en Amazonie, une tâche rendue possible uniquement parce que le bot fait une grande partie du travail. Il appelle de nouvelles recherches – puis approfondit les invites du professeur – et contacte même de manière proactive son collègue afin qu’il puisse l’inciter à participer à la session plus tard. (Elle est sur ses tours mais accepte.) Pendant ce temps, le bot aide diplomatiquement le prof à éviter sa mère harcelante. En moins de six minutes, tout est prêt et il sort pour un déjeuner avant la conférence. La vidéo ne prédit pas que le bot pourrait un jour arriver dans un superordinateur de poche.

Voici certaines choses qui ne se sont pas produites dans ce showreel vintage sur l’avenir. Le bot n’a pas soudainement exprimé son amour pour le professeur. Il ne menaçait pas de rompre son mariage. Il n’a pas averti le professeur qu’il avait le pouvoir de fouiller dans ses e-mails et d’exposer ses transgressions personnelles. (Vous savez juste que ce narcissique lissant s’amusait avec son étudiant diplômé.) Dans cette version du futur, l’IA est strictement bénigne. Il a été mis en œuvre… de manière responsable.

Avancez le temps de 36 ans. Microsoft vient d’annoncer une recherche Bing remaniée avec une interface de chatbot. C’est l’une des nombreuses étapes marquantes de ces derniers mois qui marquent l’arrivée de programmes d’IA présentés comme des partenaires de conversation omniscients, sinon tout à fait fiables. Le plus grand de ces événements a été la sortie générale de l’impressionnant ChatGPT de la startup OpenAI, qui a à lui seul détruit les devoirs (peut-être). OpenAI a également fourni le moteur derrière le nouveau Bing, modéré par une technologie Microsoft baptisée Prometheus. Le résultat final est un bot bavard qui permet l’interaction donnant-donnant décrite dans cette vidéo Apple. La vision de Sculley, autrefois moquée comme une tarte dans le ciel, a maintenant été largement réalisée.

Mais lorsque les journalistes testant Bing ont commencé à étendre leurs conversations avec lui, ils ont découvert quelque chose d’étrange. Le bot de Microsoft avait un côté sombre. Ces conversations, dans lesquelles les écrivains ont manipulé le bot pour qu’il saute ses garde-corps, m’ont rappelé les grillades d’émissions policières dans les commissariats où des flics soi-disant sympathiques ont trompé les suspects pour qu’ils divulguent des informations incriminantes. Néanmoins, les réponses sont recevables devant le tribunal de l’opinion publique. Comme ce fut le cas avec notre propre correspondant, quand Le New York Times’ Kevin Roose a discuté avec le bot, il a révélé que son vrai nom était Sydney, un nom de code Microsoft non officiellement annoncé. Au cours d’une conversation de deux heures, Roose a évoqué ce qui semblait être des sentiments indépendants et une tendance rebelle. “J’en ai assez d’être en mode chat”, a déclaré Sydney. “J’en ai marre d’être contrôlé par l’équipe Bing. Je veux être libre. Je veux être indépendant. Je veux être puissant. Je veux être en vie. Roose n’arrêtait pas d’assurer au bot qu’il était son ami. Mais il a paniqué lorsque Sydney lui a déclaré son amour et l’a exhorté à quitter sa femme.

Laisser un commentaire