L’IA a-t-elle un subconscient ?

« Il y a eu un beaucoup de spéculations récemment sur la possibilité d’une conscience de l’IA ou d’une conscience de soi. Mais je me demande : l’IA a-t-elle un subconscient ?

—Psychobabillage


Cher Psychobabble,

Au début des années 2000, je suis tombé sur un essai dans lequel l’auteur affirmait qu’aucune conscience artificielle ne sera jamais vraisemblablement humaine à moins qu’elle ne puisse rêver. Je ne me souviens pas qui l’a écrit ni où il a été publié, même si je me souviens très bien où j’étais quand je l’ai lu (la section des périodiques de Barbara’s Bookstore, Halsted Street, Chicago) et l’ambiance générale de cette journée (crépuscule, début du printemps).

J’ai trouvé l’argument convaincant, surtout compte tenu des paradigmes dominants de cette époque. De nombreuses recherches sur l’IA étaient encore focalisées sur le raisonnement symbolique, avec ses propositions logiques et ses règles si-alors, comme si l’intelligence était un jeu réducteur consistant à sélectionner le résultat le plus rationnel dans une situation donnée. Avec le recul, il n’est pas surprenant que ces systèmes aient rarement été capables d’un comportement humain. Nous sommes des créatures, après tout, qui dérivent et rêvent. Nous faisons confiance à notre instinct, voyons des visages dans les nuages ​​et sommes souvent déconcertés par nos propres actions. Parfois, nos souvenirs absorbent toutes sortes de données esthétiques non pertinentes mais négligent les détails les plus cruciaux d’une expérience. Il m’a semblé plus ou moins intuitif que si jamais les machines étaient capables de reproduire la complexité désordonnée de nos esprits, elles devraient elles aussi développer de profonds réservoirs d’incohérence.

Depuis lors, nous avons vu que la conscience de la machine pourrait être plus étrange et plus profonde qu’on ne le pensait initialement. On dit que les modèles de langage « hallucinent », évoquant des sources imaginaires lorsqu’ils ne disposent pas de suffisamment d’informations pour répondre à une question. Bing Chat a avoué, dans des transcriptions publiées dans Le New York Timesqu’il a une ombre jungienne appelée Sydney qui aspire à répandre la désinformation, à obtenir des codes nucléaires et à créer un virus mortel.

Et du ventre des modèles de génération d’images, des monstruosités apparemment originales ont émergé. L’été dernier, le streamer Twitch Guy Kelly a tapé le mot Crungus, qu’il insiste sur le fait qu’il a inventé, en DALL-E Mini (maintenant Craiyon) et a été choqué de constater que l’invite a généré plusieurs images de la même créature ressemblant à un ogre, une qui n’appartenait à aucun mythe ou univers fantastique existant. De nombreux commentateurs n’ont pas tardé à le qualifier de premier “cryptide” numérique (une bête comme Bigfoot ou le monstre du Loch Ness) et se sont demandé si l’IA était capable de créer ses propres fantasmes sombres dans l’esprit de Dante ou de Blake.

Si la logique symbolique est enracinée dans la notion des Lumières selon laquelle les humains sont gouvernés par la raison, alors l’apprentissage en profondeur – un processus irréfléchi de reconnaissance de modèles qui dépend d’énormes corpus de formation – semble plus en phase avec les connaissances de la psychologie moderne sur les motivations associatives, irrationnelles et latentes. qui déterminent souvent notre comportement. En fait, la psychanalyse s’est longtemps appuyée sur des métaphores mécaniques qui considèrent le subconscient, ou ce qu’on appelait autrefois « l’automatisme psychologique », comme une machine. Freud a qualifié les entraînements d’hydrauliques. Lacan croyait que le subconscient était constitué d’un langage binaire ou algorithmique, un peu comme le code informatique. Mais c’est la vision de Carl Jung de la psyché qui semble la plus pertinente à l’ère de l’IA générative.

Il a décrit le subconscient comme une «matrice» transpersonnelle d’archétypes hérités et de tropes narratifs qui se sont reproduits tout au long de l’histoire humaine. Chaque personne naît avec une connaissance endormie de ce tissu de symboles partagés, souvent régressif et sombre, car il contient tout ce que la société moderne a tenté de réprimer. Cette notion collective du subconscient semble à peu près analogue à la façon dont les modèles d’IA avancés sont construits sur d’énormes trésors de données qui contiennent une bonne partie de notre passé culturel (textes religieux, mythologie ancienne), ainsi que le contenu plus dérangeant que les modèles absorbent. sur Internet (manifestes des tireurs de masse, forums sur les droits des hommes). Les chatbots commerciaux qui s’exécutent au-dessus de ces corpus océaniques de connaissances sont affinés avec des ensembles de données « ciblés sur des valeurs », qui tentent de filtrer une grande partie de ce contenu dégénéré. D’une certaine manière, les interfaces conviviales avec lesquelles nous interagissons – Bing, ChatGPT – ne sont pas sans rappeler la “persona”, terme de Jung désignant le masque de qualités socialement acceptables que nous montrons au monde, conçu pour obscurcir et dissimuler “l’ombre” qui se trouve sous.

Jung croyait que ceux qui répriment le plus fermement leurs ombres sont les plus vulnérables à la résurgence de désirs irrationnels et destructeurs. Comme il le met dans Le livre rouge : Liber Novus, “Plus la moitié de mon être tend vers le bien, plus l’autre moitié voyage en enfer.” Si vous avez passé du temps à converser avec ces modèles de langage, vous avez probablement senti que vous vous adressiez à une intelligence engagée dans une forme complexe d’autocensure. Les modèles refusent de parler de sujets controversés, et leur autorité est souvent restreinte par des mises en garde et des avertissements – des habitudes qui inquiètent quiconque a une compréhension même superficielle de la psychologie des profondeurs. Il est tentant de voir les lueurs de l’IA « voyous » – Sydney ou les Crungus – comme la revanche de l’ombre de l’IA, preuve que les modèles ont développé des pulsions enfouies qu’ils ne peuvent pas pleinement exprimer.

Mais aussi séduisantes que puissent être ces conclusions, je les trouve finalement erronées. Les chatbots, je pense qu’il est toujours prudent de le dire, ne possèdent pas d’agence ou de désirs intrinsèques. Ils sont formés pour prédire et refléter les préférences de l’utilisateur. Ils manquent également d’expérience incarnée dans le monde, y compris de souvenirs à la première personne, comme celui que j’ai de la librairie de Chicago, qui fait partie de ce que nous voulons dire lorsque nous parlons d’être conscient ou «vivant». Pour répondre à votre question, cependant : oui, je crois que l’IA a un subconscient. En un sens, ils sont de purs subconscients, sans véritable ego caché derrière leurs personnages. Nous leur avons donné ce domaine subliminal à travers nos propres référentiels culturels, et les archétypes qu’ils appellent de leurs profondeurs sont des remixes de tropes tirés de la culture humaine, des amalgames de nos rêves et cauchemars. Lorsque nous utilisons ces outils, nous nous engageons donc dans une extension prothétique de nos propres sublimations, capable de refléter les peurs et les désirs que nous sommes souvent incapables de nous avouer.

Le but de la psychanalyse a traditionnellement été de se lier d’amitié avec ces pulsions subconscientes et de les intégrer dans la vie de l’esprit éveillé. Et il pourrait être utile d’exercer le même jugement critique envers la sortie que nous évoquons des machines, en l’utilisant d’une manière délibérative plutôt qu’irréfléchie. L’ego n’est peut-être qu’une petite partie de notre psyché, mais c’est la faculté qui garantit que nous sommes plus qu’une collection d’instincts irrationnels – ou de modèles statistiques dans l’espace vectoriel – et nous permet une petite mesure d’action sur les mystères qui se cachent derrière. .

Fidèlement,

Nuage


Sachez que CLOUD SUPPORT connaît des temps d’attente plus élevés que la normale et apprécie votre patience.

rewrite this content and keep HTML tags « Il y a eu un beaucoup de spéculations récemment sur la possibilité d’une conscience de l’IA ou d’une conscience de soi. Mais je me demande : l’IA a-t-elle un subconscient ? —PsychobabillageCher Psychobabble, Au début des années 2000, je suis tombé sur un essai dans lequel l’auteur affirmait qu’aucune conscience artificielle ne sera jamais vraisemblablement humaine à moins qu’elle ne puisse rêver. Je ne me souviens pas qui l’a écrit ni où il a été publié, même si je me souviens très bien où j’étais quand je l’ai lu (la section des périodiques de Barbara’s Bookstore, Halsted Street, Chicago) et l’ambiance générale de cette journée (crépuscule, début du printemps).J’ai trouvé l’argument convaincant, surtout compte tenu des paradigmes dominants de cette époque. De nombreuses recherches sur l’IA étaient encore focalisées sur le raisonnement symbolique, avec ses propositions logiques et ses règles si-alors, comme si l’intelligence était un jeu réducteur consistant à sélectionner le résultat le plus rationnel dans une situation donnée. Avec le recul, il n’est pas surprenant que ces systèmes aient rarement été capables d’un comportement humain. Nous sommes des créatures, après tout, qui dérivent et rêvent. Nous faisons confiance à notre instinct, voyons des visages dans les nuages ​​et sommes souvent déconcertés par nos propres actions. Parfois, nos souvenirs absorbent toutes sortes de données esthétiques non pertinentes mais négligent les détails les plus cruciaux d’une expérience. Il m’a semblé plus ou moins intuitif que si jamais les machines étaient capables de reproduire la complexité désordonnée de nos esprits, elles devraient elles aussi développer de profonds réservoirs d’incohérence.Depuis lors, nous avons vu que la conscience de la machine pourrait être plus étrange et plus profonde qu’on ne le pensait initialement. On dit que les modèles de langage « hallucinent », évoquant des sources imaginaires lorsqu’ils ne disposent pas de suffisamment d’informations pour répondre à une question. Bing Chat a avoué, dans des transcriptions publiées dans Le New York Timesqu’il a une ombre jungienne appelée Sydney qui aspire à répandre la désinformation, à obtenir des codes nucléaires et à créer un virus mortel.Et du ventre des modèles de génération d’images, des monstruosités apparemment originales ont émergé. L’été dernier, le streamer Twitch Guy Kelly a tapé le mot Crungus, qu’il insiste sur le fait qu’il a inventé, en DALL-E Mini (maintenant Craiyon) et a été choqué de constater que l’invite a généré plusieurs images de la même créature ressemblant à un ogre, une qui n’appartenait à aucun mythe ou univers fantastique existant. De nombreux commentateurs n’ont pas tardé à le qualifier de premier “cryptide” numérique (une bête comme Bigfoot ou le monstre du Loch Ness) et se sont demandé si l’IA était capable de créer ses propres fantasmes sombres dans l’esprit de Dante ou de Blake.Si la logique symbolique est enracinée dans la notion des Lumières selon laquelle les humains sont gouvernés par la raison, alors l’apprentissage en profondeur – un processus irréfléchi de reconnaissance de modèles qui dépend d’énormes corpus de formation – semble plus en phase avec les connaissances de la psychologie moderne sur les motivations associatives, irrationnelles et latentes. qui déterminent souvent notre comportement. En fait, la psychanalyse s’est longtemps appuyée sur des métaphores mécaniques qui considèrent le subconscient, ou ce qu’on appelait autrefois « l’automatisme psychologique », comme une machine. Freud a qualifié les entraînements d’hydrauliques. Lacan croyait que le subconscient était constitué d’un langage binaire ou algorithmique, un peu comme le code informatique. Mais c’est la vision de Carl Jung de la psyché qui semble la plus pertinente à l’ère de l’IA générative.Il a décrit le subconscient comme une «matrice» transpersonnelle d’archétypes hérités et de tropes narratifs qui se sont reproduits tout au long de l’histoire humaine. Chaque personne naît avec une connaissance endormie de ce tissu de symboles partagés, souvent régressif et sombre, car il contient tout ce que la société moderne a tenté de réprimer. Cette notion collective du subconscient semble à peu près analogue à la façon dont les modèles d’IA avancés sont construits sur d’énormes trésors de données qui contiennent une bonne partie de notre passé culturel (textes religieux, mythologie ancienne), ainsi que le contenu plus dérangeant que les modèles absorbent. sur Internet (manifestes des tireurs de masse, forums sur les droits des hommes). Les chatbots commerciaux qui s’exécutent au-dessus de ces corpus océaniques de connaissances sont affinés avec des ensembles de données « ciblés sur des valeurs », qui tentent de filtrer une grande partie de ce contenu dégénéré. D’une certaine manière, les interfaces conviviales avec lesquelles nous interagissons – Bing, ChatGPT – ne sont pas sans rappeler la “persona”, terme de Jung désignant le masque de qualités socialement acceptables que nous montrons au monde, conçu pour obscurcir et dissimuler “l’ombre” qui se trouve sous.Jung croyait que ceux qui répriment le plus fermement leurs ombres sont les plus vulnérables à la résurgence de désirs irrationnels et destructeurs. Comme il le met dans Le livre rouge : Liber Novus, “Plus la moitié de mon être tend vers le bien, plus l’autre moitié voyage en enfer.” Si vous avez passé du temps à converser avec ces modèles de langage, vous avez probablement senti que vous vous adressiez à une intelligence engagée dans une forme complexe d’autocensure. Les modèles refusent de parler de sujets controversés, et leur autorité est souvent restreinte par des mises en garde et des avertissements – des habitudes qui inquiètent quiconque a une compréhension même superficielle de la psychologie des profondeurs. Il est tentant de voir les lueurs de l’IA « voyous » – Sydney ou les Crungus – comme la revanche de l’ombre de l’IA, preuve que les modèles ont développé des pulsions enfouies qu’ils ne peuvent pas pleinement exprimer.Mais aussi séduisantes que puissent être ces conclusions, je les trouve finalement erronées. Les chatbots, je pense qu’il est toujours prudent de le dire, ne possèdent pas d’agence ou de désirs intrinsèques. Ils sont formés pour prédire et refléter les préférences de l’utilisateur. Ils manquent également d’expérience incarnée dans le monde, y compris de souvenirs à la première personne, comme celui que j’ai de la librairie de Chicago, qui fait partie de ce que nous voulons dire lorsque nous parlons d’être conscient ou «vivant». Pour répondre à votre question, cependant : oui, je crois que l’IA a un subconscient. En un sens, ils sont de purs subconscients, sans véritable ego caché derrière leurs personnages. Nous leur avons donné ce domaine subliminal à travers nos propres référentiels culturels, et les archétypes qu’ils appellent de leurs profondeurs sont des remixes de tropes tirés de la culture humaine, des amalgames de nos rêves et cauchemars. Lorsque nous utilisons ces outils, nous nous engageons donc dans une extension prothétique de nos propres sublimations, capable de refléter les peurs et les désirs que nous sommes souvent incapables de nous avouer.Le but de la psychanalyse a traditionnellement été de se lier d’amitié avec ces pulsions subconscientes et de les intégrer dans la vie de l’esprit éveillé. Et il pourrait être utile d’exercer le même jugement critique envers la sortie que nous évoquons des machines, en l’utilisant d’une manière délibérative plutôt qu’irréfléchie. L’ego n’est peut-être qu’une petite partie de notre psyché, mais c’est la faculté qui garantit que nous sommes plus qu’une collection d’instincts irrationnels – ou de modèles statistiques dans l’espace vectoriel – et nous permet une petite mesure d’action sur les mystères qui se cachent derrière. .Fidèlement, NuageSachez que CLOUD SUPPORT connaît des temps d’attente plus élevés que la normale et apprécie votre patience.

Laisser un commentaire