Où la mémoire se termine et l’IA générative commence

En théorie, ces normes cryptographiques garantissent que si un photographe professionnel prend une photo pour, par exemple, Reuters et que cette photo est distribuée sur les chaînes d’information internationales de Reuters, les éditeurs qui commandent la photo et les consommateurs qui la regardent auraient accès à un historique complet de données de provenance. Ils sauront si les vaches ont été frappées, si les voitures de police ont été retirées, si quelqu’un a été éjecté du cadre. Des éléments de photos qui, selon Parsons, vous voudriez être cryptographiquement prouvables et vérifiables.

Bien sûr, tout cela repose sur l’idée que nous, les personnes qui regardent des photos, voudrons, ou nous soucierons de, ou saurons comment, vérifier l’authenticité d’une photo. Cela suppose que nous soyons capables de faire la distinction entre le social et la culture et l’actualité, et que ces catégories soient clairement définies. La transparence est excellente, bien sûr ; J’ai quand même craqué pour Balenciaga Pope. L’image du pape François portant une veste élégante a d’abord été publiée dans le subreddit r/Midjourney comme une sorte de mème, diffusée parmi les utilisateurs de Twitter, puis reprise par les organes de presse faisant état de la viralité et des implications de l’image générée par l’IA. L’art, le social, l’actualité, tous ont été également bénis par le pape. Nous savons maintenant que c’est faux, mais Balenciaga Pope vivra pour toujours dans nos cerveaux.

Après avoir vu Magic Editor, j’ai essayé d’articuler quelque chose à Shimrit Ben-Yair sans lui attribuer de valeur morale, c’est-à-dire que j’ai préfacé ma déclaration par « J’essaie de ne pas attribuer de valeur morale à cela ». Il est remarquable, ai-je dit, à quel point le contrôle de nos futurs souvenirs est entre les mains des géants de la technologie en ce moment simplement à cause des outils et de l’infrastructure qui existent pour enregistrer une si grande partie de nos vies.

Ben-Yair a fait une pause de cinq bonnes secondes avant de répondre. « Ouais, je veux dire… je pense que les gens font confiance à Google pour protéger leurs données. Et je vois cela comme une très, très grande responsabilité à assumer. » C’était une réponse oubliable, mais heureusement, j’enregistrais. Sur une application Google.

Après le dévoilement d’Adobe Generative Fill cette semaine, j’ai écrit à Sam Lawton, l’étudiant cinéaste derrière Enfance élargie, pour lui demander s’il envisageait de l’utiliser. Il a toujours un faible pour les générateurs d’images AI comme Midjourney et DALL-E 2, a-t-il écrit, mais voit l’utilité d’Adobe intégrant l’IA générative directement dans son logiciel d’édition le plus populaire.

“Il y a eu un discours sur Twitter depuis un certain temps maintenant sur la façon dont l’IA va prendre tous les emplois de graphistes, faisant généralement référence aux petites entreprises Gen AI qui peuvent générer des logos et ainsi de suite”, déclare Lawton. “En réalité, il devrait être assez évident qu’un grand acteur comme Adobe viendrait et donnerait ces outils directement aux concepteurs pour les garder dans leur écosystème.”

Quant à son court métrage, il dit que la réception a été «intéressante», en ce sens qu’il a beaucoup plus touché les gens qu’il ne le pensait. Il avait pensé que les visages déformés par l’IA, la fausseté évidente de quelques-unes des images fixes, aggravée par le fait qu’elle était enracinée dans sa propre enfance, créeraient une barrière pour que les gens se connectent au film. “D’après ce qu’on m’a dit à plusieurs reprises, cependant, le sentiment de nostalgie, combiné à la vallée étrange, s’est infiltré dans la propre expérience du spectateur”, dit-il.

Lawton me dit qu’il a trouvé que le processus de pouvoir voir plus de contexte autour de ses souvenirs fondamentaux était thérapeutique, même lorsque la mémoire générée par l’IA n’était pas entièrement vraie.

rewrite this content and keep HTML tags

En théorie, ces normes cryptographiques garantissent que si un photographe professionnel prend une photo pour, par exemple, Reuters et que cette photo est distribuée sur les chaînes d’information internationales de Reuters, les éditeurs qui commandent la photo et les consommateurs qui la regardent auraient accès à un historique complet de données de provenance. Ils sauront si les vaches ont été frappées, si les voitures de police ont été retirées, si quelqu’un a été éjecté du cadre. Des éléments de photos qui, selon Parsons, vous voudriez être cryptographiquement prouvables et vérifiables.

Bien sûr, tout cela repose sur l’idée que nous, les personnes qui regardent des photos, voudrons, ou nous soucierons de, ou saurons comment, vérifier l’authenticité d’une photo. Cela suppose que nous soyons capables de faire la distinction entre le social et la culture et l’actualité, et que ces catégories soient clairement définies. La transparence est excellente, bien sûr ; J’ai quand même craqué pour Balenciaga Pope. L’image du pape François portant une veste élégante a d’abord été publiée dans le subreddit r/Midjourney comme une sorte de mème, diffusée parmi les utilisateurs de Twitter, puis reprise par les organes de presse faisant état de la viralité et des implications de l’image générée par l’IA. L’art, le social, l’actualité, tous ont été également bénis par le pape. Nous savons maintenant que c’est faux, mais Balenciaga Pope vivra pour toujours dans nos cerveaux.

Après avoir vu Magic Editor, j’ai essayé d’articuler quelque chose à Shimrit Ben-Yair sans lui attribuer de valeur morale, c’est-à-dire que j’ai préfacé ma déclaration par « J’essaie de ne pas attribuer de valeur morale à cela ». Il est remarquable, ai-je dit, à quel point le contrôle de nos futurs souvenirs est entre les mains des géants de la technologie en ce moment simplement à cause des outils et de l’infrastructure qui existent pour enregistrer une si grande partie de nos vies.

Ben-Yair a fait une pause de cinq bonnes secondes avant de répondre. « Ouais, je veux dire… je pense que les gens font confiance à Google pour protéger leurs données. Et je vois cela comme une très, très grande responsabilité à assumer. » C’était une réponse oubliable, mais heureusement, j’enregistrais. Sur une application Google.

Après le dévoilement d’Adobe Generative Fill cette semaine, j’ai écrit à Sam Lawton, l’étudiant cinéaste derrière Enfance élargie, pour lui demander s’il envisageait de l’utiliser. Il a toujours un faible pour les générateurs d’images AI comme Midjourney et DALL-E 2, a-t-il écrit, mais voit l’utilité d’Adobe intégrant l’IA générative directement dans son logiciel d’édition le plus populaire.

“Il y a eu un discours sur Twitter depuis un certain temps maintenant sur la façon dont l’IA va prendre tous les emplois de graphistes, faisant généralement référence aux petites entreprises Gen AI qui peuvent générer des logos et ainsi de suite”, déclare Lawton. “En réalité, il devrait être assez évident qu’un grand acteur comme Adobe viendrait et donnerait ces outils directement aux concepteurs pour les garder dans leur écosystème.”

Quant à son court métrage, il dit que la réception a été «intéressante», en ce sens qu’il a beaucoup plus touché les gens qu’il ne le pensait. Il avait pensé que les visages déformés par l’IA, la fausseté évidente de quelques-unes des images fixes, aggravée par le fait qu’elle était enracinée dans sa propre enfance, créeraient une barrière pour que les gens se connectent au film. “D’après ce qu’on m’a dit à plusieurs reprises, cependant, le sentiment de nostalgie, combiné à la vallée étrange, s’est infiltré dans la propre expérience du spectateur”, dit-il.

Lawton me dit qu’il a trouvé que le processus de pouvoir voir plus de contexte autour de ses souvenirs fondamentaux était thérapeutique, même lorsque la mémoire générée par l’IA n’était pas entièrement vraie.

Laisser un commentaire