Je crée des modèles d'IA pour vendre des vêtements à de vraies personnes

Au printemps dernier, la marque de vêtements Levi Strauss & Co. a annoncé son intention d'introduire des « modèles personnalisés générés par l'IA » sur ses plateformes d'achat en ligne. Ces « avatars incluant le corps » seraient disponibles dans une gamme de tailles, d'âges et de tons de peau et aideraient Levi's à créer une gamme plus « diversifiée » d'une manière que l'entreprise considérait comme « durable ». Beaucoup de (vraies) personnes étaient consternées. Pourquoi ne pas confier ces emplois à de vrais humains de la taille, de l'âge et de la couleur de peau recherchés par Levi's ? Le terme « durable » n'était-il qu'un langage de relations publiques signifiant « moins cher » ? Levi's a ensuite affirmé son « engagement à soutenir les créatifs multiculturels derrière et devant la caméra ». Mais cela n’a pas laissé tomber le partenariat avec la société basée à Amsterdam qui a créé les modèles, Lalaland.ai. (C'est juste en pause jusqu'à ce que Levi's puisse formuler des directives internes en matière d'IA.)

Cette controverse a mis Lalaland sur la carte et a incité davantage de grandes marques à s'y tourner pour générer des modèles, explique Duy Vo, directeur créatif de Lalaland. WIRED s'est entretenu avec lui pour découvrir comment faire en sorte qu'un algorithme sourie parfaitement et ne fasse pas pousser de doigts supplémentaires.

Le premier pas la création des modèles relève de la recherche. Je vois quel genre de mannequins défilent sur le podium. Je suis les dernières tendances du commerce électronique. Je trouve des modèles, comme quels types de visages sont chauds cette saison. D'une certaine manière, le travail que j'effectue aujourd'hui ressemble à mon ancien travail de photographe de mode pour de grands magazines tels que Vogue et Harper's Bazaar. Je demande aux clients quel type de collection ils souhaitent, quel type de modèle ils voient. Ils peuvent dire quelque chose de large, comme s’ils voulaient une esthétique tirée d’un film de Quentin Tarantino. Je tire des looks, des images fixes et des données de ces images. Ensuite, nous l'envoyons à l'équipe d'apprentissage automatique et, en gros, nous créons un nouveau personnage à la demande.

On commence par réaliser des modèles 3D d’un corps. En plus de cela, nous utilisons l'IA générative pour créer des identités que les clients souhaitent mettre en valeur, avec différentes ethnies, couleurs de cheveux et looks. Vous pouvez ajouter des taches de rousseur, modifier légèrement les sourires et ajouter du vernis à ongles : toutes les touches finales d'un modèle. Avec l’IA, je suis à la fois photographe, coiffeuse et maquilleuse. Et puis je devrai peut-être modifier la conception en fonction des commentaires des clients avec davantage d'incitations ou en utilisant Photoshop. Le simple fait de réparer quelque chose comme une coiffure et de s'assurer qu'elle fonctionne toujours dans toutes les poses peut prendre des jours.

Ensuite, nous « habillons » les modèles. Beaucoup de nos clients utilisent déjà des logiciels 3D pour concevoir des vêtements, c'est donc simple : nous importons simplement ces fichiers et les restituons sur nos modèles. Mais toutes les marques ne conçoivent pas en 3D. Dans ces cas-là, nous récupérons les vêtements des marques et nous les envoyons à un partenaire qui peut les numériser. Ils recréent les motifs, les tissus, la texture et tout ça.

L'IA peut halluciner. On a vu des spectacles d'horreur : des modèles à trois têtes, ou une tête attachée au genou. Les mains et les pieds sont encore difficiles à maîtriser ; ils apparaissent avec trop de doigts ou trop d’orteils. Vous devez revenir en arrière et demander à l'IA de réessayer. Mon rôle est de gérer et de guider le système pour créer des personnes belles, pour filtrer toutes les mauvaises choses.

Le salaire pour un poste comme celui-ci serait comparable à celui d'un emploi technologique aux États-Unis, soit environ 100 000 ou 120 000 dollars. Les salaires sont un peu différents ici à Amsterdam, ce qui rend difficile la comparaison avec la Silicon Valley. Vous n'avez pas besoin de savoir coder pour faire ce travail. Vous devez savoir ce que la technologie est capable de faire, mais vous devez également comprendre la mode et son histoire, et avoir un bon instinct. N’importe qui du secteur de la mode traditionnelle pourrait y accéder en quelques semaines ou quelques mois.

Il est encore difficile de réaliser une campagne publicitaire complète avec l'IA. La mode est si spécifique et vous devez la reproduire exactement. Ajoutez d’autres facteurs comme l’éclairage, et il est difficile de donner à tout cela une belle apparence. Vous souhaiterez toujours que les créateurs d’images traditionnels créent de belles photos. L’IA ressemble davantage à un outil permettant de créer des images pour le commerce. Mais si vous pouvez communiquer votre message à travers des images de synthèse, pourquoi pas ?

— Comme dit à Amanda Hoover

rewrite this content and keep HTML tags

Au printemps dernier, la marque de vêtements Levi Strauss & Co. a annoncé son intention d'introduire des « modèles personnalisés générés par l'IA » sur ses plateformes d'achat en ligne. Ces « avatars incluant le corps » seraient disponibles dans une gamme de tailles, d'âges et de tons de peau et aideraient Levi's à créer une gamme plus « diversifiée » d'une manière que l'entreprise considérait comme « durable ». Beaucoup de (vraies) personnes étaient consternées. Pourquoi ne pas confier ces emplois à de vrais humains de la taille, de l'âge et de la couleur de peau recherchés par Levi's ? Le terme « durable » n'était-il qu'un langage de relations publiques signifiant « moins cher » ? Levi's a ensuite affirmé son « engagement à soutenir les créatifs multiculturels derrière et devant la caméra ». Mais cela n’a pas laissé tomber le partenariat avec la société basée à Amsterdam qui a créé les modèles, Lalaland.ai. (C'est juste en pause jusqu'à ce que Levi's puisse formuler des directives internes en matière d'IA.)

Cette controverse a mis Lalaland sur la carte et a incité davantage de grandes marques à s'y tourner pour générer des modèles, explique Duy Vo, directeur créatif de Lalaland. WIRED s'est entretenu avec lui pour découvrir comment faire en sorte qu'un algorithme sourie parfaitement et ne fasse pas pousser de doigts supplémentaires.

Le premier pas la création des modèles relève de la recherche. Je vois quel genre de mannequins défilent sur le podium. Je suis les dernières tendances du commerce électronique. Je trouve des modèles, comme quels types de visages sont chauds cette saison. D'une certaine manière, le travail que j'effectue aujourd'hui ressemble à mon ancien travail de photographe de mode pour de grands magazines tels que Vogue et Harper's Bazaar. Je demande aux clients quel type de collection ils souhaitent, quel type de modèle ils voient. Ils peuvent dire quelque chose de large, comme s’ils voulaient une esthétique tirée d’un film de Quentin Tarantino. Je tire des looks, des images fixes et des données de ces images. Ensuite, nous l'envoyons à l'équipe d'apprentissage automatique et, en gros, nous créons un nouveau personnage à la demande.

On commence par réaliser des modèles 3D d’un corps. En plus de cela, nous utilisons l'IA générative pour créer des identités que les clients souhaitent mettre en valeur, avec différentes ethnies, couleurs de cheveux et looks. Vous pouvez ajouter des taches de rousseur, modifier légèrement les sourires et ajouter du vernis à ongles : toutes les touches finales d'un modèle. Avec l’IA, je suis à la fois photographe, coiffeuse et maquilleuse. Et puis je devrai peut-être modifier la conception en fonction des commentaires des clients avec davantage d'incitations ou en utilisant Photoshop. Le simple fait de réparer quelque chose comme une coiffure et de s'assurer qu'elle fonctionne toujours dans toutes les poses peut prendre des jours.

Ensuite, nous « habillons » les modèles. Beaucoup de nos clients utilisent déjà des logiciels 3D pour concevoir des vêtements, c'est donc simple : nous importons simplement ces fichiers et les restituons sur nos modèles. Mais toutes les marques ne conçoivent pas en 3D. Dans ces cas-là, nous récupérons les vêtements des marques et nous les envoyons à un partenaire qui peut les numériser. Ils recréent les motifs, les tissus, la texture et tout ça.

L'IA peut halluciner. On a vu des spectacles d'horreur : des modèles à trois têtes, ou une tête attachée au genou. Les mains et les pieds sont encore difficiles à maîtriser ; ils apparaissent avec trop de doigts ou trop d’orteils. Vous devez revenir en arrière et demander à l'IA de réessayer. Mon rôle est de gérer et de guider le système pour créer des personnes belles, pour filtrer toutes les mauvaises choses.

Le salaire pour un poste comme celui-ci serait comparable à celui d'un emploi technologique aux États-Unis, soit environ 100 000 ou 120 000 dollars. Les salaires sont un peu différents ici à Amsterdam, ce qui rend difficile la comparaison avec la Silicon Valley. Vous n'avez pas besoin de savoir coder pour faire ce travail. Vous devez savoir ce que la technologie est capable de faire, mais vous devez également comprendre la mode et son histoire, et avoir un bon instinct. N’importe qui du secteur de la mode traditionnelle pourrait y accéder en quelques semaines ou quelques mois.

Il est encore difficile de réaliser une campagne publicitaire complète avec l'IA. La mode est si spécifique et vous devez la reproduire exactement. Ajoutez d’autres facteurs comme l’éclairage, et il est difficile de donner à tout cela une belle apparence. Vous souhaiterez toujours que les créateurs d’images traditionnels créent de belles photos. L’IA ressemble davantage à un outil permettant de créer des images pour le commerce. Mais si vous pouvez communiquer votre message à travers des images de synthèse, pourquoi pas ?

— Comme dit à Amanda Hoover

Laisser un commentaire