«Pas adapté aux personnes noires»: le générateur viral de headshots LinkedIn montre une fois de plus les problèmes de biais extrêmes de l'IA

  Les personnages sont flous lorsqu'ils traversent un espace de bureau.

Les utilisateurs qui se sont engagés avec Remini, un rehausseur de photos d'intelligence artificielle (IA), pour générer des portraits professionnels pour leurs profils LinkedIn se sont une fois de plus rappelé l'extrême partialité et autres questions autour de l'art de l'IA et génération de photos. La propension de l'IA à générer des photos qui perpétuent la sexualisation des femmes, les stéréotypes raciaux et la dysmorphie corporelle n'est pas un problème nouveau, mais peu semble avoir été fait pour y remédier.

Les progrès de l'IA ont permis aux utilisateurs d'avoir un accès toujours plus important à des systèmes capables de générer facilement de l'art et des photos d'IA. Les utilisateurs peuvent insérer du texte ou une photo dans le système et voir leurs idées prendre vie, car ces générateurs d'art IA ont été alimentés par des centaines de millions d'images et les légendes correspondantes pour pouvoir traduire le texte en images et reconnaître les objets, les styles et les motifs. dans l'ensemble de données. Ils utilisent ce qu'ils apprennent des ensembles de données préexistants pour générer et améliorer de nouvelles photos.

Le problème (plutôt un problème parmi tant d'autres), c'est que ces ensembles de données ne sont pas exempts de biais -loin de là. Certains de ces modèles peuvent être formés spécifiquement sur des ensembles de données qui manquent de diversité et de représentation, ou ils peuvent utiliser des images publiques d'Internet sans aucun moyen de filtrer le racisme et le sexisme qui imprègnent souvent le réseau mondial. Même avec cette connaissance, de nombreux utilisateurs sont toujours choqués par le caractère sexiste, raciste et généralement biaisé de ces systèmes.

Les utilisateurs horrifiés par les générateurs de tirs à la tête de l'IA biaisés

L'amplificateur de photos AI Remini est devenu viral après que des utilisateurs ont récemment affirmé avoir trouvé un hack de prise de vue professionnel sur LinkedIn. Les utilisateurs ont téléchargé des selfies ou des photos de base, combinés à une photo modèle de quelque chose comme une personne en costume d'affaires, pour générer des photos améliorées pour leurs comptes LinkedIn. Certains utilisateurs voient cela comme une alternative moins chère et plus simple à Photoshop ou à l'embauche d'un photographe professionnel. Cependant, le hack ne fonctionne pas pour tout le monde.

L'utilisateur de TikToker @mikefromdc a créé la vidéo ci-dessus, montrant les résultats bizarres, distinctement 'pas adaptés aux Noirs' qu'il a reçus de Remini, qui ont sensiblement éclairci sa peau et, pour une raison quelconque, lui ont donné un durag, même s'il ne portait pas un dans l'une des photos qu'il a soumises pour référence.

Les résultats sont potentiellement encore plus horribles pour les femmes POC qui essaient d'utiliser le générateur. L'artiste Lana Denina a partagé ses résultats sur Twitter, notant que même si elle utilisait de simples selfies faciaux comme référence, Remini produisait des images générées par l'IA du corps entier hypersexualisées. Les images montraient un décolleté substantiel et une photo montrait une femme portant un blazer ouvert sans chemise en dessous. Denina a déclaré qu'elle était 'horrifiée' que tout ce dont le générateur d'IA avait besoin était ses traits du visage pour montrer son parti pris.

Dans les réponses au tweet de Denina, une autre femme a révélé qu'elle avait obtenu des résultats similaires. Elle a également partagé les photos qu'elle a soumises, qui comprenaient une photo d'elle entièrement vêtue des épaules et une photo modèle d'une femme en tenue de travail. Cependant, une fois de plus, le système a généré une photo d'une femme en blazer sans maillot de corps, laissant l'utilisateur perplexe quant à la façon dont le système a généré cela à partir de deux photos professionnelles de femmes.

Encore une fois, les problèmes d'IA hypersexualisant les femmes, et en particulier les femmes de couleur, ne sont pas nouveaux, mais ces exemples étaient particulièrement choquants. Ces utilisateurs ont donné un ton professionnel à la photo avec leur modèle et leurs images de référence, en définissant des paramètres appropriés que l'IA aurait dû pouvoir utiliser efficacement. On peut imaginer à quel point il est choquant de soumettre une simple photo de son visage et de demander une photo professionnelle en retour, pour recevoir à la place des images hypersexualisées et torse nu de tout le corps. Cela semble faire écho aux résultats d'une étude de 2021 qui a révélé que L'IA sexiste est encore plus sexiste que certains auraient pu le penser. Même lorsque ces systèmes reçoivent des 'modèles d'entreprise' et des photos non sexuelles, la simple présence de traits de visage féminins noirs donne une photo sexualisée.

Remini met en évidence une multitude de problèmes qui existent autour des photos générées par l'IA. Même lorsque la prise de conscience se répand du biais dans ces systèmes, cela peut toujours être nocif. Dans la plupart des cas, ces générateurs sont commercialisés comme 'améliorant' les photos et les rendant plus belles. Il est facile de voir d'où vient le mal lorsque les utilisateurs reçoivent des photos avec des traits caucasiens, un décolleté plus large et des corps plus minces et qu'on leur dit que ce sont ceux qui sont considérés comme meilleurs et préférables. Certains utilisateurs ont déjà indiqué qu'ils utilisaient leur Des photos générées par l'IA comme motivation pour perdre du poids .

Les utilisateurs doivent comprendre que les générateurs de photos AI comme Remini ne sont pas des entités neutres. Ils sont extrêmement biaisés et les images qu'ils offrent ne doivent absolument pas être considérées comme réalistes, et encore moins ambitieuses.

(image en vedette : piranka/Getty Images)