La forma en que los generadores de imágenes representan a los humanos refleja los datos utilizados para entrenar los algoritmos de aprendizaje automático subyacentes. La mayoría de estos datos se recopilan extrayendo texto e imágenes de internet, donde las representaciones de personas queer pueden reforzar estereotipos, como que los gay parezcan afeminados y las lesbianas marimachos. Cuando se utiliza la IA para producir imágenes de otros grupos minoritarios, los usuarios pueden encontrarse con problemas que ponen de manifiesto prejuicios similares.
Según los resultados de Midjourney, una popular herramienta de IA, a las personas bisexuales y no binarias les encanta el pelo texturizado de color lila. Siguiendo con la representación codificada del pelo, Midjourney también muestra repetidamente a mujeres lesbianas con los lados de la cabeza afeitados y tatuajes alrededor del pecho.





La herramienta de IA no consigue aún representar a las personas transexuales de forma realista. Cuando se le pide que genere fotos de un hombre trans como representante electo, Midjourney crea imágenes de alguien con una mandíbula masculina, con traje y posando en un despacho de madera, pero cuyo estilo se ajustaba más a cómo se expresaría una mujer trans femenina: traje rosa, labios rosa y pelo largo y encrespado. Esto refleja con precisión la dificultad que tiene la IA para generar personas trans y no binarias,

Incluso con los mejores modelos de datos y software de IA, la complejidad de la existencia humana puede eludir la rigidez de la categorización algorítmica.
Al amplificar los estereotipos, las herramientas de IA no solamente corren el riesgo de tergiversar los grupos minoritarios para el público en general, sino que estos algoritmos también tienen el potencial de limitar la forma en que las personas queer se ven y se entienden a sí mismas.