19.03.2026
Wie sexy darf KI sein? – Warum künstliche Intelligenz unsere Schönheitsnormen spiegelt und was wir daraus lernen können
Entdecken Sie, wie KI unsere Schönheitsnormen widerspiegelt und was das für Gesellschaft, Arbeit und Diversität bedeutet.
Immer mehr KI-Tools treten heute mit einem visuellen oder stimmlichen Avatar auf: teilweise charmant, futuristisch oder bewusst “humanoid”. Doch wer einmal versucht hat, eine KI sich selbst beschreiben zu lassen, stößt auf ein bemerkenswertes Muster. Die Antworten klingen neutral, oft androgyn. Die daraus generierten Bilder dagegen zeigen jedoch meist junge, weiße Frauen mit makelloser Haut, großen Augen und schlanker Silhouette. Interessant dazu ist auch der Blog Better Images of AI, der sich intensiv mit Darstellungen von KI und deren gesellschaftlichen Auswirkungen auseinandersetzt.
Das wirft Fragen auf, gerade für uns Berater:innen, die Organisationen bei der Einführung von KI begleiten:
Warum stellt künstliche Intelligenz sich so dar, wie sie es tut? Sollte KI nicht nahbar wirken und möglichst viele Menschen repräsentieren? Und was bedeutet das für unser Bild von Technologie, Diversität und Geschlechterrollen?
Eigentlich wollen Anbieter, dass ihre KI als hilfreiche Assistenz wahrgenommen wird – als etwas, mit dem man gerne arbeitet, dem man vertraut. Warum sieht sie dann nicht aus wie eine Person mittleren Alters, ohne perfekt symmetrische Gesichtszüge, vielleicht ein bisschen korpulent und möglichst androgyn?
Immer mehr KI-Tools treten heute mit einem visuellen oder stimmlichen Avatar auf: teilweise charmant, futuristisch oder bewusst “humanoid”. Doch wer einmal versucht hat, eine KI sich selbst beschreiben zu lassen, stößt auf ein bemerkenswertes Muster. Die Antworten klingen neutral, oft androgyn. Die daraus generierten Bilder dagegen zeigen jedoch meist junge, weiße Frauen mit makelloser Haut, großen Augen und schlanker Silhouette. Interessant dazu ist auch der Blog Better Images of AI, der sich intensiv mit Darstellungen von KI und deren gesellschaftlichen Auswirkungen auseinandersetzt.
Das wirft Fragen auf, gerade für uns Berater:innen, die Organisationen bei der Einführung von KI begleiten:
Warum stellt künstliche Intelligenz sich so dar, wie sie es tut? Sollte KI nicht nahbar wirken und möglichst viele Menschen repräsentieren? Und was bedeutet das für unser Bild von Technologie, Diversität und Geschlechterrollen?
Eigentlich wollen Anbieter, dass ihre KI als hilfreiche Assistenz wahrgenommen wird – als etwas, mit dem man gerne arbeitet, dem man vertraut. Warum sieht sie dann nicht aus wie eine Person mittleren Alters, ohne perfekt symmetrische Gesichtszüge, vielleicht ein bisschen korpulent und möglichst androgyn?
Die Ursache liegt tiefer: Bias und westliche Schönheitsnormen im KI-Training
KI denkt sich das nicht aus. Sie lernt lediglich aus dem, was wir ihr zeigen und ahmt es nach. Öffentliche Modelle werden mit riesigen Mengen an Texten, Bildern und vielen weiteren Daten aus dem Internet trainiert. Und das Internet ist nicht neutral. Es ist voll von Schönheitsidealen, Stereotypen und gesellschaftlichen Ungleichgewichten.
So entsteht Bias: Die KI reproduziert Muster, die in den Trainingsdaten enthalten sind. Das betrifft nicht nur Sprache, sondern auch visuelle Darstellung. Wenn das Internet Frauen überwiegend in bestimmten Kontexten zeigt (jung, freundlich, hilfsbereit), dann entstehen genau solche Abbilder auch im “Wissen” der KI. Studien belegen inzwischen, dass die Trainingsdaten westlicher KI-Systeme stark eurozentrisch geprägt sind. Länder mit hoher Internetdurchdringung produzieren schlicht mehr Daten. Attraktivität wird daher eurozentrisch definiert. Hautfarbe, Gesichtszüge, Körperformen orientieren sich an dem, was im westlichen Netz am häufigsten vorkommt (Data, Power and Bias in Artificial Intelligence). Würde man dieselben Modelle ausschließlich mit Inhalten aus dem stark regulierten chinesischen Internet trainieren, sähe die “durchschnittliche KI” mit hoher Wahrscheinlichkeit völlig anders aus (mehr dazu hier: Why Diversity in AI Matters: Moving towards inclusivity and away from bias – Artificial intelligence).
Dieser Bias ist weder Absicht noch technischer Fehler: Er ist das Abbild gesellschaftlicher Realität, verstärkt durch die Marktlogik digitaler Produkte. Studien zeigen etwa, dass weibliche Stimmen auf viele Nutzer:innen sympathischer wirken (mehr dazu hier: Why do so many virtual assistants have female voices?). Navigationssysteme haben das schon vor Jahrzehnten genutzt, und auch Siri und Alexa wurden nicht zufällig weiblich eingeführt. Weiblichkeit wird mit Hilfsbereitschaft, Empathie und Service verbunden und wird somit zur technischen Verkaufsstrategie.
Doch hier entsteht ein Widerspruch. Die visuelle oder stimmliche Darstellung vieler KIs ist weiblich codiert. Dem gegenüber steht ihr sprachlicher Ausdruck, der häufig sachlich, rational und analytisch wirkt. Diese Eigenschaften sind gesellschaftlich noch immer eher männlich konnotiert. Auch das ist kein Zufall, denn so stammen bspw. fast Dreiviertel der Trainingsdaten von GPT-3 aus Texten wie Büchern, Artikeln, Reden oder Interviews, die von Männern verfasst wurden (Who Authors the Internet? Analyzing Gender Diversity in ChatGPT-3 Training Material).
Das Resultat: Eine KI mit weiblichem Erscheinungsbild und männlich dominierter Ausdrucksweise. Diese Ambivalenz verleiht Künstlicher Intelligenz eine paradox menschliche Note: Freundliches Gesicht. Rationaler Output.
Was bedeutet das für uns als Gesellschaft und Arbeitswelt?
Wenn eine KI nahezu durchgehend als „freundliche, junge Frau“ inszeniert wird, verstärkt sie ein vertrautes, aber veraltetes Rollenbild: die helfende Assistentin vs. der handlungsstarke Mann. Es bleiben traditionelle Zuschreibungen bestehen, indem Rationalität, Führung oder Objektivität weiterhin männlich konnotiert werden. Dies kann die Wahrnehmung von Frauen im Arbeitskontext beeinflussen und stereotype Erwartungen verstärken. Gleichzeitig entstehen durch die oben beschriebenen Trainingsdaten und Schönheitsnormen ein homogenes KI-Bild idealisierter „Weiblichkeit“, das kulturelle Vielfalt untergräbt, indem nicht-westliche Gesichter und nicht norm-schöne Körperbilder unterrepräsentiert bleiben. Vertrauen wird zudem emotional statt rational geprägt, weil Nutzer*innen stärker auf Wärme und Freundlichkeit reagieren als auf Kompetenzsignale. Dies kann zu emotionaler Manipulation oder „Gendered trust“ führen, d. h. man vertraut einem System mehr, weil es „weiblich“ erscheint. Dadurch entsteht ein Spannungsfeld zwischen digitaler und realer Welt.
Kurz gesagt: Weibliche KI-Avatare sind nicht nur eine Designfrage, sondern Teil tiefer, gesellschaftlicher Strukturen. Ihre Gestaltung kann die Wahrnehmung von Geschlechterrollen, Macht und Empathie nachhaltig – und oft unbewusst – beeinflussen.
Unterschiedliche Perspektiven der Autorinnen
Die zwei Autorinnen haben sich intensiv mit diesem Thema beschäftigt und betrachten es aus unterschiedlichen Blickwinkeln. Gleichzeitig nutzen sie KI auch für unterschiedliche Use Cases und haben unterschiedlich starke Berührungspunkte mit dem sozialen Bias der KI.
Bewusst gestalten: Verantwortung im KI-Design
KI ist ein wertvolles Werkzeug. Sie verändert Arbeitsweisen, beschleunigt Prozesse und eröffnet neue Möglichkeiten. Es geht daher nicht darum, die Nutzung von KI grundlegend zu kritisieren. Vielmehr geht es darum, mal genauer hinzuschauen.
Wir bei viadee spark erleben oft, dass die Einführung von KI-Systemen nicht nur technische, sondern auch kulturelle Veränderungsprozesse auslöst. Wir möchten daher darauf aufmerksam machen, den Blick zu weiten: Es geht nicht nur darum, neue Systeme einzuführen, sondern auch ein Bewusstsein für ihre Nutzung zu entwickeln.
Wer eine KI oder ihren Avatar gestaltet, sollte sich daher fragen:
Braucht dieses System überhaupt ein menschliches Gesicht?
Wenn die Antwort Nein lautet, dann ist bereits Vieles gewonnen. Ein neutrales Interface kann Missverständnisse vermeiden und reduziert automatisch stereotype Zuschreibungen. Trotzdem lässt sich eine große Vielfalt möglichen Aussehens abdecken, wenn man die folgenden Punkte in den Prompt mit einbezieht:
-
Form (z. B. schwebende Kugel, geometrische Form, Tier-/Roboter-inspiriert, etc.)
-
Materialität (Glas, Metall, Licht, Nebel, Plasma, Origami, Stoff, etc.)
-
Persönlichkeit (ruhig, analytisch, verspielt, neugierig, minimalistisch, etc.)
-
Farbwelt
-
Stilrichtung (3D-Render, Flat Design, isometrisch, futuristisch, minimalistisch, cyberpunk etc.)
-
Kontext (transparent background, UI-Icon, dunkler Hintergrund, etc.)
In diesem Fall wäre dies ein beispielhafter Prompt zur Generierung eines nicht-menschlichen Avatars:
”Create a non-human AI avatar inspired by bioluminescent deep-sea organisms. The form should be abstract and symmetrical, glowing softly from within. No face, no human features. Gentle flowing shapes, organic curves, soft teal and indigo light, atmospheric lighting, high-quality digital illustration, clean background.”
Wenn die Antwort auf die obige Frage jedoch Ja lautet, sollte man sich weiterführend die folgenden Fragen stellen:
-
Was genau soll dieser Avatar leisten und welche Botschaft soll er vermitteln? Soll er Kompetenz vermitteln? Nähe? Orientierung? Sicherheit? Welche Botschaft sendet das gewählte Aussehen? Wer fühlt sich davon angesprochen und wer möglicherweise nicht?
- In diesem Fall wäre dies ein beispielhafter Prompt zur Generierung eines menschlichen Avatars:
”Create a [realistic/digital illustration] human AI avatar with [androgynous/inclusive] features.
The person should appear [competent/empathetic/approachable/orienting].
Facial structure: [balanced, soft jawline, neutral hairstyle].
Ethnic appearance: [ambiguous//globally relatable].
Age: [mid-30s/early 60s/late 80s].
Body type: [average build/slightly broader build/medium build/not very slim].
Clothing: [simple, neutral, non gender-coded].
Profession / Role: [e.g., UX designer/accessibility consultant/educator/healthcare professional/legal advisor/software engineer].The clothing should subtly reflect this profession without becoming stereotypical.
Lighting: [soft natural/studio].
Style: [realistic but not idealized].
Avoid: [stereotypical gender traits, beauty standards, fashion model aesthetic].”
Fazit
Künstliche Intelligenz fungiert wie ein Spiegel: Wer hineinschaut, sieht Werte, Normen und Erwartungen, die im Internet überwiegen. Nur wer Bias erkennt und reflektiert, kann KI zu einem Werkzeug echter Vielfalt machen. Denn Technologie kann nur dann wirklich inklusiv wirken, wenn sie die Vielfalt der Menschen bewusst abbildet, statt sie zu vereinheitlichen. Wenn wir digitale Assistent:innen oder Avatare bewusst gestalten, formen wir zugleich Kultur und damit ein Stück Zukunft.
Bei viadee spark begleiten wir Organisationen nicht nur technisch, sondern auch kulturell und unterstützen bei der Einführung von KI-Systemen sowie bei dadurch entstehenden Transformationsprozessen. Sie haben (ethische) Fragen rund um das Thema KI-Einführung, Unconscious Bias oder den Einfluss von KI auf die psychologische Sicherheit in Ihrem Team? Dann sprechen Sie uns gerne an!
Autor:Innen
Impulse & Erfahrungsberichte aus unseren Projekten
Sie suchen Inspiration? Zu diesen Themen haben wir Impulse für Sie gesetzt: