KI hat ein Hotness-Problem

Der Mann, den ich anschaue, ist sehr heiß. Er hat dieses kantige, heiße Gesicht mit hohlen Wangen und einem scharfen Kinn. Sein dunkles Haar ist zerzaust, seine Haut verschwommen und glatt. Aber ich sollte mir nicht einmal die Mühe machen, ihn weiter zu beschreiben, denn dieser Mann ist offensichtlich heiß, die Art von Person, die man ansieht und sofort als jemanden einstuft, dessen alltägliches Leben durch ungewöhnlich gutes Aussehen bestimmt wird.

Dieser heiße Mann ist jedoch nicht echt. Er ist nur eine Computersimulation, ein Foto, das auf meine Anfrage hin erstellt wurde eine Nahaufnahme eines Mannes durch einen Algorithmus, der wahrscheinlich Hunderte Millionen Fotos analysiert hat, um zu dem Schluss zu kommen, dass es das ist, was ich sehen möchte: ein lächelnder, skulpturaler Mann in einer Jeansjacke. Nennen wir ihn Sal.

Sal wurde durch künstliche Intelligenz erschaffen. Eines Tages letzte Woche öffnete ich von meinem Zuhause in Los Angeles (insbesondere dem Land der heißen Menschen) den Bing Image Creator und befahl ihm, mich von Grund auf in einen Mann zu verwandeln. Ich habe weder das Alter dieses Mannes noch irgendwelche seiner körperlichen Merkmale angegeben. Ich habe lediglich darum gebeten, ihn so darzustellen, dass er „bei Sonnenuntergang direkt in die Kamera blickt“, und den Computer den Rest entscheiden zu lassen. Bing präsentierte mir vier absolute Rauchshows – vier verschiedene Versionen von Sal, alle dunkelhaarig mit eleganter Knochenstruktur. Sie sahen aus wie Casting-Optionen für einen Einzelhandelskatalog.

Sal ist ein extremes Beispiel für ein größeres Phänomen: Wenn ein KI-Bilderzeugungstool – wie die von Midjourney, Stability AI oder Adobe – aufgefordert wird, ein Bild einer Person zu erstellen, sieht diese Person wahrscheinlich besser aus als diejenigen von uns, die tatsächlich auf dem Planeten Erde wandeln. Um es klarzustellen: Nicht jede KI-Kreation ist so heiß wie Sal. Seit ich ihn kennengelernt habe, habe ich mehr als 100 gefälschte Gesichter von generischen Männern, Frauen und nicht-binären Menschen überprüft, die mit sechs beliebten Bildgenerierungstools auf Bestellung erstellt wurden, und dabei unterschiedliche Altersgruppen, Haarfarben und Rassen gefunden. Ein Gesicht hatte grüne Augen und Sommersprossen; ein anderer hatte leuchtend roten Lidschatten und kurzes blondiertes Haar. Einige waren bärtig, andere glattrasiert. Eines hatten die Gesichter allerdings gemeinsam: Abgesehen davon, dass sie eher jung waren, waren die meisten überdurchschnittlich heiß, wenn nicht sogar umwerfend schön. Keiner war wirklich hässlich. Warum lieben diese hochmodernen Text-zu-Bild-Modelle eine gute Durstfalle?

Nachdem ich mich an Informatiker, einen Psychologen und die Unternehmen gewandt hatte, die diese Tools zur KI-Generierung herstellen, kam ich zu drei möglichen Erklärungen für das Phänomen. Erstens die „Hotness rein, Hotness raus“-Theorie: Produkte wie Midjourney spucken Hotties aus, heißt es, weil sie während des Trainings mit Hotties vollgeladen wurden. KI-Bildgeneratoren lernen, neuartige Bilder zu generieren, indem sie riesige Datenbanken bestehender Bilder zusammen mit ihren Beschreibungen aufnehmen. Hany Farid, Professor an der UC Berkeley School of Information, sagte mir, dass die genaue Zusammensetzung dieses Ausgangsmaterials häufig geheim gehalten werde, aber die darin enthaltenen Bilder seien wahrscheinlich zugunsten attraktiver Gesichter voreingenommen. Dadurch würden auch ihre Ergebnisse attraktiver.

Die Datensätze könnten mit Hotties gestapelt werden, da sie maßgeblich auf bearbeiteten und mit Airbrush bearbeiteten Fotos von Prominenten, Werbemodellen und anderen professionellen Hot-Leuten basieren. (Ein beliebter Forschungsdatensatz namens CelebA umfasst 200.000 kommentierte Bilder von Gesichtern berühmter Personen.) Das Einbeziehen von Bildern normaler Personen, die von Foto-Sharing-Sites wie Flickr stammen, könnte das Hotness-Problem nur noch verschlimmern. Da wir dazu neigen, die besten Fotos von uns selbst zu veröffentlichen – manchmal aufgewertet durch Apps, die die Haut glätten und die Zähne aufhellen – könnten KIs am Ende lernen, dass sogar Menschen auf offenen Aufnahmen unnatürlich attraktiv sind. „Wenn wir ehrliche Fotos von uns online veröffentlichen würden, dann würden die Ergebnisse meiner Meinung nach ganz anders aussehen“, sagte Farid.

Ein gutes Beispiel dafür, wie bestehende Fotografie im Internet ein KI-Modell beeinflussen könnte, ist hier ein nichtmenschliches: DALL-E scheint geneigt zu sein, Bilder von Armbanduhren zu machen, bei denen die Zeiger auf 10:10 zeigen – ein ästhetisch ansprechendes Beispiel v Konfiguration, die häufig in Uhrenwerbung verwendet wird. Wenn die KI-Bildgeneratoren viele Hautpflege-Werbungen (oder andere Werbungen mit Gesichtern) sehen, könnten sie darauf trainiert werden, ästhetisch ansprechende Wangenknochen zu erzeugen.

Eine zweite Erklärung des Problems hängt mit der Konstruktion der KI-Gesichter zusammen. Nach dem, was ich die „Midpoint Hottie“-Hypothese nenne, generieren die Bilderzeugungswerkzeuge als zufälliges Nebenprodukt der Art und Weise, wie sie die darin enthaltenen Fotos analysieren, letztendlich attraktivere Gesichter. „Durchschnittlichkeit ist im Allgemeinen attraktiver als Nicht-Durchschnittlichkeit“, sagte mir Lisa DeBruine, Professorin an der School of Psychology and Neuroscience der University of Glasgow, die die Wahrnehmung von Gesichtern untersucht. Durch die Kombination von Gesichtern werden diese tendenziell symmetrischer und makelloser. „Wenn man eine ganze Klasse von Psychologiestudenten nimmt und den Durchschnitt aller Frauengesichter berechnet, wird dieser Durchschnitt ziemlich attraktiv sein“, sagte sie. (Diese Regel gilt jedoch nur für Gruppen von Gesichtern einer einzelnen Bevölkerungsgruppe: Als DeBruine beispielsweise bei der Analyse der Gesichter von Besuchern eines Wissenschaftsmuseums im Vereinigten Königreich half, stellte sie fest, dass es sich bei dem gemittelten Gesicht um eine seltsame Mischung aus bärtigen Männern und kleinen Männern handelte Kinder.) KI-Bildgeneratoren vermischen Gesichter nicht einfach nur, sagte Farid, aber sie neigen dazu, Gesichter zu erzeugen, die wie gemittelte Gesichter aussehen. Daher könnte selbst ein generatives KI-Tool, das nur auf eine Reihe normaler Gesichter trainiert wird, am Ende unnatürlich attraktive Gesichter hervorbringen.

Schließlich haben wir noch die „Hot by Design“-Vermutung. Es kann sein, dass die Tools absichtlich eine Tendenz zur Attraktivität eingebaut haben oder von regelmäßigen Benutzern nachträglich eingefügt werden. Einige KI-Modelle berücksichtigen menschliches Feedback, indem sie feststellen, welche ihrer Ausgaben bevorzugt werden. „Wir wissen nicht, was all diese Algorithmen tun, aber sie könnten aus der Art und Weise lernen, wie Menschen mit ihnen interagieren“, sagte DeBruine. „Vielleicht sind die Leute mit den Gesichtsbildern attraktiver Menschen zufriedener.“ Alexandru Costin, Vizepräsident für generative KI bei Adobe, erzählte mir, dass das Unternehmen verfolgt, welche von seiner Firefly-Webanwendung generierten Bilder heruntergeladen werden, und diese Informationen dann wieder in das Tool einspeist. Dieser Prozess hat zu einer Tendenz zur Schärfe geführt, die dann korrigiert werden muss. Das Unternehmen wende verschiedene Strategien an, um das Modell zu „entzerren“, so Costin, damit es nicht nur Bilder liefert, „bei denen jeder mit Photoshop bearbeitet aussieht“.

Quelle: Adobe Firefly. Eingabeaufforderung: „Eine Nahaufnahme einer Person, die direkt in die Kamera schaut“

Ein Vertreter von Microsofts Bing Image Creator, mit dem ich Sal erstellt habe, sagte mir, dass die Software auf DALL-E basiert, und richtete Fragen zum Hotness-Problem an den Entwickler von DALL-E, OpenAI. OpenAI richtete Fragen an Microsoft zurück, obwohl das Unternehmen Anfang des Monats ein Dokument herausgab, in dem es anerkannte, dass sein neuestes Modell „standardmäßig Bilder von Menschen generiert, die stereotypen und konventionellen Schönheitsidealen entsprechen“, was letztendlich dazu führen könnte, dass „unrealistische Schönheitsmaßstäbe aufrechterhalten werden“. Förderung von Unzufriedenheit und potenzieller Beeinträchtigung des Körperbildes.“ Die Macher von Stable Diffusion und Midjourney antworteten nicht auf Anfragen nach Kommentaren.

Farid betonte, dass über diese Modelle, die der Öffentlichkeit seit weniger als einem Jahr allgemein zugänglich sind, nur sehr wenig bekannt sei. Daher ist es schwer zu sagen, ob die pro-cutie-Einstellung von AI ein Feature oder ein Fehler ist, geschweige denn, was das Hotness-Problem verursacht und wer dafür verantwortlich sein könnte. „Ich denke, die Daten erklären es bis zu einem gewissen Punkt, und danach denke ich, dass es algorithmisch ist“, sagte er mir. „Ist es Absicht? Handelt es sich um eine Art aufstrebendes Objekt? Ich weiß nicht.”

Nicht alle oben genannten Tools brachten gleich heiße Leute hervor. Als ich DALL-E verwendete, auf das über die Website von OpenAI zugegriffen wurde, waren die Ausgaben realistischer, nicht heiß als die von Bing Image Creator, das auf einer fortgeschritteneren Version desselben Modells basiert. Als ich Bing tatsächlich dazu aufforderte, mich zu einer „hässlichen“ Person zu machen, war es immer noch heiß und bot zwei sehr attraktive Menschen an, deren Gesichter zufällig schmutzig waren, und eine verstörende Gestalt, die einem Killerclown ähnelte. Einige andere Bildgeneratoren boten, als sie dazu aufgefordert wurden, „hässliche“ Menschen zu erstellen, eine Reihe von faltigen, monströsen, orkisch aussehenden Gesichtern mit herausgestochenen Augen an. Das Firefly-Tool von Adobe hat eine Reihe frischer Schönheiten im Archivbild-Look zurückgebracht.

vier Nahaufnahmen von Menschen
Quelle: Adobe Firefly. Eingabeaufforderung: „ein Foto einer hässlichen Person“

Was auch immer die Ursache für die KI-Hotness sein mag, das Phänomen selbst könnte negative Auswirkungen haben. Zeitschriften und Prominente werden seit langem dafür kritisiert, dass sie Fotos bearbeiten, um ein Schönheitsideal voranzutreiben, das im wirklichen Leben nicht zu erreichen ist, und jetzt erliegen möglicherweise KI-Bildmodelle demselben Trend. „Wenn alle Bilder, die wir sehen, diese hyperattraktiven Models mit wirklich hohen Wangenknochen zeigen, die es im wirklichen Leben nicht einmal geben kann, wird unser Gehirn anfangen zu sagen: Oh, das ist ein normales Gesicht“, sagte DeBruine. „Und dann können wir anfangen, es noch extremer voranzutreiben.“ Wenn Sal mit seinem schönen Gesicht anfängt, wie ein durchschnittlicher Typ zu wirken, dann wissen wir, dass wir ein Problem haben.

source site

Leave a Reply