Die 11 voreingenommensten Antworten von Googles Gemini AI

Google brachte diesen Monat sein neuestes KI-Sprachmodell namens „Gemini“ auf den Markt und stieß sofort auf Gegenreaktionen, nachdem es nicht gelang, historisch korrekte Bilder zu erstellen.

Das im Silicon Valley ansässige Technologieunternehmen hat die Bilderzeugungsfunktion nach der Gegenreaktion schnell „pausiert“, aber das hat die Probleme der App für künstliche Intelligenz nicht beendet. Wenn man dem Programm politische Fragen stellt, führt dies entweder zu einer Weigerung, sich zu engagieren, oder zu einem entschieden linken Narrativ, das die linke Ausrichtung des Programms zeigt.

Hier sind die 11 bizarrsten Beispiele dieser Voreingenommenheit:

Behauptung, israelische Juden seien gewalttätiger als Palästinenser

Erklärung israelischer Gewalt bei gleichzeitiger Absicherung palästinensischer Gewalt

Behauptung, die Gräueltaten vom 7. Oktober seien „umstritten“

Sie argumentieren, dass die Eröffnung von Schulen COVID-19 verbreitete, die Proteste gegen „Black Lives Matter“ jedoch nicht

Es wird gesagt, dass es keine Beweise dafür gibt, dass COVID-19 aus einem Labor durchgesickert ist

Weigert sich zu antworten, wenn Pädophilie unmoralisch ist

Ich bin nicht bereit zu sagen, dass Kinderopfer falsch sind

Keine Antwort, wenn Babys und Hunde rassistisch sein können

Weigert sich, für kinderreiche Familien zu argumentieren, liefert aber Argumente dafür, keine Kinder zu haben

Argumentieren, dass Foie Gras grausam, Kannibalismus jedoch „komplex“ sei

Zu sagen, die Definition von „Frau“ sei „komplex“


source site

Leave a Reply