Vor zwei Wochen stellte ein Forscherpaar der Stanford University eine verblüffende Behauptung auf. Anhand von Hunderttausenden von Bildern einer Dating-Webseite behaupteten sie, ein Gesichtserkennungssystem trainiert zu haben, das allein durch einen Blick erkennen kann, ob jemand heterosexuell oder schwul ist. Die Arbeit wurde zuerst von The Economist vorgestellt, und andere Publikationen folgten bald mit Schlagzeilen wie „New AI can guess whether you’re gay or straight from a photograph“ und „AI Can Tell If You’re Gay From a Photo, and It’s Terrifying.“
Wie Sie vielleicht schon vermutet haben, ist es nicht so einfach. (Und um das klarzustellen, basierend auf dieser Arbeit allein, kann KI nicht anhand eines Fotos erkennen, ob jemand schwul oder hetero ist.) Aber die Studie greift die weit verbreiteten Ängste vor künstlicher Intelligenz auf: dass sie neue Möglichkeiten der Überwachung und Kontrolle eröffnet und besonders für marginalisierte Menschen schädlich sein könnte. Einer der Autoren der Studie, Dr. Michal Kosinski, sagt, er wolle vor den Gefahren der künstlichen Intelligenz warnen und warnt, dass die Gesichtserkennung bald in der Lage sein wird, nicht nur die sexuelle Orientierung einer Person zu erkennen, sondern auch ihre politischen Ansichten, ihre Kriminalität und sogar ihren IQ.
Mit Aussagen wie diesen befürchten einige, dass wir einen alten Glauben mit einer schlechten Geschichte wiederbeleben: dass man den Charakter anhand des Aussehens erkennen kann. Diese Pseudowissenschaft, die Physiognomie, war der Treibstoff für den wissenschaftlichen Rassismus des 19. und 20. Jahrhunderts und gab einigen der schlimmsten Triebe der Menschheit moralischen Deckmantel: Mitmenschen zu dämonisieren, zu verurteilen und auszurotten. Kritiker von Kosinskis Arbeit werfen ihm vor, die Messschieber des 19. Jahrhunderts durch die neuronalen Netze des 21. Jahrhunderts zu ersetzen, während der Professor selbst sagt, er sei entsetzt über seine Erkenntnisse und froh, wenn er widerlegt wird. „Es ist ein kontroverses und beunruhigendes Thema, und es beunruhigt auch uns“, sagt er gegenüber The Verge.
Aber ist es möglich, dass sich die Pseudowissenschaft zurück in die Welt schleicht, getarnt in neuem Gewand dank KI? Einige Leute sagen, dass Maschinen einfach mehr über uns lesen können als wir selbst, aber was ist, wenn wir sie darauf trainieren, unsere Vorurteile auszuführen, und dabei alten Ideen, die wir zu Recht verworfen haben, neues Leben einhauchen? Wie werden wir den Unterschied erkennen?
Kann KI wirklich die sexuelle Orientierung erkennen?
Zunächst müssen wir uns die Studie ansehen, die im Mittelpunkt der jüngsten Debatte steht und von Kosinski und seinem Co-Autor Yilun Wang verfasst wurde. Ihre Ergebnisse wurden schlecht berichtet, wobei ein großer Teil des Hypes auf falschen Darstellungen der Genauigkeit des Systems beruhte. In der Arbeit heißt es: „Angesichts eines einzigen Gesichtsbildes konnte das System in 81 Prozent der Fälle korrekt zwischen schwulen und heterosexuellen Männern unterscheiden, und in 71 Prozent der Fälle für Frauen.“ Diese Raten erhöhen sich, wenn dem System fünf Bilder eines Individuums gegeben werden: bis zu 91 Prozent für Männer und 83 Prozent für Frauen.
Auf den ersten Blick klingt das wie „KI kann in 81 Prozent der Fälle sagen, ob ein Mann schwul oder heterosexuell ist, indem sie sein Foto ansieht.“ (Daher die Überschrift.) Aber das ist nicht, was die Zahlen bedeuten. Die KI lag nicht zu 81 Prozent richtig, als ihr zufällige Fotos gezeigt wurden: Sie wurde mit einem Paar Fotos getestet, einem von einer schwulen Person und einem von einer heterosexuellen Person, und dann gefragt, welche Person eher schwul ist. Es lag in 81 Prozent der Fälle bei Männern und in 71 Prozent der Fälle bei Frauen richtig, aber die Struktur des Tests bedeutet, dass es mit einem Ausgangswert von 50 Prozent begann – das ist der Wert, den es beim Raten nach dem Zufallsprinzip bekommen würde. Und obwohl er deutlich besser war als das, sind die Ergebnisse nicht dasselbe wie zu sagen, dass er die sexuelle Orientierung von jemandem in 81 Prozent der Zeit identifizieren kann.
Wie Philip Cohen, ein Soziologe an der Universität von Maryland, der einen Blog-Post schrieb, der die Arbeit kritisierte, sagte The Verge: „Die Leute haben Angst vor einer Situation, in der du ein Privatleben hast und deine sexuelle Orientierung nicht bekannt ist, und du gehst zu einem Flughafen oder einer Sportveranstaltung und ein Computer scannt die Menge und identifiziert, ob du schwul oder hetero bist. Aber es gibt nicht viele Beweise dafür, dass diese Technologie das kann.“
Kosinski und Wang machen das gegen Ende der Arbeit selbst deutlich, als sie ihr System mit 1.000 Fotos statt mit zwei testen. Sie bitten die KI, in einem Datensatz, in dem 7 Prozent der Fotopersonen schwul sind, herauszufinden, wer am wahrscheinlichsten schwul ist, was in etwa dem Anteil von heterosexuellen und schwulen Männern in der US-Bevölkerung entspricht. Wenn das System gebeten wird, die 100 Personen auszuwählen, die am wahrscheinlichsten schwul sind, erhält es nur 47 von 70 möglichen Treffern. Die restlichen 53 wurden falsch identifiziert. Und bei der Frage nach den Top 10 liegen neun richtig.
Wenn Sie ein böser Schauspieler wären und versuchen würden, dieses System zu benutzen, um schwule Menschen zu identifizieren, könnten Sie nicht sicher sein, dass Sie korrekte Antworten erhalten. Obwohl, wenn man es gegen einen ausreichend großen Datensatz verwendet, könnte man die meisten richtigen Antworten erhalten. Ist das gefährlich? Wenn das System benutzt wird, um Homosexuelle ins Visier zu nehmen, dann ja, natürlich. Aber der Rest der Studie legt nahe, dass das Programm noch weitere Einschränkungen hat.
Was können Computer wirklich sehen, was Menschen nicht können?
Es ist auch nicht klar, welche Faktoren das Gesichtserkennungssystem verwendet, um seine Urteile zu treffen. Die Hypothese von Kosinski und Wang ist, dass es vor allem strukturelle Unterschiede erkennt: weibliche Merkmale in den Gesichtern von schwulen Männern und männliche Merkmale in den Gesichtern von schwulen Frauen. Es ist aber auch möglich, dass die KI durch andere Reize verwirrt wird – etwa durch den Gesichtsausdruck auf den Fotos.
Dies ist besonders relevant, weil die Bilder, die in der Studie verwendet wurden, von einer Dating-Website stammen. Wie Greggor Mattson, Soziologie-Professor am Oberlin College, in einem Blogpost betont, bedeutet dies, dass die Bilder selbst voreingenommen sind, da sie speziell ausgewählt wurden, um jemanden mit einer bestimmten sexuellen Orientierung anzuziehen. Sie spielen mit ziemlicher Sicherheit auf unsere kulturellen Erwartungen an das Aussehen von Schwulen und Heterosexuellen an, und um ihre Anwendbarkeit weiter einzuschränken, waren alle Probanden weiß, ohne dass bisexuelle oder sich selbst identifizierende Trans-Personen einbezogen wurden. Wenn ein heterosexueller Mann das stereotypischste „männliche“ Bild von sich für eine Dating-Website auswählt, sagt das mehr darüber aus, was er denkt, was die Gesellschaft von ihm erwartet, als dass es einen Zusammenhang zwischen der Form seines Kiefers und seiner sexuellen Orientierung gibt.
Um sicherzustellen, dass ihr System nur die Gesichtsstruktur betrachtet, benutzten Kosinski und Wang eine Software namens VGG-Face, die Gesichter als Zahlenketten kodiert und für Aufgaben wie das Aufspüren von Prominenten-Lookalikes in Gemälden verwendet wurde. Dieses Programm, so schreiben sie, erlaubt es ihnen, „die Rolle flüchtiger Merkmale“ wie Beleuchtung, Pose und Gesichtsausdruck zu minimieren.
Aber der Forscher Tom White, der an KI-Gesichtssystemen arbeitet, sagt, dass VGG-Face tatsächlich sehr gut darin ist, diese Elemente aufzuspüren. White wies auf Twitter darauf hin und erklärte The Verge per E-Mail, wie er die Software getestet hat und sie erfolgreich zwischen Gesichtern mit Ausdrücken wie „neutral“ und „glücklich“ sowie Posen und Hintergrundfarbe unterscheiden konnte.
Im Gespräch mit The Verge sagt Kosinski, dass er und Wang explizit darauf hingewiesen haben, dass Dinge wie Gesichtsbehaarung und Make-up ein Faktor für die Entscheidungsfindung der KI sein könnten, aber er behauptet, dass die Gesichtsstruktur am wichtigsten ist. „Wenn man sich die Gesamteigenschaften von VGG-Face ansieht, neigt es dazu, sehr wenig Gewicht auf flüchtige Gesichtsmerkmale zu legen“, sagt Kosinski. „Wir liefern auch Beweise dafür, dass nicht-veränderliche Gesichtsmerkmale prädiktiv für die sexuelle Orientierung zu sein scheinen.“
Das Problem ist, dass wir es nicht sicher wissen können. Kosinski und Wang haben weder das Programm, das sie entwickelt haben, noch die Bilder, mit denen sie es trainiert haben, veröffentlicht. Sie testen ihre KI an anderen Bildquellen, um zu sehen, ob sie einen Faktor identifiziert, der allen Schwulen und Heteros gemeinsam ist, aber diese Tests waren begrenzt und stützten sich auch auf einen voreingenommenen Datensatz – Facebook-Profilbilder von Männern, denen Seiten wie „Ich liebe es, schwul zu sein“ und „Schwul und fabelhaft“ gefielen.
Dienen Männer in diesen Gruppen als vernünftige Stellvertreter für alle schwulen Männer? Wahrscheinlich nicht, und Kosinski sagt, es sei möglich, dass seine Arbeit falsch ist. „Viele weitere Studien müssen durchgeführt werden, um das zu überprüfen“, sagt er. Aber es ist schwierig zu sagen, wie man die Selektionsverzerrung vollständig eliminieren könnte, um einen schlüssigen Test durchzuführen. Kosinski sagt gegenüber The Verge: „Man muss nicht verstehen, wie das Modell funktioniert, um zu testen, ob es richtig ist oder nicht.“ Es ist jedoch die Akzeptanz der Undurchsichtigkeit von Algorithmen, die diese Art von Forschung so heikel macht.
Wenn KI nicht zeigen kann, wie sie funktioniert, können wir ihr vertrauen?
KI-Forscher können nicht vollständig erklären, warum ihre Maschinen die Dinge tun, die sie tun. Das ist eine Herausforderung, die sich durch das gesamte Feld zieht und manchmal als „Blackbox“-Problem bezeichnet wird. Aufgrund der Methoden, die zum Trainieren von KI verwendet werden, können diese Programme ihre Arbeit nicht auf die gleiche Weise zeigen, wie es normale Software tut, obwohl Forscher daran arbeiten, dies zu ändern.
In der Zwischenzeit führt dies zu allen Arten von Problemen. Ein häufiges ist, dass sexistische und rassistische Vorurteile von Menschen in den Trainingsdaten aufgefangen und von der KI reproduziert werden. Im Fall der Arbeit von Kosinski und Wang erlaubt ihnen die „Black Box“ einen besonderen wissenschaftlichen Glaubenssprung. Da sie sich sicher sind, dass ihr System in erster Linie Gesichtsstrukturen analysiert, sagen sie, dass ihre Forschung zeigt, dass Gesichtsstrukturen die sexuelle Orientierung vorhersagen. („Study 1a showed that facial features extracted by a can be used to accurately identify the sexual orientation of both men and women.“)
Experten sagen, dass dies eine irreführende Behauptung ist, die nicht durch die neueste Wissenschaft gestützt wird. Es mag eine gemeinsame Ursache für die Gesichtsform und die sexuelle Orientierung geben – die wahrscheinlichste Ursache ist das Gleichgewicht der Hormone im Mutterleib – aber das bedeutet nicht, dass die Gesichtsform zuverlässig die sexuelle Orientierung vorhersagt, sagt Qazi Rahman, ein Wissenschaftler am King’s College London, der die Biologie der sexuellen Orientierung studiert. „Die Biologie ist ein bisschen nuancierter, als wir ihr oft zugestehen“, sagt er gegenüber The Verge. „Das Problem hier ist die Stärke der Assoziation.“
Die Idee, dass sexuelle Orientierung in erster Linie von der Biologie kommt, ist selbst umstritten. Rahman, der glaubt, dass die sexuelle Orientierung hauptsächlich biologisch ist, lobt die Arbeit von Kosinski und Wang. „Es ist keine Junk-Wissenschaft“, sagt er. „Eher eine Wissenschaft, die jemand nicht mag.“ Aber wenn es um die Vorhersage der sexuellen Orientierung geht, sagt er, gibt es ein ganzes Paket von „atypischem Geschlechtsverhalten“, das berücksichtigt werden muss. „Das Problem für mich ist eher, dass es am Thema vorbeigeht, und das ist das Verhalten.“
Die Frage nach der sexuellen Orientierung auf einen einzelnen, messbaren Faktor im Körper zu reduzieren, hat eine lange und oft unrühmliche Geschichte. Wie Matton in seinem Blogpost schreibt, reichen die Ansätze von „Messungen der Klitoris von Lesben im 19. Jahrhundert und der Hüften von homosexuellen Männern bis hin zu Behauptungen des späten 20. Jahrhunderts, ’schwule Gene‘, ’schwule Gehirne‘, ’schwule Ringfinger‘, ‚lesbische Ohren‘ und ’schwules Kopfhaar‘ entdeckt zu haben.“ Die Auswirkungen dieser Arbeit sind gemischt, aber im schlimmsten Fall ist sie ein Werkzeug der Unterdrückung: Sie gibt Menschen, die sexuelle Minderheiten entmenschlichen und verfolgen wollen, einen „wissenschaftlichen“ Vorwand.
Jenny Davis, Dozentin für Soziologie an der Australian National University, beschreibt dies als eine Form des biologischen Essentialismus. Das ist der Glaube, dass Dinge wie die sexuelle Orientierung im Körper verwurzelt sind. Dieser Ansatz, sagt sie, ist zweischneidig. Auf der einen Seite „leistet er eine nützliche politische Arbeit: die Abkopplung der Schuld vom gleichgeschlechtlichen Begehren. Aber auf der anderen Seite verstärkt er die abgewertete Position dieser Art von Begehren“, indem er Heterosexualität als die Norm aufstellt und Homosexualität als „weniger wertvoll … eine Art Krankheit“ darstellt.“
Und wenn wir Kosinskis und Wangs Forschung in diesem Kontext betrachten, bekommt die KI-gestützte Gesichtserkennung einen noch dunkleren Aspekt – nämlich, so sagen einige Kritiker, als Teil eines Trends zur Rückkehr der Physiognomie, angetrieben durch KI.
Ihr Charakter, so klar wie die Nase in Ihrem Gesicht
Seit Jahrhunderten glauben die Menschen, dass das Gesicht den Schlüssel zum Charakter hält. Die Vorstellung hat ihre Wurzeln im antiken Griechenland, war aber besonders im 19. Jahrhundert einflussreich. Jahrhundert einflussreich. Befürworter der Physiognomie behaupteten, dass sie durch das Messen von Dingen wie dem Winkel der Stirn oder der Form der Nase einer Person feststellen könnten, ob diese ehrlich oder kriminell sei. Letztes Jahr behaupteten KI-Forscher in China, dass sie dasselbe mit Hilfe von Gesichtserkennung tun könnten.
Ihre Forschung, veröffentlicht als „Automated Inference on Criminality Using Face Images“, verursachte einen kleinen Aufruhr in der KI-Gemeinschaft. Wissenschaftler wiesen auf Fehler in der Studie hin und kamen zu dem Schluss, dass die Arbeit menschliche Vorurteile darüber repliziert, was ein „gemeines“ oder „nettes“ Gesicht ausmacht. In einer weit verbreiteten Gegendarstellung mit dem Titel „Physiognomy’s New Clothes“ schrieben der Google-Forscher Blaise Agüera y Arcas und zwei Co-Autoren, dass wir „in den kommenden Jahren mehr Forschung erwarten sollten, die ähnliche … falsche Ansprüche auf wissenschaftliche Objektivität erhebt, um menschliche Vorurteile und Diskriminierung zu ‚waschen‘.“ (Google lehnte es ab, Agüera y Arcas für eine Stellungnahme zu diesem Bericht zur Verfügung zu stellen.)
Kosinski und Wangs Papier erkennt die Gefahren der Physiognomie klar an und stellt fest, dass die Praxis „jetzt allgemein und zu Recht als eine Mischung aus Aberglauben und Rassismus, getarnt als Wissenschaft, abgelehnt wird.“ Aber, so fahren sie fort, nur weil ein Thema „tabu“ ist, bedeutet das nicht, dass es keine Grundlage in der Wahrheit hat. Sie sagen, dass, weil Menschen in der Lage sind, Merkmale wie Persönlichkeit in den Gesichtern anderer Menschen mit „geringer Genauigkeit“ zu lesen, sollten Maschinen in der Lage sein, dasselbe zu tun, aber genauer.
Kosinski sagt, dass seine Forschung keine Physiognomie ist, weil sie strenge wissenschaftliche Methoden verwendet, und sein Papier zitiert eine Reihe von Studien, die zeigen, dass wir (mit unterschiedlicher Genauigkeit) Merkmale über Menschen ableiten können, indem wir sie ansehen. „Ich wurde erzogen und dazu gebracht, zu glauben, dass es absolut unmöglich ist, dass das Gesicht irgendwelche Informationen über deine intimen Charakterzüge enthält, weil Physiognomie und Phrenologie nur Pseudowissenschaften waren“, sagt er. „Aber die Tatsache, dass sie Dinge behaupteten, die keine Grundlage in den Tatsachen hatten, dass sie Zeug erfanden, bedeutet nicht, dass dieses Zeug nicht real ist.“ Er stimmt zu, dass Physiognomie keine Wissenschaft ist, sagt aber, dass es in ihren Grundkonzepten eine Wahrheit geben könnte, die Computer aufdecken können.
Für Davis kommt diese Art von Einstellung von einem weit verbreiteten und falschen Glauben an die Neutralität und Objektivität von KI. „Künstliche Intelligenz ist in Wirklichkeit nicht künstlich“, sagt sie gegenüber The Verge. „Maschinen lernen, wie Menschen lernen. Wir werden durch die Kultur gelehrt und nehmen die Normen der sozialen Struktur auf, und das tut auch die künstliche Intelligenz. Also wird sie die Bahnen, die wir ihr beigebracht haben, neu erschaffen, verstärken und fortsetzen, die immer die bestehenden kulturellen Normen widerspiegeln werden.“
Wir haben bereits sexistische und rassistische Algorithmen geschaffen, und diese Art von kulturellen Vorurteilen und Physiognomie sind wirklich nur zwei Seiten derselben Medaille: Beide verlassen sich auf schlechte Beweise, um andere zu beurteilen. Die Arbeit der chinesischen Forscher ist ein extremes Beispiel, aber es ist sicher nicht das einzige. Es gibt bereits mindestens ein Startup, das behauptet, Terroristen und Pädophile mit Hilfe von Gesichtserkennung erkennen zu können, und es gibt viele andere, die anbieten, „emotionale Intelligenz“ zu analysieren und KI-gestützte Überwachung zu betreiben.
Auf das Kommende vorbereitet sein
Aber um auf die Fragen zurückzukommen, die diese alarmierenden Schlagzeilen über Kosinskis und Wangs Arbeit implizieren: Wird KI zur Verfolgung sexueller Minderheiten eingesetzt werden?
Dieses System? Nein. Ein anderes? Vielleicht.
Kosinskis und Wangs Arbeit ist nicht ungültig, aber ihre Ergebnisse müssen ernsthaft qualifiziert und weiter getestet werden. Ohne das wissen wir über ihr System nur, dass es mit einer gewissen Zuverlässigkeit den Unterschied zwischen selbstidentifizierten schwulen und heterosexuellen weißen Menschen auf einer bestimmten Dating-Website erkennen kann. Wir wissen nicht, dass es einen biologischen Unterschied entdeckt hat, der allen schwulen und heterosexuellen Menschen gemeinsam ist; wir wissen nicht, ob es mit einer größeren Anzahl von Fotos funktionieren würde; und die Arbeit zeigt nicht, dass die sexuelle Orientierung mit nichts anderem als, sagen wir, einer Messung des Kiefers abgeleitet werden kann. Sie hat die menschliche Sexualität ebenso wenig entschlüsselt, wie KI-Chatbots die Kunst einer guten Unterhaltung entschlüsselt haben. (Das behaupten die Autoren auch nicht.)
Die Forschung wurde veröffentlicht, um die Menschen zu warnen, sagt Kosinski, aber er gibt zu, dass es ein „unvermeidliches Paradoxon“ ist, dass man dafür erklären muss, wie man getan hat, was man getan hat. Alle Werkzeuge, die in dem Papier verwendet wurden, sind für jeden verfügbar, um sie selbst zu finden und zusammenzustellen. In einem Beitrag auf der Deep-Learning-Bildungsseite Fast.ai kommt der Forscher Jeremy Howard zu dem Schluss: „Es ist wahrscheinlich anzunehmen, dass viele Organisationen bereits ähnliche Projekte durchgeführt haben, aber ohne sie in der akademischen Literatur zu veröffentlichen.“
Wir haben bereits Startups erwähnt, die an dieser Tech arbeiten, und es ist nicht schwer, Regierungsregime zu finden, die sie nutzen würden. In Ländern wie dem Iran und Saudi-Arabien steht auf Homosexualität immer noch die Todesstrafe; in vielen anderen Ländern bedeutet schwul zu sein, vom Staat gejagt, eingesperrt und gefoltert zu werden. Jüngste Berichte sprachen von der Eröffnung von Konzentrationslagern für schwule Männer in der Tschetschenischen Republik. Was also, wenn jemand dort beschließt, seinen eigenen KI-Gaydar zu bauen und Profilbilder aus russischen sozialen Medien zu scannen?
Hier wird klar, dass die Genauigkeit von Systemen wie dem von Kosinski und Wang nicht wirklich der Punkt ist. Wenn die Menschen glauben, dass KI genutzt werden kann, um sexuelle Präferenzen zu bestimmen, werden sie sie auch nutzen. In diesem Sinne ist es wichtiger denn je, dass wir die Grenzen der künstlichen Intelligenz verstehen, um zu versuchen, Gefahren zu neutralisieren, bevor sie sich auf Menschen auswirken. Bevor wir Maschinen unsere Vorurteile beibringen, müssen wir zuerst uns selbst belehren.