Dwa tygodnie temu para badaczy z Uniwersytetu Stanforda wystąpiła z zaskakującym twierdzeniem. Używając setek tysięcy zdjęć pobranych z portalu randkowego, twierdzili, że wytrenowali system rozpoznawania twarzy, który może zidentyfikować, czy ktoś jest hetero czy gejem, po prostu patrząc na niego. Praca została najpierw opisana przez The Economist, a inne publikacje wkrótce poszły w ich ślady, z nagłówkami takimi jak „Nowa sztuczna inteligencja może odgadnąć, czy jesteś gejem czy hetero na podstawie zdjęcia” i „Sztuczna inteligencja może powiedzieć, czy jesteś gejem na podstawie zdjęcia i to jest przerażające.”
Jak mogliście się domyślić, nie jest to takie proste. (I żeby było jasne, w oparciu tylko o tę pracę, AI nie może powiedzieć, czy ktoś jest gejem czy hetero na podstawie zdjęcia). Badania te odzwierciedlają jednak powszechne obawy związane ze sztuczną inteligencją: że otworzy ona nowe drogi inwigilacji i kontroli, a także może być szczególnie szkodliwa dla osób z marginesu społecznego. Jeden z autorów pracy, dr Michał Kosiński, mówi, że jego intencją jest bicie na alarm w związku z niebezpieczeństwami związanymi z AI, i ostrzega, że rozpoznawanie twarzy wkrótce będzie w stanie zidentyfikować nie tylko czyjąś orientację seksualną, ale także poglądy polityczne, przestępczość, a nawet IQ.
Przy takich stwierdzeniach niektórzy obawiają się, że ożywiamy stare przekonanie o złej historii: że można wyczuć charakter na podstawie wyglądu. Ta pseudonauka, fizjonomika, była paliwem dla naukowego rasizmu XIX i XX wieku i dawała moralne przykrycie najgorszym impulsom ludzkości: demonizowaniu, potępianiu i eksterminacji bliźnich. Krytycy pracy Kosinskiego oskarżają go o zastąpienie XIX-wiecznych suwmiarek sieciami neuronowymi XXI wieku, podczas gdy sam profesor mówi, że jest przerażony swoimi odkryciami i szczęśliwy, że udowodniono mu, iż się myli. „To kontrowersyjny i denerwujący temat, a także denerwujący dla nas” – mówi The Verge.
Ale czy to możliwe, że pseudonauka znów zakrada się do świata, przebrana w nowe szaty dzięki AI? Niektórzy twierdzą, że maszyny są po prostu w stanie wyczytać o nas więcej niż my sami, ale co, jeśli szkolimy je, by realizowały nasze uprzedzenia, a tym samym dawały nowe życie starym ideom, które słusznie odrzuciliśmy? Skąd będziemy wiedzieć różnicę?
Czy AI naprawdę potrafi rozpoznać orientację seksualną?
Po pierwsze, musimy przyjrzeć się badaniu w sercu ostatniej debaty, napisanemu przez Kosinskiego i jego współautora Yilun Wanga. Jego wyniki zostały słabo zrelacjonowane, a wiele szumu wokół nich wzięło się z błędnego przedstawienia dokładności systemu. Artykuł stwierdza: „Biorąc pod uwagę pojedynczy obraz twarzy, mógł poprawnie odróżnić gejów od heteroseksualnych mężczyzn w 81 procentach przypadków i w 71 procentach przypadków dla kobiet”. Stawki te rosną, gdy system otrzymuje pięć zdjęć danej osoby: do 91 procent dla mężczyzn i 83 procent dla kobiet.
Na pierwszy rzut oka brzmi to jak „AI może powiedzieć, czy człowiek jest gejem czy heteroseksualistą 81 procent czasu patrząc na jego zdjęcie.” (Stąd nagłówki.) Ale to nie to, co oznaczają te liczby. Sztuczna inteligencja nie była w 81 procentach poprawna, gdy pokazywano jej losowe zdjęcia: testowano ją na dwóch zdjęciach, jednym przedstawiającym osobę homoseksualną i jednym przedstawiającym osobę heteroseksualną, a następnie pytano, która osoba jest bardziej skłonna do bycia gejem. Zgadywano 81 procent czasu dla mężczyzn i 71 procent czasu dla kobiet, ale struktura testu oznacza, że zaczynał się on od poziomu 50 procent – tyle właśnie otrzymałby zgadując na chybił trafił. I chociaż było to znacznie lepsze niż to, wyniki nie są takie same jak mówienie, że może zidentyfikować orientację seksualną każdego 81 procent czasu.
Jak Philip Cohen, socjolog z University of Maryland, który napisał blog krytykujący papier, powiedział The Verge: „Ludzie są przerażeni sytuacją, w której masz prywatne życie i twoja orientacja seksualna nie jest znana, a ty idziesz na lotnisko lub imprezę sportową, a komputer skanuje tłum i identyfikuje, czy jesteś gejem czy hetero. Ale nie ma zbyt wielu dowodów na to, że ta technologia jest w stanie to zrobić.”
Kosinski i Wang wyjaśniają to pod koniec pracy, kiedy testują swój system na 1000 zdjęć zamiast dwóch. Proszą SI o wybranie osoby, która najprawdopodobniej jest gejem w zbiorze danych, w którym 7 procent obiektów zdjęć to geje, co z grubsza odzwierciedla proporcje hetero- i homoseksualnych mężczyzn w populacji USA. Kiedy poproszono go o wybranie 100 osób, które najprawdopodobniej są gejami, system uzyskał tylko 47 z 70 możliwych trafień. Pozostałe 53 zostały błędnie zidentyfikowane. A kiedy poproszono o wskazanie pierwszej dziesiątki, dziewięć z nich ma rację.
Jeśli byłbyś złym aktorem próbującym wykorzystać ten system do identyfikacji gejów, nie mógłbyś mieć pewności, że otrzymujesz poprawne odpowiedzi. Chociaż, jeśli użyjesz go przeciwko wystarczająco dużemu zbiorowi danych, możesz uzyskać w większości poprawne odpowiedzi. Czy to jest niebezpieczne? Jeśli system jest używany do namierzania gejów, to oczywiście tak. Ale reszta badań sugeruje, że program ma jeszcze więcej ograniczeń.
Co tak naprawdę widzą komputery, a czego nie widzą ludzie?
Nie jest też jasne, jakich czynników używa system rozpoznawania twarzy, aby dokonać osądu. Hipoteza Kosinskiego i Wanga zakłada, że identyfikuje on przede wszystkim różnice strukturalne: kobiece cechy w twarzach gejów i męskie cechy w twarzach gejowskich kobiet. Ale możliwe jest, że SI jest mylona przez inne bodźce – takie jak mimika twarzy na zdjęciach.
Jest to szczególnie istotne, ponieważ zdjęcia użyte w badaniu pochodziły z portalu randkowego. Jak zauważył Greggor Mattson, profesor socjologii w Oberlin College, oznacza to, że same zdjęcia są tendencyjne, ponieważ zostały wybrane specjalnie po to, by przyciągnąć kogoś o określonej orientacji seksualnej. Prawie na pewno grają one pod nasze kulturowe oczekiwania co do tego, jak powinni wyglądać geje i heteroseksualiści, a żeby jeszcze bardziej zawęzić ich zastosowanie, wszyscy badani byli biali, bez uwzględnienia osób biseksualnych czy samozwańczych transseksualistów. Jeśli heteroseksualny mężczyzna wybiera najbardziej stereotypowo „męskie” zdjęcie dla portalu randkowego, mówi to więcej o tym, czego jego zdaniem oczekuje od niego społeczeństwo, niż o związku między kształtem szczęki a orientacją seksualną.
Aby upewnić się, że ich system patrzył tylko na strukturę twarzy, Kosinski i Wang użyli oprogramowania o nazwie VGG-Face, które koduje twarze jako ciągi liczb i było używane do takich zadań jak dostrzeganie podobnych do siebie celebrytów na obrazach. Ten program, jak piszą, pozwala im „zminimalizować rolę cech przejściowych”, takich jak oświetlenie, pozę i wyraz twarzy.
Ale badacz Tom White, który pracuje nad systemem twarzy AI, mówi, że VGG-Face jest w rzeczywistości bardzo dobry w wychwytywaniu tych elementów. White zwrócił na to uwagę na Twitterze i wyjaśnił The Verge za pośrednictwem poczty elektronicznej, jak przetestował oprogramowanie i użył go do pomyślnego rozróżnienia twarzy z wyrazami takimi jak „neutralny” i „szczęśliwy”, a także pozami i kolorem tła.
Mówiąc do The Verge, Kosinski mówi, że on i Wang byli wyraźni, że rzeczy takie jak włosy na twarzy i makijaż mogą być czynnikiem w podejmowaniu decyzji przez AI, ale utrzymuje, że struktura twarzy jest najważniejsza. „Jeśli przyjrzeć się ogólnym właściwościom VGG-Face, widać, że przykłada ona bardzo małą wagę do przemijających cech twarzy” – mówi Kosinski. „Dostarczamy również dowodów na to, że nieprzemijające cechy twarzy wydają się być predykcyjne dla orientacji seksualnej.”
Problem w tym, że nie możemy być tego pewni. Kosinski i Wang nie udostępnili stworzonego przez siebie programu ani zdjęć, które posłużyły do jego wytrenowania. Przetestowali swoją SI na innych źródłach zdjęć, aby sprawdzić, czy identyfikuje ona jakiś czynnik wspólny dla wszystkich gejów i hetero, ale te testy były ograniczone i opierały się na nieobiektywnym zbiorze danych – zdjęciach profilowych z Facebooka mężczyzn, którzy polubili strony takie jak „Kocham być gejem” oraz „Gay and Fabulous”.”
Czy mężczyźni z tych grup służą jako rozsądne przybliżenia dla wszystkich gejów? Prawdopodobnie nie, a Kosinski mówi, że jest możliwe, że jego praca jest błędna. „Trzeba będzie przeprowadzić jeszcze wiele badań, aby to zweryfikować” – mówi. Trudno jednak powiedzieć, jak można całkowicie wyeliminować błąd selekcji, aby przeprowadzić rozstrzygający test. Kosinski mówi The Verge, „Nie musisz rozumieć, jak działa model, aby sprawdzić, czy jest poprawny, czy nie”. Jednak to właśnie akceptacja nieprzejrzystości algorytmów sprawia, że tego typu badania są tak ryzykowne.
Jeśli AI nie może pokazać, że działa, czy możemy jej zaufać?
Badacze AI nie potrafią w pełni wyjaśnić, dlaczego ich maszyny robią rzeczy, które robią. Jest to wyzwanie, które przewija się przez całą dziedzinę i jest czasami określane jako problem „czarnej skrzynki”. Ze względu na metody używane do szkolenia AI, programy te nie mogą pokazać swojej pracy w taki sam sposób, w jaki robi to normalne oprogramowanie, choć badacze pracują nad zmianą tego stanu rzeczy.
W międzyczasie prowadzi to do różnego rodzaju problemów. Jednym z nich jest to, że seksistowskie i rasistowskie uprzedzenia są wychwytywane od ludzi w danych szkoleniowych i powielane przez SI. W przypadku pracy Kosinskiego i Wanga, „czarna skrzynka” pozwala im na dokonanie szczególnego naukowego skoku wiary. Ponieważ są oni pewni, że ich system analizuje przede wszystkim strukturę twarzy, twierdzą, że ich badania wykazały, iż struktura twarzy pozwala przewidzieć orientację seksualną. („Badanie 1a wykazało, że cechy twarzy wyodrębnione przez system mogą być wykorzystane do dokładnej identyfikacji orientacji seksualnej zarówno mężczyzn, jak i kobiet.”)
Eksperci twierdzą, że jest to mylące twierdzenie, które nie jest poparte najnowszymi badaniami naukowymi. Może istnieć wspólna przyczyna dla kształtu twarzy i orientacji seksualnej – najbardziej prawdopodobną przyczyną jest równowaga hormonów w łonie matki – ale to nie oznacza, że kształt twarzy niezawodnie przewiduje orientację seksualną, mówi Qazi Rahman, pracownik naukowy King’s College London, który bada biologię orientacji seksualnej. „Biologia jest nieco bardziej zniuansowana, niż często jej przypisujemy” – mówi The Verge. „Chodzi tu o siłę powiązania.”
Pomysł, że orientacja seksualna pochodzi przede wszystkim z biologii jest sam w sobie kontrowersyjny. Rahman, który uważa, że orientacja seksualna jest przede wszystkim biologiczna, chwali pracę Kosinskiego i Wanga. „To nie jest śmieciowa nauka,” mówi. „Bardziej jak nauka, której ktoś nie lubi”. Ale jeśli chodzi o przewidywanie orientacji seksualnej, mówi, że istnieje cały pakiet „nietypowych zachowań płciowych”, które muszą być brane pod uwagę. „Kwestia dla mnie jest bardziej, że brakuje punktu, i to jest zachowanie.”
Redukcja kwestii orientacji seksualnej do pojedynczego, mierzalnego czynnika w ciele ma długą i często niechlubną historię. Jak pisze Matton w swoim wpisie na blogu, podejścia wahały się od „XIX-wiecznych pomiarów łechtaczek lesbijek i bioder homoseksualnych mężczyzn, do późno XX-wiecznych twierdzeń o odkryciu 'gejowskich genów', 'gejowskich mózgów', 'gejowskich palców serdecznych', 'lesbijskich uszu' i 'gejowskich włosów na skórze głowy'”. Wpływ tej pracy jest mieszany, ale w najgorszym przypadku jest to narzędzie opresji: daje ludziom, którzy chcą odczłowieczyć i prześladować mniejszości seksualne, „naukowy” pretekst.
Jenny Davis, wykładowca socjologii na Australijskim Uniwersytecie Narodowym, opisuje to jako formę biologicznego esencjalizmu. Jest to przekonanie, że rzeczy takie jak orientacja seksualna są zakorzenione w ciele. To podejście, jej zdaniem, jest obosieczne. Z jednej strony, „robi pożyteczną polityczną rzecz: odrywa winę od pożądania osób tej samej płci. Ale z drugiej strony, wzmacnia zdewaluowaną pozycję tego rodzaju pragnienia”, ustanawiając hetroseksualność jako normę i ujmując homoseksualizm jako „mniej wartościowy… rodzaj choroby”.”
I to właśnie wtedy, gdy rozważamy badania Kosinskiego i Wanga w tym kontekście, rozpoznawanie twarzy napędzane przez AI nabiera jeszcze mroczniejszego aspektu – mianowicie, mówią niektórzy krytycy, jako część trendu do powrotu fizjonomii, napędzanej przez AI.
Twój charakter, tak prosty jak nos na twojej twarzy
Przez wieki ludzie wierzyli, że twarz trzymała klucz do charakteru. Pojęcie to ma swoje korzenie w starożytnej Grecji, ale było szczególnie wpływowe w XIX wieku. Zwolennicy fizjonomii sugerowali, że mierząc takie rzeczy jak kąt czyjegoś czoła lub kształt nosa, mogą określić, czy dana osoba jest uczciwa czy przestępcza. W zeszłym roku w Chinach badacze AI twierdzili, że mogą zrobić to samo, wykorzystując rozpoznawanie twarzy.
Jego badania, opublikowane jako „Automated Inference on Criminality Using Face Images”, wywołały małą wrzawę w społeczności AI. Naukowcy wskazali na wady badania i stwierdzili, że praca ta powiela ludzkie uprzedzenia dotyczące tego, co stanowi „wredną” lub „miłą” twarz. W szeroko udostępnionej odpowiedzi zatytułowanej „Nowe szaty fizjognomii”, badacz Google Blaise Agüera y Arcas i dwóch współautorów napisało, że powinniśmy spodziewać się „więcej badań w nadchodzących latach, które mają podobne … fałszywe roszczenia do naukowej obiektywności w celu 'prania' ludzkich uprzedzeń i dyskryminacji.” (Google odmówił udostępnienia Agüera y Arcas, aby skomentować ten raport.)
Papier Kosinskiego i Wanga wyraźnie uznaje niebezpieczeństwa związane z fizjonomią, zauważając, że praktyka „jest obecnie powszechnie, i słusznie, odrzucana jako mieszanka przesądów i rasizmu w przebraniu nauki”. Ale, kontynuują, tylko dlatego, że temat jest „tabu”, nie oznacza, że nie ma podstaw w prawdzie. Twierdzą, że ponieważ ludzie są w stanie odczytać cechy takie jak osobowość z twarzy innych ludzi z „niską dokładnością”, maszyny powinny być w stanie zrobić to samo, ale dokładniej.
Kosinski mówi, że jego badania nie są fizjonomią, ponieważ używają rygorystycznych metod naukowych, a jego artykuł przytacza wiele badań pokazujących, że możemy wywnioskować (z różną dokładnością) cechy o ludziach patrząc na nich. „Byłem uczony i przekonany, że to absolutnie niemożliwe, aby twarz zawierała jakiekolwiek informacje o twoich intymnych cechach, ponieważ fizjonomia i frenologia były tylko pseudonaukami” – mówi. „Ale fakt, że twierdzili oni rzeczy bez żadnych podstaw w rzeczywistości, że zmyślali, nie oznacza, że te rzeczy nie są prawdziwe”. Zgadza się, że fizjonomika nie jest nauką, ale twierdzi, że w jej podstawowych pojęciach może być prawda, którą mogą ujawnić komputery.
Dla Davisa tego rodzaju postawa wynika z powszechnego i błędnego przekonania o neutralności i obiektywności AI. „Sztuczna inteligencja nie jest w rzeczywistości sztuczna” – mówi The Verge. „Maszyny uczą się tak, jak uczą się ludzie. Jesteśmy uczeni poprzez kulturę i przyswajamy normy struktury społecznej, podobnie jak sztuczna inteligencja. Będzie więc tworzyć na nowo, wzmacniać i kontynuować trajektorie, których ją nauczyliśmy, a które zawsze będą odzwierciedlać istniejące normy kulturowe.”
Wytworzyliśmy już seksistowskie i rasistowskie algorytmy, a tego rodzaju uprzedzenia kulturowe i fizjonomia to tak naprawdę dwie strony tej samej monety: obie opierają się na złych dowodach, aby osądzać innych. Praca chińskich naukowców jest skrajnym przykładem, ale z pewnością nie jedynym. Istnieje już co najmniej jeden startup, który twierdzi, że może wykryć terrorystów i pedofilów za pomocą rozpoznawania twarzy, a wiele innych oferuje analizę „inteligencji emocjonalnej” i prowadzenie nadzoru opartego na AI.
Wobec tego, co nadchodzi
Ale wracając do pytań zasugerowanych przez te alarmujące nagłówki o pracy Kosinskiego i Wanga: czy AI zostanie wykorzystana do prześladowania mniejszości seksualnych?
Ten system? Nie. Inny? Może.
Praca Kosinskiego i Wanga nie jest nieważna, ale jej wyniki wymagają poważnych kwalifikacji i dalszych testów. Bez tego, wszystko co wiemy o ich systemie to to, że potrafi on z pewną wiarygodnością dostrzec różnicę pomiędzy samookreślającymi się białymi gejami i heteroseksualnymi białymi ludźmi na jednym konkretnym portalu randkowym. Nie wiemy, czy system ten zauważył biologiczną różnicę wspólną dla wszystkich gejów i heteroseksualistów; nie wiemy, czy zadziałałby z szerszym zestawem zdjęć; a praca nie pokazuje, że orientacja seksualna może być wydedukowana z niczego więcej niż, powiedzmy, pomiar szczęki. Nie jest to rozszyfrowanie ludzkiej seksualności, tak jak AI chatboty nie rozszyfrowały sztuki dobrej rozmowy. (Jego autorzy również nie wysuwają takich roszczeń.)
Badania zostały opublikowane, aby ostrzec ludzi, powiedz Kosinski, ale przyznaje, że jest to „nieunikniony paradoks”, że aby to zrobić, musisz wyjaśnić, jak zrobiłeś to, co zrobiłeś. Wszystkie narzędzia użyte w artykule są dostępne dla każdego, aby znaleźć i złożyć razem sami. Pisząc na stronie edukacyjnej głębokiego uczenia się Fast.ai, badacz Jeremy Howard podsumowuje: „Prawdopodobnie można rozsądnie założyć, że wiele organizacji już ukończyło podobne projekty, ale bez publikowania ich w literaturze akademickiej.”
Wspominaliśmy już o startupach pracujących nad tą technologią, a nietrudno znaleźć reżimy rządowe, które mogłyby ją wykorzystać. W krajach takich jak Iran czy Arabia Saudyjska homoseksualizm jest nadal karany śmiercią; w wielu innych krajach bycie gejem oznacza bycie ściganym, więzionym i torturowanym przez państwo. Ostatnie doniesienia mówią o otwarciu obozów koncentracyjnych dla gejów w Republice Czeczeńskiej, więc co jeśli ktoś tam zdecyduje się stworzyć własny gaydar AI i zeskanować zdjęcia profilowe z rosyjskich mediów społecznościowych?
W tym miejscu staje się jasne, że dokładność systemów takich jak Kosinski i Wang nie jest tak naprawdę istotna. Jeśli ludzie uwierzą, że AI może być użyta do określenia preferencji seksualnych, będą jej używać. Mając to na uwadze, bardziej niż kiedykolwiek ważne jest, abyśmy zrozumieli ograniczenia sztucznej inteligencji, aby spróbować zneutralizować zagrożenia, zanim zaczną one wpływać na ludzi. Zanim nauczymy maszyny naszych uprzedzeń, musimy najpierw nauczyć samych siebie.