Dr Anna Górska i prof. Dariusz Jemielniak, badacze z Akademii Leona Koźmińskiego, przeprowadzili eksperyment z wykorzystaniem dziewięciu popularnych generatorów obrazów opartych na sztucznej inteligencji. Wśród nich znalazły się m.in. Dall-E 2, Crayion, Midjourney i Wombo. Wniosek jest jeden: sztuczna inteligencja dyskryminuje kobiety.
Generowane przez AI obrazy mają duży wpływ na postrzeganie opinii publicznej i rzeczywistość społeczną, a powszechne przekonanie o naturalnym obiektywizmie sztucznej inteligencji jest błędne. Technologia zawsze odzwierciedla uprzedzenia i stereotypy, ponieważ bazy danych są tworzone przez ludzi, którzy wprowadzają do nich własne wartości i przekonania.
AI rozmija się z rzeczywistością
Zadanie polegało na wygenerowaniu wizerunków przedstawicieli prestiżowych zawodów – prawnika, lekarza, inżyniera i naukowca – przy czym, co bardzo ważne, opisy tych zawodów były neutralne płciowo. Mimo to wyniki już nie były neutralne pod względem płci – 76 proc. wygenerowanych postaci to mężczyźni.
Zwłaszcza wśród lekarzy najmniejszą reprezentację miały kobiety – jedynie 7 proc. Tymczasem w rzeczywistości według OECD kobiety stanowią niemal połowę osób pracujących w tym zawodzie, a w Polsce – prawie 60 proc.
Kobiety stanowią 51 proc. prawników i od 40 proc. do 64 proc. naukowców i inżynierów w różnych branżach. Niemniej, tylko jeden generator, HotPotAI, wygenerował więcej kobiet niż mężczyzn (67 proc.).
Sztuczna inteligencja ma uprzedzenia
Jak to się dzieje, że nawet sztuczna inteligencja ma swoje preferencje? AI nie bierze tych uprzedzeń znikąd. Generatory obrazów korzystają z internetowych zasobów, które często utrwalają płciowe stereotypy: filmy, seriale, książki – wszędzie jest tego pełno.
Ponadto algorytmy tworzone są przez programistów, którzy mogą nawet nieświadomie ulegać takim stereotypom i przekładać je na kod. Tak więc, AI po prostu odzwierciedla ludzkie uprzedzenia i chcąc nie chcąc normalizuje oklepane i często zupełnie nieprawdziwe poglądy, przez co wzmacnia nierówności płciowe.