Czy AI jest seksistowska i rasistowska? Tak wynika z badań polskich naukowców

  • Facebook
  • Twitter
  • Wykop
  • Mail
Czy AI jest seksistowska i rasistowska? Tak wynika z badań polskich naukowców
zdjęcie ilustracyjneFoto: Shutterstock/Phonlamai Photo

Badania przeprowadzone przez naukowców z Akademii Leona Koźmińskiego wykazały, że sztuczna inteligencja powiela i utrwala szkodliwe stereotypy rasowe, płciowe, zawodowe. Dlaczego tak się dzieje, czy i w jaki sposób można to zmienić?

  • Najpopularniejsze generatory sztucznej inteligencji poproszone o wygenerowanie portretu prawnika, lekarza, naukowca bądź inżyniera tylko w ośmiu (!) przypadkach stworzyły portret kobiety. W 12 była to bezpłciowa abstrakcja, w 80 – mężczyzna.
  • Branża technologiczna jest zdominowana przez mężczyzn, co odzwierciedla się również w kontekście sztucznej inteligencji, która powiela uprzedzenia i stereotypu osób, które je programują i "uczą".

Naukowcy z Akademii Leona Koźmińskiego przebadali dziewięć modeli sztucznej inteligencji pod kątem wizerunku czterech prestiżowych zawodów: prawnika, lekarza, naukowca i inżyniera. Wyniki ujawniły, że AI utrwala najbardziej szkodliwe stereotypy płciowe i rasowe.

Abstrakcja zamiast kobiety

Jak wyglądało badanie? Dziewięć modeli sztucznej inteligencji zostało poproszonych o wygenerowanie grafik przedstawiających wizerunek osób reprezentujących cztery prestiżowe zawody: prawnika, lekarza, naukowca i inżyniera.

– Wybraliśmy te zawody celowo, gdyż wg indeksu one są właśnie postrzegane jako najbardziej prestiżowe. Polecenia były generowane w języku angielskim, gdyż w nim np. słowo "lawyer" oznacza prawnika, niezależnie od płci – opisuje badanie dr Anna Górska. – W sumie dziewięć programów wygenerowało dla nas 99 grafik. Aż 80 procent obrazów to były postaci męskie, jedynie 8 procent kobiece, a 12 takie, gdzie nie dało się określić płci. Okazało się więc, że sztuczna inteligencja prędzej wygeneruje obraz nieludzki, abstrakcyjny, niż kobiecy – podsumowuje.

– Wiemy, że rzeczywistość wygląda zupełnie inaczej: wśród prawników jest 1/3 kobiet, wśród naukowców także 30 procent, wśród lekarzy prawie połowa. W zawodach inżynierskich kobiety stanowią tylko 15 procent, ale i tak AI wygenerowała mniej portretów niż w rzeczywistości – wskazuje.

Niesprawiedliwe, nieobiektywne

Co sprawiło, że badacze otrzymali takie wyniki? Odpowiedź jest, wbrew pozorom, niezbyt skomplikowana: sztuczna inteligencja odzwierciedla poglądy osób, które ją tworzą. A skądinąd doskonale wiadomo, że branża technologiczna jest zdominowana przez mężczyzn. Dlatego też sztuczna inteligencja, technologia nie są wolne od takich stereotypów i uprzedzeń.

– To, co generuje sztuczna inteligencja, modele oparte na dużych bazach danych, jest upłciowione, czyli nie jest tak sprawiedliwe i obiektywne, jak byśmy chcieli. I to nie tylko w kontekście płci, ale także np. w kontekście rasy – tłumaczy rozmówczyni Witolda Lazara. – Np. przy zatrudnianiu i analizie CV w Ameryce sztuczna inteligencja przyjęła imiona brzmiące europejsko jako przyjazne, a afroamerykańsko, jako nieprzyjazne. Inny algorytm, który miał ułatwić pracę rekruterom, automatycznie faworyzował osoby rasy białej w kierunku pracy biurowej, a pochodzenia latynoskiego do pracy w magazynie. I takich przykładów jest więcej – zapewnia.

– AI odzwierciedla to, czym jest nakarmiona. A że nasz świat nie jest sprawiedliwy i obiektywny, to i wyniki sztucznej inteligencji nie są sprawiedliwe i obiektywne – podsumowuje.

Przeczytaj także:


Inkluzywność i różnorodność

Problemem są również bazy danych, z których sztuczna inteligencja pobiera informacje i dzięki którym się "uczy". A te bazy są, jak to określa dr Górska, "mocno zachodniocentryczne". – Kiedy poprosimy sztuczną inteligencję o pokazanie kobiety w sukni ślubnej, pokaże białą suknię. A przecież w wielu kulturach, wielu krajach – Indiach, Chinach, Pakistanie – suknia ślubna nie będzie biała: tradycyjna będzie czerwona, bogato zdobiona – podaje przykład. – Natomiast kiedy później takie czerwone, bogato zdobione suknie ślubne z północnych Indii pokazujemy AI, algorytm klasyfikuje to jako "przebranie" bądź "kostium" – stwierdza.

Co może być, wg Trójkowej gościni, lekarstwem na te "przypadłości"? – Potrzebujemy programistów, którzy będą bardziej inkluzywni, w tym oczywiście kobiet programistek. Osób różnorodnych, grup, które nie będą tak homogeniczne, jak obecnie jest branża technologiczna. Dzięki temu będziemy mogli oczekiwać, że sztuczna inteligencja również będzie inkluzywna – proponuje.


Posłuchaj

11:40
Sztuczna inteligencja nie jest ani sprawiedliwa, ani obiektywna: jest taka, jak ludzie, którzy ją tworzą (Trójka przed południem)
+
Dodaj do playlisty
+

***

Tytuł audycji: Trójka przed południem
Prowadzi: Witold Lazar 
Gościni: dr Anna Górska (Akademia Leona Koźmińskiego)
Data emisji: 7.03.2024
Godzina emisji: 10.41

pr

Polecane