• rozwiń

Miała być sprawiedliwą jurorką w konkursie piękności. Okazała się rasistką

Miała być sprawiedliwą jurorką w konkursie piękności. Okazała się rasistką
Foto: beauty.ai Foto: Algorytm zastosowany w Beauty. AI okazał się daleki od doskonałości

Pierwszy międzynarodowy konkurs piękności oceniany przez sztuczną inteligencję wywołał nie lada kontrowersje - donosi "The Guardian". Okazało się, że na wynik miał wpływ jeden zaskakujący czynnik, a zwycięzcami okazali się reprezentanci gównie jednej tylko rasy.

Wydawało się, że sztuczna inteligencja (ang. AI - artificial intelligence) będzie najsprawiedliwszym możliwym jurorem, który przy wyborze najatrakcyjniejszej kandydatki będzie brał pod uwagę jedynie obiektywne czynniki, takie jak symetria twarzy czy choćby zmarszczki.

"Ludzkie piękno"

Portal Beauty.AI ruszył w tym roku. Blisko 6 tys. ludzi z ponad 100 krajów udostępniło swoje zdjęcia w nadziei, że sztuczna inteligencja wspierana przez kompleksowy algorytm, uczciwie stwierdzi, czy ich wizerunki najbardziej pasują do wzorca "ludzkiego piękna" - pisze "The Guardian".

Wyniki zatrwożyły twórców, który zorientowali się, że... robotom nie podobają się ludzie o ciemnej karnacji.

Spośród wszystkich 44 wyłonionych piękności, niemal wszystkie były białe. AI wybrała garstkę Azjatów oraz tylko jedną czarnoskórą osobę.

Mimo że rzeczywiście większość uczestników miała jasną karnację, swoje zdjęcia udostępniło także wiele ludzi różnych ras - w tym także duża grupa ludzi z Indii i Afryki.


Rasistowskie roboty

Związane z tym kontrowersje wywołały na nowo debatę dotyczącą sposobów, w jakie algorytmy utrwalają uprzedzenia, które skutkują pojawieniem się niezamierzonych i obraźliwych wyników.

Kiedy Microsoft wypuścił w marcu swojego "millenialsowego" chatbota o imieniu Tay, okazał się, że ten szybko zaczął używać rasistowskiego języka i promować neonazistowskie poglądy na Twitterze.

Z kolei po tym, jak Facebook w minionym miesiącu zwolnił ludzkich edytorów, którzy sprawowali pieczę nad tzw. trendingiem w sieci społecznościowej, algorytm niemal natychmiastowo zaczął promować wymyślone i wulgarne historie pojawiające się na listach (w tzw. news feedzie).

Chociaż konkurs piękności wywołały żarty i kpiny, to informatycy i zwolennicy sprawiedliwości społecznej twierdzą, że rosnące uprzedzenia dotyczące AI nie są już tematem do żartów. W niektórych przypadkach niesie to katastrofalne skutki dla kolorowych ludzi.

"Głębokie uczenie"

Beauty.AI została stworzona przez Youth Laboratories wykorzystującą metodę zwaną "głębokim uczeniem" (pozwala komputerowi uczyć się i myśleć samodzielnie bez potrzeby bezpośredniego udziału człowieka). Do zbudowania algorytmu oceniającego piękno, wykorzystuje ogromny zbiór danych składający się ze zdjęć. Przyczyn, dla których algorytm faworyzuje białych ludzi jest wiele.

Główny problem polega na tym, że dane wykorzystane w projekcie do ustalenia standardów atrakcyjności nie uwzględniają wystarczająco mniejszości - powiedział Alex Zhavoronkov, dyrektor naukowy Beauty.AI.

Choć grupa nie budowała algorytmu w ten sposób, by jasną karnację przyjmować jako wyznacznik piękna, to dane zaczerpnięte do budowy algorytmu doprowadziły właśnie do takich wniosków.

- Jeśli w bazie danych nie znajdziemy zbyt wielu osób o różnym kolorze skóry, wtedy faktycznie otrzymamy tendencyjne wyniki - wyjaśniał Zhavoronkov, który przyznał, że wybór zwycięzców go zdziwił. - Kiedy ćwiczysz algorytm, by rozpoznawał określone wzorce, może nie dysponować wystarczającą ilością danych, bądź dane te mogą być wypaczone.

Ilustracja problemu

Najprostszym wyjaśnieniem stronniczych algorytmów jest to, że tworzący je ludzie, także mają swoje, głęboko zakorzenione uprzedzenia. Oznacza to, że pomimo wrażenia, że algorytmy są wyjątkowo neutralne czy obiektywne, one często mogą się powielać i wzmacniać już istniejące uprzedzenia.

Wyniki Beauty.AI są "perfekcyjną ilustracją problemu - stwierdził Bernard Harcourt, profesor prawa i nauk politycznych na Columbia University oraz badacz polityki prewencji, która coraz częściej opiera się na maszynach. - Pomysł, że moglibyśmy stworzyć kulturowo niezależną, rasowo neutralną koncepcję piękna jest po prostu niepojęty - dodał.

Zobacz: Sztuczna inteligencja rasistką? "To wypadek przy pracy"

Podziel się:

Bądź na bieżąco:
  • Komentarze (12)

Dodaj Komentarz

Zaloguj się , aby dodać komentarz
Forum jest aktualizowane w czasie rzeczywistym
+0 nowe komentarze
Zenefir
Wybór padł praktycznie na same paszkwile... wystarczy wyjść na dowolną ulicę w Polsce w godzinach szczytu by w ciągu 5 minut zobaczyć kilkanaście wiele ładniejszych kobiet, które określamy mianem "przeciętna"... system chyba kompletnie nie działa, albo kobiety zgłaszające się, które nie zostały wybrane, są aż tak paskudne... :P
  • 0
  • 0
  • zgłoś naruszenie
zamknij
jawotr
Nie ma w tym nic dziwnego, że roboty są tak samo głupie jak rasiści. To jeszcze nie jest wyższa inteligencja, tylko sztuczna.
  • 0
  • 0
  • zgłoś naruszenie
zamknij
icarus
A moze po prostu ze wszystkich wybranek wlasnie biale byly najladniejsze? Dlaczego nie uwzgledniono tego faktu? I dlaczego nie uzglednia sie faktu że 50% artykułów jest wyszukanych przez Wykop?
  • 3
  • 1
  • zgłoś naruszenie
zamknij
ON666
ale problemy widocznie każdy robiło sobie jaja z programu a program który się uczył wywnioskował że białe jest lepsze od czarnego gdy ciągle miał wypowiedzi o rasie jak ludzie ciągle wpisywali bzdurne pytania i stwierdzenie
  • 0
  • 1
  • zgłoś naruszenie
zamknij
JackPlacki
Sztuczna inteligencja nigdy nie osiągnie inteligencji mądrego człowieka. Tak samo, jak nigdy nie stworzymy maszyny do odczytywania myśli. I kropka.
  • 1
  • 6
  • zgłoś naruszenie
zamknij
icarus
Pamiętam jak kiedys u Lisa pewien ksiądz powiedzial ze nigdy w internecie nie bedzie emitowane powazne dziennikarstwo bo internet to syf, mylil sie jak ty teraz.
  • 2
  • 1
  • zgłoś naruszenie
zamknij
Azerate
@icarus - Ten ksiądz po prostu patrzył na wyczyny Lisa w internecie i stąd jego pomyłka.
  • 0
  • 0
  • zgłoś naruszenie
zamknij
TacDingo
To żaden wypadek przy pracy ,to rzeczywistość bez filtra poprawności politycznej i bez cenzury
  • 3
  • 3
  • zgłoś naruszenie
zamknij
Brain Scientist
Ty i reflektor nie oglądaliście wyników podanych przez tę maszynę, prawda? Nikt, kto je widział, nie napisze, że była ona chociażby blisko.
  • 2
  • 0
  • zgłoś naruszenie
zamknij

Zasady forum

Publikowane komentarze są prywatnymi opiniami użytkowników portalu. TVN24BiŚ nie ponosi odpowiedzialności za treść opinii.

Ustawienia

Zamknij ustawienia
Ustawienia zostały zapisane