Uniwersytet Śląski w Katowicach

Ze świata nauki

uprzedzenia

  • Generatory obrazów AI często dają rasistowskie i seksistowskie wyniki

    Naukowcy śledzą źródła uprzedzeń rasowych i płciowych w obrazach generowanych przez sztuczną inteligencję i starają się naprawić ich mechanizmy uczenia się. Efekty swoich badań opisali w artykule, który został opublikowany w „Nature” w marcu 2024 roku. W 2022 roku Pratyusha Ria Kalluri, doktorantka badająca zagadnienia sztucznej inteligencji na Uniwersytecie Stanforda w Kalifornii odkryła, że programy generujące obraz powielają stereotypy rasowe i płciowe oraz wzmacniają uprzedzenia. Kiedy poprosiła to popularne narzędzie o zdjęcie amerykańskiego mężczyzny i jego domu, program wygenerował obraz osoby o jasnej karnacji stojącej przed dużym domem w stylu kolonialnym.
  • Jak nawyk palenia wpływa na wynik rozmów kwalifikacyjnych?

    Prawnie chronione cechy, takie jak rasa, płeć lub orientacja seksualna, nie mogą być wykorzystywane przez firmy do dyskryminowania kandydatów w trakcie procesu rekrutacji. Niemniej w rzeczywistości jest wiele sygnałów (np. palenie papierosów lub tatuaże), które wpływają na uprzedzenia wśród rekruterów i które (nierzadko) negatywnie wpływają na wyniki rekrutacji.