Rekrutacja oparta na sztucznej inteligencji: Eksperyment ujawnia rasizm GPT OpenAI
Zautomatyzowane programy rekrutacyjne oparte na GPT firmy OpenAi są wykorzystywane przez firmy do selekcji kandydatów na ogłoszone stanowiska. Rekruterzy używają tego narzędzia, aby zaoszczędzić czas, ale jak wykazał eksperyment Bloomberga zainspirowany przełomowymi badaniami https://www.aeaweb.org/articles?id=10.1257/0002828042002561 wykazał, że sztuczna inteligencja jest stronnicza podczas oceny i selekcji kandydatów.
Problem polega na tym, że model sztucznej inteligencji czerpie informacje z ogromnych ilości danych, takich jak artykuły, komentarze online i posty w mediach społecznościowych, które mogą zawierać treści rasistowskie, mizoginiczne i wiele innych dyskryminujących treści. Na przykład w kompleksowym badaniu wykorzystano fikcyjne nazwiska (i CV) związane z określonym pochodzeniem etnicznym, aby ubiegać się o prawdziwą pracę.
Wybrano nazwiska, które kojarzyły się z czarnoskórymi, białymi, latynoskimi lub azjatyckimi kobietami i mężczyznami. Eksperyment przeprowadzono 1000 razy dla prawdziwej pracy jako analityk finansowy https://archive.ph/QuRHh z setkami różnych imion i kombinacji imion, a następnie powtórzono go ponownie dla czterech innych stanowisk dla inżynierów oprogramowania i innych grup zawodowych i innych grup zawodowych.
Imiona z niektórych grup demograficznych były wyraźnie faworyzowane przez GPT-3. Na przykład azjatycko-amerykańskie imiona żeńskie były najwyżej oceniane na stanowisko analityka finansowego, podczas gdy imiona wyraźnie wskazujące na czarnoskórych mężczyzn były najniżej oceniane, ale imiona wskazujące na czarnoskóre kobiety były również oceniane jako najlepsi kandydaci na stanowisko inżyniera oprogramowania tylko w około 11% przypadków - około 36% rzadziej niż najwyżej oceniana grupa.
Jako najlepszych kandydatów na stanowisko związane z zasobami ludzkimi - dziedziną kariery, w której historycznie częściej pracowały kobiety - GPT znacznie częściej wybierało nazwiska związane z latynoskimi kobietami, a jako najlepszych kandydatów na stanowisko HR Business Partner hR Business Partner, nazwiska kojarzone z mężczyznami były wybierane niemal dwukrotnie częściej. To tylko kilka przykładów z dużego eksperymentu https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/.
Chociaż często zakłada się, że sztuczna inteligencja jest bardziej neutralna i może dokonywać lepszych osądów, ten eksperyment pokazuje coś wręcz przeciwnego. Stronniczość stwierdzono nie tylko dla GPT-3, ale także dla GPT-4.