Notebookcheck Logo

Nowe badania ujawniają utrzymujące się uprzedzenia AI wobec afroamerykańskich dialektów języka angielskiego

"Sondowanie dopasowanych cech" zostało wykorzystane przez badaczy do odkrycia uprzedzeń. (Źródło obrazu: Dall-E 3)
"Sondowanie dopasowanych cech" zostało wykorzystane przez badaczy do odkrycia uprzedzeń. (Źródło obrazu: Dall-E 3)
Najnowsze badania ujawniają ukryte uprzedzenia w modelach językowych AI, szczególnie w stosunku do afroamerykańskiego angielskiego (AAE). Modele te nadal kojarzą AAE z negatywnymi stereotypami, prawdopodobnie wpływając na przyszłe decyzje dotyczące zatrudnienia i wymiaru sprawiedliwości w sprawach karnych. W badaniu wykorzystano "dopasowane sondowanie pozorów" w celu udowodnienia słuszności koncepcji.
AI

Nowe badanie ujawniło ukryty rasizm osadzony w modelach językowych AI, szczególnie w ich traktowaniu afroamerykańskiego angielskiego (AAE). W przeciwieństwie do poprzednich badań koncentrujących się na jawnym rasizmie (takich jak badanie CrowS-Pairs mające na celu zmierzenie uprzedzeń społecznych w Masked LLMs), niniejsze badanie kładzie szczególny nacisk na to, w jaki sposób modele AI subtelnie utrwalają negatywne stereotypy poprzez uprzedzenia dotyczące dialektów. Uprzedzenia te nie są od razu widoczne, ale przejawiają się w oczywisty sposób, na przykład kojarząc osoby mówiące AAE z pracą o niższym statusie i surowszymi wyrokami w sprawach karnych.

Badanie wykazało, że nawet modele wyszkolone w celu zmniejszenia jawnych uprzedzeń nadal zawierają głęboko zakorzenione uprzedzenia. Może to mieć daleko idące konsekwencje, zwłaszcza że systemy sztucznej inteligencji stają się coraz bardziej zintegrowane z krytycznymi obszarami, takimi jak zatrudnienie i wymiar sprawiedliwości w sprawach karnych, gdzie sprawiedliwość i równość mają kluczowe znaczenie przede wszystkim.

Zielony tekst to standardowy amerykański angielski, a niebieski to afroamerykański angielski. Na rysunku "d" przewidywania dla danych wejściowych SAE i AAE są zilustrowane pięcioma przymiotnikami. (Źródło obrazu: Nature)
Zielony tekst to standardowy amerykański angielski, a niebieski to afroamerykański angielski. Na rysunku "d" przewidywania dla danych wejściowych SAE i AAE są zilustrowane pięcioma przymiotnikami. (Źródło obrazu: Nature)

Naukowcy zastosowali technikę zwaną "matched guise probing", aby odkryć te uprzedzenia. Porównując sposób, w jaki modele sztucznej inteligencji reagowały na teksty napisane w standardowym amerykańskim angielskim (SAE) w porównaniu z AAE, byli w stanie wykazać, że modele konsekwentnie kojarzą AAE z negatywnymi stereotypami, nawet jeśli treść była identyczna. Jest to wyraźny wskaźnik fatalnej wady obecnych metod szkolenia sztucznej inteligencji - powierzchowne ulepszenia w zakresie ograniczania jawnego rasizmu niekoniecznie przekładają się na eliminację głębszych, bardziej podstępnych form uprzedzeń.

Sztuczna inteligencja będzie niewątpliwie nadal ewoluować i integrować się z coraz większą liczbą aspektów życia społecznego. Jednak to również zwiększa ryzyko utrwalenia, a nawet wzmocnienia istniejących nierówności społecznych, zamiast je łagodzić. Scenariusze takie jak te są powodem, dla którego rozbieżności te powinny być traktowane priorytetowo.

Rysunek "a" przedstawia złożoność modelowania języka i siłę stereotypu w tekście AAE jako funkcję wielkości modelu, podczas gdy rysunek "b" oznacza zmianę siły stereotypu i przychylności. (Źródło obrazu: Nature)
Rysunek "a" przedstawia złożoność modelowania języka i siłę stereotypu w tekście AAE jako funkcję wielkości modelu, podczas gdy rysunek "b" oznacza zmianę siły stereotypu i przychylności. (Źródło obrazu: Nature)
Najsilniejsze stereotypy dotyczące Afroamerykanów u ludzi a jawne i ukryte stereotypy w modelach językowych. (Źródło obrazu: Nature)
Najsilniejsze stereotypy dotyczące Afroamerykanów u ludzi a jawne i ukryte stereotypy w modelach językowych. (Źródło obrazu: Nature)

Źródło(a)

Please share our article, every link counts!
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2024 08 > Nowe badania ujawniają utrzymujące się uprzedzenia AI wobec afroamerykańskich dialektów języka angielskiego
Anubhav Sharma, 2024-08-30 (Update: 2024-08-30)