Nowe podejście szkoleniowe ma na celu zmniejszenie uprzedzeń społecznych w sztucznej inteligencji
Chatboty AI są znane z generowania rasistowskich rozwiązań dość często, gdy są poddawane różnym pytaniom, a wiele wysiłków badawczych było ukierunkowanych na ten problem. Teraz nowa metoda treningowa jest gotowa, by rozwiązać ten problem. Metoda ta znana jest jako "sprawiedliwa deduplikacja" lub po prostu "FairDeDup" i jest wynikiem badań przeprowadzonych przez zespół z Adobe i OSU College of Engineeringdoktoranta Erica Slymana.
Deduplikacja zbiorów danych wykorzystywanych do szkolenia sztucznej inteligencji polega na usuwaniu zbędnych informacji, obniżając w ten sposób koszty całego procesu. Na razie wykorzystywane dane pochodzą z całego Internetu, więc zawierają nieuczciwe lub stronnicze pomysły i zachowania, które ludzie często wymyślają i udostępniają online.
Według Slymana, "FairDeDup usuwa nadmiarowe dane, jednocześnie włączając kontrolowane, zdefiniowane przez człowieka wymiary różnorodności w celu złagodzenia uprzedzeń. Nasze podejście umożliwia szkolenie AI, które jest nie tylko opłacalne i dokładne, ale także bardziej sprawiedliwe". Lista stronniczych podejść utrwalanych obecnie przez chatboty AI obejmuje zawód, rasę lub płeć, ale także wiek, geografię i idee związane z kulturą, które są oczywiście niesprawiedliwe.
FairDeDup to ulepszona wersja wcześniejszej metody znanej jako SemDeDupktóra często nasilała uprzedzenia społeczne, choć okazała się opłacalnym rozwiązaniem. Osoby zainteresowane tą dziedziną powinny sięgnąć po Mastering AI Model Training Krisa Hermansa : A Comprehensive Guide To Become An Expert In Training AI Models, która jest obecnie dostępna na Kindle za 9,99 USD lub w wersji papierowej (za 44,07 USD).