Apple badanie ujawnia poważną wadę modeli językowych AI: Dokładność spada do 65 procent
Niedawne badanie https://winfuture.de/news,146050.html badanie przeprowadzone przez naukowców z Apple zmienia sposób, w jaki myślimy o inteligencji dużych modeli językowych (LLM), takich jak ChatGPT. W badaniu prowadzonym przez Imana Mirzadeha wykorzystano nowy test o nazwie GSM-Symbolic, aby sprawdzić, jak dobrze te systemy sztucznej inteligencji radzą sobie z matematyką i logicznym myśleniem.
To, co znaleźli, nie było świetne dla sztucznej inteligencji. Po dodaniu losowych dodatkowych informacji do pytań, dokładność modeli znacznie spadła - w niektórych przypadkach nawet o 65%. Główne pytanie nawet się nie zmieniło. Sugeruje to, że te systemy sztucznej inteligencji nie rozumieją swoich zadań.
Badanie wskazuje na zasadniczą różnicę między wyglądaniem na inteligentnego a rozumieniem rzeczy. Wiele odpowiedzi wygenerowanych przez sztuczną inteligencję wydaje się na pierwszy rzut oka poprawnych, ale kiedy się w nie zagłębić, rozpadają się. Podkreśla to, że mówienie jak człowiek nie oznacza, że maszyna myśli jak człowiek.
Z tego powodu badanie sugeruje, że musimy ponownie przemyśleć, jak bardzo ufamy tym systemom i na nich polegamy. Oczywiście, potrafią one robić niesamowite rzeczy, ale mają też pewne istotne wady, zwłaszcza w przypadku trudnych lub skomplikowanych problemów. Rozpoznanie tych słabości jest kluczowe, jeśli chcemy odpowiedzialnie korzystać ze sztucznej inteligencji.
Ostatecznie badanie to przypomina nam, że choć sztuczna inteligencja może być pomocna, musimy krytycznie patrzeć na to, co może, a czego nie może zrobić. W miarę jak narzędzia te stają się coraz większą częścią naszego życia, znajomość ich ograniczeń będzie kluczowa, jeśli chcemy korzystać z nich w sposób inteligentny i odpowiedzialny.
Źródło(a)
WinFuture (w języku niemieckim)