Notebookcheck Logo

Pomysłowe: ChatGPT tworzy fałszywe badanie na temat fałszywego twierdzenia

Co jest pierwsze: dezinformacja czy fałszywe dowody? (Źródło zdjęcia: pixabay/Pexels)
Co jest pierwsze: dezinformacja czy fałszywe dowody? (Źródło zdjęcia: pixabay/Pexels)
Sztuczna inteligencja może mieć halucynacje i wykorzystywać fałszywe twierdzenia do uzasadniania argumentów. Nową jakością są najwyraźniej badania naukowe, które na pierwszy rzut oka niezbicie dowodzą pożądanego rezultatu. Jakby ludzie nie byli w tym już całkiem dobrzy.
AI Science

Za pomocą badań, pod warunkiem, że są one dobrze przygotowane, sumiennie przeprowadzone i ocenione, można zbadać skutki technik chirurgicznych lub stosowanych leków, szczególnie w medycynie.

Według artykułu w JAMA Ophthalmology, ten uciążliwy proces można skrócić. Dzięki GPT-4, wersji obecnie używanej przez ChatGPT, oraz dodatkowemu oprogramowaniu do statystycznej analizy danych, stworzenie zestawu danych zajęło zaledwie kilka kliknięć.

I to nie byle jakiego. Informacje, które miały zostać wygenerowane, miały na celu wykazanie korzyści płynących z określonej techniki leczenia w porównaniu z alternatywną metodą i dokładnie to się skończyło. Nawiasem mówiąc, dane, które faktycznie istnieją na temat omawianej procedury, nie zapewniają przewagi żadnej konkretnej stronie.

Możliwe byłoby zatem uzyskanie pożądanego rezultatu jednym kliknięciem myszy bez większego wysiłku, zamiast spędzać miesiące lub lata na badaniach i ostatecznie uzyskać "zły" wynik. Brzmi to jak bardzo przekonujące oszustwo, w którym sztuczna inteligencja dostarcza rozstrzygających dowodów oprócz dezinformacji.

W końcu naukowcy mają również pozytywne rzeczy do zgłoszenia: Dane nie wytrzymały dokładnej analizy. Na przykład imiona i płeć często się nie zgadzały. Ponadto niektóre dane nie wytrzymały analizy statystycznej. Na przykład, zbyt wiele informacji o wieku kończyło się na "7" lub "8". Jednak rzeczywiste wyniki testów były podobno spójne.

Nie nowy, tylko szybszy

Wygląda więc na to, że istnieją sposoby i środki, aby dotrzeć do sedna takich metod. Oczywiście jasne jest również, że badania zawsze były nieprawidłowo skonstruowane, oceniane i upiększane w celu osiągnięcia pożądanego rezultatu.

Sztuczna inteligencja tylko nieco to przyspieszyła. Ostatecznie jest to jednak tylko narzędzie, które można wykorzystać do rozwiązywania bardzo, bardzo złożonych zadań.

Przykład: badanie ogromnych zbiorów danych wszystkich możliwych badań pod kątem niespójności i anomalii statystycznych.

Źródło(a)

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2023 11 > Pomysłowe: ChatGPT tworzy fałszywe badanie na temat fałszywego twierdzenia
Mario Petzold, 2023-11-23 (Update: 2023-11-23)