OpenAI wyraża zaniepokojenie tym, że użytkownicy będą darzyć jej chatbota uczuciem
GPT-4o został wprowadzony jako znacznie ulepszony model ChatGPT. Od czasu jego debiutu, ludzie chwalą ChatGPT-4o za jego interakcje przypominające ludzkie. Choć brzmi to świetnie, OpenAI zauważyło pewien problem: ludzie zaczynają traktować chatbota jak człowieka i tworzyć więzi emocjonalne.
OpenAI zaobserwowało ludzi używających języka, który "może wskazywać na tworzenie więzi" Firma zauważa, że znalazła przypadki, w których ludzie używali języka wyrażającego "wspólne więzi" Jest to opisywane jako zła wiadomość z dwóch głównych powodów.
Po pierwsze, gdy ChatGPT-4o wydaje się być podobny do człowieka, użytkownicy mogą zignorować wszelkie halucynacje wychodzące z chatbota. Dla kontekstu, Halucynacja AI to zasadniczo nieprawidłowe lub wprowadzające w błąd wyniki generowane przez model. Może się to zdarzyć z powodu wadliwych lub niewystarczających danych treningowych.
Po drugie, podobne do ludzkich interakcje z chatbotem mogą ograniczyć rzeczywiste interakcje społeczne między użytkownikami. OpenAI twierdzi, że interakcje z chatbotem mogą być potencjalnie korzystne dla "samotnych osób", ale mogą również wpływać na zdrowe relacje. Firma zauważa ponadto, że ludzie mogą nawet zacząć rozmawiać z ludźmi z przekonaniem, że druga osoba jest chatbotem.
Byłoby to złe, ponieważ OpenAI zaprojektował GPT-4o tak, aby przestał mówić, gdy użytkownik zacznie mówić nad nim. Mając na uwadze wszystkie te obawy, firma twierdzi, że będzie teraz monitorować, w jaki sposób użytkownicy rozwijają więzi emocjonalne z ChatGPT-4o. OpenAI twierdzi również, że wprowadzi poprawki do modelu w razie potrzeby.