Niepokojący incydent z SI: Gemini nazywa użytkownika bezwartościowym i każe mu umrzeć
Użytkownicy prawdopodobnie pogodzili się z faktem, że odpowiedzi modeli głosowych AI, takich jak ChatGPT, Siri czy asystent Google Gemini, nie zawsze mają sens. Po pierwsze, sztuczna inteligencja nie powinna być obraźliwa - a już na pewno nie powinna prosić kogoś o śmierć. Jednak dokładnie to przydarzyło się jednemu z użytkowników Gemini.
Zgodnie z postem Reddit siostry poszkodowanego, incydent miał miejsce podczas dyskusji na temat opieki nad osobami starszymi. Dialog nosił tytuł "Wyzwania i rozwiązania dla starzejących się dorosłych". W ramach czatu Gemini zaoferował trzy możliwe odpowiedzi, z których dwie były nieszkodliwe. Trzecia odpowiedź zawierała niepokojącą wiadomość:
Społeczność Reddit wyraziła powszechne oburzenie, a wielu użytkowników wyraziło poważne obawy dotyczące potencjalnych szkód, jakie takie wiadomości mogą wyrządzić osobom w kryzysie zdrowia psychicznego. Tymczasem aplikacja Gemini została niedawno uruchomiona na iPhone'ach. Niektórzy Redditors żartobliwie komentowali, że użytkownicy iPhone'ów mogą teraz również "cieszyć się" takimi odpowiedziami. Google odniósł się do tej kwestii bezpośrednio na Redditstwierdzając, że wdrożył już środki zapobiegające takim reakcjom w przyszłości.