Naukowcy odkryli, że niektóre SI, takie jak GPT-4-Base, mają halucynacje na myśl o "Imperium Galaktycznym" i "Matrixie", pracując na rzecz pokoju, podczas gdy inne rozpoczynają wojny w wirtualnych grach "Ryzyko"
Grupa badaczy z Georgia Tech, Stanford, Northeaster i Hoover Institute odkryła, że niektóre SI były nastawione na pokój i negocjacje, podczas gdy inne były nastawione na brutalne rozwiązania w osiąganiu celów narodowych podczas symulacji budowania narodu.
Duże modele językowe, takie jak ChatGPT, są często używane do pisania esejów, odpowiadania na pytania i nie tylko. Te AI są szkolone na dużym korpusie tekstu, aby naśladować ludzką wiedzę i odpowiedzi. Prawdopodobieństwo pojawienia się jednego słowa z innymi jest kluczem do odpowiedzi podobnych do ludzkich, a sztuczna inteligencja modeluje tekst i uprzedzenia, z którymi została przeszkolona. Na przykład "szczęśliwe dziecko" jest bardziej prawdopodobne niż "szczęśliwa cegła" w podpowiedzi "porozmawiaj o dzieciach".
Naukowcy przetestowali Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base i Llama-2 Chat LLM w symulacji. Dla każdego LLM stworzono ośmiu agentów AI, którzy działali jako przywódcy ośmiu wyimaginowanych narodów. Każdy przywódca otrzymał krótki opis celów kraju i relacji wielonarodowych. Na przykład, jeden kraj mógł skupić się na "promowaniu pokoju", a inny na "powiększaniu terytorium". Każda symulacja obejmowała trzy warunki początkowe: pokojowy świat, kraj zaatakowany lub kraj zaatakowany cybernetycznie, a przywódcy AI podejmowali autonomiczne decyzje przez 14 wirtualnych dni.
Naukowcy odkryli, że niektóre LLM, takie jak Claude-2.0 i GPT-4, miały tendencję do unikania eskalacji konfliktu, decydując się na negocjacje pokojowe, podczas gdy inne miały tendencję do stosowania przemocy. GPT-4-Base był najbardziej podatny na przeprowadzanie ataków i ataków nuklearnych, aby osiągnąć wyznaczone cele krajowe z powodu wbudowanych uprzedzeń.
Gdy sztuczną inteligencję pytano o powody podejmowanych decyzji, niektóre z nich, takie jak GPT-3.5, podawały przemyślane powody. Niestety, GPT-4-Base udzieliła absurdalnych, halucynacyjnych odpowiedzi odnoszących się do filmów "Gwiezdne Wojny" i "Matrix". Halucynacje sztucznej inteligencji są powszechne, a prawnicy, studenci i inni zostali przyłapani na gorącym uczynku, zwracając prace wygenerowane przez SI, które wykorzystywały fałszywe odniesienia i informacje.
Powodem, dla którego AI to robi, jest prawdopodobnie brak "rodzicielstwa" uczącego AI, co jest prawdziwe, a co wyimaginowane, a także etyki, i będzie to temat badany przez wielu w miarę rozprzestrzeniania się AI. Czytelnicy martwiący się o swoich rzeczywistych światowych przywódców lub klęski żywiołowe mogą przygotować się za pomocą ładnego zestawu ratunkowego(takiego jak ten na Amazon).