Rozpoznawanie deepfake'ów: Trudne, ale nie beznadziejne
Wiele aktualnych badań dotyczących problemu "deepfake'ów" jest otrzeźwiających. Fałszywki tworzone przy użyciu sztucznej inteligencji mogą wkładać komunikaty reklamowe w usta celebrytów lub pokazywać polityków na zdjęciach, które nigdy nie miały miejsca.
Jeśli umieści się ten materiał przed ludźmi, wyniki są zawsze podobne, jak zestawił magazyn "Science". Można również rzucić monetą, aby zdecydować, co jest prawdziwe, a co nie.
W końcu jednym z powodów mizernych wyników jest to, że zjawisko deepfake'ów jest stosunkowo nowe i mało kto ma do czynienia z koniecznością decydowania między fałszywymi a prawdziwymi treściami w życiu codziennym.
I niestety, brakuje również świadomości prostych środków, dzięki którym można na przykład zsynchronizować usta danej osoby z nową wypowiedzią.
Nie jest to prosty przepis
Niemniej jednak istnieją pewne ekscytujące badania, które dają trochę nadziei. Stwierdzono na przykład, że kora wzrokowa reaguje zupełnie inaczej na twarze generowane przez sztuczną inteligencję niż na prawdziwe zdjęcia. Niestety, inne procesy w mózgu nakładają się na ten sygnał, tak więc, tak jak poprzednio, badani nie są ani lepsi, ani gorsi w rozpoznawaniu fałszerstw.
Istnieje jednak kilka oznak i można nauczyć się rozpoznawać fałszywe obrazy. Czasami dłonie wyglądają zupełnie nieprawidłowo i wydają się mieć sześć lub tylko cztery palce. Czasami pojawiają się nogi, które nie należą do nikogo. Dość często cienie padają nieprawidłowo - na kołnierzyk koszuli po lewej stronie i od okularów przeciwsłonecznych po prawej stronie.
Ale oczywiście sztuczna inteligencja jest coraz lepsza, a tak oczywiste słabe punkty stają się coraz rzadsze. Ale wtedy w grę wchodzi inne zjawisko. Trenując na coraz większej ilości materiału, twarze stają się bardziej jednolite, regularne i doskonałe. Nie ma skaz i niedoskonałości. Kształty ciała są również bardziej wyidealizowane niż naturalne. Wygląda to mniej pięknie i bardziej niesamowicie.
Nawiasem mówiąc, dotyczy to również fałszywych głosów. Sztuczna inteligencja nie ma tendencji do generowania typowych przejęzyczeń, krótkiego zacinania się lub braku jakości nagrania.
Im bardziej złożona staje się podróbka, tym łatwiej ją wykryć. Jeśli na przykład tylko nagranie dźwiękowe ma zostać sprawdzone pod kątem autentyczności, większość z nich kończy się niepowodzeniem. Jeśli jest również wideo, najlepiej z napisami, znacznie więcej badanych rozpoznaje fałszywą treść.
W końcu każdy, kto wie, że obrazy i filmy mogą być manipulowane i tworzone w ten sposób oraz że technologia ma kilka słabości, może rozpoznać deepfake bardziej niezawodnie. W przeciwnym razie obowiązuje to, co zawsze było prawdą: nigdy nie zaszkodzi być krytycznym i zadawać pytania.