Notebookcheck Logo

DARPA udostępnia narzędzia do wykrywania deepfake i rozpoczyna wspólne wyzwania, aby opracować więcej

DARPA wypuszcza narzędzia deepfake, które pomogą przeciwdziałać fałszywym obrazom, głosom i wiadomościom AI. (Źródło: DARPA)
DARPA wypuszcza narzędzia deepfake, które pomogą przeciwdziałać fałszywym obrazom, głosom i wiadomościom AI. (Źródło: DARPA)
DARPA opublikowała narzędzia do wykrywania deepfake'ów opracowane w ramach programu Semantic Forensics w celu przeciwdziałania zagrożeniom ze strony sztucznej inteligencji. Prawie dwa tuziny narzędzi pomaga wykrywać fałszywe zdjęcia i filmy, a także tekst i głos generowany przez sztuczną inteligencję. Wspólne wyzwania AI FORCE publikowane co cztery tygodnie zachęcają publicznych badaczy do pomocy w opracowywaniu innowacyjnych rozwiązań w zakresie generatywnego zagrożenia sztuczną inteligencją.
AI Security Open Source

DARPA (Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności USA) upubliczniła swoje narzędzia do wykrywania deepfake'ów opracowane w ramach programu Semantic Forensics (SemaFor). Agencja udostępniła prawie dwa tuziny narzędzi na licencji permisywnej lub otwartej do wykrywania fałszywych zdjęć i filmów, a także tekstu i głosu generowanego przez sztuczną inteligencję. Aby zachęcić do dalszego rozwoju, seria wspólnych wyzwań będzie publikowana co cztery tygodnie w ramach programu AI Forensics Open Research Challenge Evaluations (AI FORCE), aby pomóc w opracowaniu nowych narzędzi i algorytmów przeciwdziałających zagrożeniu ze strony sztucznej inteligencji.

Puszka Pandory ze sztuczną inteligencją została potwierdzona, gdy inżynier Google Blake Lemoine twierdził w 2022 roku że sztuczna inteligencja Google LaMDA wiedziała, że jest czująca. Niezależnie od tego, jak definiowane jest sztuczne życie, użytkownicy sztucznej inteligencji z pewnością widzą, że jej możliwości są ogromne i często lepsze niż ludzkie. Czytelnicy, którzy widzieli Terminatora lub Ghost in the Shell, również dostrzegą, że zagrożenie ze strony sztucznej inteligencji, niezależnie od tego, czy zostało zainicjowane przez użytkowników, czy samodzielnie, jest ogromne.

Misja DARPA "dokonywanie kluczowych inwestycji w przełomowe technologie dla bezpieczeństwa narodowego" skłoniła agencję do zajęcia się problemem zagrożeń związanych ze sztuczną inteligencją w ramach programu SemaFor. Agencja opracowała katalog analityczny składający się z 19 komponentów, a kolejne będą dodawane z czasem. Wszystkie komponenty są udostępniane na zasadach open-sourcingu w celu rozpowszechnienia niezbędnych narzędzi przeciwdziałających sztucznej inteligencji.

Narzędzia te obejmują kod i algorytmy opracowane w celu wykrywania zagrożeń związanych ze sztuczną inteligencją, takich jak fake news i teksty publikowane przez AI na Twitterze i w innych miejscach, fałszywych połączeń prezydenta Bidenai fałszywe zdjęcia papieża tworzonych przez narzędzia generatywne, takie jak Midjourney.

DARPA ma również nadzieję na współpracę z publicznymi badaczami i programistami w ramach programu AI FORCE, kierując się nowym obszarem zainteresowania co cztery tygodnie, aby zachęcić do innowacji. Czytelnicy, którzy chcą opracować narzędzia przeciwdziałające sztucznej inteligencji, będą potrzebować szybkiej karty graficznej Nvidia(takiej jak ta na Amazon).

Technologia Deepfake Defense gotowa do komercjalizacji i transformacji

Aby wesprzeć przejście technologii semantycznej kryminalistyki do przemysłu i rządu, DARPA rozpocznie wysiłki, które wzmocnią obronę przed zmanipulowanymi mediami

[email protected]/14/2024

Zagrożenie ze strony zmanipulowanych mediów stale rośnie, ponieważ zautomatyzowane technologie manipulacji stają się coraz bardziej dostępne, a media społecznościowe nadal zapewniają dojrzałe środowisko do wirusowego udostępniania treści.

Szybkość, skala i zasięg, z jakimi mogą rozwijać się masowe kampanie dezinformacyjne, wymagają obliczeniowej obrony i zautomatyzowanych algorytmów, które pomogą ludziom rozróżnić, które treści są prawdziwe, a które zostały zmanipulowane lub zsyntetyzowane, dlaczego i w jaki sposób.

Poprzez program Semantic Forensics (SemaFor), a wcześniej program Media Forensics inwestycje badawcze DARPA w wykrywanie, przypisywanie i charakteryzowanie zmanipulowanych i zsyntetyzowanych mediów, znanych jako deepfakes, zaowocowały setkami analiz i metod, które mogą pomóc organizacjom i osobom prywatnym chronić się przed wieloma zagrożeniami związanymi ze zmanipulowanymi mediami.

Dzięki SemaFor w końcowej fazie, inwestycje DARPA systematycznie zmniejszały ryzyko rozwojowe - torując drogę dla nowej ery obrony przed rosnącym zagrożeniem ze strony deepfake'ów. Teraz agencja wzywa szerszą społeczność - w tym przemysł komercyjny i środowiska akademickie prowadzące badania w tej przestrzeni - do wykorzystania tych inwestycji.

Aby wesprzeć tę transformację, agencja rozpoczyna dwa nowe działania, aby pomóc szerszej społeczności kontynuować obronę przed zmanipulowanymi mediami.

Pierwszy z nich obejmuje katalog analityczny https://semanticforensics.com/ zawierający zasoby open source opracowane w ramach SemaFor do użytku przez naukowców i przemysł. W miarę dojrzewania i udostępniania możliwości, będą one dodawane do tego repozytorium.

Drugim będzie otwarty wysiłek badawczy społeczności o nazwie AI Forensics Open Research Challenge Evaluation (AI FORCE), którego celem jest opracowanie innowacyjnych i solidnych modeli uczenia maszynowego lub głębokiego uczenia się, które mogą dokładnie wykrywać syntetyczne obrazy generowane przez sztuczną inteligencję. Poprzez serię mini-wyzwań, AI FORCE prosi uczestników o zbudowanie modeli, które potrafią odróżnić autentyczne obrazy, w tym te, które mogły zostać zmanipulowane lub edytowane przy użyciu metod innych niż sztuczna inteligencja, od w pełni syntetycznych obrazów wygenerowanych przez sztuczną inteligencję. Konkurs rozpocznie się 18 marca i będzie dostępny na stronie programu SemaFor. Osoby zainteresowane otrzymaniem powiadomienia mogą zapisać się do newslettera Information Innovation Office.

Według naukowców z DARPA i SemaFor, potrzebny jest wspólny wysiłek sektora komercyjnego, organizacji medialnych, zewnętrznych badaczy i programistów oraz decydentów, aby opracować i wdrożyć rozwiązania zwalczające zagrożenia związane ze zmanipulowanymi mediami. SemaFor zapewnia narzędzia i metody niezbędne do pomocy ludziom w tej problematycznej przestrzeni.

"Nasze inwestycje stworzyły przestrzeń możliwości, która jest aktualna, niezbędna i gotowa do rozwoju" - powiedział dr Wil Corvey, kierownik programu Semantic Forensics w DARPA. "Z pomocą przemysłu i środowisk akademickich na całym świecie, program Semantic Forensics jest gotowy do dzielenia się tym, co zaczęliśmy, aby wzmocnić ekosystem potrzebny do obrony autentyczności w cyfrowym świecie"

Aby uzyskać więcej informacji na temat powyższych działań i zasobów, proszę odwiedzić stronę https://www.darpa.mil/program/semantic-forensics i https://semanticforensics.com/.

Aby dowiedzieć się więcej na temat programu SemaFor i przeglądu powstałych technologii, proszę zapoznać się z odcinkiem Voices from DARPA na temat "Demystifying Deepfakes" na stronie https://www.darpa.mil/news-events/2023-06-16

Please share our article, every link counts!
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2024 06 > DARPA udostępnia narzędzia do wykrywania deepfake i rozpoczyna wspólne wyzwania, aby opracować więcej
David Chien, 2024-06- 3 (Update: 2024-06- 3)