Google oferuje 12 milionów dolarów dla hakerów za walkę z atakami generatywnej sztucznej inteligencji
Google rozszerza swój obecny program nagród za błędy, aby nagradzać hakerów i badaczy bezpieczeństwa, którzy identyfikują możliwe ataki w generatywnej sztucznej inteligencji. Program Vulnerability Rewards Program (VRP) określa jasne wytyczne dotyczące zgłoszeń kwalifikujących się do nagród finansowych. Jeśli problem kwalifikuje się do zgłoszenia, można go przesłać na stronie Bug Hunter i otrzymać nagrodę, jeśli zostanie uznany za ważny.
W zeszłym roku Google zapłacił specjalistom ds. bezpieczeństwa 12 milionów dolarów za ujawnienie luk w zabezpieczeniach. W sierpniu firma spotkała się z innymi delegatami branżowymi i badaczami bezpieczeństwa na Defcon, największym jak dotąd publicznym wydarzeniu poświęconym generatywnej sztucznej inteligencji, w Białym Domu, aby zidentyfikować możliwe problemy.
Wierzymy, że rozszerzenie VRP zachęci do badań nad bezpieczeństwem i ochroną sztucznej inteligencji oraz ujawni potencjalne kwestie, które ostatecznie sprawią, że sztuczna inteligencja będzie bezpieczniejsza dla wszystkich. Rozszerzamy również nasze prace nad bezpieczeństwem open source, aby informacje o bezpieczeństwie łańcucha dostaw sztucznej inteligencji były powszechnie dostępne i możliwe do zweryfikowania.
- Rzecznik Google
Do tej pory firma korzystała z własnego "AI Red Team" do badania zagrożeń związanych ze sztuczną inteligencją, wykrywania błędów i opracowywania zabezpieczeń systemowych.
Wykorzystujemy taktyki, techniki i procedury atakujących (TTP) do testowania szeregu zabezpieczeń systemowych.
- Daniel Fabian, szef Google Red Teams
Zgodnie z nowymi przepisami, zewnętrzni hakerzy mogą teraz symulować ataki w celu zidentyfikowania na przykład błędów w systemach i usługach Google AI, ale muszą działać w ściśle określonych ramach. Rozszerzenie programu motywacyjnego poprzedziło wprowadzenie nowego zarządzenia prezydenta Bidena.
30 października Joe Biden wydał pierwsze obowiązkowe działanie rządu dotyczące na przykład sztucznej inteligencji. Rozporządzenie wykonawcze nakazuje dokładną ocenę modeli sztucznej inteligencji przed ich wykorzystaniem przez agencje rządowe.