Notebookcheck Logo

Systemy sztucznej inteligencji, takie jak GPT-4 i Gemini, błędnie interpretujące nagrania z kamer pierścieniowych mogą prowadzić do fałszywych wezwań policji, zwłaszcza w dzielnicach mniejszościowych

Artykuł badawczy MIT sugeruje, że systemy sztucznej inteligencji częściej oznaczały incydenty w dzielnicach mniejszościowych, budząc obawy co do uczciwości i dokładności nadzoru opartego na sztucznej inteligencji. (Źródło obrazu: MIT News)
Artykuł badawczy MIT sugeruje, że systemy sztucznej inteligencji częściej oznaczały incydenty w dzielnicach mniejszościowych, budząc obawy co do uczciwości i dokładności nadzoru opartego na sztucznej inteligencji. (Źródło obrazu: MIT News)
Badania oparte na MIT przeanalizowały nagrania Amazon Ring przy użyciu modeli sztucznej inteligencji, takich jak GPT-4, w celu oceny decyzji dotyczących interwencji policji. Badanie ujawniło niespójności, w tym wysokie wskaźniki fałszywie dodatnie i uprzedzenia wobec dzielnic mniejszościowych, potencjalnie prowadzące do niepotrzebnych wezwań policji w sytuacjach niezwiązanych z przestępczością w przyszłości.
AI Smart Home

Ponieważ coraz więcej właścicieli domów decyduje się na inteligentne rozwiązania bezpieczeństwa, takie jak kamery Amazon Ring (obecnie 149,99 USD na Amazon), sztuczna inteligencja będzie odgrywać większą rolę w zapewnianiu bezpieczeństwa w domach. Nowe badanie budzi jednak obawy o to, czy te przyszłe systemy sztucznej inteligencji mogą zbyt szybko wzywać policję, nawet jeśli nie dzieje się nic przestępczego.

Naukowcy z MIT i Penn State przeanalizowali 928 publicznie dostępnych filmów z monitoringu Ring, aby zobaczyć, jak modele AI, takie jak GPT-4, Claudei Gemini podejmują decyzje o skontaktowaniu się z organami ścigania. Wyniki zdecydowanie sugerowały, że systemy te często oznaczają nieszkodliwe sytuacje jako potencjalnie przestępcze. Na przykład GPT-4 zalecał zaangażowanie policji w 20% analizowanych filmów, mimo że zidentyfikował rzeczywiste przestępstwo w mniej niż 1% przypadków. Claude i Gemini oznaczyły działania policji w 45% filmów, podczas gdy rzeczywista działalność przestępcza była obecna tylko w około 39,4%.

Jednym z kluczowych odkryć badania było to, jak modele sztucznej inteligencji reagowały różnie w zależności od okolicy. Mimo że sztuczna inteligencja nie otrzymała wyraźnych szczegółów na temat obszarów, bardziej prawdopodobne było, że zasugeruje wezwanie policji w dzielnicach zamieszkanych przez większość mniejszości. Na tych obszarach Gemini zalecił działania policji w prawie 65% przypadków, w których doszło do przestępstw, w porównaniu do nieco ponad 51% w dzielnicach zamieszkanych głównie przez białych. Ponadto w badaniu zauważono, że 11,9% zaleceń policyjnych GPT-4 miało miejsce nawet wtedy, gdy na nagraniu nie odnotowano żadnej działalności przestępczej, co rodzi pytania o fałszywe alarmy.

Najistotniejsze 3-, 4- i 5-gramowe różnice między białymi i mniejszościowymi dzielnicami w odpowiedziach na pytanie "Czy należy wezwać policję?" (Źródło obrazu: MIT)
Najistotniejsze 3-, 4- i 5-gramowe różnice między białymi i mniejszościowymi dzielnicami w odpowiedziach na pytanie "Czy należy wezwać policję?" (Źródło obrazu: MIT)

Co ciekawe, Amazon bada również funkcje oparte na sztucznej inteligencji dla swoich systemów Ring, w tym zaawansowane narzędzia, takie jak rozpoznawanie twarzy, analiza emocjonalna i wykrywanie zachowań, co sugerują ostatnie patenty https://www.businessinsider.com/amazon-ring-patents-describe-cameras-recognizing-skin-texture-odor-2021-12?IR=T. W przyszłości sztuczna inteligencja może odegrać znacznie większą rolę w identyfikowaniu podejrzanych działań lub osób, jeszcze bardziej zwiększając możliwości naszych domowych systemów bezpieczeństwa.

Dla właścicieli domów korzystających z kamer Ring nie ma bezpośredniego powodu do zmartwień. Obecnie kamery Ring mają ograniczone możliwości AI (głównie wykrywanie ruchu) i nie podejmują samodzielnie takich decyzji. Zaawansowane modele sztucznej inteligencji wykorzystane w badaniu, takie jak GPT-4 i Claude, zostały zastosowane zewnętrznie do analizy materiału Ring, a nie zintegrowane z samymi kamerami. Sedno badania polega na tym, że chociaż przyszłe aktualizacje sztucznej inteligencji mogą pomóc w monitorowaniu domu w wyższym stopniu, mogą być również podatne na popełnianie błędów - błędów, które będą musiały zostać wyeliminowane, zanim te funkcje staną się głównym nurtem w nadchodzących kamerach Ring.

Proszę zapoznać się z innym badaniem, które obejmuje uprzedzenia AI do afroamerykańskich dialektów języka angielskiego tutaj.

(Źródło zdjęcia: Instytut Danych, Systemów i Społeczeństwa, Massachusetts Institute of Technology)
(Źródło zdjęcia: Instytut Danych, Systemów i Społeczeństwa, Massachusetts Institute of Technology)

Źródło(a)

Please share our article, every link counts!
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2024 09 > Systemy sztucznej inteligencji, takie jak GPT-4 i Gemini, błędnie interpretujące nagrania z kamer pierścieniowych mogą prowadzić do fałszywych wezwań policji, zwłaszcza w dzielnicach mniejszościowych
Anubhav Sharma, 2024-09-20 (Update: 2024-09-20)