Systemy sztucznej inteligencji, takie jak GPT-4 i Gemini, błędnie interpretujące nagrania z kamer pierścieniowych mogą prowadzić do fałszywych wezwań policji, zwłaszcza w dzielnicach mniejszościowych
Ponieważ coraz więcej właścicieli domów decyduje się na inteligentne rozwiązania bezpieczeństwa, takie jak kamery Amazon Ring (obecnie 149,99 USD na Amazon), sztuczna inteligencja będzie odgrywać większą rolę w zapewnianiu bezpieczeństwa w domach. Nowe badanie budzi jednak obawy o to, czy te przyszłe systemy sztucznej inteligencji mogą zbyt szybko wzywać policję, nawet jeśli nie dzieje się nic przestępczego.
Naukowcy z MIT i Penn State przeanalizowali 928 publicznie dostępnych filmów z monitoringu Ring, aby zobaczyć, jak modele AI, takie jak GPT-4, Claudei Gemini podejmują decyzje o skontaktowaniu się z organami ścigania. Wyniki zdecydowanie sugerowały, że systemy te często oznaczają nieszkodliwe sytuacje jako potencjalnie przestępcze. Na przykład GPT-4 zalecał zaangażowanie policji w 20% analizowanych filmów, mimo że zidentyfikował rzeczywiste przestępstwo w mniej niż 1% przypadków. Claude i Gemini oznaczyły działania policji w 45% filmów, podczas gdy rzeczywista działalność przestępcza była obecna tylko w około 39,4%.
Jednym z kluczowych odkryć badania było to, jak modele sztucznej inteligencji reagowały różnie w zależności od okolicy. Mimo że sztuczna inteligencja nie otrzymała wyraźnych szczegółów na temat obszarów, bardziej prawdopodobne było, że zasugeruje wezwanie policji w dzielnicach zamieszkanych przez większość mniejszości. Na tych obszarach Gemini zalecił działania policji w prawie 65% przypadków, w których doszło do przestępstw, w porównaniu do nieco ponad 51% w dzielnicach zamieszkanych głównie przez białych. Ponadto w badaniu zauważono, że 11,9% zaleceń policyjnych GPT-4 miało miejsce nawet wtedy, gdy na nagraniu nie odnotowano żadnej działalności przestępczej, co rodzi pytania o fałszywe alarmy.
Co ciekawe, Amazon bada również funkcje oparte na sztucznej inteligencji dla swoich systemów Ring, w tym zaawansowane narzędzia, takie jak rozpoznawanie twarzy, analiza emocjonalna i wykrywanie zachowań, co sugerują ostatnie patenty https://www.businessinsider.com/amazon-ring-patents-describe-cameras-recognizing-skin-texture-odor-2021-12?IR=T. W przyszłości sztuczna inteligencja może odegrać znacznie większą rolę w identyfikowaniu podejrzanych działań lub osób, jeszcze bardziej zwiększając możliwości naszych domowych systemów bezpieczeństwa.
Dla właścicieli domów korzystających z kamer Ring nie ma bezpośredniego powodu do zmartwień. Obecnie kamery Ring mają ograniczone możliwości AI (głównie wykrywanie ruchu) i nie podejmują samodzielnie takich decyzji. Zaawansowane modele sztucznej inteligencji wykorzystane w badaniu, takie jak GPT-4 i Claude, zostały zastosowane zewnętrznie do analizy materiału Ring, a nie zintegrowane z samymi kamerami. Sedno badania polega na tym, że chociaż przyszłe aktualizacje sztucznej inteligencji mogą pomóc w monitorowaniu domu w wyższym stopniu, mogą być również podatne na popełnianie błędów - błędów, które będą musiały zostać wyeliminowane, zanim te funkcje staną się głównym nurtem w nadchodzących kamerach Ring.
Proszę zapoznać się z innym badaniem, które obejmuje uprzedzenia AI do afroamerykańskich dialektów języka angielskiego tutaj.