Apple pozwany za brak wdrożenia wykrywania CSAM w iCloud
W 2021 r. strona Apple ogłosił a następnie szybko wycofany kontrowersyjny system iCloud, który miał skanować zdjęcia iMessage i iCloud w poszukiwaniu materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM).
System pozwoliłby Apple analizować zdjęcia w urządzeniach Apple używanych przez dzieci, ale firma znalazła się w oku burzy z powodu obaw o prywatność zgłaszanych przez ekspertów i grupy wsparcia. Apple porzucił system, mówiąc, że "poświęci dodatkowy czas w nadchodzących miesiącach na zebranie opinii i wprowadzenie ulepszeń przed udostępnieniem tych niezwykle ważnych funkcji bezpieczeństwa dzieci"
Od tego czasu Apple milczał na temat jakichkolwiek funkcji dotyczących CSAM. Teraz (za pośrednictwem Engadget), ofiara złożyła pozew w amerykańskim sądzie okręgowym w Północnej Kalifornii, w którym twierdzi, że brak środków bezpieczeństwa ze strony Apple doprowadził do tego, że jej zdjęcia krążyły w Internecie w niewłaściwy sposób.
Pierwszy raport https://www.nytimes.com/2024/12/08/technology/apple-child-sexual-abuse-material-lawsuit.html przez The New York Times, 27-latka powiedziała, że ona i jej matka otrzymywały ciągłe powiadomienia o kilku osobach oskarżonych o posiadanie. Pozew domaga się rekompensaty finansowej dla 2680 ofiar, których zdjęcia wyciekły do sieci.
Apple rzecznik prasowy Fred Sainz powiedział Engadget, że CSAM "jest odrażające i jesteśmy zaangażowani w walkę z drapieżnikami narażającymi dzieci na niebezpieczeństwo" Sainz powiedział, że firma "pilnie i aktywnie" szuka sposobów "zwalczania tych przestępstw bez narażania bezpieczeństwa i prywatności wszystkich naszych użytkowników"
Źródło(a)
Źródło obrazu: Zdjęcie autorstwa Tayyab Ejaz na Unsplash