Apple z kolejnym pozwem. Tym razem problem dotyczy iCloud

Apple pozwane za brak systemu skanującego iCloud w celu wykrywania materiałów CSAM

Apple znalazło się w centrum kontrowersji po decyzji o niewdrożeniu systemu, który miał skanować zdjęcia przechowywane w iCloud w celu wykrywania materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM). Według informacji *The New York Times*, pozew wniesiony przeciwko firmie zarzuca, że brak działań w tej sprawie zmusza ofiary do ponownego przeżywania traumy. W pozwie podkreślono, że Apple zapowiadało wprowadzenie systemu „mającego chronić dzieci,” jednak nie wdrożyło go ani nie podjęło innych środków, by wykrywać i ograniczać rozpowszechnianie takich materiałów.

Apple ogłosiło plany dotyczące systemu w 2021 roku. Rozwiązanie miało korzystać z podpisów cyfrowych dostarczanych przez Narodowe Centrum Zaginionych i Wykorzystywanych Dzieci oraz inne organizacje, aby identyfikować znane materiały CSAM w bibliotekach iCloud. Jednak po krytyce ze strony ekspertów ds. prywatności i bezpieczeństwa, którzy wskazywali na ryzyko stworzenia tylnej furtki dla nadzoru rządowego, firma wycofała się z realizacji tego pomysłu.

Pozew wniosła 27-letnia kobieta. Twierdzi, że jako niemowlę była wykorzystywana przez krewnego, który udostępnił jej zdjęcia w internecie. Do dziś niemal codziennie otrzymuje od organów ścigania powiadomienia o kolejnych osobach oskarżonych o posiadanie tych materiałów. Prawnik James Marsh, zaangażowany w sprawę, wskazuje, że potencjalnie istnieje grupa 2 680 ofiar, które mogłyby ubiegać się o odszkodowanie w ramach tej sprawy.

Apple, w odpowiedzi na zarzuty, zapewniło w oświadczeniu dla *The New York Times*, że „intensywnie pracuje nad innowacjami, które pozwolą walczyć z tymi przestępstwami, jednocześnie chroniąc bezpieczeństwo i prywatność wszystkich użytkowników.” To nie pierwszy taki pozew wobec firmy. W sierpniu dziewięcioletnia dziewczynka wraz z opiekunem oskarżyła Apple o brak działań w zakresie eliminacji CSAM z platformy iCloud.