Nowe przepisy dotyczące AI w 2026: Tylko trzy godziny na usunięcie szkodliwych deepfake’ów

Indie oraz Wielka Brytania wprowadzają bezprecedensowe zaostrzenie przepisów dotyczących treści generowanych przez sztuczną inteligencję, nakładając na platformy cyfrowe obowiązek błyskawicznego reagowania na szkodliwe deepfake’i. Zmiany te są kluczowe dla bezpieczeństwa cyfrowego, ponieważ drastycznie skracają czas na usunięcie bezprawnych materiałów i wprowadzają surowe sankcje karne dla twórców nielegalnych treści.

Indyjskie Ministerstwo Elektroniki i Technologii Informacyjnej ogłosiło nowelizację przepisów IT Rules 2026, która wchodzi w życie od 20 lutego 2026 roku. Najważniejszą zmianą jest radykalne skrócenie czasu, jaki platformy społecznościowe mają na usunięcie treści wskazanych przez sąd lub organy rządowe – z dotychczasowych 36 godzin do zaledwie trzech. W przypadku szczególnie drastycznych materiałów, takich jak deepfake’i o charakterze seksualnym (NCII) lub przedstawiające nagość bez zgody zainteresowanych, czas ten został ograniczony do dwóch godzin. Firmy, które nie dostosują się do nowych ram czasowych, ryzykują utratę statusu „safe harbour”, co oznacza, że mogą zostać pociągnięte do pełnej odpowiedzialności prawnej za treści publikowane przez użytkowników.

Równolegle do działań w Azji, Wielka Brytania zintensyfikowała własną walkę z zagrożeniami typu deepfake, wprowadzając poprawki do ustawy o bezpieczeństwie online (Online Safety Act). Brytyjski rząd oficjalnie uznał tworzenie intymnych obrazów bez zgody, w tym tych wygenerowanych przez AI, za odrębne przestępstwo kryminalne zagrożone karą do dwóch lat więzienia. Technologia „hash matching” ma być wykorzystywana przez regulatora Ofcom do proaktywnego blokowania takich materiałów już u źródła. Brytyjskie podejście kładzie szczególny nacisk na odpowiedzialność dostawców narzędzi AI, zakazując oferowania oprogramowania służącego do tzw. „nudyfikacji”, co ma na celu uderzenie w rynek usług umożliwiających tworzenie szkodliwych treści.

Oba państwa nakładają na pośredników cyfrowych nowe obowiązki w zakresie transparentności i weryfikacji. W Indiach platformy muszą teraz co kwartał ostrzegać użytkowników o konsekwencjach prawnych nadużyć AI oraz wdrażać trwałe znaczniki metadanych i widoczne etykiety dla wszystkich treści syntetycznych. Brytyjskie regulacje idą o krok dalej w kwestii egzekwowania prawa, przewidując dla gigantów technologicznych kary finansowe sięgające nawet 10% ich globalnego obrotu w przypadku systematycznego ignorowania obowiązku usuwania nielegalnych deepfake’ów. Współpraca rządu UK z liderami branży, takimi jak Microsoft, ma dodatkowo pomóc w opracowaniu standardów wykrywania manipulacji, które staną się wzorcem dla sektora technologicznego.