Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Meta oddaje kontrolę nad bezpieczeństwem w ręce AI. EU pozostaje jednak wyjątkiem

Meta wdraża system, w którym aż 90% ocen ryzyka dla nowych funkcji Facebooka, Instagrama i WhatsApp przeprowadzi sztuczna inteligencja. Unia Europejska pozostaje wyjątkiem.

Meta wprowadza automatyzację ocen ryzyka dla nowych funkcji i aktualizacji na swoich platformach. Od teraz decyzje, czy dana zmiana może naruszać prywatność, szkodzić nieletnim lub sprzyjać dezinformacji, w 90% przypadków podejmie AI, a nie ludzie. Do tej pory każda nowość musiała przejść przez kilkuetapową analizę ekspertów ds. bezpieczeństwa, którzy oceniali jej wpływ na użytkowników.

Nowy system będzie polegać na tym, że zespoły produktowe będą wypełniać ankietę, a algorytm natychmiast wskaże potencjalne zagrożenia i wymagania do spełnienia przed wdrożeniem funkcji. Odpowiedzialność za wdrożenie tych wytycznych spoczywać będzie na samych twórcach. Meta liczy, że dzięki temu proces rozwoju produktów będzie szybszy i prostszy.

 

 

Eksperci ostrzegają jednak, że takie podejście może zwiększyć ryzyko błędów. Obawiają się przykładowo, że presja na szybkie wdrażanie nowości może prowadzić do pomijania zagrożeń.

Zmiana nie obejmie wyłącznie użytkowników z Unii Europejskiej. Tam decyzje dotyczące ryzyk nadal będą podejmowane przez ludzi, a wszystko to zgodnie z wymaganiami unijnych regulacji, takich jak Digital Services Act.