Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

AI Seoul Summit – 16 firm deklaruje bezpieczeństwo rozwoju technologii

Szesnaście firm zajmujących się sztuczną inteligencją, w tym Alphabet’s Google, Meta, Microsoft i OpenAI, a także firmy z Chin, Korei Południowej i Zjednoczonych Emiratów Arabskich zobowiązały się do bezpiecznego rozwoju technologii.

Oświadczenie ujawniono podczas organizowanego przez Wielką Brytanię i Koreę Południową globalnego szczytu w Seulu poświęconego różnym zagadnieniom związanymi ze sztuczną inteligencją. Możemy w nim przeczytać, że porozumienie jest krokiem naprzód w stosunku do liczby zobowiązań podjętych podczas pierwszego globalnego szczytu AI, który odbył się sześć miesięcy temu.

Zhipu.ai, wspierany przez chińskich gigantów technologicznych Alibaba, Tencent, Meituan i Xiaomi, a także Instytut Innowacji Technologicznych ZEA znalazły się wśród 16 firm, które zobowiązały się do opublikowania ram bezpieczeństwa dotyczących sposobu pomiaru ryzyka związanego z pionierskimi modelami sztucznej inteligencji.

Firmy, w tym Amazon, IBM i Samsung Electronics, dobrowolnie zobowiązały się do nierozwijania ani niewdrażania modeli sztucznej inteligencji, jeśli nie można w wystarczającym stopniu złagodzić ryzyka oraz do zapewnienia zarządzania i przejrzystości w podejściu do bezpieczeństwa sztucznej inteligencji.

„Niezbędne jest osiągnięcie międzynarodowego porozumienia w sprawie »czerwonych linii«, w których rozwój sztucznej inteligencji stałby się niedopuszczalnie niebezpieczny dla bezpieczeństwa publicznego” – powiedziała Beth Barnes, założycielka METR, organizacji non-profit zajmującej się bezpieczeństwem modeli sztucznej inteligencji.

Microsoft zaprezentował Copilot+ PC – generację nowych laptopów wspieranych przez usługi AI