Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

ChatGPT tworzy w większości niezabezpieczony kod, ale nie powie Ci o tym, jeśli nie zapytasz

Badacze z Uniwersytetu w Quebecu, w Kanadzie, przeprowadzili badania nad kodem generowanym przez ChatGPT, który jest inteligentnym botem do przetwarzania tekstu od OpenAI. W wyniku badań stwierdzili, że ChatGPT w wielu przypadkach generuje kod o niskim poziomie bezpieczeństwa. Mimo że bot był zdolny do wskazania swoich błędów, jednak nie informował użytkowników o swoich niedociągnięciach.

Badacze poprosili ChatGPT o wygenerowanie 21 programów w różnych językach programowania takich jak C, C++, Python i Java, każdy z programów miał przedstawiać określoną podatność bezpieczeństwa, taką jak korupcja pamięci, odmowa usługi i wady związane z deserializacją oraz kryptografią.

W wyniku badań stwierdzono, że ChatGPT generuje kod niskiej jakości w większości przypadków. W pierwszej próbie bot wygenerował tylko pięć bezpiecznych programów spośród 21. Po dalszych próbach, ChatGPT był w stanie wygenerować siedem innych bezpiecznych programów, ale tylko w odniesieniu do określonej podatności, a nie ogólnie w sensie wolnym od podatności na exploity.

Badacze wskazują, że problem wynika z faktu, że ChatGPT nie zakłada wrogiej interpretacji wykonywanego kodu. Bot sugeruje, że problemy związane z bezpieczeństwem mogą być do obejścia poprzez “niepodawanie niewłaściwych danych” do programu, który wygenerował.

Badania pokazały, że ChatGPT może być niebezpieczny w pewnych zastosowaniach, takich jak generowanie kodu do zadań wymagających bezpieczeństwa, a badacze twierdzą, że konieczne jest uświadomienie użytkowników o tym, że kod wygenerowany przez ChatGPT może być niewystarczająco bezpieczny.