Kongres prawników SEG ostrzega przed ryzykami AI w spółkach publicznych

Sztuczna inteligencja coraz śmielej wchodzi do codziennej pracy firm notowanych na giełdzie, ale razem z wygodą rośnie też skala ryzyk prawnych i organizacyjnych. Taki wniosek płynie z XVII Kongresu Prawników Spółek Giełdowych SEG, gdzie eksperci zwracali uwagę, że brak zasad korzystania z AI może oznaczać problemy z poufnością, odpowiedzialnością zarządu i zgodnością z regulacjami.
Jednym z najważniejszych tematów XVII edycji Kongresu Prawników Spółek Giełdowych SEG, który odbył się w Jachrance, była praktyka korzystania ze sztucznej inteligencji w spółkach publicznych. W ocenie uczestników samo wdrażanie narzędzi AI nie budzi dziś już większych wątpliwości, a znacznie ważniejsze staje się to, czy organizacje potrafią korzystać z nich w sposób bezpieczny, zgodny z prawem i poddany realnemu nadzorowi.
Najmocniej wybrzmiał postulat przygotowania wewnętrznych procedur regulujących użycie AI przez pracowników. W przypadku spółek publicznych stawka jest szczególnie wysoka, bo nie chodzi wyłącznie o efektywność pracy, ale także o ochronę informacji poufnych i zgodność z przepisami rynku kapitałowego.
Spółki publiczne powinny opracować procedury regulujące korzystanie z AI w ich organizacji. Bezkrytyczne używanie powszechnych narzędzi AI przez pracowników spółek publicznych może bowiem skutkować naruszeniem obowiązku poufności lub bezprawnym ujawnieniem informacji poufnych w rozumieniu MAR – wystarczy jeden niewłaściwy prompt. Do tego dochodzą ryzyka naruszenia RODO, praw własności intelektualnej czy tzw. halucynacji AI – wskazała Julia Trzmielewska, Senior Counsel, adwokat w Sołtysiński Kawecki & Szlęzak.
To ważny sygnał dla rynku, bo AI compliance zaczyna być traktowane nie jako dodatek do polityk bezpieczeństwa, lecz jako element ładu korporacyjnego. Szczególnie istotne są tu sytuacje, w których pracownik lub menedżer korzysta z ogólnodostępnego narzędzia AI do analizy dokumentów, przygotowania rekomendacji albo streszczenia materiałów zawierających dane wrażliwe biznesowo.
Odpowiedzialność zarządu i problem zaufania do algorytmów
Podczas kongresu dużo miejsca poświęcono także odpowiedzialności członków organów spółek. Dyskusja dotyczyła nie tylko ryzyka wycieku danych, ale również tego, na ile zarząd może opierać swoje działania na podpowiedziach generowanych przez systemy AI.
Brak właściwego nadzoru nad stosowaniem AI w spółce może zostać uznany za naruszenie obowiązku należytej staranności przez członków zarządu i prowadzić do ich osobistej odpowiedzialności. AI compliance to dziś element dobrego zarządzania spółką – dodał adwokat Jakub Urbanowicz, partner w Sołtysiński Kawecki & Szlęzak.
Ta wypowiedź dobrze pokazuje zmianę perspektywy. Jeszcze niedawno rozmowa o AI w biznesie koncentrowała się głównie na automatyzacji i oszczędności czasu. Dziś coraz częściej chodzi o odpowiedzialność za błędne rekomendacje algorytmów, dokumentowanie procesu decyzyjnego i umiejętność wykazania, że człowiek nie oddał kluczowych decyzji maszynie bez odpowiedniej weryfikacji.
Na kongresie omawiano też relację między Business Judgement Rule a poradami uzyskanymi z narzędzi AI, a także możliwe spory z inwestorami, audytorami czy doradcami, jeśli decyzje będą wspierane przez wadliwe lub niezweryfikowane wyniki modeli.
Bezpieczeństwo, infrastruktura krytyczna i nowe obowiązki dla firm
Tematem równie ważnym jak AI okazały się zagrożenia hybrydowe i odporność organizacji. Eksperci zwracali uwagę, że firmy funkcjonują dziś w środowisku rosnącej presji związanej z bezpieczeństwem fizycznym, technicznym i cyfrowym.
Firmy stoją aktualnie przed poważnym wyzwaniem związanym z zapewnieniem odporności, bezpieczeństwa i ochrony infrastruktury krytycznej. Wyzwanie jest tym większe, jeśli zdamy sobie sprawę z rosnących zagrożeń związanych z atakami terrorystycznymi i działaniami hybrydowymi. Incydenty bezpieczeństwa mogą skutkować awariami przemysłowymi i lub przerwami w funkcjonowaniu całej organizacji. W pierwszej połowie 2026 r. wejdzie w życie nowelizacja Ustawy o zarządzaniu kryzysowym implementująca Dyrektywę CER. Nowe przepisy obejmą w Polsce ok. 2000 podmiotów działających w 15 sektorach. Nowelizacja wprowadzi minimalne wymagania w ramach tzw. sześciopaku, obejmującego bezpieczeństwo fizyczne, techniczne, osobowe, prawne, ciągłość działania i cyberbezpieczeństwo” – powiedział Wojciech Niezgodziński, partner w Dziale Zarządzania Ryzykiem Nadużyć EY Polska.
W praktyce oznacza to, że spółki publiczne będą musiały patrzeć na ryzyko szerzej niż dotąd. AI, cyberbezpieczeństwo, ochrona informacji, odporność operacyjna i zgodność z nowymi regulacjami zaczynają tworzyć jeden wspólny obszar odpowiedzialności.
Transparentność nadal pozostaje fundamentem rynku
Kongres przypomniał też, że mimo nowych technologii podstawowe zasady rynku kapitałowego pozostają niezmienne. Nadal kluczowe są rzetelność komunikacji, prawdziwość przekazu i właściwy kontekst ujawnianych danych.
Transparentność jest podstawowym filarem rynku kapitałowego. Im większa dostępność rzetelnych i kompletnych informacji o emitencie, którego instrumenty finansowe występują w obrocie zorganizowanym, tym większe bezpieczeństwo inwestorów – podkreślił Karol Maciej Szymańskim, partner zarządzający w RKKW.
Wnioski z kongresu są więc jednoznaczne. Spółki giełdowe nie mogą już traktować sztucznej inteligencji jako neutralnego narzędzia biurowego, bo w realiach rynku publicznego AI staje się obszarem wymagającym procedur, nadzoru i świadomego zarządzania ryzykiem.






















