Bez jasnych reguł firmy utoną w pozwach za decyzje AI – raport NTT DATA

Wraz z lawinowym wzrostem autonomii systemów AI, które samodzielnie podejmują decyzje biznesowe, palącym problemem staje się kwestia odpowiedzialności za ich błędy. Najnowszy raport Technology Foresight 2026 od NTT DATA ostrzega: tradycyjne modele prawne mogą nie wystarczyć, gdy agent AI „na własną rękę” zawrze niekorzystny kontrakt lub naruszy przepisy. Eksperci postulują wdrożenie modelu „łańcucha nadzoru” (chain of custody), który pozwoli jednoznacznie przypisać każdą cyfrową decyzję do konkretnej intencji człowieka.

Opublikowany w styczniu 2026 roku raport stawia sprawę jasno: era, w której człowiek zatwierdzał każde kliknięcie algorytmu (model human-in-the-loop), odchodzi do lamusa na rzecz systemów działających w pełni autonomicznie (human-orchestrated autonomy). Rodzi to jednak poważną lukę w odpowiedzialności (tzw. accountability gap). Kto odpowiada, gdy flota agentów zakupowych AI zamówi towar od “nieetycznego” dostawcy, naruszając politykę ESG firmy, albo gdy bot negocjacyjny zgodzi się na rażąco niskie marże? NTT DATA wskazuje, że bez wdrożenia mechanizmów ścisłej identyfikowalności, firmy mogą stanąć przed paraliżem decyzyjnym lub falą pozwów.

Odpowiedzią ma być koncepcja „Governance as Code” – zaszycie reguł odpowiedzialności bezpośrednio w architekturze systemów. Raport sugeruje, że autonomiczny agent nie może być traktowany jako „czarna skrzynka”, której działania są nieprzewidywalne. Każda jego akcja musi być powiązana z cyfrowym podpisem intencji nadzorcy (człowieka lub komitetu sterującego). Oznacza to, że jeśli agent podejmie błędną decyzję, system musi umożliwić natychmiastowe wskazanie, który parametr sterujący lub jaki zbiór danych treningowych doprowadził do błędu – i kto personalnie odpowiadał za ich wdrożenie.

W praktyce NTT DATA rekomenduje firmom traktowanie autonomicznych agentów jak „cyfrowych pracowników” o ograniczonych pełnomocnictwach. Tak jak nowy pracownik nie dostaje od razu dostępu do konta bankowego firmy, tak agenci AI powinni działać w ramach ściśle zdefiniowanych „barier ochronnych” (guardrails), które automatycznie blokują decyzje wykraczające poza akceptowalny poziom ryzyka. Bez tych zabezpieczeń, jak ostrzega Oliver Koeth z NTT DATA, masowa inteligencja zamiast przewagą, stanie się największym ryzykownym pasywem w bilansie przedsiębiorstwa.