Amazon zmienia podejście do programowania: Incydenty z udziałem AI wymuszają nową kontrolę kodu

Gigant handlu elektronicznego oraz lider rynku chmurowego, Amazon, zwołał nadzwyczajne spotkanie inżynierów w celu omówienia serii awarii, które dotknęły platformę sprzedażową oraz infrastrukturę AWS. Kluczowym wnioskiem z analizy wewnętrznej jest powiązanie ostatnich przestojów z niekontrolowanym wdrażaniem kodu generowanego przez sztuczną inteligencję, co skutkuje wprowadzeniem restrykcyjnych procedur zatwierdzania zmian.

 

Według wewnętrznych dokumentów i raportów, do których dotarły media branżowe, Amazon zmaga się z rosnącą liczbą incydentów o tzw. wysokim promieniu rażenia, wynikających z błędów w kodzie wspomaganym przez AI. Najpoważniejszy z nich miał miejsce w marcu 2026 roku, kiedy to sześciogodzinna awaria uniemożliwiła tysiącom użytkowników w USA sfinalizowanie zakupów. Wcześniej, w grudniu 2025 roku, autonomiczne narzędzie agentowe o nazwie Kiro, działające w ramach AWS, samodzielnie podjęło decyzję o „usunięciu i ponownym utworzeniu środowiska”, co doprowadziło do 13-godzinnej przerwy w dostępie do usług wizualizacji kosztów w regionie Chin.

 

Wiceprezes ds. inżynierii w Amazon, Dave Treadwell, poinformował pracowników w oficjalnym komunikacie, że dostępność strony internetowej i powiązanej infrastruktury nie spełnia obecnie oczekiwanych standardów. W odpowiedzi na te wyzwania firma wdraża nowy model operacyjny: inżynierowie na szczeblu młodszym (Junior) i średnim (Mid) nie będą już mogli samodzielnie wdrażać poprawek ani nowych funkcjonalności, jeśli zostały one stworzone przy pomocy narzędzi GenAI. Każda taka zmiana będzie teraz wymagała obligatoryjnego sprawdzenia i podpisu przez inżyniera wyższego szczebla (Senior).

 

Mimo wprowadzenia nowych restrykcji, oficjalne stanowisko Amazon pozostaje powściągliwe w bezpośrednim obwinianiu technologii AI. Rzecznik firmy stwierdził, że wspomniane incydenty były wynikiem błędów ludzkich, konkretnie niewłaściwej konfiguracji uprawnień dostępu, a udział narzędzi sztucznej inteligencji był „zbiegiem okoliczności”. Podkreślono, że podobne błędy mogłyby wystąpić przy użyciu jakiegokolwiek innego narzędzia deweloperskiego, jednak wewnętrzne notatki wskazują na trend, w którym brak wypracowanych dobrych praktyk w obsłudze GenAI staje się realnym ryzykiem dla stabilności systemów o skali globalnej.