Huawei odnosi się do kontrowersyjnego artykułu w „The Washington Post”, poruszającego temat technologii rozpoznawania twarzy.

Rozpoznawanie twarzy to świetna technologia – dzięki niej możemy się np. szybko logować bezdotykowo (co obecnie jest szczególnie ważne) czy rozpoznawać nastrój użytkownika. Niestety, może też posłużyć do inwigilacji, co pojawia się jako wiodący temat w artykule „The Washington Post”. Dziś Huawei oficjalnie odniosło się do treści artykułu. 

Należąca do CEO Amazonu, Jeffa Bezosa, gazeta opublikowała kilka dni temu artykuł pt. „Huawei przetestowało AI, które może rozpoznać osoby z mniejszości ujgurskiej i zaalarmować policję” (ang. Huawei tested AI software that could recognize Uighur minorities and alert police, report says”). Artykuł jest dostępny online.

TWP porusza w artykule temat rozpoznawania twarzy przez system AI, co miałoby powodować automatyzację rozpoznawania osób, które należą do represjonowanej mniejszości Ujgurów – ludu żyjącego na zachodzie Chin, w prowincji Xinjiang. Ich liczbę szacuje się na około 10 milionów. Mają własny język, w większości są muzułmanami, ale na ich kulturę wpłynął też buddyzm. Są ludem pochodzenia tureckiego i turkmeńskiego. Chiny przejęły tereny Xinjiangu w XVIII wieku, a od tego czasu Ujgurzy wielokrotnie buntowali się przeciw władzy chińskiej. W ostatnim czasie to właśnie represje wobec Ujgurów zastąpiły w zachodnich mediach, znacznie świeższą przecież, kwestię Tybetu.

W artykule waszyngtońskiej gazety można przeczytać, że technologia Huawei do rozpoznawania twarzy może wysyłać automatyczne „ujgurskie alarmy” do władz, gdy systemy kamer zidentyfikują członków tejże mniejszości. Artykuł oparto o dokumenty, które zawierają  szczegóły dotyczące chińskiego systemu nadzoru zautomatyzowanego. Dokument miał być rzekomo podpisany przez przedstawicieli Huawei, a w ręce TWP trafił poprzez organizację IPVM. Co ciekawe, dokument został udostępniony wyłącznie The Washington Post. Jak wykazuje gazeta, chińska firma współpracowała w 2018 roku ze start-upem Megvii, specjalizującym się w rozpoznawaniu twarzy. Współpraca obejmowała testy systemu kamer ze sztuczną inteligencją, który mógłby skanować twarze w tłumie i szacować wiek, płeć i pochodzenie etniczne każdej osoby.

 

Huawei wydało dziś oświadczenie w sprawie tego artykułu, które publikujemy poniżej w całości:

Huawei sprzeciwia się wszelkiego rodzaju dyskryminacji, w tym wykorzystywaniu technologii do dyskryminacji na tle etnicznym. Dostarczamy rozwiązania informacyjno-komunikacyjne (ICT) do użytku ogólnego, bazujące na uznanych standardach branżowych. Nie opracowujemy ani nie sprzedajemy systemów identyfikujących ludzi na podstawie przynależności etnicznej i nie zgadzamy się na wykorzystywanie naszych technologii do dyskryminowania lub gnębienia członków jakiejkolwiek społeczności. Technologie, o których mowa w artykule, są nowe i ciągle ewoluują. Dlatego tworzenie systemu etyki oraz metod zarządzania tą kształtującą się dopiero dziedziną musi być procesem świadomym, ciągłym i opartym na współpracy. Bardzo poważnie traktujemy zarzuty zawarte w artykule The Washington Post i badamy poruszone w nim kwestie. W międzyczasie będziemy pracować nad dalszą optymalizacją naszych wewnętrznych systemów zarządzania, by mieć pewność, że nadążają za tempem rozwoju technologicznego.
Wierzymy, że technologia powinna służyć dobru. Huawei jako członek paktu United Nations Global Compact oraz koalicji Responsible Business Alliance zawsze opowiada się za uczciwym i niedyskryminującym stosowaniem technologii. Szanujemy prawo każdego kraju i regionu, w którym działamy, i dbamy o naszych klientów, partnerów oraz wszystkie osoby, które korzystają z naszej technologii lub znajdują się pod jej wpływem. Nie wspieraliśmy i nigdy nie będziemy wspierać wykorzystywania technologii do dyskryminowania jakichkolwiek mniejszości.

Rozpoznawanie obrazu, chociaż w innym zakresie, jest też obecne naszych smartfonach. Tutaj pełni jednak pozytywną rolę.

Sprawa zautomatyzowanego nadzoru to wysoce kontrowersyjny temat nie tylko w Chinach. Kilka lat temu nowojorska policja musiała zrezygnować z ówczesnej wersji rozpoznającego ludzi AI, ponieważ ta bazowała m.in. na statystykach przestępczości, co w praktyce sprawiało, że podnoszone przez nią „alarmy” mogły zostać odczytane jako rasistowskie. Rozpoznawanie twarzy i identyfikacja automatyczna może być także czynnikiem poprawiającym bezpieczeństwo np. w miejscach o kluczowym znaczeniu (lotniska, dworce, kluczowe elementy infrastruktury energetycznej itd.). Temat ten jest, pod wieloma względami bliższy do omawiania przez etyków i prawników, niż przez ekspertów ds. technologii.