Grok miał dostać „twarz”, ale pracownicy xAI odmówili udziału w kontrowersyjnym projekcie

Zespół xAI Elona Muska zablokował kontrowersyjny pomysł trenowania Groka do rozpoznawania i generowania twarzy użytkowników. Wewnętrzny sprzeciw wobec wykorzystania danych biometrycznych unaocznia napięcia wokół granic etyki i prywatności w rozwoju sztucznej inteligencji.
Wewnętrzne dokumenty firmy xAI ujawniają, że pracownicy odmówili wdrożenia funkcji umożliwiającej chatbotowi Grok rozpoznawanie i generowanie wizerunków użytkowników. Pomysł ten spotkał się z ostrą krytyką zespołu, który wskazywał na poważne wątpliwości etyczne, prawne i techniczne. Obawy dotyczyły m.in. prywatności, potencjalnego tworzenia deepfake’ów oraz ryzyka nadużyć związanych z gromadzeniem danych biometrycznych.
Zespół projektowy zgłaszał wątpliwości, czy planowana funkcjonalność jest zgodna z przepisami o ochronie danych osobowych. Podnoszono również kwestię, że nawet jeśli użytkownicy dobrowolnie udostępnialiby swoje zdjęcia, firma nie miałaby pełnej kontroli nad późniejszym wykorzystaniem tych danych. Wskazywano też, że „nadanie Grokowi twarzy” – mimo że miało ułatwić personalizację – mogłoby podważyć zaufanie użytkowników.

W efekcie intensywnych wewnętrznych dyskusji i nacisków ze strony zespołu, rozwój funkcji został zawieszony. Firma zapewniła, że bezpieczeństwo danych i ochrona prywatności pozostaną jej najwyższym priorytetem.
Spór wewnątrz xAI pokazuje, że nawet najbardziej zaawansowane firmy technologiczne coraz ostrożniej podchodzą do implementacji funkcji ingerujących w sferę wizerunku i tożsamości użytkowników (i całe szczęście).






















