Tłumacz Google z potężną aktualizacją AI – Gemini wchodzi do gry z obsługą slangu i rozmów na żywo

Po miesiącach oczekiwań Google wreszcie integruje swoje najnowsze modele AI z Tłumaczem Google, wprowadzając fundamentalne zmiany w jakości i funkcjonalności usługi. Od 11 grudnia 2025 roku aplikacja wykorzystuje silnik Gemini do precyzyjnego tłumaczenia idiomów i slangu, a także oferuje wersję beta tłumaczenia rozmów w czasie rzeczywistym bezpośrednio do słuchawek, zachowując ton i tempo rozmówcy. Choć integracja tak zaawansowanego modelu z kluczowym produktem firmy wydawała się oczywistością, użytkownicy musieli czekać na nią zaskakująco długo, biorąc pod uwagę tempo rozwoju konkurencji.
Google Translate zyskał inteligencję kontekstową dzięki modelom Gemini, co rozwiązuje jeden z największych problemów automatycznych translatorów – dosłowność. System potrafi teraz poprawnie interpretować idiomy, lokalne wyrażenia i slang (np. zwrot “stealing my thunder” nie zostanie przetłumaczony jako “kradzież grzmotu”, lecz odda jego rzeczywiste znaczenie). Funkcja ta jest dostępna od 11 grudnia w USA i Indiach dla par językowych obejmujących angielski oraz blisko 20 innych języków, w tym hiszpański, chiński, japoński, niemiecki i hindi. Google nie podało oficjalnej daty wdrożenia tej konkretnej funkcji dla języka polskiego, co oznacza, że rodzimi użytkownicy muszą jeszcze uzbroić się w cierpliwość (większą bądź mniejszą…).
Najbardziej imponującą nowością jest chyba beta funkcji “Live Translate” obsługiwana przez natywny model audio Gemini 2.5. Umożliwia ona prowadzenie płynnych rozmów w czasie rzeczywistym przy użyciu dowolnych słuchawek podłączonych do urządzenia z Androidem. Co kluczowe, system nie tylko tłumaczy treść, ale także zachowuje ton, ekspresję i rytm wypowiedzi, sprawiając, że rozmowa brzmi naturalnie, a nie robotycznie. Beta wystartowała 11 grudnia na Androidzie w USA, Meksyku i Indiach, obsługując ponad 70 języków. Wdrożenie na iOS oraz rozszerzenie dostępności na kolejne kraje zaplanowano dopiero na rok 2026.
Decyzja o tak późnym wdrożeniu Gemini do flagowego produktu translatorskiego może dziwić, biorąc pod uwagę, że konkurencyjne rozwiązania (jak DeepL czy wbudowane tłumacze w nowych smartfonach Samsunga) od dawna stawiają na kontekstowość. Google, mimo posiadania potężnej technologii, zdaje się wdrażać ją z dużą ostrożnością. Kto wie, być może z chęci uniknięcia “halucynacji” AI w tak newralgicznej usłudze jak tłumaczenie.





















