Coraz więcej AI w kieszeni – czyli sztuczna inteligencja w urządzeniach mobilnych?
Jeśli chodzi o technologię konsumencką, sztuczna inteligencja wydaje się być wszędzie. A najmodniejszym miejscem, w którym możemy zobaczyć AI, jest prawdopodobnie najbardziej osobiste urządzenie jakie posiadamy – nasz własny smartfon. Ale co tak naprawdę oznacza AI? I jak na kształt tego, czym dziś jest smartfon, wpłynął ten pozornie modny trend technologiczny?
AI, SI czy sztuczna inteligencja. Nazwa bywa myląca i budzi skojarzenie z samoświadomymi bytami z książek i filmów science-fiction. Aktualnie AI daleko jeszcze do takiego wzorca. Zamiast zguby ludzkości jak z “Matrixa” czy “Terminatora” współczesna AI jest pokojowym, a do tego pomocnym rozwiązaniem, którego bać się nie należy. W pewnym uproszczeniu jest to, co odróżnia AI od innych rodzajów oprogramowania to m.in. umiejętność uczenia się. Choć kuszące jest myślenie o sztucznej inteligencji jako o kolejnej zupełnie nowej innowacji technologicznej, jest to właściwie dobrze ugruntowana forma informatyki z historią sięgającą co najmniej sześćdziesięciu lat. AI rozwinęło się, aby pomóc w tworzeniu i ulepszaniu wielu udogodnień technologicznych, którymi obecnie możemy się cieszyć. Przykłady z życia codziennego to np. oprogramowanie do rozpoznawania twarzy i predykcyjne wyszukiwanie w wyszukiwarkach internetowych. Nawet rekomendacje muzyczne Spotify są formą sztucznej inteligencji. Warto jednak zauważyć, że wiele innowacji, na których dziś polegamy, nie wynika tylko z AI, ale raczej z rozwoju gałęzi AI znanej jako uczenie maszynowe (ML, machine learning).
ML jest formą sztucznej inteligencji, która polega na programowaniu maszyn lub programów do wykonywania zadań poprzez podejmowanie decyzji opartych na danych dotyczących tego, jak i kiedy wykonać te zadania. Zasadniczo dzięki uczeniu maszynowemu nie tylko uczymy komputer wykonywania konkretnego zadania. ML polega na uczeniu maszyn, zwykle komputerów, sposobu “myślenia” i działania odrobinę bardziej niezależnie przy użyciu algorytmów, aby mogły wykonywać swoje zadania, podejmując własne decyzje na podstawie analizy danych, a nie wyłącznie na podstawie wkładu człowieka. Wykorzystanie algorytmów ML niewątpliwie pomogło pchnąć sztuczną inteligencję na czoło rozwoju technologii, ponieważ ma ono udział w niektórych z największych sektorów rozwiązań konsumenckich, w tym w mediach społecznościowych, zakupach online, a nawet smartfonach. I to właśnie w tych ostatnich urządzeniach działanie AI wydaje się być najbardziej wyraziste, a przynajmniej tam najłatwiej je dostrzec. Z dużą pomocą marketingowców firm z branży zresztą. AI jest bowiem od około 2 lat obecne w reklamach właściwie dowolnych smartfonów – od budżetowych konstrukcji mniej znanych marek z Chin, po zbliżające się swoją ceną do małych samochodów iPhone’ów.
Sztuczna inteligencja wniosła wiele nowych i przydatnych funkcji, które pomogły smartfonom przekształcić się w jeden z najbardziej podstawowych elementów technologii konsumenckiej. W telefonach A.D. 2019 sztuczna inteligencja sprowadza się głównie do trzech rodzajów zadań.
Pierwszym jest rozpoznawanie mowy. Asystenci głosowi, tacy jak Samsung Bixby, Google Assistant i Amazon Alexa, wykorzystują AI do rozumienia poleceń głosowych użytkowników i wykonywania różnych zadań. Każdy z nich robi to nieco inaczej, jednocześnie wiele jest tu wspólnych elementów. Najbardziej znaczącym wkładem Bixby w smartfonowe AI jest funkcja Bixby Vision, która wykorzystuje rozpoznawanie obrazu (tzw. widzenie maszynowe), aby pomóc użytkownikowi uzyskać dane o znajdujących się obok obiektach. Użytkownicy Bixby Vision mogą po prostu skierować swój telefon na punkt orientacyjny, budynek, pomnik, ale też np. produkt w sklepie, aby uzyskać więcej informacji na jego temat. Asystent Google jest prawdopodobnie z całej trójki najbardziej oparty na danych, ponieważ może wykonywać różnorodne zadania i personalizować odpowiedzi na podstawie poprzednich poleceń i innych danych, takich jak np. wcześniejsze wyszukiwania w Google. Alexa także jest dość skutecznym asystentem głosowym i może kontrolować urządzenia typu smart home, nawet gdy użytkownik jest nieobecny. Rozpoznawanie mowy pozwala także na dość szybkie tworzenie wiadomości tekstowych kiedy nie mamy możliwości skupienia się na ekranie telefonu lub gdy nie mamy wolnej ręki. Osobiście sprawdzam to regularnie podejmując co jakiś czas próby pisania głosowego artykułów podczas spacerów z psem. Na tę chwilę niestety skuteczność takiego rozwiązania nie jest olbrzymia – czas potrzebny na poprawki w tak sporządzonym tekście czyni całą metodę nieefektywną. Z drugiej strony widzę postępującą poprawę i kiedyś zapewne będzie dało się wprowadzać tekst tą metodą naprawdę skutecznie.
AI pozwoliło nam także poprawić jakość zdjęć, które robimy smartfonami. Sztuczna inteligencja została wykorzystana do robienia lepszych fotografii w słabym świetle, lepszych selfie, a nawet do dodawania artystycznych efektów specjalnych do istniejących zdjęć. Jednym z przykładów sztucznej inteligencji używanej do ulepszania zdjęć w smartfonach jest najnowsza funkcja Google, Super Res Zoom, którą można znaleźć na smartfonie Pixel 3. Pozwala użytkownikom dalej powiększać cyfrowo obraz podczas robienia zdjęcia przy użyciu algorytmu, a nie obiektywu. To właśnie AI w mobilnej fotografii jest tym najbardziej przydatnym zastosowaniem na chwilę obecną. Nie każdy jest bowiem zaznajomiony z tajnikami fotografii. Dobranie odpowiedniej wartości ISO, ustawienie skupienia na konkretnym punkcie fotografowanego kadru, dopasowanie jasności – po co robić to samodzielnie, skoro może to za nas zrobić właśnie AI? Działanie AI przy wykonywaniu zdjęć telefonem można sprawdzić samodzielnie. Najlepiej ustawić obiektyw na kadr złożony z obiektów o bardzo różnym stopniu oddalenia, różnym naświetleniu i zróżnicowanej kolorystyce, a następnie wyłączyć wspomaganie AI i zrobić zdjęcie, a następnie zrobić to samo z AI. W większości przypadków różnica będzie wyraźnie widoczna… a przecież nawet z “wyłączonym AI” część automatyki i tak wówczas działa (jak choćby autofocus czy pomiar jasności).
Inny przykład związany z tzw. widzeniem maszynowym jest rozpoznawanie twarzy. I nie chodzi wyłącznie o to związane ze zdjęciami. Najlepszym przykładem funkcji rozpoznawania twarzy przez AI używanej w smartfonie jest Face ID z iPhone’ów. Face ID i podobne rozwiązania konkurencji są możliwe dzięki wykorzystaniu AI i algorytmów uczenia maszynowego do prawidłowej identyfikacji twarzy właścicieli telefonu.
AI jest coraz częściej widoczne także w innych aplikacjach. Swojego czasu głośno było o tzw. chatbotach, czyli programach prowadzących rozmowę z człowiekiem w taki sposób, by idealnie symulowały żywą osobę. Te, które nie są oparte o proste skrypty, a o AI właśnie sprawiły nieco problemów ucząc się rozmowy od użytkowników. Ci natomiast nie zawsze byli najlepszym nauczycielem, na co wskazuje np. historia chatbota Tay, stworzonego przez Microsoft w 2016 roku. Program został dopuszczony do dyskusji z ludźmi na Twitterze. W ledwie 24 godziny nauczył się wypisywać wulgarne, niepoprawne politycznie komentarze. To jednak miało miejsce trzy lata temu. Obecnie chatboty znacznie skuteczniej badają treść. Świadczą o tym chociażby komercyjne sukcesy firm budujących modele AI na potrzeby chatbotów właśnie: Chatfuel, Flow XO czy Botsify radzą sobie całkiem nieźle, tak w biznesie, jak i w rozmowie z użytkownikami. To wciąż nowa technologia i nie mam większej wątpliwości, że jej kolejne kroki będą prowadziły do zastąpienia człowiekowi… człowieka.
Smartfony wykorzystują możliwości sztucznej inteligencji (AI) już od pewnego czasu. Warto jednak podkreślić następującą w ostatnich dwóch latach wyraźną zmianę. Do tej pory przetwarzanie odbywało się w chmurze lub w różnych układach komputerowych w urządzeniu, takich jak procesory, karty graficzne i procesory DSP, które nie były i nie są wyspecjalizowane w tych konkretnych obliczeniach. Apple i Huawei były pierwszymi producentami, którzy zastosowali dedykowane procesory do obliczeń AI w swoich SoC (odpowiednio A11 i Kirin 970) wprowadzonych do flagowych telefonów we wrześniu 2017 r. Dwa lata później praktycznie wszyscy inni dostawcy SoC idą w ich ślady. Na przykład Qualcomm uzbroił swojego Snapdragona 855 w układ AI Tensor Accelerator, będący częścią DSP Hexagon. Counterpoint Research prognozuje, że sprzedaż smartfonów AI wzrośnie do 1250 milionów sztuk w 2022 r. Z 190 milionów w 2018 r.
„Ponieważ Qualcomm dołączył do walki i po raz pierwszy zastosował sprzętową akcelerację AI w swoim najnowszym Snapdragon SoC, pojawienie się obsługi AI na poziomie krzemu w smartfonach jest nieuniknione.” – powiedział Peter Richardson, dyrektor ds. Badań w Counterpoint Research. „A ponieważ Qualcomm chce rozszerzyć możliwości uczenia maszynowego na tańsze układy scalone, a także dostępność SoC obsługujących AI dla telefonów średniej klasy od innych dostawców, trend ten szybko rozszerzy się na smartfony ze średniego, a nawet niskiego pułapu cenowego.”
I ten trend znakomicie widać w układach SoC zaprezentowanych w ciągu ostatnich kilku miesięcy. Patrząc na procesorowe premiery z drugiej połowy 2019 roku możemy wskazać trzy jednostki, z których każda posiada wyspecjalizowany układ dla obliczeń AI, ale, ponieważ pochodzą od różnych producentów, podchodzą do tematu w zupełnie różny sposób. Zaprezentowane jeszcze w lipcu MediaTek Helio G90 i G90T wykorzystają wyspecjalizowany element HyperEngine do zwiększenia wydajności w niektórych grach. To dosyć niecodzienne podejście do AI, chociaż producent z Tajwanu nie ukrywa iż nowe procesory są skierowane do smartfonów z tzw. średniej półki z gamingowymi ambicjami. Huawei, podczas tegorocznych targów IFA w Berlinie pokazał swój nowy SoC w dwóch odmianach: Kirin 990 oraz Kirin 990 5G. Poza łącznością, co jest wyraźnie podkreślone w nazwie SoC, różni je właśnie wydajność obsługi AI. Kirin 990 5G ma wyraźnie silniejszy układ NPU (Neural Processing Unit). Składa się on bowiem z dwóch “dużych” rdzeni i jednego “małego”, podczas gdy wersja z 4G dysponuje jednym rdzeniem NPU z każdego rodzaju, przy czym nadal ma być szybszym w AI niż ubiegłoroczny Kirin 980. Także Apple silnie stawia na AI. Najnowszy procesor firmy z Cupertino, A13 Bionic, będący sercem najnowszych iPhone’ów, ma być, zdaniem Apple, aż 20 procent szybszy w obliczeniach związanych ze sztuczną inteligencją niż ubiegłoroczny A12 Bionic. Nowy układ ma przy tym pobierać około 15 procent mniej energii. Apple ma zresztą ciekawy pomysł na wykorzystanie AI w swoich telefonach. A13 Bionic stanowi podstawę dla funkcji iPhone’ów „Deep Fusion”, która wykorzystuje uczenie maszynowe do poprawy fotografii w słabym i średnim świetle. Dzięki technologii neuronowej Deep Fusion umożliwia smartfonowi wykonanie czterech szybkich zdjęć, czterech zdjęć wtórnych i jednego zdjęcia z długim czasem naświetlania po naciśnięciu spustu migawki przez użytkownika, dzięki czemu powstaje ostateczne zdjęcie z ulepszonymi szczegółami i redukcją szumów.
To jednak dopiero początek. Sztuczna inteligencja w drugiej połowie 2019 roku jest obecna już w smartfonach, rozwiązaniach dla domu (np. asystentach głosowych Amazon Alexa), a ostatnio zagościła także (tj. sprzętowe wsparcie dla AI, sama sztuczna inteligencja była tu od dawna) w lekkich i cienkich laptopach dzięki procesorom Intel Ice Lake. Trudno oczekiwać, że ten trend wyhamuje czy zatrzyma się całkowicie. Wręcz przeciwnie. Powinniśmy oczekiwać systematycznego wzrostu możliwości AI, zarówno tego “dużego”, jak i mieszczącego się w naszej kieszeni.