Jedna z czołowych postaci tajwańskiego sektora high-tech twierdzi, że rosnące wymagania obliczeniowe na potrzeby AI skutkują znacznym wzrostem zapotrzebowania w obszarze serwerów i sieci
ChatGPT, Midjourney, Dell-E, Bard i wiele, wiele innych modeli generatywnej sztucznej inteligencji działa z nami już od miesięcy, ale skutkiem tego jest wzrost zapotrzebowania w obszarach infrastruktury – co może być pobudzające dla branży.
LLM (ang. large language models, duże modele językowe) stojące za generatywną sztuczną inteligencją wymagają przetwarzania ogromnych ilości danych na potrzeby szkolenia i szybszej transmisji, co stwarza lukratywne możliwości biznesowe dla producentów. Prezes ASUS Cloud i Taiwan Web Service Corporation (TWSC) Peter Wu podkreślił różnice między tradycyjną sztuczną inteligencją a generatywną sztuczną inteligencją, nazywając je odpowiednio AI 1.0 i 2.0.
Wu zwrócił uwagę, że sztuczna inteligencja 1.0 polega na budowaniu konkretnych modeli poprzez uczenie się pod nadzorem oraz wymaga tworzenia i etykietowania projektów. Proces ten należy powtórzyć dla różnych modeli i może rozwiązać tylko określone problemy. Z drugiej strony generatywna sztuczna inteligencja AI 2.0 jest inna. Po zbudowaniu modelu może on uczyć się autonomicznie. Z punktu widzenia aplikacji generatywna sztuczna inteligencja jest również inteligentniejsza i bardziej wszechstronna.
Ilość danych szkoleniowych, które należy przetworzyć w przypadku AI 2.0, jest również znacznie większa niż w poprzednich modelach AI. Wcześniejsze modele miały parametry liczone w dziesiątkach tysięcy, podczas gdy generatywna sztuczna inteligencja wymaga obecnie dziesiątek miliardów parametrów. Wu zauważył, że wiele osób będzie miało poczucie, że maszyna jest inteligentna, korzystając z ChatGPT. Dzieje się tak dlatego, że gdy model przekroczy próg 40–60 miliardów parametrów, osiąga swego rodzaju, jak określa to prezes „oświecenie”. Chodzi o przekroczenie poziomu, który dla wielu użytkowników będzie oznaczać znaczne złudzenie dobrego naśladowania realnej inteligencji.
GPT-3 OpenAI ma 175 miliardów parametrów, a GPT-3.5 ma około 200 miliardów parametrów. GPT-4 został ogłoszony 14 marca 2023 r., ale nie ujawniono liczby parametrów. Niektóre szacunki sugerują, że parametry GPT-4 mogą być kilkukrotnie liczniejsze niż w GPT-3.
Aby uczynić sztuczną inteligencję mądrzejszą i zwiększyć liczbę parametrów, konieczne są odpowiednie ulepszenia sprzętu sprzętowego. Wcześniejsze architektury, które wymagały tylko jednego procesora graficznego lub nawet procesora, wymagają teraz przetwarzania równoległego z setkami procesorów graficznych. Ta zmiana wymaga zmian w serwerach, switchach sieciowych, a nawet w całej architekturze centrum danych. Mówiąc wprost; na rewolucji AI może zyskać pokaźna część branży.
Jeśli ktokolwiek miał wątpliwości, to tak, grafika na początku tego wpisu powstała dzięki generatywnej AI.