Start-up obliczeniowy AI udostępnia modele open source podobne do ChatGPT
Cerebras Systems, startup zajmujący się sztuczną inteligencją, poinformował we wtorek, że udostępnił modele typu open source podobne do ChatGPT, z których społeczność naukowa i biznesowa mogą korzystać bezpłatnie w celu zacieśnienia współpracy.
Jak donosi Reuters, firma Cerebras z Doliny Krzemowej wypuściła siedem modeli, wszystkie przeszkolone na swoim superkomputerze AI o nazwie Andromeda, w tym mniejsze 111 milionów modeli języka parametrów do większego modelu 13 miliardów parametrów.
„Istnieje duży ruch mający na celu zamknięcie tego, co było open source w sztucznej inteligencji… nie jest to zaskakujące, ponieważ teraz są w tym ogromne pieniądze” – powiedział Andrew Feldman, założyciel i dyrektor generalny Cerebras. – „Emocje w społeczności, postęp, jaki poczyniliśmy, były w dużej mierze spowodowane tym, że było tak otwarte”.
Feldman powiedział, że trenowanie jego największego modelu zajęło nieco ponad tydzień, co zwykle może zająć kilka miesięcy, dzięki architekturze systemu Cerebras, który zawiera chip wielkości talerza obiadowego zbudowany do treningu AI.
Większość dzisiejszych modeli sztucznej inteligencji jest szkolona na chipach Nvidia Corp, ale coraz więcej startupów, takich jak Cerebras, próbuje zdobyć udział w tym rynku. Modele przeszkolone na maszynach Cerebras mogą być również używane na systemach Nvidii do dalszego szkolenia lub dostosowywania, powiedział Feldman.
Modele o większej liczbie parametrów są w stanie wykonywać bardziej złożone funkcje generatywne. Na przykład chatbot OpenAI ChatGPT uruchomiony pod koniec zeszłego roku ma 175 miliardów parametrów i może tworzyć poezję i badania, co pomogło przyciągnąć duże zainteresowanie i fundusze na sztuczną inteligencję w szerszym zakresie.
Cerebras powiedział, że mniejsze modele można wdrożyć na telefonach lub inteligentnych głośnikach, podczas gdy większe działają na komputerach PC lub serwerach, chociaż złożone zadania, takie jak podsumowanie dużych fragmentów, wymagają większych modeli.
Jednak Karl Freund, konsultant ds. Chipów w Cambrian AI, powiedział, że większe nie zawsze znaczy lepsze. „Opublikowano kilka interesujących artykułów, które pokazują, że (mniejszy model) może być dokładny, jeśli będziesz go bardziej trenować” – powiedział Freund. – „Więc istnieje kompromis między większymi i lepiej wyszkolonymi”.