Snowflake podczas Snowday 2023 zaprezentowało Snowflake Cortex – usługę dającą dostęp do wielu modeli AI i LLM
Snowflake (NYSE: SNOW), firma oferująca Chmurę Danych, ogłosiła podczas Snowday 2023 innowacyjne rozwiązania, które umożliwiają wszystkim użytkownikom bezpieczne wykorzystanie mocy generatywnej sztucznej inteligencji przy użyciu danych ich przedsiębiorstw, a wszystko to niezależnie od poziomu wiedzy technicznej. Snowflake upraszcza sposób, w jaki każda organizacja może bezpiecznie czerpać wartość z generatywnej sztucznej inteligencji dzięki Snowflake Cortex (prywatna wersja zapoznawcza), nowej, w pełni zarządzanej usłudze Snowflake, która umożliwia firmom łatwiejsze odkrywanie, analizowanie i tworzenie aplikacji AI w Chmurze Danych.
Snowflake Cortex zapewnia użytkownikom natychmiastowy dostęp do rosnącego zestawu funkcji bezserwerowych, które obejmują popularne duże modele językowe (LLM), takie jak model Llama 2 firmy Meta AI, modele dostosowane do konkretnych zadań i zaawansowane funkcje wyszukiwania wektorowego. Korzystając z tych funkcji, zespoły mogą przyspieszyć analitykę i tworzyć kontekstowe aplikacje oparte na LLM w ciągu zaledwie kilku minut. Snowflake stworzył również trzy oparte na LLM środowiska wykorzystujące Snowflake Cortex w celu zwiększenia produktywności użytkowników. To Document AI (prywatna wersja zapoznawcza), Snowflake Copilot (prywatna wersja zapoznawcza) i Universal Search (prywatna wersja zapoznawcza).
– Snowflake pomaga organizacjom być pionierem kolejnej fali innowacji w zakresie sztucznej inteligencji opartej na danych i najnowocześniejszych elementach składowych, których potrzebują, aby tworzyć aplikacje AI i uczenia maszynowego, jednocześnie dbając o bezpieczeństwo i zarządzanie danymi – mówi Sridhar Ramaswamy, SVP of AI w Snowflake. – Dzięki Snowflake Cortex firmy mogą teraz wykorzystać moc dużych modeli językowych w ciągu kilku sekund, tworzyć niestandardowe aplikacje oparte na LLM w ciągu kilku minut oraz zachować elastyczność i kontrolę nad swoimi danymi. Przy tym na nowo uświadamiają sobie, w jaki sposób wszyscy użytkownicy wykorzystują generatywną sztuczną inteligencję do dostarczania wartości biznesowej.
Łatwe tworzenie aplikacji opartych na LLM dzięki Snowflake Cortex
Jako w pełni zarządzana usługa, Snowflake Cortex zapewnia wszystkim klientom niezbędne narzędzia do intuicyjnego wykorzystania LLM i AI, bez potrzeby posiadania wiedzy specjalistycznej w zakresie AI lub złożonego zarządzania infrastrukturą opartą na GPU. Obejmują one rosnący zestaw funkcji bezserwerowych dostępnych za pomocą wywołania funkcji w kodzie SQL lub Python. Użytkownicy o różnych specjalizacjach mogą uzyskać dostęp do tych funkcji, aby szybko analizować dane lub tworzyć aplikacje AI działające w zoptymalizowanej kosztowo infrastrukturze Snowflake Cortex. Nowe funkcje obejmują:
- Specialized Functions (prywatna wersja zapoznawcza): Zestaw funkcji dostosowanych do zadań, które wykorzystują efektywne kosztowo modele językowe i modele sztucznej inteligencji w celu przyspieszenia codziennej analizy danych. Modele te mogą wykrywać nastroje, wyodrębniać odpowiedzi, podsumowywać tekst czy tłumaczyć go na wybrany język dla dowolnych danych wejściowych. Specjalistyczne rozwiązania obejmują również istniejące funkcje Snowflake oparte na uczeniu maszynowym, w tym prognozowanie (ogólna dostępność wkrótce), wykrywanie anomalii (ogólna dostępność wkrótce), eksplorator kontrybucji (publiczna wersja zapoznawcza) i klasyfikację (prywatna wersja zapoznawcza wkrótce).
- General-Purpose Functions (prywatna wersja zapoznawcza): Zestaw funkcji konwersacyjnych, które wykorzystują wiodące w branży modele LLM o otwartym kodzie źródłowym (prywatna wersja zapoznawcza), w tym model Llama 2, oraz wysokowydajne modele LLM Snowflake (prywatna wersja zapoznawcza wkrótce), w tym model text-to-SQL, dzięki któremu użytkownicy będą mogli łatwo „rozmawiać” ze swoimi danymi w celu obsługi szerokiego zakresu przypadków użycia. Funkcje te obejmują również osadzanie wektorów i funkcji wyszukiwania (prywatna wersja zapoznawcza wkrótce), dzięki czemu użytkownicy mogą łatwo osadzać odpowiedzi w kontekście za pomocą swoich danych, aby tworzyć niestandardowe aplikacje w ciągu kilku minut. Snowflake dodaje również wektor jako natywny typ danych w Chmurze Danych, pomagając użytkownikom wydajniej wykorzystywać te funkcje w stosunku do ich danych w Snowflake.
Streamlit w Snowlake (publiczna wersja zapoznawcza) dodatkowo pomaga przyspieszyć tworzenie niestandardowych aplikacji opartych na LLM, umożliwiając użytkownikom szybkie przekształcanie danych, modeli AI oraz funkcji analitycznych i aplikacji w interaktywne aplikacje napisane w języku Python. Obecnie (stan na wrzesień 2023 r.) przy użyciu Streamlit opracowano ponad 10 tys. aplikacji w Snowflake, a organizacje takie jak Priority Health, AppFolio, Braze czy TransUnion tworzą aplikacje gotowe do wykorzystania.
Snowflake Cortex zwiększa produktywność w ramach Chmury Danych
Snowflake prezentuje również nowe środowiska oparte na LLM, zbudowane na Snowflake Cortex jako usłudze bazowej. Obejmują one interfejsy użytkownika i wysokowydajne LLMy w pełni hostowane i zarządzane przez Snowflake Cortex:
- Snowflake Copilot (prywatna wersja zapoznawcza): Nowy asystent Snowflake oparty na LLM, Snowflake Copilot, wprowadza generatywną sztuczną inteligencję do kodowania za pomocą języka naturalnego. Użytkownicy mogą teraz zadawać pytania dotyczące swoich danych w postaci zwykłego tekstu, tworzyć zapytania SQL w odniesieniu do odpowiednich zestawów danych, udoskonalać zapytania czy filtrować spostrzeżenia.
- Universal Search (prywatna wersja zapoznawcza): Snowflake prezentuje nową funkcję wyszukiwania opartą na LLM, dzięki której użytkownicy mogą szybciej znajdować i czerpać korzyści z najbardziej odpowiednich danych i aplikacji dla swoich przypadków użycia. Usługa obejmuje wyszukiwanie treści na koncie Snowflake klienta, w tym w bazach danych, widokach i tabelach Iceberg (wkrótce publiczna wersja zapoznawcza), a także wyszukiwanie w ramach danych oraz Snowflake Native Apps dostępnych na Snowflake Marketplace.
- Document AI (prywatna wersja zapoznawcza): Usługa Document AI, będąca pierwszym doświadczeniem Snowflake w zakresie LLM, pomaga przedsiębiorstwom korzystać z dużych modeli językowych w celu łatwego wyodrębniania treści, takich jak kwoty faktur lub warunki umowne z dokumentów i dostosowywania wyników za pomocą interfejsu wizualnego oraz języka naturalnego. Klienci korzystają z Document AI, aby wspierać bieżącą działalność zespołów oraz zwiększać wydajność w bezpieczny i skalowalny sposób.
Snowflake umożliwia pełne dostosowanie aplikacji LLM praktycznie bez ograniczeń
Dla bardziej zaawansowanych użytkowników, którzy chcą w pełni dostosować swoje aplikacje bazujące na LLM, Snowflake udostępnia Snowpark Container Services (publiczna wersja zapoznawcza wkrótce w wybranych regionach AWS), która upraszcza wdrażanie i zarządzanie przestrzeniami roboczymi w Snowflake. Korzystając z usług Snowpark Container Services, programiści mogą elastycznie uruchamiać na swoim koncie Snowflake zaawansowane aplikacje innych firm, w tym te pochodzące z komercyjnych dużych modeli językowych oraz wektorowych baz danych. Organizacje mogą również łatwo wdrażać, dostosowywać i zarządzać dowolnym modelem typu open source w Chmurze Danych.
W ramach Snowday 2023 Snowflake zaprezentował także udoskonalenia, które ułatwiają programistom tworzenie modeli uczenia maszynowego i aplikacji typu full-stack w Chmurze Danych, usprawnienia pozwalające dalej eliminować silosy danych i wzmacniać możliwości Snowflake w zakresie zgodności i zarządzania za pośrednictwem Snowflake Horizon.