Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Koprocesor Intel AI Naural, który wbudowany jest w jednostki Intela, otrzymuje nowy sterownik GNA, dla jeszcze lepszej integracji

Przyszłość AI i głębokiego uczenia ma szereg zastosowań w nauce i obliczeniach na poziomie kwantowym. Uczenie maszynowe i sztuczna inteligencja były głównymi kierunkami rozwoju przez ostatnie dwa lata. Trzech największych producentów — AMD, NVIDIA i Intel — wprowadziło swoje zaawansowane urządzenia i oprogramowanie w kilku superkomputerach i różnych nowych aplikacjach. Teraz Intel aktualizuje oprogramowanie dla koprocesorów GNA pod system operacyjny Linux.

Koprocesor GNA od Intela został wprowadzony na rynek w procesorze Cannon Lake w 2018 roku. Został zbudowany na 10nm rdzeniu i ostatnio doczekał się wprowadzenia poleceń AVX-512. Cannon Lake został zastąpiony przez procesory Intel Ice Lake i zaprzestał produkcji linii Cannon Lake na początku 2020 roku. Koprocesory GNA znajdują się obecnie w procesorach z rodzin Gemini Lake, Elkhart Lake, Ice Lake i wyższych, a celem koprocesora jest umożliwienie przypisania zasobów procesora do wykorzystania w innych obszarach przetwarzania AI, np. podczas rozpoznawania mowy i redukcji szumów i innych.

Obecnie integracja koprocesora GNA jest w czwartym wariancie, a Intel zmienił kodowanie, aby uwzględnić Linux Direct Rendering Manager framework lub DRM. Inżynierowie DRM bardzo prosili o tę integrację, aby umieścić bibliotekę GNA w ramach AI i DRM w głównym jądrze Linuksa i jego podsystemach.

Biblioteka składa się z następujących elementów TensorFlow, Caffe, PaddlePaddle, PyTorch, mxnet, Keras i ONNX, a Intel wykorzystuje ją do optymalizacji w swoich procesorach, iGPU, GPU, VPU i FPGA. Biblioteka GNA Intela wykorzystuje również firmowy zestaw narzędzi OpenVINO, pozwalając programistom na korzystanie z zestawu do rozwoju głębokiego uczenia w celu usprawnienia rozwoju i łatwej dystrybucji na kilka platform jednocześnie z szerszą bazą wsparcia i zoptymalizowanym API. W systemie Linux wprowadzono wersję trzecią ze zaktualizowanym wsparciem dla nowszych scenariuszy rozwoju i głębokiego uczenia.