OpenAI zatrudnia zespół do współpracy z dostawcami sprzętu nad „współprojektowaniem przyszłych akceleratorów AI”
OpenAI zatrudnia zespół do „współprojektowania przyszłego sprzętu od różnych dostawców pod kątem programowalności i wydajności”.
W ogłoszeniu o pracę dla „HW/SW Co-design Engineer”, firma zajmująca się generatywną sztuczną inteligencją stwierdziła, że zespół będzie „wspierał ważne akceleratory AI, a my będziemy współprojektować sprzęt/oprogramowanie przyszłych akceleratorów AI”.
Od kandydatów oczekuje się „głębokiej znajomości GPU i/lub innych akceleratorów AI” oraz „dobrego doświadczenia z CUDA [Nvidii] lub powiązanym językiem programowania akceleratorów”. Pracownik będzie współpracował z zespołem projektantów sprzętu OpenAI, którym kieruje Richard Ho, wcześniej pracujący w firmie Lightmatter zajmującej się chipami fotonicznymi i były lider rodziny chipów TPU AI firmy Google.
OpenAI korzysta obecnie z chmury Azure Microsoftu w ramach inwestycji o wartości 13 miliardów dolarów, jaką gigant technologiczny poczynił w laboratorium AI w zeszłym roku. Inwestycja ta miała głównie formę kredytów w chmurze. Deweloper ChatGPT zobowiązał się pomóc w rozwoju chipów AI Microsoftu, w tym akceleratora Maia AI, który ogłosił w listopadzie ubiegłego roku.
Uważa się również, że start-up rozważał zbudowanie własnego sprzętu chipowego i ocenił potencjalny cel przejęcia. Dyrektor generalny Sam Altman oddzielnie próbował zebrać miliardy dla swojej własnej firmy produkującej chipy i obecnie domaga się aż 7 bilionów dolarów.
OpenAI wcześniej obiecało kupić chipy o wartości 51 milionów dolarów od firmy Rain AI zajmującej się chipami neuromorficznymi, w której Altman jest inwestorem. Jednak na razie OpenAI przy opracowywaniu swoich dużych modeli językowych opiera się głównie na procesorach graficznych Nvidii, co pomaga podnieść wycenę firmy produkującej chipy do ponad 2 bilionów dolarów.