Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Naukowcy użyli chmury do replikacji superkomputera do badania chorób serca

Naukowiec z Harvardu wykorzystał platformę chmurową Google do sklonowania superkomputera do badań nad chorobami serca w nowatorskim posunięciu, które inni badacze mogliby zastosować, aby obejść niedobór potężnych zasobów obliczeniowych i przyspieszyć swoją pracę. 

Jak podaje Reuters, w Stanach Zjednoczonych istnieje tylko kilka superkomputerów, które są w stanie wykonać miliardy obliczeń, aby dokładnie naśladować warunki w badaniu Koumoutsakos. Według szefa platformy badawczej Citadel Securities, Costasa Bekasa, niewielka liczba maszyn zdolnych do przeprowadzenia badań stworzyła wąskie gardła w procesie naukowym.

Aby wyeliminować wąskie gardła, badacze i firmy, takie jak Citadel, które potrzebują ogromnej ilości zasobów obliczeniowych, które można znaleźć tylko w superkomputerach, zaczęły zwracać się do chmury publicznej. Ale operacje przetwarzania w chmurze nie są zaprojektowane tak, aby sprostać wymaganiom stawianym przez naukowców. Zostały zaprojektowane z myślą o milionach pojedynczych, stosunkowo niewielkich zadań obliczeniowych – takich jak strumieniowe przesyłanie wideo, udostępnianie stron internetowych lub dostęp do baz danych. Chmura jest zwykle budowana z myślą o niezawodności i odporności.

„Ludzie zdają sobie sprawę z potencjału chmury w rozwiązywaniu problemów i technicznych obliczeń inżynieryjnych, aby naprawdę uwolnić produktywność i uzyskiwać lepsze odpowiedzi, spostrzeżenia lepsze i szybciej” – powiedział Bill Magro, główny technolog obliczeń o wysokiej wydajności w Google Cloud.

Modyfikowanie infrastruktury chmurowej w taki sposób, aby zachowywała się jak superkomputer, wymaga zmian w oprogramowaniu, sieci i fizycznej konstrukcji sprzętu, powiedział Magro.

Według profesora Harvardu, Petrosa Koumoutsakosa, badanie symulowało terapię mającą na celu rozpuszczanie skrzepów krwi i komórek nowotworowych w ludzkim układzie krążenia, która wymagała ogromnej mocy obliczeniowej, którą zwykle można wykorzystać w superkomputerze.

„Wielkim problemem, jaki mieliśmy, było to, że mogliśmy przeprowadzić jedną symulację przy użyciu pełnowymiarowego superkomputera” – powiedział Koumoutsakos, dodając, że udoskonalenie lub optymalizacja symulacji wymaga dalszego dostępu do superkomputera.

Citadel pomógł sfinansować badania Koumoutsakos z firmą zależną Alphabet Inc, Google.