NVidia Tesla sercem najszybszego superkomputera
Podczas konferencji HPC 2010 China zaprezentowano nowy superkomputer o nazwie Tianhe-1A, który bije dotychczasowe rekordy wydajności. Według wyników testu LINPACK, wydajność maszyny sięga 2,507 petaflopsów. Oznacza to, że Tianhe-1A jest najszybszym superkomputerem nie tylko w Chinach, ale też na całym świecie. Tianhe-1A stanowi sztandarowy przykład nowoczesnego, heterogenicznego mechanizmu obliczeniowego - połączenia procesorów graficznych, dokonujących obliczeń masowo równoległych oraz wielordzeniowych procesorów centralnych, które zapewnia spektakularne wyniki w zakresie wydajności, rozmiarów urządzenia i zużycia energii. W systemie wykorzystano 7168 procesorów NVIDIA Tesla M2050 i 14336 procesorów centralnych; osiągnięcie podobnej wydajności tylko przy użyciu CPU wymagałoby zastosowania ponad 50 tys. procesorów, zaś sam komputer zajmowałby dwukrotnie większą powierzchnię.
Nie bez znaczenia jest również fakt, że komputer złożony wyłącznie z procesorów centralnych, które zapewniałyby łączną wydajność 2,507 petaflopsów, zużywałby ponad 12 megawatów mocy. Dzięki zastosowaniu procesorów graficznych w heterogenicznym środowisku obliczeniowym, Tianhe-1A jest trzykrotnie bardziej energooszczędny - zużywa zaledwie (!) 4,04 megawata. Zaoszczędzona w ten sposób moc umożliwia zasilanie 5000 domów przez cały rok. Superkomputer Tianhe-1A został zaprojektowany przez Chiński Narodowy Uniwersytet Technologii Obronnej (NUDT). Komputer został umieszczony w Narodowym Centrum Superkomputerowym w Tianjin i jest gotowy do pracy.
Procesory graficzne NVIDIA Tesla, oparte na architekturze obliczeń równoległych CUDA, zostały zaprojektowane pod kątem środowisk obliczeń wielkoskalowych i zapewniają rewolucyjny wzrost wydajności w wielu obszarach wymagających zastosowania takich obliczeń jak: w badaniach nad lekami, modelowaniu huraganów i tsunami, badaniach nad rakiem, projektowaniem samochodów czy badaniach nad formowaniem galaktyk.
Źródło: NVidia
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
27
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4