Tags Posts tagged with "superkomputer"

superkomputer

przez -
0 2709
Superkomputer, monitoring

Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego uruchomiło superkomputer Okeanos. System zbudowany jest z 1084 węzłów typu Cray XC40, czyli serwerów supekomputerów, umieszczonych w szafach. Każdy węzeł posiada dwa 12-rdzeniowe procesory Intel Xeon (architektura Haswell z technologią HT), co razem daje 48 logicznych jednostek obliczeniowych. Wspomniane węzły są połączone siecią typu Cray Aries, w topologii Dragonfly.

Okeanos

Superkomputer Okeanos został zbudowany w ramach projektu Early Science 2016. Jest to program testowy, skierowany do naukowców, których praca badawcza wymaga zastosowania obliczeń wielkoskalowych. W ramach konkursu wyłoniono 18 projektów badawczych, które będą mogły skorzystać z mocy obliczeniowych superkomputera, a tym samym będą mieli okazję przetestowania możliwości przetwarzania systemu (m.in. skalowalności aplikacji) i w końcu uruchomienia obliczeń prototypowych.

  1. Rozwój metod programowania w modelu PGAS w języku Java (biblioteka PCJ) – Prof. dr hab. Piotr Bała (ICM, Uniwersytet Warszawski)
  2. Optimization of the SimRNA program for RNA 3D structure modeling – Prof. Janusz Bujnicki (Międzynarodowy Instytut Biologii Molekularnej i Komórkowej w Warszawie)
  3. Numerical simulations of black hole binaries and acretion – Dr Szymon Charzyński (Centrum Fizyki Teoretycznej PAN)
  4. Modelowanie pękania materiałów kruchych w procesie ściskania/rozciągania – Prof. dr hab. Wojciech Dębski (Instytut Geofizyki PAN)
  5. HSCREEN – High-throughput screening and properties of novel functional materials in gas phase and in solid state – Prof. dr hab. Wojciech Grochala (Cent, Uniwersytet Warszawski)
  6. Beyond EAGLE: Simulating galaxy formation – Dr Wojciech Hellwing (Institue for Cosmology & Gravitation, Portsmouth)
  7. Millennium-size simulations of Modified Gravity – Dr Wojciech Hellwing (Institue for Cosmology & Gravitation, Portsmouth)
  8. Operacyjny numeryczny model prognozy pogody działający w trybie wiązek o wysokiej rozdzielczości przestrzennej – Mgr Jacek Kopeć (ICM, Uniwersytet Warszawski)
  9. Dymanika molekularna kompleksów białko-antybiotyk – Mgr Katarzyna Kulczycka-Mierzejewska (ICM, Uniwersytet Warszawski)
  10. Kalibrowanie pola siłowego UNRES z wykorzystaniem zasady największego prawdopodobieństwa – Prof. dr hab. Adam Liwo (Wydział Chemii, Uniwersytet Gdański)
  11. Zaawansowane analizy symulacyjne w biomechanice i geomechanice – Prof. dr hab. inż. Jerzy Małachowski (Wojskowa Akademia Techniczna)
  12. Wieloskalowe modele dla modelowania pogody i klimatu – Dr Zbigniew Piotrowski (Instytut Meteorologii i Gospodarki Wodnej, Państwowy Instytut Badawczy)
  13. iCell: struktura przestrzenna i hierarchia skal w komórce – Dr hab. Dariusz Plewczyński (Cent, Uniwersytet Warszawski)
  14. Badania wpływu długo-zasięgowych oddziaływań Van der Waalsa (VdW) pomiędzy dwuwymiarowymi systemami typu grafen i ich podłożami – Dr Magdalena Popielska (Wydział Fizyki, Uniwersytet Warszawski)
  15. Wpływ wiązania substratu na dynamikę białka z węzłem – Dr Joanna Sułkowska (Wydział Chemii, Uniwersytet Warszawski)
  16. Symulacje dynamiki molekularnej błon biologicznych i syntetycznych kwasów nukleinowych – Prof. dr hab. Joanna Trylska (Cent, Uniwersytet Warszawski)
  17. Modelowanie struktur niskowymiarowych (QD) półprzewodników II-VI domieszkowanych Cu – Dr Oksana Volnianska (Instytut Fizyki PAN)
  18. Modelowanie ab-initio wieloskładnikowych stopów o wysokiej entropii – Dr inż. Jan Wróbel (Wydział Inżynierii Materiałowej, Politechnika Warszawska)

System Okeanos razem z systemami analityki dużych danych oraz zasobami przechowywania danych stanowi komplementarną infrastrukturę centrum kompetencji OCEAN zainstalowaną w nowej serwerowni ICM na warszawskiej Białołęce.

przez -
1 2654

Dokładnie wczoraj zaktualizowano listę najszybszych superkomputerów na świecie. Na pierwszym miejscu po raz szósty z rzędu został chiński Tianhe-2 (Milky-Way-2), którego teoretyczna moc obliczeniowa przekracza 54,9 Pflops. Warto tutaj odnotować dość istotny fakt, że nasz superkomputer Prometheus z Akademickiego Centrum Komputerowego CYFRONET AGH wskoczył na 39 miejsce na liście. Jest to najwyższa w w historii pozycja maszyny z Polski i poprawiła się ona od lipca o 10 miejsc. Było to możliwe, dzięki jego rozbudowie o kolejne pięć szaf, dzięki czemu moc Prometheusa zwiększyła się z 1,7 Pflops do niemal 2,4 Pflops.

Superkomputer Prometheus

Warto odnotować, iż na liście znalazł się także wieloletni lider wśród polskich maszyn obliczeniowych, czyli Zeus:

  • 39 – ACK Cyfronet AGH, Prometheus (2347 Tflops)
  • 161 – Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej, Tryton (636 Tflops )
  • 180 – Wrocławskie Centrum Sieciowo Superkomputerowe, Bem (636 Tflops)
  • 217 – Narodowe Centrum Badań Jądrowych (490) TFlops)
  • 386 – ACK Cyfronet AGH, Zeus (374 Tflops)

Obecnie Prometheus składa się z ponad 2200 serwerów platformy HP Apollo 8000, połączonych superszybką siecią InfiniBand o przepustowości 56 Gbit/s. Superkomputer posiada ponad 53 tysiące rdzeni obliczeniowych (energooszczędnych i wydajnych procesorów Intel Haswell), 279 TB pamięci operacyjnej w technologii DDR4 oraz 144 karty nVidia Tesla. Dołączone są dwa systemy plików o łącznej pojemności 10 PB oraz o ogromnej szybkości dostępu 180 GB/s.

Pod koniec kwietnia w Akademickim Centrum Komputerowym Cyfronet AGH odbyła się premiera najszybszego superkomputera w historii Polski – Prometheusa. Głównym pomysłodawcą jednostki jest obecny Dyrektor Naczelny Cyfronetuprof. Kazimierz Wiatr, który poprowadził również całą prezentację jego uruchomienia. Środki na zbudowanie obiektu i maszyny zostały pozyskane z w ramach Programu Operacyjnego Innowacyjna Gospodarka, a w skład konsorcjum weszły: Akademia Górniczo-Hutnicza, Akademickie Centrum Komputerowe Cyfronet AGH, firmy Megatel i Action. Warto zaznaczyć, że obecnie superkomputer Prometheus znajduje się na 49 miejscu listy najszybszych superkomputerów na świecie (stan z czerwca 2015).

Superkomputer Prometheus

Specyfikacja techniczna

Prometheus zbudowany jest z 1728 serwerów HP ProLiant XL730f Gen9, na platformie HP Apollo 8000, które zostały połączone superszybką siecią Infiniband o przepustowości 56 Gbit/s. Komputer posiada 41 472 procesorów Intel Haswell, 216 TeraBajtów pamięci operacyjnej w technologii DDR4, dwa systemy plików o łącznej pojemności 10 PetaBajtów i szybkości dostępu: 150 GB/s. Teoretyczna moc obliczeniowa nowego polskiego superkomputera Prometheus wynosi niemal 1,7 Pflops (Petaflops). Jest to pierwsza w Europie i największa na świecie instalacja platformy HP Apollo 8000.

HP ProLiant XL230a Gen9

Serwer HP ProLiant XL730f Gen9 jest wyposażony w:

  • 2 procesory Intel Xeon serii E5-2600 V3 na serwer: E5-2690v3, E5-2680v3, E5-2670v3, E5-2683v3, E5-2695v3
  • 2 węzły 2-procesorowe na półkę z maks. 144 serwerami na stelaż
  • 16 modułów DIMMS łącznie na serwer lub maksymalnie 256 GB pamięci na serwer: 8 GB, 16 GB pamięci DDR4 RDIMM, pamięć 2133 MT/s
  • wysokowydajny port FDR InfiniBand oraz 1 Gb karta sieciowa 1 Gb
  • Napęd SFF SSD na serwer: 80 GB, 120 GB, 480 GB, 1,6 TB SSD

Prometheus posiada dwa rozproszone systemy plików Lustre o pojemności 5PB każdy, jeden o prędkości 120GB/s, drugi 60GB/s. Dodatkowo w skład infrastruktury wchodzi 20 serwerów usługowych HP DL380 Gen9 i DL360 Gen8.

Oprogramowanie

Cały superkomputer działa pod kontrolą systemu CentOS 7.1 oraz stosu zoptymalizowanego oprogramowania i bibliotek.

CentOS

Oprogramowanie specjalistyczne można podzielić na kilka grup:

  • dodatkowe kompilatory: Intel Cluster Studio, PGI CDK
  • aplikacje matematyczne: Mathematica, MATLAB, Maple, biblioteka NAG
  • aplikacje chemiczne: Accelrys, ADF, Gaussian, Molpro, TeraChem, Sybyl-X, TURBOMOLE
  • aplikacje inżynierskie CAD/CAE: ABAQUS, ANSYS, ANSYS Fluent, Opera, COMSOL Multiphysics
  • przetwarzanie informacji i analiza statystyczna: SAS, STATISTICA
  • bazy danych: Oracle
  • przetwarzanie danych geograficznych GIS: ArcGIS.

W ramach projektów PLGrid, CTA (astrofizyka), LHC (fizyka wysokich energii), EPOS (geofizyka) są dostępne i powstają narzędzia na potrzeby wielkich projektów naukowych. Z zasobów Prometheusa będą korzystać bezpłatnie głównie naukowcy, a liczbę zadań do wykonania, jak i stopień ich skomplikowania, zwiększą się ponad czterokrotnie.

Budowa infrastruktury chłodzenia i zasilania

Maszyna posiada innowacyjną technologię chłodzenia wodnego, co pozwoliło na uzyskanie wysokiej gęstości instalacji. Dzięki temu ważąca ponad trzydzieści ton część obliczeniowa zmieściła się w piętnastu szafach, na powierzchni 13 m2. Serwer HP ProLiant XL730f Gen9 posiada wewnątrz specjalnie zaprojektowany system chłodzenia, składający się z radiatorów i miedzianych rurek. Są one wypełnione cieczą i podłączone do wielkiego radiatora, biegnącego wzdłuż prawego boku serwera.

HP ProLiant XL730f Gen9 - chłodzenie procesora, pamięci i dysku

Taki blade jest wkładany w szynę i po zamknięciu dociskany z siłą 450 KG do centralnego systemu chłodzenia szafy. Owy system posiada specjalne rury z wodą, które odbierają ciepło i doprowadzają świeżą zimną ciecz. Dodatkowo ochładza ona powietrze i pozwala widocznym wentylatorom nawiewać je do serwerów i chłodzić pozostałe układy elektroniczne.

HP Apollo 8000 Rack i iCDU Rack - wygląd

Co ciekawe, w rurkach tych panuje podciśnienie, tak aby w przypadku uszkodzenia i przecieku, woda nie zalała układów scalonych. W superkomputerach Apollo administrator ma możliwość wymiany kasetowych serwerów, nie wyłączając całej maszyny z eksploatacji.

System jest chłodzony za pomocą wody o temperaturze ok. 30°C na wejściu, posiada trzy obiegi wodne (wewnątrzserwerowy, wtórny i pierwotny), a głównym urządzeniem chłodniczym jest drycooler ze wspomaganiem adiabatycznym o mocy ponad 800kW zainstalowany na dachu budynku. Unikalną cechą platformy Apollo 8000 jest tzw. dry disconnect systemu chłodniczego, co oznacza że podczas wyciągania serwerów z szafy w celach serwisowych nie następuje przerwanie obiegu wodnego. Dzięki temu ryzyko wycieku wody z obiegu jest zredukowane do minimum. Takie chłodzenie jest znacznie bardziej efektywne od klasycznego chłodzenia powietrzem. Chłodzenie powietrzem charakteryzuje się zwykle PUE w zakresie 1,3 do 2.0, natomiast PUE dla Prometheusa wynosi obecnie ok. 1,03. Oznacza to oszczędności rzędu kilkuset tysięcy rocznie na samych rachunkach za prąd (idących nota bene w miliony złotych rocznie).

Prometheus działa w trybie 24/7, co oznacza że potrzebuje niezawodnego zasilania. Każda półka serwera HP ProLiant XL730f Gen9 obsługuje do 1200 W pr. st. pod wysokim napięciem do konwersji na 12V.

Niezawodność zasilania zapewnia bateria UPSów, która może utrzymać działanie całego superkomputera oraz jego chłodzenia przez kilka minut, w ciągu których uruchamia się zasilanie awaryjne oparte o generator dieslowy o mocy 2,5MW. Takie zasilanie awaryjne może działać tak długo jak to jest konieczne, gdyż istnieje możliwość tankowania zbiorników podczas pracy.

Wywiad z Markiem Magrysiem

Na koniec chcielibyśmy zaprosić również do obejrzenia wywiadu z Panem Markiem Magrysiem – administratorem superkomputera Prometheus.

Superkomputer, monitoring

Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej, w skrócie CI TASK uruchomiło 2 marca 2015 roku superkomputer Tryton. Przejmie on sporo zadań obecnego superkomputera Galera, który działał od 3 kwietnia 2008 i posiadała teoretyczną moc obliczeniową 50 TFLOPS. Maszyna jest częścią projektu Centrum Doskonałości Naukowej Infrastruktury Wytwarzania Aplikacji (CD NIWA) oraz PLGrid Plus. Do prezentacji założeń projektu CD NIWA i możliwości superkomputera wykorzystano przygotowany specjalnie z tej okazji, efektowny, pięciominutowy pokaz z zastosowaniem techniki video mappingu.

Superkomputer Tryton składa się z 40 szaf, w których znajdziemy łącznie: 2966 procesorów (35592 rdzeni), 48 akceleratorów graficznych i 202 TB pamięci operacyjnej DDR4. Patrząc na pojedynczy serwer mamy: dwa procesory Intel Xeon E5 v3 z 12 rdzeniami o taktowaniu 2,3 GHz, od 128 do 256 GB pamięci RAM DDR4 i akceleratory graficzne: nVidia Tesla, Intel Xeon Phi, AMD Fire Pro. Wszystkie jednostki są połączone przy użyciu sieci InfiniBand FDR 56 Gb/s w topologii fat tree, za pomocą przełączników Mellanox. Łączna moc obliczeniowa wynosi 1,37 PFLOPS.

Klaster obliczeniowy został dostarczony Politechnice Gdańskiej przez konsorcjum złożone z firm Megatel i Action. Są to system HP Apollo 6000 z serwerami HP ProLiant XL230a Gen9, a także serwery Actina SOLAR 820 S6.

HP ProLiant XL230a Gen9

Serwery HP ProLiant XL230a Gen9

Budowa jednostki została sfinansowana z dotacji przyznanej w ramach Programu Operacyjnego Innowacyjna Gospodarka na lata 2007-2013 w kwocie 40 mln zł. Warto nadmienić, że 10 mln zł wydano na prace związane z działaniem CD NIWA. Przede wszystkim na zaprojektowanie platform ułatwiających produkcję aplikacji oraz zbudowanie zespołu specjalistów.

Korzystają z niej studenci, naukowcy z Pomorza oraz biznes. W ramach inicjatywy uczelnia udostępnia komputer i centrum nie tylko środowisku akademickiemu, ale także np. firmom zainteresowanym tworzeniem różnego rodzaju oprogramowania.

Superkomputer Tryton to także bogaty zestaw oprogramowania. Na początek zajmiemy się aplikacjami systemowymi:

  • Intel MPI – Biblioteka, dzięki której możliwe jest efektywne przekazywanie informacji między węzłami systemu przetwarzania równoległego, celem sterowania procesem obliczeniowym. Biblioteka obsługuje protokół TCP dla standardu Ethernet, protokoły dla systemów ze współdzieloną pamięcią dla systemów SMP oraz protokół RDMA dla standardu InfiniBand. Biblioteka jest w pełni kompatybilna ze standardem MPI-1 oraz zawiera wiele rozszerzeń wprowadzonych w standardzie MPI-2, zaimplementowanych w MPICH-2.
  • OpenMPI – jedna z implementacji standardu MPI-2 rozwijana na zasadach open source przez środowisko akademickie i przemysłowe.
  • Oracle – system zarządzania relacyjną bazą danych
  • MPICH – Biblioteka MPICH jest implementacją standardu MPI. Message Passing Interface (MPI) jest rozbudowaną biblioteką funkcji komunikacji międzyprocesowej. Biblioteka nie zawiera żadnych funkcji zarządzania maszyną wirtualną. Można ją łączyć z aplikacjami typu SPMD oraz MPMD zaimplementowanymi w językach: C, C++, Fortran 77, Fortran 90.
  • MVAPICH – implementacja MPI oparta o sieć InfiniBand. Obecnie zainstalowane są dwie odmiany biblioteki MVAPICH: MVAPICH2 – oparta o standard MPI-2 i MVAPICH – oparta o standard MPI-1.2
  • PBS – Portable Batch System (PBS) jest to system wsadowego przetwarzania zadań i zarządzania zasobami obliczeniowymi. Pozwala na kolejkowanie zadań, zarządzanie ich atrybutami, uruchamianie i zwracanie wyników obliczeń do użytkownika.
  • SLURM – (Simple Linux Utility for Resource Management) to system kolejkowy oparty na licencji open source. Wykorzystywany jest od marca 2015 roku do zarządzania pracą użytkowników superkomputera Tryton.
  • Tivoli Storage Manager – pakiet oprogramowania do zarządzania systemem składowania danych firmy IBM. Pakiet ten jest wykorzystywany w CI TASK do obsługi magazynu danych
  • vSMP – technologia która pozwala korzystać ze zagregowanej mocy procesorów i pojemności pamięci operacyjnej wielu pojedynczych serwerów.

Jest też sporo aplikacji narzędziowych: BLAS, HDF5, Intel Parallel Studio XE, Kompilatory: gcc i g++, Kompilatory Intel, Kompilatory PGI, MKL, NAG Fortran 90 Library, NAG Fortran Library, NAG Graphics Library, NetCDF, OpenGL i TeX.

Z aplikacji naukowych CI TASK przygotował: Abaqus, Amber, ANSYS (CFD, HPC, FLUENT), Babel, Blender, CESM/CSSM, Crystal, Dalton, ESRI (ArcGIS, ArcInfo, ArcView), Ferret, GAMESS, Gaussian, Gromacs, HyperWorks, LAMMPS, LS-Dyna, Mathematica, MATLAB, Meep, Molden, MOLDY, MOLPRO, MOPAC, MSC.Software (Adams, Dytran, Marc, Nastran, Patran), Noesis Optimus, Numeca, NWChem, Rasmol, Siemens NX, Sleuth, SPARC, StarCCM, Tecplot, Turbomole, VASP.

Główną ideą przyświecającą budowie superkomputera Tryton oraz stworzeniu projektu CD NIWA jest współpraca różnych środowisk: naukowców, ekspertów, biznesu, studentów i pasjonatów, często rozproszonych geograficznie. Centrum udostępnia specjalistyczne platformy oraz zapewnia zespół doradczy z merytoryczną pomocą w wykorzystaniu zasobów projektu. Klaster obliczeniowy ma być ukierunkowany na konkretne projekty badawcze, ze szczególnym uwzględnieniem dyscyplin uznanych w Polsce za priorytetowe, takie jak: energetyka, ochrona środowiska, czy medycyna. Warto tutaj wspomnieć o przeprowadzanych przez farmaceutów symulacjach, związanych z testowaniem nowych leków, czy analizę zapisów obrazów powstałych w czasie badań endoskopowych. Reszta projektów dostępna jest na stronie Projekty użytkowników.

W uroczystości uruchomienia superkomputera wzięli udział m.in. Senator RP prof. Edmund Wittbrodt, Posłowie RP Katarzyna Hall i dr Piotr Bauć, Andrzej Bojanowski – zastępca Prezydenta Gdańska ds. polityki gospodarczej oraz przedstawiciele Konwentu PG (z przewodniczącym Janem Kozłowskim i sekretarzem Henrykiem Majewskim na czele), władz Politechniki Gdańskiej oraz pomorskiego biznesu.

przez -
4 3262
Superkomputer, monitoring

Kilka dni temu pojawiła się zaktualizowana lista najszybszych superkomputerów na świecie. Najszybszym superkomputerem na świecie jest nadal chiński Tianhe-2 (Milky-Way-2), którego teoretyczna moc obliczeniowa przekracza 54,9 Pflops*. Na liście TOP 500 wyraźnie dominują superkomputery z USA (233 jednostki, 46 %). Na kolejnych miejscach znajdują się Japonia (39 jednostek, 8%), Chiny (37 jednostek, 7%), Niemcy (37 jednostek, 7%) i Wielka Brytania (31 jednostek, 6%). Polska (7 jednostek, 1%) znajduje się na 9 miejscu w rankingu krajów.

Superkomputer Prometheus

Warto wspomnieć w tym miejscu o naszych polskich superkomputerach. I tak na 49 miejscu znalazł się Prometheus z z Akademickiego Centrum Komputerowego CYFRONET AGH. Na dalszych pozycjach mamy natomiast inne jednostki:

  • 128 – TASK, Politechnika Gdańska
  • 137 – WCSS, Politechnika Wrocławska
  • 157 – NCBJ, Świerk
  • 270 – Zeus, ACK Cyfronet AGH
  • 379 – Cent, Uniwersytet Warszawski
  • 418 – ICM, Uniwersytet Warszawski

Łączna moc obliczeniowa wszystkich superkomputerów wynosi obecnie 361 Pflop/s, gdzie w listopadzie 2014 roku wynosiła ona 309 Pflop/s, a rok temu 274 Pflop/s. 68 maszyn posiada przynajmniej 1 Pflop/s mocy obliczeniowej, a 97 procent wykorzystuje jednostki centralne z sześcioma lub więcej rdzeniami obliczeniowymi. Jeżeli chodzi o dostawców to liderami są HP ze 178 wdrożeniami (35,6%) i IBM ze 111 (22.2%).

Na koniec warto wspomnieć o akceleratorach i koprocesorach. 52 maszyny posiadają chipsety nVidia, 4 używają kart AMD, a 33 z nich wykorzystują Intel Xeon Phi. 4 z nich posiadają hybrydowe technologie nVidia i Intel Xeon Phi.

Superkomputer Prometheus

27 kwietnia o godz. 12:00 w Akademickim Centrum Komputerowym Cyfronet AGH odbyła się oficjalna prezentacja najszybszego superkomputera w historii Polski – Prometheusa. Uroczystość poprowadził prof. Kazimierz WiatrDyrektor Naczelny Cyfronetu i główny pomysłodawca superkomputera.

Podczas godzinnego wystąpienia Rektor Akademii Górniczo-Hutniczej oraz Dyrektor Cyfronetu przedstawili krótką historię nowego superkomputera oraz hali w której on się znajduje, a następnie uroczyście uruchomili wartą 41 mln zł maszynę obliczeniową.

Prometheus wnosi do istniejącej infrastruktury informatycznej:

  • System operacyjny Scientific Linux 7
  • Teoretyczną moc obliczeniową 1,658 PetaFlopsów (1 658 880 000 000 000 operacji zmiennoprzecinkowych na sekundę),
  • 1728 serwerów platformy HP Apollo 8000, połączonych superszybką siecią InfiniBand o przepustowości 56 Gbit/s,
  • 41 472 rdzeni obliczeniowych (procesorów Intel Haswell najnowszej generacji),
  • 216 000 000 000 000 B sumarycznej pamięci operacyjnej w technologii DDR4 (216 TeraBajtów),
  • dwa systemy plików o łącznej pojemności 10 PB oraz ogromnej szybkości dostępu: 180 GB/s.

Środki na całą inwestycję zostały uzyskane w ramach Programu Operacyjnego Innowacyjna Gospodarka, współfinansowanego ze środków unijnych. W skład konsorcjum weszły: Akademia Górniczo-Hutnicza, Akademickie Centrum Komputerowe Cyfronet AGH, firmy Megatel i Action. Według obecnej listy TOP500 (z listopada 2014 r.) Prometheus jest jednym z trzydziestu najszybszych na świecie i dwunastu w Europie.

Z zaproszonych gości możemy wymienić: Rektor AGH prof. Tadeusz Słomka, Prorektorzy AGH, Iwona Wendel – Podsekretarz Stanu w Ministerstwie Infrastruktury i Rozwoju, prof. Włodzisław Duch – Podsekretarz Stanu w Ministerstwie Nauki i Szkolnictwa Wyższego, prof. Jerzy Kątcki – Zastępca Dyrektora NCBR, Marek Sowa – Marszałek Województwa Małopolskiego, Jerzy Miller – Wojewoda Małopolski, prof. Ryszard Tadeusiewicz – Prezes Oddziału PAN w Krakowie, rektorzy szkół wyższych Krakowa: prof. Wojciech Nowak z Uniwersytetu Jagiellońskiego, prof. Kazimierz Furtak z Politechniki Krakowskiej, ks. prof. Wojciech Zyzak – Rektor Uniwersytetu Papieskiego Jana Pawła II, prof. Maria-Jolanta Flis – Prorektor ds. Rozwoju UJ, prof. Stanisław Kistryn – Prorektor ds. badań naukowych i funduszy strukturalnych UJ, prof. Stanisław Małek – Prorektor ds. nauki, wdrożeń i współpracy międzynarodowej UR, a także prof. Marek Jeżabek – Dyrektor IFJ PAN. Ponadto wśród licznie zgromadzonych gości znaleźli się m.in. Członkowie Rady Użytkowników Cyfronetu, przedstawiciele wykonawcy prac budowlanych firm Mostostal Warszawa S.A., przedstawiciele firmy TEAM s.c. Architektura i Systemy Komputerowe, oraz przedstawiciele HP Polska.

przez -
0 2832
Superkomputer, monitoring

Rząd USA wybrał firmy Intel i Cray do zbudowania dwóch nowych superkomputerów: Aurora i Theta. Będą one częścią porozumienia CORAL (Collaboration of Oak Ridge, Argonne, and Lawrence Livermore), czyli współpracy laboratoriów Oak Ridge, Argonne i Lawrence Livermore, które ma na celu zbudowanie kilku wysokowydajnych maszyn obliczeniowych.

Superkomputer Aurora - wizualizacja

Superkomputer Aurora

Aurora zostanie zbudowana w Argonne Leadership Computing Facility. Konstrukcja będzie opierać się na procesorach Intel Xeon Phi z rodziny Knights Hill (proces technologicznych 10nm) i współpracować z technologią Intel Omni Path drugiej generacji. Superkomputer będzie posiadał 50 tysięcy węzłów, będzie pobierał 13 MW energii elektrycznej, a jego wydajność będzie wynosiła 180 PFLOPS.

Intel Knights Hill Xeon Phi

Z oprogramowania na maszynie znajdziemy:

  • System operacyjny Cray Linux Environment
  • Interfejsy programowania MPI i OpenMP 4.x, które zaoferują wysoką przenośność pomiędzy klastrami, a także hybrydową architekturę procesor – karta graficzna
  • Kompilatory i narzędzia optymalizacyjne od Intela
  • Kompilatory i biblioteki od Cray
  • Wiele różnego oprogramowania firm zewnętrznych do analizy i wizualizacji

Aurora ma kosztować 200 mln dolarów, a Argonne National Laboratory będzie mógł rozbudować sprzęt osiągając maksymalnie 450 PFlops. Zakończenie prac planowane jest na 2018 rok.

Superkomputer Aurora - infografika

Superkomputer Theta

Theta ma być swojego rodzaju etapem wstępnym dla maszyny Aurora, a jego wdrożenie ma nastąpić już w 2016 roku. Superkomputer ma posiadać układy Intel Xeon Phi z rodziny Knights Landing, pobierać 1.7 MW oraz posiadać wydajność 8.5 PFLOPS. Theta będzie wzorowany na wyglądzie serii Cray XC. Jako oprogramowanie zostanie wykorzystane najpewniej system operacyjny Cray Linux Environment i podobny zestaw oprogramowania, co w Aurora.

Polecane

OSWorld

7 1276
Drodzy Czytelnicy, prowadzimy portal OSWorld.pl już ponad 10 lat. Z przykrością stwierdzamy, że mamy na niego coraz mniej czasu, dlatego chcielibyśmy przekazać prowadzenie serwisu osobie...