Pierwszym zadaniem Blue Waters - budowanego właśnie superkomputera o największej na świecie mocy obliczeniowej - 10 petaflops - będzie określenie następstw ewentualnego trzęsienia ziemi w Południowej Kalifornii - poinformował Computerworld.
Wzrost liczby trzęsień ziemi na świecie w ciągu ostatnich kilku lat spowodował, że Southern California Earthquake Center, które zajmuje się Uskokiem San Andreas zintensyfikowało swoje badania.
"Jesteśmy bardzo zatroskani obecnym stanem uskoków w Południowej Kalifornii" - twierdzi Thomas Jordan, dyrektor Southern California Earthquake Center. Jego zdaniem zwłaszcza Uskok San Andreas wydaje się "zamknięty i gotów do przemieszczeń", co oznacza nadchodzące trzęsienia ziemi o dużej sile.
Zespół Jordana uruchomił symulację w jaki sposób trzęsienie ziemi może wpłynąć na Południową Kalifornię w Oak Ridge National Laboratory na superkomputerze Jaguar o mocy obliczeniowej 1,75 petaflops (1 petaflops= 1 biliard operacji zmiennoprzecinkowych na sekundę). Był on najszybszym komputerem do momentu detronizacji kilka tygodni temu przez chiński superkomputer Tianhe-1A o mocy 2,5 petaflops.
Największym laboratoriom badawczym przydałyby się mocniejsze komputery niż Jaguar - pisze Computerworld. Superkomputery prowadziły symulację możliwej katastrofy ekologicznej po wypływie ropy z platformy wiertniczej BP Deep Horizon, wspomagały badania nad działaniem komórek na poziomie atomowym, rozłamywanie kodu genetycznego czy tak jak obecnie - przewidywały skutki trzęsienia ziemi.
"Zwykle uczymy się jak to wygląda z twardych doświadczeń (po samym trzęsieniu - PAP), ale myślimy, że teraz możemy się wiele nauczyć z samych symulacji. Nie umiemy przewidzieć przyszłości; nie umiemy przewidzieć trzęsień ziemi. Ale możemy uruchomić jak najbardziej realistyczne symulacje, żeby poznać jakie mogą one mieć skutki i jakie sygnały przed nimi ostrzegają" - powiedział Computerworld Jordan.
Symulacje mają także pokazać w jaki sposób przygotować się do trzęsienia ziemi. Wraz ze wzrostem mocy obliczeniowej komputera, można zbudować bardziej skomplikowany model pokazujący wręcz jak trzęsienia ziemi, w zależności od ich magnitudy, dotkną poszczególne kwartały miast, zniszczą czy uszkodzą ich infrastrukturę i budynki; symulacje te mogą także powiedzieć, jakie po ich wystąpieniu i gdzie będzie ryzyko powstania pożarów. Do tego potrzebne są jednak moce obliczeniowe, których nie mają nawet obecnie istniejące superkomputery.
W sierpniu 2007 roku National Center for Supercomputing Applications, University of Illinois w Urbana-Champaign, oraz firma IBM podpisały porozumienie o budowie The National Petascale Computing Facility,w którym miał się znaleźć najmocniejszy superkomputer na świecie - IBM Blue Waters o mocy 10 petaflops, czyli o czterokrotnie większej mocy obliczeniowej niż superkomputer chiński. Blue Waters ma ruszyć w przyszłym roku i od razu zajmie go zespół Jordana - programiści tworzą już aplikację do symulacji, która będzie działać na tym superkomputerze i umożliwi przewidzenie skutków różnego typu "niestabilności Uskoku San Andreas". Według Jordana symulacja ta która zajęłaby 4 tys. godzin pracy procesora na Jaguarze, a Bule Waters zmieści się w 770 procesorogodzinach.
Na konferencji superkomputerowej SC10 w połowie listopada br zespoł Jordana przedstawił video symulacji trzęsienia ziemi o magnitudzie 8 w Południowej Kalifornii. Nie była to superprodukcja hollywoodzka z walącymi się budynkami i spadającymi w przepaść samochodami, ale z dokładnym rozkładem zniszczeń i pokazem czasie rzeczywistym jak wyglądałyby fale uderzeniowe po trzęsieniu.
Jordan w ten sposób chciał pokazać jak pilne są badania nad ewentualnym trzęsieniem ziemi i "zarezerwować" jak najszybciej Blue Waters dla tego zadania. Płyta Pacyfiku przesuwa się bowiem z szybkością około 50 cm na każde 100 lat. Dwa lata temu biuro California Geological Survey opierając się na danych z symulacji dokonywanych właśnie na superkomputerach oceniło że z 99 proc. prawdopodobieństwem należy spodziewać się w Kalifornii w ciągu następnych 30 lat trzęsienia ziemi o magnitudzie 6,7 lub wyższej.
Superkomputer, który ma wykonać symulacje, Blue Waters, konstrukcji IBM, ma posiadać najszybsze rdzenie "w swojej generacji". Składa się z modułów z których każdy zawiera 32 rdzeniową jednostkę SMP, mieszczącą cztery 8 rdzeniowe procesory Power 7, pamięć operacyjną i system operacyjny. Przepustowość wynosi 1,1 terabajta na sekundę, a cały system został tak wykonany, aby zmniejszyć liczbę przeskoków, ponieważ każdy przeskok powoduje opóźnienia w przetwarzaniu, bowiem dane nie trafiają od razu z rdzenia do rdzenia - twierdzi uczestniczący w projektowaniu systemu William Kramer, zastępca dyrektora w Blue Waters Project w NCSA.
Po rozbudowie w pełnej konfiguracji cały superkomputer będzie posiadał więcej niż 300,000 rdzeni. Hardware zostanie dostarczone na początku przyszłego roku, a cały system superkomputera - bez stanowisk dla pamięci masowych, gdzie znajdować się będą dane i pliki wynikowe - zajmie 465 metrów kw. Dla potrzeb instalacji zakończono budowę specjalnego budynku osobną wentylacją i systemem zasilania, przy czym szczytowe zapotrzebowanie na moc, wraz z urządzeniami pomocniczymi i pamięciami ma wynosić 12 MW. Moduły maszyny mają być chodzone chłodziwem , którego głównym składnikiem będzie woda; będzie bowiem ona pracować w temperaturze około 80 st. C.
Koszt Blue Waters bez infrastruktury wyniesie 300 mln USD, przy czym superkomputerem o największej wydajności ma być tylko przez rok. W 2012 roku w Oak Ridge National Laboratory i w Lawrence Livermore National Laboratory mają być zainstalowane bliźniacze superkomputery o mocy 20 petaflops.
Według Karla Schultza, zastępcy dyrektora działu komputerów wysokiej wydajności w Texas Advanced Computing Center na University of Texas w Austin w Teksasie, zapotrzebowanie na moc superkomputerów ze strony badaczy będzie coraz szybciej rosło. W grę wchodzą bowiem zaawansowane badania nad rozprzestrzenianiem się wirusów (HIV, H1N1) w komórkach, analizy, mające na celu stworzenie dokładnych lokalnych prognoz pogody, badania nad fizyką nuklearną m.in. zimną fuzją, mechaniką płynów, oraz analizy statystyczne na wielkich liczbach, których wyniki mają posiadać "większy stopień wierności" niż w dotąd stosowanych analizach.
Jak uważa Schultz, zapotrzebowanie na moc obliczeniową jest na tyle duże, iż ważna staje się budowa superkomputerów o mocy liczonej w exaflopsach. Komputery takie będą 1000 razy bardziej wydajne niż obecne superkomputery o mocy liczonej w petaflopsach. Pierwszy z nich jednak nie powstanie zapewne przed 2018 rokiem - pisze Computerworld.
REKLAMA |
REKLAMA |
REKLAMA |