Pierwsza generacja optycznych sieci dostępowych opierała się głównie na połączeniach typu punkt-punkt. Szybki rozwój systemów DWDM, a także UWDM (ang. Ultra WDM) pozwala na optymalne wykorzystanie pasma pojedynczego włókna światłowodowego. Operatorzy mają obecnie możliwość jednoczesnej transmisji w jednym włóknie kilkuset (DWDM) długości fal optycznych, czyli kanałów (każdy o przepustowości 2,5 Gb/s lub 10 Gb/s), a w przyszłości nawet kilka tysięcy kanałów (UWDM). Techniki te implementowane bardzo szybko w sieciach szkieletowych wymuszają rozwój optycznych sieci dostępowych w kierunku obejmowania coraz większego obszaru i wprowadzania urządzeń aktywnych takich jak OXC i ROADM, które potrafią dokonać komutacji sygnałów optycznych. Obecnie techniki te są jeszcze stosunkowo drogie, ale ich wdrożenie w dalszej perspektywie czasowej staje się nieuniknione, choćby ze względu na coraz większą popularność telewizji HDTV.
Wojciech Kabaciński, Janusz Kleban, Mariusz ŻalBudowa struktur gridowych – sieci współdziałających komputerów i agregacji zasobów w strukturach organizacyjnychWzrost szybkości działania sieci komputerowych oraz dostępność do komputerów osobistych daje możliwość zwiększenia dostępnej mocy obliczeniowej. Klastry i gridy, do niedawna dostępne tylko w Centrach Superkomputerowych można aktualnie spotkać w wielu firmach. W pracy przedstawiono krótki przegląd współcześnie dostępnych środowisk przetwarzania średniej i dużej skali opartych głównie na strukturach gridowych. Umożliwiają one w stosunkowo prosty i niedrogi sposób wykorzystać obliczenia równoległe, które nabrały w ostatnim czasie dużego znaczenia dając możliwość rozwiązywania problemów niemożliwych do rozwiązania z wykorzystaniem klasycznych systemów jednoprocesowo wych. W pracy porównano trzy aktualnie stosowane systemy: klastry obliczeniowe, systemy gridowe oraz systemy chmur obliczeniowych [1,2,4]. Pokazano jak w prosty, niewymagający dodatkowych inwestycji sposób można zbudować klaster obliczeniowy, który może być wykorzystywany dla różnych celów.
Ewolucja architektur systemów przetwarzania zaowocowała powstaniem całej rodziny różnorodnych rozwiązań informatycznych. Szybki rozwój i zachodzące z każdym dniem zmiany uniemożliwiają opracowanie dokładnej taksonomii. Poszczególne systemy czerpią od siebie wzajemnie idee i rozwiązania. System zbudowany na zasadzie chmury obliczeniowej (ang. „cloud”) może wykorzystywać paradygmaty SOA/SOKU, cechować się możliwościami systemu gridowego, korzystać z heterogenicznych zasobów i realizować model „oprogramowania jako usługi” (ang. „SaaS – software as a service”). Tak zaawansowane systemy nie doczekały się jeszcze opracowania, zaś większość istniejących rozwiązań scharakteryzować można poprzez wybór jednej klasy, do której należą. Szkic etapów rozwoju architektur systemów przetwarzania średniej i dużej skali zaprezentowany został na rys. 1.
Rys. 1. Szkic etapów rozwoju architektur systemów przetwarzania średniej i dużej skali
Cumulus – Wydziałowy Grid badawczy Wydziału Informatyki i Zarządzania Politechniki Wrocławskiej został uruchomiony w roku 2005. Początkowo grid został zbudowany jako instalacja składająca się z dwóch klastrów zlokalizowanych w dwóch różnych laboratoriach dydaktycznych Wydziału Informatyki i Zarządzania Politechniki Wrocławskiej [3]. Klastry były uruchamiane w czasie zajęć dydaktycznych na których były wykorzystywane oraz w godzinach nocnych gdy nie odbywały się zajęcia dydaktyczne. Pierwszy klaster składał się z 14 dynamicznych węzłów roboczych natomiast drugi z 40 roboczych węzłów dynamicznych oraz dwóch węzłów testowych, tzw. węzły dedykowane pracujące cały czas. Oba klastry kontrolowane są przez odpowiednie serwery, pracujące pod kontrolą autorskiego systemu zbudowanego na bazie systemu operacyjnego Linux Debian, zarządcy zasobów Torque, zarządcy zadań Maui, systemu Globus Toolkit i monitora systemu Ganglia. Dodatkowo w gridzie wykorzystywany jest również serwer backupu. Następnie rozbudowano grid o dodatkowy klaster testowy składający się tylko z dwóch węzłów dedykowanych. Klaster ten funkcjonował cały czas i przeznaczony był dla testowania opracowywanych aplikacji.
Rys. 2. Architektura Wydziałowego Gridu Cumulus
Powyższa konfiguracja w miarę upływu czasu ulegała zmianom ze względu na uszkodzenia sprzętu oraz zmiany konfiguracji sieci Wydziałowej, jednakże rdzeń pozostał bez zmiany (zmiany związane były głównie z liczbą dostępnych węzłów dynamicznych oraz dedykowanych). Aktualnie w różnych okresach czasu uruchamiane są pojedyncze klastry lub cały grid w zależności od potrzeb. Grid był dotychczas wykorzystywany dla następujących celów: badania w ramach projektu szóstego programu ramowego „Dependability of Distributed Systems” – DeDiSys, badania w ramach ogólnopolskiego programu badawczego „Clusterix – National Cluster of Linux Systems” (grant 6T11 2003C/06098) – służył do badań nad klastrami dynamicznymi, jednodniowych szkoleń w ramach programu Clusterix dotyczących problematyki podłączania klastrów dynamicznych. Wykorzystywany był również dla potrzeb grantu badawczego ETD finansowanego z środków projektu HPC-Europa Unii Europejskiej, na zajęciach dla studentów w ramach przedmiotów: ,,Środowiska Przetwarzania Równoległego i Rozproszonego”, „Wprowadzenie do przetwarzania rozproszonego i równoległego” oraz na studiach po angielsku „ Parallel and Distributed Systems”, jak również do realizacji prac dyplomowych, w tym również przez studentów studiujących w ramach programu SOCRATES/ERASMUS oraz
realizacji prac doktorskich.
Literatura:
[1] Baker M.: Cluster Computing White Paper, 2000, University of Portsmouth
[2] Kesselman C., Foster I. (ed.): The Grid: Blueprint for a New Computing Infrastructure, 1998 Morgan Kaufmann Publishers
[3] Kwiatkowski J., Pawlik M., Frankowski G., Wyrzykowski R., Karczewski K.: Attaching dynamic clusters to CLUSTERIX Grid. 2006, Proc. Cracow ‘06 Grid Workshop
[4] Foster I.: There’s Grid in them thar Clouds, Ian Foster’s blog http://ianfoster.typepad.com/blog/2008/01/theres-gridin.html, 2008Jan Kwiatkowski, Marcin Pawlik