Wszystkie serwery na świecie przetwarzają rocznie 9,57 zettabajtów czyli 9.570 000 000 000 000 000 000 bajtów danych. Oznacza to 20 wież z książkami złożonymi z danych, sięgającymi od Ziemi do Neptuna i z powrotem - twierdzą naukowcy z USA - poinformował magazyn Computerworld.
Zespół naukowców z School of International Relations and Pacific Studies oraz z San Diego Supercomputer Center na University of California w USA pod kierownictwem prof. technologii, Rogera Bohna, postanowił obliczyć, ile informacji elektronicznej jest przetwarzanej w światowych sieciach komputerowych.
Według opracowanego przez nich raportu "How Much Information 2010 Report on Enterprise Server Information", "symulację wykonano korzystając z danych dotyczących końca roku 2008. Był to bowiem ostatni rok dla którego udało się zebrać dane zbiorcze i szczegółowe dotyczące mocy i liczby zainstalowanych na świecie serwerów.
Okazało się, że w końcu 2008 roku na świecie działało 27 mln serwerów, które przetworzyły tyle danych iż książki nich ułożone stworzyłyby 20 wież o wysokości 9 mld km. Łączna ilość przetworzonych danych wyniosła 9,57 zettabajtów. Zettabajt to jednostka w informatyce oznaczająca tryliard bajtów.
Badanie wykonano, obliczając ze znanych danych o ilości serwerów, wskaźniki (benchmarki) wydajności i kosztów użycia dla przetwarzania transakcji online, usług internetowych i intranetowych oraz zadań wirtualizacji. Według obliczeń na każdego 3,18 mld ludzi, pracujących na świecie, przypadło w 2008 roku 3 terabajty przetworzonych danych. Przeciętny dysk twardy obecnego komputera stacjonarnego ma pojemność 250 gigabajtów, a więc dwunastokrotnie mniej.
Według estymacji wykonanej przez naukowców, w 2024 roku wszystkie światowe serwery przetworzą rocznie tyle danych iż książki z nich ułożone stworzyłyby stos o wysokości 4,37 roku świetlnego tj. przewyższający odległość od Ziemi na najbliższej gwiazdy - Alpha Centauri.
Jak twierdzi kierujący zespołem współautor raportu, prof. Roger Bohn nie jest przy tym pewne, czy badania objęły wszystkie dane - pewna ilość serwerów należąca do instytucji rządowych oraz służb mundurowych może, ze względu na tajny charakter wykonywanych prac, nie być nigdy ujawniana. Jak dodał w każdym razie udało się "odkryć podwodną część góry lodowej danych powstającej każdego roku"
Bohn zauważył, ze większość przetwarzanych informacji jest ulotna: powstaje, jest używana i kasowana w ciągu kilku sekund bez jakiegokolwiek udziału człowieka. Także informacja dotycząca jednego procesu może być multiplikowana - jeśli e-mail przepływa przez wiele serwerów zawarte w nim dane są powtarzane wiele razy. Według raportu największą bazą serwerów na świecie dysponuje Google - jest ich więcej niż milion. Microsoft ma nieco mniejszą bazę - liczba serwerów należących do tej firmy wynosi "nie mniej niż 500 tys. i nie więcej niż 750 tys." we wszystkich jej oddziałach na świecie i w centrali w USA.
Wydajność serwerów w okresie pięciu lat przed granicznym dla badania rokiem 2008 wzrosła 5-8 krotnie. Według raportu, główny ciężar przetwarzania danych spoczywał w 2008 roku na tanich serwerach tzw. entry-level kosztujących poniżej 25 tys. USD. Przetworzyły one aż 65 proc. wszystkich danych. Serwery średniej klasy - midrange - przetworzyły 30 proc. danych zaś największe i najdroższe serwery high-end kosztujące 500 tys. USD lub więcej za jednostkę przetworzyły jedynie 5 proc. danych.
REKLAMA |
REKLAMA |
REKLAMA |