Wydajność energetyczna komputerów podwaja się co 18 miesięcy – ustalił zespół naukowców ze Stanford University (USA) pod kierownictwem prof. Jonathana Koomey’a – poinformował magazyn "Technology Review".
Analitycy natychmiast ochrzcili te ustalenia „prawem Koomey’a” stwierdzając, że będzie ono miało równie istotne znaczenie dla branży informatycznej, co pochodzące z 1965 roku prawo Moore’a.
Gordon Moore, założyciel firmy Intel, sformułował wtedy prawo, według którego liczba tranzystorów w układzie, a zatem i moc przetwarzania procesorów podwaja się co 18 miesięcy.
Prawo Koomey’a może mieć przy tym jeszcze większe znaczenie niż prawo Moore’a ze względu na coraz większe rozpowszechnianie tabletów, netbooków i smartfonów, wyposażonych w całkowicie odmiennie klasy procesorów niż notebooki, komputery stacjonarne i serwery, dla których początkowo sformułowano prawo Moore’a.
Jak powiedział Koomey, wyniki badań jego zespołu wskazują na to, że „przy ustalonej i tej samej ilości danych, pojemność baterii, jaka jest konieczna do pracy, spada dwukrotnie w ciągu 18 miesięcy”. Koomey dodał, że dalsze rozpowszechnianie się przetwarzania mobilnego oraz interfejsów dotykowych może sprawić, iż wydajność będzie nadal rosła według tej samej, stałej wielkości.
Zespół naukowców ze Stanford University zbadał zapotrzebowanie na moc wszystkich komputerów od początku rozwoju informatyki. Pierwszą zbadaną jednostką był Electronic Numerical Integrator and Computer (ENIAC) z 1956 roku. Przeprowadzał on kilka setek obliczeń w sekundę, używał lamp próżniowych, zajmował 167,2 m kw. i jego zapotrzebowanie na moc wynosiło 150 kW.
Koomey stwierdził, że według studium jego zespołu, nawet przed masowym pojawieniem się tranzystorów, wydajność energetyczna podwajała się co 18 miesięcy, jednak ich rozpowszechnienie i związane z tym zmniejszenie komponentów, pojemności i czasu komunikacji między podzespołami pozwoliło komputerom na szybki rozwój.
Studium zespołu Koomey’a, opublikowane w wakacyjnym numerze IEEE Annals of the History of Computing, określa, że moc używana w centrach danych wzrosła w latach 2005-2010 o 56 proc., podczas kiedy w latach 2000-2005 – podwoiła się. Przyczyną jest wyższa wydajność nowych urządzeń, zwłaszcza serwerów, które przy masowym zastosowaniu technologii wirtualizacji pozwalają na uruchomienie o wiele większej liczby programów jednocześnie, niż uruchamiano na serwerach wprowadzanych w poprzednim pięcioleciu.
Koomey uważa, że granica wydajności energetycznej komputerów jest „jeszcze bardzo odległa” i przypomina obliczenia noblisty, prof. Richarda Feynmana, który w 1985 r., analizując moc potrzebną dla przetwarzania komputerowego, stwierdził, że wydajność energetyczna komputerów może jeszcze wzrosnąć stumiliardokrotnie, zanim osiągnie limit. Koomey zauważa, że od tych obliczeń wydajność energetyczna wzrosła około 40 tys. razy. „Jesteśmy jeszcze daleko od limitu. To kwestia naszego sprytu, nie praw fizyki” – dodał.
REKLAMA |
REKLAMA |
REKLAMA |