Naukowcy z USA dokonali niecodziennego odkrycia. Stwierdzili, że pozwalając krzemowym chipom na popełnianie błędów można zapewnić dalszy wzrost mocy obliczeniowej chipów przy jednoczesnym ograniczaniu zużycia energii.
Prawo Moore'a przewiduje, że liczba tranzystorów (przełączników) mieszczących się w danym obszarze krzemu w danej cenie będzie podwajała się co 18-24 miesiące. Prawo znajduje swoje odzwierciedlenie w życiu codziennym dzięki postępującej miniaturyzacji, co pozwala na zwiększenie ich liczby na danym obszarze, a tym samym rośnie moc przetwarzania. Pojawia się tu problem tego typu, że ciągłe zmniejszanie przełączników powoduje spadek ich wiarygodności i zmienności, które mogą być przyczyną błędów.
Rakesh Kumar, profesor informatyki w Illinois uważa, że wymuszanie bezbłędnej pracy chipów krzemowych prowadzi do złamania prawa Moore'a. Producenci chipów według profesora będą dążyli w stronę poboru dużej większej mocy niż jest to konieczne tylko i wyłącznie po to aby zapewnić bezbłędną pracę, co wraz ze zmniejszaniem rozmiarów znacznie zwiększa koszt produkcji.
W wywiadzie dla BBC profesor Kumar stwierdził, że zamiast naciskania na idealne - bezbłędne chipy powinniśmy pójść w stronę niedoskonałości układów aby stworzyć "stochastyczne procesory", które mogłyby popełniać losowe błędy. Zauważył też, że sprzęt komputerowy już jest stochastyczny a praca nad jego doskonałością jest stratą czasu i pieniędzy.
Prof. Kumar wraz z kolegami przełożył swoje idee na praktykę projektując chip, który nie jest elementem doskonałym. Otrzymano w ten sposób oszczędność poboru mocy rzędu aż 30%. Redukcja poboru mocy o 23% prowadzi do 1% błędów w wykonywanych operacjach.
Profesor twierdzi, że błędy nie będą miały znaczącego wpływu na komputery, jednak w niektórych przypadkach będzie to prowadziło do zawieszenia lub restartu.
Tego typu zmiany wymusiłyby na projektantach oprogramowania implementowanie specjalnych silników obsługi błędów ponawiających operację, gdy na wynik programu czekałoby się zbyt długo.
REKLAMA |
REKLAMA |
REKLAMA |
Wachadłowce latają jeszcze na 386 tylo dlatego że zna się już wszystkie błędy jakie ten procesor może popełnić.
Branża IT zawsze pełna była wesołej twórczości programistów ,którzy nie mają pojęcia o bezpieczenstwie i to w takich firmach jak np.Adobe(np.Flash,AR) ,Apple(Safari). Uważam ,że w przyszłości będzie jeszcze gorzej ,bo co chwila dodaje się nową funkcjonalność , funkcjonalność i funkcjonalność ,a prowadzi to do pogorszenia jakości oprogramowania.Więc ja mówię dziękuję takiej próbie odebrania programom ich fundamentalnej właściwości jakiej jest ich dokładność(a ich niedokładność jest ściśle określona).
kilkukrotne przepuszczenie przez liczydlo tej samej operacji pozwala wyfiltrowac poprawny wynik z prawdopodobienstwem niemalze zerowym; d prawdopodobienstwo (1/100)^3 po 3 operacjach.
chwila... ale czy to oznacza potrojny wzrost zaoszczędzonej juz w polowie energii?
Ma to jedną zaletę. Nie będzie już 100% sposobu na przewidzenie liczb |nie|pseudolosowych. :D
W Teatrze Rampa trupa aktorów śpiewała kiedyś: O Budda Budda, mądrość Twoja. Po co? Po co?
A wszystko dlatego, że ktoś obsesyjnie boi się, że Prawo Moora wyjdzie z użycia...
Co do grafiki 3d - jeden mały błąd i wszystko może się rozjechać.
a/ bo cytowany profesor jest głupi
b/ bo procesory są głupie
c/ bo soft pisany na obecne komputery nie uwzględnia możliwości błędu procesora.