Naukowcy sugerują, że chipy krzemowe powinny móc popełniać błędy - KOMPUTER - CHIP - KRZEM - TRANZYSTOR - ILLINOIS - RAKESH KUMAR - ERROR
Mouser Electronics Poland   Przedstawicielstwo Handlowe Paweł Rutkowski   PCBWay  

Energetyka, Automatyka przemysłowa, Elektrotechnika

Dodaj firmę Ogłoszenia Poleć znajomemu Dodaj artykuł Newsletter RSS
strona główna Aktualności Naukowcy sugerują, że chipy krzemowe powinny móc popełniać błędy
drukuj stronę
poleć znajomemu

Naukowcy sugerują, że chipy krzemowe powinny móc popełniać błędy

Naukowcy sugerują, że chipy krzemowe powinny móc popełniać błędy
źródło: http://www.physorg.com

Naukowcy z USA dokonali niecodziennego odkrycia. Stwierdzili, że pozwalając krzemowym chipom na popełnianie błędów można zapewnić dalszy wzrost mocy obliczeniowej chipów przy jednoczesnym ograniczaniu zużycia energii.

Prawo Moore'a przewiduje, że liczba tranzystorów (przełączników) mieszczących się w danym obszarze krzemu w danej cenie będzie podwajała się co 18-24 miesiące. Prawo znajduje swoje odzwierciedlenie w życiu codziennym dzięki postępującej miniaturyzacji, co pozwala na zwiększenie ich liczby na danym obszarze, a tym samym rośnie moc przetwarzania. Pojawia się tu problem tego typu, że ciągłe zmniejszanie przełączników powoduje spadek ich wiarygodności i zmienności, które mogą być przyczyną błędów.

Rakesh Kumar, profesor informatyki w Illinois uważa, że wymuszanie bezbłędnej pracy chipów krzemowych prowadzi do złamania prawa Moore'a. Producenci chipów według profesora będą dążyli w stronę poboru dużej większej mocy niż jest to konieczne tylko i wyłącznie po to aby zapewnić bezbłędną pracę, co wraz ze zmniejszaniem rozmiarów znacznie zwiększa koszt produkcji.

W wywiadzie dla BBC profesor Kumar stwierdził, że zamiast naciskania na idealne - bezbłędne chipy powinniśmy pójść w stronę niedoskonałości układów aby stworzyć "stochastyczne procesory", które mogłyby popełniać losowe błędy. Zauważył też, że sprzęt komputerowy już jest stochastyczny a praca nad jego doskonałością jest stratą czasu i pieniędzy.

Prof. Kumar wraz z kolegami przełożył swoje idee na praktykę projektując chip, który nie jest elementem doskonałym. Otrzymano w ten sposób oszczędność poboru mocy rzędu aż 30%. Redukcja poboru mocy o 23% prowadzi do 1% błędów w wykonywanych operacjach.

Profesor twierdzi, że błędy nie będą miały znaczącego wpływu na komputery, jednak w niektórych przypadkach będzie to prowadziło do zawieszenia lub restartu.

Tego typu zmiany wymusiłyby na projektantach oprogramowania implementowanie specjalnych silników obsługi błędów ponawiających operację, gdy na wynik programu czekałoby się zbyt długo.

PhysOrg

follow us in feedly
REKLAMA

Otrzymuj wiadomości z rynku elektrotechniki i informacje o nowościach produktowych bezpośrednio na swój adres e-mail.

Zapisz się
Administratorem danych osobowych jest Media Pakiet Sp. z o.o. z siedzibą w Białymstoku, adres: 15-617 Białystok ul. Nowosielska 50, @: biuro@elektroonline.pl. W Polityce Prywatności Administrator informuje o celu, okresie i podstawach prawnych przetwarzania danych osobowych, a także o prawach jakie przysługują osobom, których przetwarzane dane osobowe dotyczą, podmiotom którym Administrator może powierzyć do przetwarzania dane osobowe, oraz o zasadach zautomatyzowanego przetwarzania danych osobowych.
Komentarze (21)
Dodaj komentarz:  
Twój pseudonim: Zaloguj
Twój komentarz:
dodaj komentarz
No avatar
Gość
@karina: radze dopilnować pracownikków lub sprawdzić metodologie podliczania - moze jakaś kategoria towarów nie jest brana pod uwagę? twój komputer się nie myli, istnieje niewilekie prawdopodobieństwo że program fiskalny jest niewłaściwie skonfigurowany
No avatar
karina
jestem pracownikiem małego sklepu w którym co tydzień mamy remanent który to wylicza nam komputer i za każdym razem wychodzą duże nieścisłości mam pytanie czy jest taka ewenyualność że nie wszystkie dane z kasy sprzedaży rejestruje komputer bądz czy może się myli bo jak narazie za te błedy musi odpowiadać personel sklepu a ja zaczynam myśleć że problem tkwi w wyliczeniach komputerowych
No avatar
adiblol
Żeby tylko format E: nie zamienił się na format C: ...
No avatar
lukas_j
widać, że nie dość im zawieszania sie komputerów... komputer to jest komputer, ma nie popełniać błędów w obliczeniach
No avatar
bezbledny
chory czlowiek z indii
No avatar
Fidel
Procesory takie miały by większy sens tylko przy grafice 3D w czasie rzeczywistym, kompresji Video albo innych oeracjach nie wymagających dokladności.
Wachadłowce latają jeszcze na 386 tylo dlatego że zna się już wszystkie błędy jakie ten procesor może popełnić.
No avatar
dd
Jeszcze troche i nadejdzie era, w ktorej przez takie glupie bledy - tak jak bylo w niektorych filmach science-fiction komputery zaczna sie buntowac... Co by bylo, jakby np. zrobili komputer obslugujacy Bomby wyposażony bylby w taki pseudo energooszczedny procesor... w sumie to ziemia przestalaby istniec i pobor mocy bedzie rowny 0... czyli jak widac bardzo ekologiczne posuniecia ;)
No avatar
MiTM
Ten profesor jest trochę krótkowzroczny ,bo jasne można trochę oszczędzić i wyprodukować coś takiego ,ale to tylko dodatkowo skomplikuje tę i tak zagmatwaną branże jaką jest informatyka.Dlaczego? ponieważ nawet dziś takie korporacje jak Microsoft,Apple,Adobe,Autodesk itd. nie radzą sobie ze skomplikowanymi kodami co dobitnie widać przy większych aplikacjach np.3D studio max -najbardziej niestabilny program jakiego kiedykolwiek używałem-a przyczyna jest prosta jest za duży i już sobie z nim nie radzą ,bo istnieje za wiele możliwości współistnienie tych tysięcy opcji i łatwo zrobić coś czego nie przewidzieli.A teraz dodajmy jeszcze obsługę dodatkowego kodu do dużych aplikacji, dla różnych typów procesorów co jeszcze bardziej skomplikuje wszystko i zwiększy ryzyko pomyłek programistów.
Branża IT zawsze pełna była wesołej twórczości programistów ,którzy nie mają pojęcia o bezpieczenstwie i to w takich firmach jak np.Adobe(np.Flash,AR) ,Apple(Safari). Uważam ,że w przyszłości będzie jeszcze gorzej ,bo co chwila dodaje się nową funkcjonalność , funkcjonalność i funkcjonalność ,a prowadzi to do pogorszenia jakości oprogramowania.Więc ja mówię dziękuję takiej próbie odebrania programom ich fundamentalnej właściwości jakiej jest ich dokładność(a ich niedokładność jest ściśle określona).
No avatar
arjamizo
haha, wiec wiele osob bedzie pisalo programy w stylu testu Millera-Rabina,
kilkukrotne przepuszczenie przez liczydlo tej samej operacji pozwala wyfiltrowac poprawny wynik z prawdopodobienstwem niemalze zerowym; d prawdopodobienstwo (1/100)^3 po 3 operacjach.
chwila... ale czy to oznacza potrojny wzrost zaoszczędzonej juz w polowie energii?

Ma to jedną zaletę. Nie będzie już 100% sposobu na przewidzenie liczb |nie|pseudolosowych. :D
No avatar
tomaso
Chonorowy patronat nad umysłem profesora wziął Green Peace oraz pośmiertnie generalissimus Józef Stalin. Profesor Kurmar porozumiał się również w tej sprawie z innym Hindusem przewodnoczącym ONZ który postuluje żeby porzestać chodować krowy. Bo to one produkują najwięcej CO2. Razem mają plan udać się do sławnych niekwestionowanych intelektualistów którzy apelują do ludzi żeby się przestali rozmnażać bo stanowią wielkie zagrożenie dla Ziemi czyli jak powszechnie wiadomo Gai, przepraszam, gei? Bo geje się nie nie mogą rozmnażać.....
W Teatrze Rampa trupa aktorów śpiewała kiedyś: O Budda Budda, mądrość Twoja. Po co? Po co?
No avatar
Jurys
Świetny pomysł :D najlepiej zrobić procesory które popełniają same błędy. W sumie po co się ograniczać i marnować pieniądze i czas. Przyczepmy zwykły kawałek drewna do komputera! Nie pobiera w ogóle prądu i jest ekologiczny. A jak się jeszcze zamontuje drucik i koraliki to można wykonywać nawet proste obliczenia jak na liczydle.
No avatar
TT
@kuba 22 - przykład pierwszy lepszy z brzegu
No avatar
Mark
Przed przeczytaniem artykułu myślałem, że popełnianie błędów ma być motorem napędowym do samorozwoju komputerów... (najlepiej uczy się na błędach)
No avatar
Kain
Idiotyczne. Profesjonalnie zajmuję się wykorzystaniem metody elementów skończonych do wykonywania zaawansowanych modeli naprężeń i rozkładu ciężaru w dużych budynkach i tam nie można sobie pozwolić na "stochastyczność". Takie obliczenia wykonuje się na dużych klastrach, gdzie w obliczeniach bierze udział kilka tysięcy procesorów i akumulowany błąd mógłby zaowocować zawalaniem się jakiejś części budynku i śmiercią setek osób.
A wszystko dlatego, że ktoś obsesyjnie boi się, że Prawo Moora wyjdzie z użycia...
No avatar
Zorro
Skąd program miałby wiedzieć, że wynik danej operacji jest błędny?
Co do grafiki 3d - jeden mały błąd i wszystko może się rozjechać.
No avatar
kuba 22
TT: czemu akurat podales przyklad grafiki w czasie rzeczywistym ?
No avatar
Anonim
Gdyby oczywiście wprowadzić wymieniony na końcu tekstu chip lub bramkę która kontrolowała by spójność i bezbłędność danych (co prawda zmniejszyłoby to efektywność "mylących się chipów") to jest to bardzo pomysłowe rozwiązanie.
No avatar
manwe
Adam, przeczytaj jeszcze raz. A potem może jeszcze raz. Teraz na podstawie powyższego tekstu powiedz, dlaczego dzisiejsze komputery oparte o stochastyczne procesory mogą się zawieszać:
a/ bo cytowany profesor jest głupi
b/ bo procesory są głupie
c/ bo soft pisany na obecne komputery nie uwzględnia możliwości błędu procesora.
No avatar
pablo
Adam: Masz problemy z wyobraźnią czy osobowością? To oczywiste, że takie procesory będą wykorzystywane tam, gdzie na takie błędy mogą sobie pozwolić.
No avatar
TT
Adam, wyluzuj. Wydajne chipy popełniające błędy są idealne do grafiki, generowania 3D w czasie rzeczywistym itp. Nikt nie mówi tu o specjalistycznym zastosowaniu, gdzie od niezawodności zależy życie ludzkie.
No avatar
adam
ten profesor jest debilem. w skrócie on chce doprowadzić do tego, aby komputer sterujący lotem kosmicznym albo aparaturą medyczną tylko "zawiesił się" lub "zresetował" - Rakesh Kumar to debil który nie zasługuje na tytuł profesora.
REKLAMA
REKLAMA
Nasze serwisy:
elektrykapradnietyka.com
przegladelektryczny.pl
rynekelektroniki.pl
automatykairobotyka.pl
budowainfo.pl