komentarze
sayanZobacz profil
Poziom ostrzeżenia: 0%
sayan2015.04.09, 14:53
67#1
I to się nazywa fajny, ciekawy artykuł który warto przeczytać.
barwniakZobacz profil
Poziom ostrzeżenia: 0%
barwniak2015.04.09, 15:00
-10#2
Jeśli chodzi o metody naświetlania, to można być spokojnym, ponoć już w Cannonlake Intel ma zamiar w pierwszym naświetleniu użyć 13nm EUV, drugie standardowy 190nm.
Zarówno żródła, jak i 'optyka' EUV będzie i może być według praw fizyki rozwijana. Można stosować w oparciu o nią również techniki multipleksingu tak jak w przypadku 190nm.

Problem jest z krzemem lub dowolnym innym materiałem półprzewodnikowym(grafen nim nie jest). Niestety, ale komórki elementarne jakiegokolwiek kryształu są rzędu 0,1nm (niektóre nawet rzędu 1nm, krzem 0.5nm). Powoduje to, poważny limit, którego fizycznie nie da się przejść. Nie ma bowiem kryształów o komórkach elementarnych rzędu 0,01nm, to już są rzędy wielkości samych atomów.
Czy zatem to koniec?
Oczywiście, że nie, można wykorzystać liczby kwantowe do kodowania binarnego, nie koniecznie odrazu budować kubitowy komputer kwantowy.
Puki co, przez najbliższe 20 lat możemy cieszyć się jeszcze 10nm- 10nm 3D, 7nm-7nm 3D, 5nm-5nm 3D.
tomangeloZobacz profil
Poziom ostrzeżenia: 0%
tomangelo2015.04.09, 15:21
16#3
Od teraz wydajność można odmierzać kilogramami? :E
maxpowerZobacz profil
Poziom ostrzeżenia: 0%
maxpower2015.04.09, 15:34
11#4
Jak długo trwa produkcja jednego procesora?
mfukerZobacz profil
Poziom ostrzeżenia: 0%
mfuker2015.04.09, 16:09
-1#5
maxpower @ 2015.04.09 15:34  Post: 854657
Jak długo trwa produkcja jednego procesora?

9 miesiecy ;)
bytterfly1Zobacz profil
Poziom ostrzeżenia: 0%
bytterfly12015.04.09, 16:37
tomangelo @ 2015.04.09 15:21  Post: 854650
Od teraz wydajność można odmierzać kilogramami? :E


Raczej gramami, albo miligramami ;)
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2015.04.09, 16:50
Skupili się na jednym jak podwajać upakowanie tranzystorów, niestety z reszty już niewiele zostało, żeby czip wytrzymał coraz większą ilość odprowadzanego ciepła z coraz mniejszych powierzchni musi być po prostu wygaszona spora jego część.
sosin78Zobacz profil
Poziom ostrzeżenia: 0%
sosin782015.04.09, 17:25
Prawo Moora jest już raczej na wykończeniu. Zejście na Si poniżej 7nm raczej nie będzie możliwe. Intel przecież niedawno sam ogłosił że nie są zbyt pewni czy się to uda w założonym czasie. Oczywiście TSMC, czy Global bo już nie pamiętam twierdzą że im się uda. Ale to raczej marketingowy bełkot. W przemyśle elektronicznym widać już skowronki nieuchronnego. Take API Mantle czy Directx 12 który ma być dużo bardziej wydajny od poprzednika przecież raczej by nie powstawał gdyby co 18 miesięcy dało się zrobić 2 razy szybszą kartę grafiki. Nie było by powodów żeby wydawać masę pieniędzy na programistów którzy praktycznie piszą coś od nowa. Nowe GFX'y przecież podobnie wyglądają. Dalej proces 28nm a biorą znacznie mniej prądu. Założenie jest takie że w NVIDII wiedzieli że będzie problem pewnie z 3 lata wcześniej. Także problemy będą narastać, co grozi załamaniem rynku elektroniki użytkowej w pewnym momencie. Cała nadzieja w nowych materiałach. Ale prace wciąż trwaja. Nie wiadomo ile to zajmie....
SławekplZobacz profil
Poziom ostrzeżenia: 0%
Sławekpl2015.04.09, 17:51
jak pokazują ostatnie dwa lata duże pole do popisu mają programiści
dotychczasowe podejście gdzie wykorzystywano zwiększanie mocy układów będzie musiało być zweryfikowane
od lat się mówi o innym podejściu do grafiki i obliczeń ale nie było potrzeb zmian, teraz może jednak takie zmiany będą na tyle kuszące aby większe środki zostały w to zaangażowane, inaczej czeka nas w pewnym momencie może nie spadek ale zastój jeśli chodzi o wydajność
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2015.04.09, 18:15
-5#10
^^
Nie zastój, ale ślepy zaułek, tor jak kto woli, podobnie jak ewolucja gatunku ludzkiego, nie postępuje, ale cofa się patrząc na rozmiary i możliwości mózgu osobniczego.
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2015.04.09, 18:25
-2#11
Innymi słowy, przez ostatnie 10 lat procesory urosły o miliard tranzystorów, jednak wzrost o następny miliard zajmie już tylko 2 lata. Do tego należy doliczyć wykładniczą naturę wzrostu produktywności, o której przed chwilą wspominaliśmy. Zatem nawet jeśli (nie)prawo Moore'a miałoby być aktualne jeszcze tylko przez kilka lat, ten okres może być ważniejszy niż cała historia mikroelektroniki od połowy XX wieku do teraz.


Nawet nie chce mi się czytać całości, bo to prawo w odniesieniu do wydajności nie działa od wielu lat, ale słowo na temat powyższego fragmentu: Szacowałem kiedyś na bazie własnego doświadczenia w programowaniu zabytków, że 30 lat od premiery Commodore 64 sprzęt PC do domu za jego równowartość był sumarycznie ok. kilka miliardów razy szybszy (!). Jeśli obecna tendencja się utrzyma, to będzie nieźle, jeśli za kolejne 30 lat (licząc od daty tego PC za równowartość) sprzęt domowy przyspieszy raptem kilkaset razy (i to wyłącznie, jeśli uda się z grafenem lub innym nowym materiałem, bo do końca granicy krzemu to już więcej niż 2-4x szybciej nie będzie (w odniesieniu do CPU i max 10x w odniesieniu do GPU). Smutek.
dysan112Zobacz profil
Poziom ostrzeżenia: 0%
dysan1122015.04.09, 19:52
-4#12
Problemem są korporacje i ich myślenie które ogranicza nas samych, do tego przepisy prawa.

Bo człowiek sam w sobie jest najlepszym przykładem komputera który nie myśli w kategoriach 0 i 1 czy operacji tylko 'tak/nie', w naszym przypadku człowiek i jego mózg ma możliwość właśnie stosowania tego trzeciego rozwiązania, samo-uczenia się, rozwiązywania problemów sam i możliwość stosowania nieszablonowych rozwiązań.

Komputery takie jakie znamy potrzebują informacji które ktoś musi podać a człowiek sam je sobie generuje
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2015.04.09, 20:10
^^
Ludzki mózg to nie tylko komputer do przetwarzania wszystkiego, całej projekcji rzeczywistości od której dochodzą bodźce, spora część nie odpowiada dzisiejszym komputerom, bo działa na zasadzie skojarzeń, wychwycenia kognitywnych zdarzeń, czyli prawdziwych od wcześniej znanych czy pozornych.
Zdzichu Ze ZdziszewaZobacz profil
Poziom ostrzeżenia: 0%
Zdzichu Ze Zdziszewa2015.04.09, 20:15
-5#14
mfuker @ 2015.04.09 16:09  Post: 854674
maxpower @ 2015.04.09 15:34  Post: 854657
Jak długo trwa produkcja jednego procesora?

9 miesiecy ;)


Tyle co ciąża :D
StormZobacz profil
Poziom ostrzeżenia: 0%
Storm2015.04.09, 20:16
następstwa? deep learning, wyparcie 80% prac fizycznych przez maszyny począwszy od kierowców na drogach po wszystkie urzędy, fale bezrobocia, protesty, zamieszki, anarchia... :D
DissidentAggressorZobacz profil
Poziom ostrzeżenia: 0%
DissidentAggressor2015.04.09, 20:42
motiff @ 2015.04.09 18:15  Post: 854741
^^
Nie zastój, ale ślepy zaułek, tor jak kto woli, podobnie jak ewolucja gatunku ludzkiego, nie postępuje, ale cofa się patrząc na rozmiary i możliwości mózgu osobniczego.


Racja, podobnie jak możliwości fizyczne obecnych ludzi w porównaniu do naszych przodków sprzed tysiąca lat. Jeśli informatyzacja będzie postępowała w takim tempie jak obecnie to ludzie za 200 lat nie będą potrafili poradzić sobie z najprostszymi czynnościami potrzebnymi do przeżycia gdy wyłączy im się prąd - 'organ nieużywany zanika' ;).
Oczywiście to nie wina informatyzacji, lecz ludzi.
agent_x007Zobacz profil
Poziom ostrzeżenia: 0%
agent_x0072015.04.09, 20:48
@up Polecam film Idiokracja ;)
raufZobacz profil
Poziom ostrzeżenia: 0%
rauf2015.04.09, 20:57
Czasem zapominam że można oceniać publikacje, 5 gwiazdek!
*Konto usunięte*2015.04.09, 21:45
-9#19
dziwne prawo bełkotu dla ludzi z lekką problematyką mózgową. ot takie, zeby głowonogi mieli o czym gadac. i pisać... nie mam pojecia jaki to ma zwiazek ze strona o sprzecie komputerowym.
taithZobacz profil
Poziom ostrzeżenia: 0%
taith2015.04.09, 23:37
Litografia ma swoje limity, obecnie mainstream programistyczny operuje na komendach sprzed 10 lat a nawet starszych, ten nowy miliard w CPU zostanie zmarnowany na: nowe polecenia których się nie wykorzysta, kolejny system DRM, i większy rdzeń graficzny, niech kompletnie przejdą na RISC i zaprogramują kompilatory/maszyny wirtualne x86 dla wstecznej kompatybilności.
lub zmienią materiały dla większych taktowań aby wykonywać polecenia szybciej.
jednak to wszystko na swoje limity
Największą wadą procesorów jest ich obecna dwuwymiarowość
tranzystory sa upakowane na płaskiej powierzchni z podłączonym gąszczem przewodów
gdyby dało się tworzyć struktury w trójwymiarze to dopiero był by postęp, najbardziej obiecująca w tej dziedzinie jest biotechnologia, nanotechnologia raczkuje a zwykła chemia też nie na lekko
za to mikroby mogły by masowo wytwarzać całe związki które łączyło by się przy pomocy innych organizmów w skomplikowane układy
bioinżynieria przy pomocy sterowanych mikroorganizmów wydaje się mrzonką ale jest najbardziej obiecującą technologią, trzeba zmusić układy do samodzielnego budowania się
Zaloguj się, by móc komentować