aktualności

TSMC nie chce zostawać w tyle. Pierwszy 16-nanometrowy SoC już za rok

25 października 2012, 12:29 Eryk Napierała

Trójwymiarowych tranzystorów też nie zabraknie. Jakiś czas temu Global Foundries, główny wykonawca chipów takich firm jak AMD i Qualcomm, poinformował o planach wprowadzenia w 2014 roku procesu technologicznego 14 nm i tranzystorów z trójstronną bramką. Konkurencyjne TSMC, z którego usług korzystają dwaj najwięksi producenci kart graficznych, też ma coś do powiedzenia w tej kwestii.

Według informacji ujawnionych na ostatniej konferencji, Taiwan Semiconductor Manufacturing Company obecnie najintensywniej pracuje nad wdrożeniem procesu technologicznego 20 nm HKMG. Firma planuje rozpoczęcie masowej produkcja układów SoC w tym wymiarze już w przyszłym roku. Na razie nie wiadomo, jakie firmy będą korzystać z tej technologii.

Według trudnych do potwierdzenia plotek, układ Tegra 5 Nvidii ma zostać stworzony w procesie 20 nm, ale podobno nie w tym opracowanym przez TSMC. W związku z tym również produkcja chipów graficznych "Maxwell" może zostać przeniesiona do innej fabryki. Inne pogłoski twierdzą, że tajwańskim producentem chipów interesuje się Apple, które ma już dość współpracy z Samsungiem. Gigant z Cupertino może zechcieć tworzyć chipy dla kolejnych iPhone'ów i iPadów właśnie w nowej technologii TSMC. Najbardziej prawdopodobne jest, że proces 20 nm HKMG wykorzysta AMD, do produkcji GPU o nazwie roboczej "Volcanic Islands". Plan zakłada, że oparte na nich karty graficzne zostaną wprowadzone na rynek w 2014 roku.

Chipy 20 nm będą tworzone między innymi w tajwańskim zakładzie Fab 14, korzystającym z 12-calowych (300 mm) wafli krzemowych

Końcówka przyszłego roku też będzie całkiem ciekawa, bo właśnie wtedy, w listopadzie, TSMC ma zamiar zaprezentować pierwszy działający SoC wykonany w wymiarze technologicznym 16 nm, w dodatku przy użyciu "trójwymiarowych" tranzystorów FinFET, podobnych pod względem budowy do Tri-Gate Intela. Co więcej, pokazowym chipem będzie pierwszy 64-bitowy procesor zaprojektowany przez ARM, obsługujący zestaw instrukcji ARMv8 (wszystkie obecne SoC korzystają z ARMv7).

Na prezentacji oczywiście się nie skończy, bo proces zacznie być wdrażany do linii produkcyjnych. Niestety, na pierwsze masowo tworzone układy w 16 nm trzeba będzie poczekać do 2014 roku, a wprowadzenia na rynek wykorzystujących je urządzeń należy spodziewać się nie wcześniej niż w 2015 roku. Jaka firma do tego czasu zainteresuje się TSMC? Tego nie sposób przewidzieć.

Dalsze plany tajwańskiego producenta układów scalonych są raczej mało wyraźne. Nie wcześniej niż w 2016 roku, TSMC przewiduje wdrożenie procesu technologicznego 10 nm. W tym samym czasie firma chce zbudować fabrykę korzystającą z 18-calowych (450 mm) wafli krzemowych – podobnie jak Intel, ma zamiar zmniejszyć w ten sposób koszty wytwarzania układów scalonych. Nowy zakład posłuży też jako ośrodek badawczy nad procesem technologicznym 7 nm. Produkcja układów scalonych w fabryce będzie mogła ruszyć po wyposażeniu obiektu w maszyny, najwcześniej w 2017 roku.

W praktyce żaden producent układów scalonych nie ustanawia dla siebie dokładnych ram czasowych w przyszłości odleglejszej niż dwa lata. Żaden ekspert nie jest w stanie dokładnie przewidzieć, jak szybko będą posuwać się prace nad nowymi technologiami. Dla tych firm nie mniej ważne od badań nad lepszym wykorzystaniem krzemu stają się prace nad adaptacją nowych materiałów do wytwarzania układów scalonych. Jeśli w najbliższych latach nie zostanie dokonany postęp w tej dziedzinie, może okazać się, że żadnemu producentowi układów scalonych nie będzie się opłacać szybkie schodzenie do granic możliwości krzemu. Wtedy będziemy mogli zapomnieć o wprowadzaniu nowych procesów technologicznych co rok.

Źródła: XBitLabs, FocusTaiwan

AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2012.10.25, 13:18
13#1
Zmniejszenie procesu technologicznego pozwala tworzyć bardziej energooszczędne układy, co ma znaczenie zwłaszcza w urządzeniach mobilnych.
Ale częstotliwości pracy za bardzo już nie udaje się powiększyć od czasów Pentium 4 Extreme Edition (2005 r. 3,73 GHz). Co do zwiększania ilości rdzeni, wąskim gardłem okazały się nadal powolne pamięci RAM i trudności w zrównoleglaniu kodu.
Poza tym pomimo większej dostępnej ilości rdzeni, problemy takie jak rozpoznawanie mowy czy pisma odręcznego, a tym bardziej rozumienie czy tłumaczenie mowy (czy choćby tekstów) z jednego języka na drugi, nadal nie są zadowalająco rozwiązane. Już nie mówiąc o widzeniu maszynowym, niezbędnym autonomicznym robotom.
Moim zdaniem to sam model obliczeń w architekturze von Neumanna i używane języki programowania są nieadekwatne do tych zastosowań, może przyszedł czas na projektowanie i tworzenie układów naśladujących analogowe sieci nerwowe?
mlody kurasiokZobacz profil
Poziom ostrzeżenia: 0%
mlody kurasiok2012.10.25, 13:44
W swiecie procesorow x86 juz dawno nic sie nie dzialo co by mnie zaciekawilo. Szkoda, zamiast czytac o intelu i amd to musimy czytac co tam w armach sie dzieje.
WibowitZobacz profil
Poziom ostrzeżenia: 0%
Wibowit2012.10.25, 13:47
Andree:
W Folding@Home symuluje się zwijanie cząsteczek (czy jakoś tak) i dla garstki atomów uzyskiwana prędkość symulacji to miliardowe części prędkości rzeczywistej. Chcąc symulować ludzki mózg w 100% musielibyśmy chyba użyć komputera wielkości naszego Słońca.

Zamiast ślepo kopiować naturę w scalakach trzeba zrozumieć jak natura działa, a to nie jest proste i nie ma wiele wspólnego z nanometrami w fabrykach procesorów.
szefonsZobacz profil
Poziom ostrzeżenia: 0%
szefons2012.10.25, 13:49

@Andree
Cóż, pozostaje ci złożyć cv do intela, amd czy TSMC.
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2012.10.25, 14:00
Andree @ 2012.10.25 13:18  Post: 610682
Zmniejszenie procesu technologicznego pozwala tworzyć bardziej energooszczędne układy, co ma znaczenie zwłaszcza w urządzeniach mobilnych.
Ale częstotliwości pracy za bardzo już nie udaje się powiększyć od czasów Pentium 4 Extreme Edition (2005 r. 3,73 GHz). Co do zwiększania ilości rdzeni, wąskim gardłem okazały się nadal powolne pamięci RAM i trudności w zrównoleglaniu kodu.
Poza tym pomimo większej dostępnej ilości rdzeni, problemy takie jak rozpoznawanie mowy czy pisma odręcznego, a tym bardziej rozumienie czy tłumaczenie mowy (czy choćby tekstów) z jednego języka na drugi, nadal nie są zadowalająco rozwiązane. Już nie mówiąc o widzeniu maszynowym, niezbędnym autonomicznym robotom.
Moim zdaniem to sam model obliczeń w architekturze von Neumanna i używane języki programowania są nieadekwatne do tych zastosowań, może przyszedł czas na projektowanie i tworzenie układów naśladujących analogowe sieci nerwowe?

1. A co ma architektura do częstotliwości? Model pamięci nie jest tu wyznacznikiem szybkości przetwarzania ani parametrów samego procesora.
2. Co do języków programowania, to co dokładnie, jeśli można wiedzieć, ci w nich nie pasuje, hm?
3. Sieci neuronowe to ślepa uliczka. Zastosowanie SN to tak na prawdę przyznanie się do błędu i stwierdzenie 'nie umiem tego zrobić analitycznie, wrzucam to do black-boxa i liczę, że wynik będzie użyteczny'. Nie da się skutecznie metodami analitycznymi zbadać EFEKTÓW działania SN (da się opisać samo niskopoziomowe działanie - ale nie jego wynik). Niczego tutaj nie dowiedziesz - nie udowodnisz analitycznie, że twój algorytm jest poprawny, zasadny i niezawodny (bo go defacto nie masz). Żadne krytyczne, czy w ogóle istotne systemy nie stosują sieci neuronowych, programowania genetycznego, logiki rozmytej, ani żadnej innej pseudo-matematyki, bo są to takie metody 'pi*drzwi, 1000x wyszło ok, to może za 1001 też będzie dobrze, ale gwarancji żadnych na to nie ma'.
EasyMaidenZobacz profil
Poziom ostrzeżenia: 0%
EasyMaiden2012.10.25, 14:23
Zmniejszajcie nanometry zmniejszajcie, w końcu się to skończy.
I będzie tak samo jak 15-20 lat temu gdzie optymalizowano kod aplikacji a nie zwalano wszystko na sprzęt jak to miejsce dziś.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2012.10.25, 14:29
@Telwas
Ad. 1) Tu nie chodzi o architekturę, tylko o dotarcie do granic możliwości krzemu jeśli chodzi o zwiększanie częstotliwości działania procesorów.
IPC rdzeni procesorów x86 też bardziej już zwiększać się nie da, a przynajmniej jest to bardzo trudne. Czasy szybkiego zwiększania mocy obliczeniowej procesorów już mamy za sobą.
Ad. 2) Potrzebne są języki programowania, w których będzie można łatwo wyrażać i analizować matematycznie zależności między wątkami. Moim zdaniem trzeba będzie odejść od programowania rozumianego jako edytowanie plików tekstowych, może programowanie w przyszłości będzie polegało na edycji grafów typu sieci Petriego, tylko o większych możliwościach? W końcu kod źródłowy jest kompilowany do AST, generacja kodu maszynowego polega na przejściu tego drzewa rozbioru składniowego.
Ad. 3) W przypadku tradycyjnych programów też zwykle nie masz żadnej gwarancji że program się nie wywali albo zawsze poprawnie zadziała, są metody formalnego dowodzenia poprawności, ale w praktyce rzadko się je stosuje, bo wymagają przepisania kodu (Prototype Verification System) i długotrwałej 'zabawy' w dowodzenie go.
barwniakZobacz profil
Poziom ostrzeżenia: 0%
barwniak2012.10.25, 14:34
Ależ żonglują tymi nanometram.i 20nm to tsmc ma szansę na masową produkcję najwcześniej na koniec 2013. Koniec 2014 pierwsze próbki 16nm. Początek 2015 masowa produkcja 16nm. A o tych 10nm to sobie mogą pomarzyć, a 7nm, to nie wiadomo czy w ogóle na krzemie się będzie ktoś bawił w to.
jkbrennaZobacz profil
Poziom ostrzeżenia: 0%
jkbrenna2012.10.25, 15:05
Ulepszanie procesu technologicznego jest droga normalnej ewolucji, ,teoretycznie latwo do wykonania, ale chyba nie tu, ta prawidlowa droga jest....gdyby Columbus tak myslal, to by nigdy do tzw 'Ameriki' nie doplynal...
Moze trzeba bedzie wrocic do rozwiazan Hybrydowych, gdzie pewne obliczenia, w sposob analogiczny sie wykonuje,,,,
Dodam tylko to, moze calkowicie sie myle, od czasu kiedy sie zaczelo matematyczne ( przy pomocy komputeròw) modele ekonomicznego rozwoju wystawiac, cos ze z tym ekonomicznym rozwojem po....lo...

Mam nadzieje ze nawet ci copotrzebuja 3 razy test przeczytac ,cos tutaj zrozumieja..
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2012.10.25, 15:39
Andree @ 2012.10.25 14:29  Post: 610717
@Telwas
Ad. 1) Tu nie chodzi o architekturę, tylko o dotarcie do granic możliwości krzemu jeśli chodzi o zwiększanie częstotliwości działania procesorów.
IPC rdzeni procesorów x86 też bardziej już zwiększać się nie da, a przynajmniej jest to bardzo trudne. Czasy szybkiego zwiększania mocy obliczeniowej procesorów już mamy za sobą.
Ad. 2) Potrzebne są języki programowania, w których będzie można łatwo wyrażać i analizować matematycznie zależności między wątkami. Moim zdaniem trzeba będzie odejść od programowania rozumianego jako edytowanie plików tekstowych, może programowanie w przyszłości będzie polegało na edycji grafów typu sieci Petriego, tylko o większych możliwościach? W końcu kod źródłowy jest kompilowany do AST, generacja kodu maszynowego polega na przejściu tego drzewa rozbioru składniowego.
Ad. 3) W przypadku tradycyjnych programów też zwykle nie masz żadnej gwarancji że program się nie wywali albo zawsze poprawnie zadziała, są metody formalnego dowodzenia poprawności, ale w praktyce rzadko się je stosuje, bo wymagają przepisania kodu (Prototype Verification System) i długotrwałej 'zabawy' w dowodzenie go.

Ad. 1. Ale co mają granice krzemu do modelu pamięci (architektura harvardzka/von Neumana)? Nic.
Ad. 2. Póki co procesory wykonują instrukcje, a nie grafy, więc optymalne wykorzystanie procesorów opiera się o pisanie... instrukcji. Na niższym lub wyższym poziomie, ale to zawsze będą instrukcje. A nawet jak sobie stworzysz inną strukturę (wspominane sieci czy grafy), w której będziesz programował, to pod maską nadal będą zwykłe listingi instrukcji.
Ad. 3.
a) Ależ to nie jest kwestia implementacji czy działania programu! 'Rączki precz od klawiatury' gdy chodzi o dowodzenie czegokolwiek. Dowodzi się matematyką, a nie programem ją wykorzystującym.
b) Matematyka, której się na co dzień używa, jest pewna. Można dowieść, że twierdzenie Pitagorasa jest prawdziwe, że reguła de l'Hospitala faktycznie działa, że filtr Kalmana rzeczywiście jest estymatorem stanu optymalnym w sensie średniokwadratowym. Można matematycznie w pełni zbadać działanie QuickSorta, wyznaczyć złożoność Dijkstry czy określić najgorszy możliwy przypadek interferencji sygnałów zespolonych w kanale transmisyjnym.
Ale powierzając zadanie sortowania czy estymacji wynalazkom pokroju sieci neuronowej czy populacji genetycznej, NIGDY nie znasz pełnego uwarunkowania tego, co tam się liczy. Jedyne, co masz, to wartości na węzłach sieci (jak już ją nauczysz), czy pulę genów populacji. Nie masz ŻADNEJ gwarancji, że nie nadejdzie zestaw danych, który sprawi, że SN coś tam sobie dziwnie pokojarzy, i na wyjściu dostaniesz kosmos (a jak już jednak zaczniesz te powiązania analizować, to wracasz do zwykłej matematyki, odkrywasz zwykłe zależności i okazuje się, że można to znacznie prościej tradycyjnie zrobić). A programowanie genetyczne to już w ogóle absurd - jedziesz po randomie trzymając kciuki, żeby wylosowało się coś lepszego, niż już masz - i tak do momentu, aż stwierdzisz, że wyniki są ok, albo że dalej szkoda ci czasu. Ale nie masz żadnej gwarancji, że zadanie zostało poprawnie wykonane (np. podczas szukania minimum funkcji: czy populacja nie ugrzęzła w jakimś specyficznym, lokalnym minimum).

P.S.
'Telvas', a nie 'Telwas' ;)
Zaloguj się, by móc komentować
1