komentarze
*Konto usunięte*2013.03.20, 13:38
''Czy Nvidia będzie w stanie doprowadzić do tego, że za kilka lat mocniejsze odmiany Tegry będziemy znajdować w laptopach i montować w PC-tach?''

Taki jest plan od samego początku.

P.S. Tyle tylko, że to już nie będzie się nazywało Tegra.
szalony kefirZobacz profil
Poziom ostrzeżenia: 0%
szalony kefir2013.03.20, 13:39
-11#2
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).
Virtualny27Zobacz profil
Poziom ostrzeżenia: 0%
Virtualny272013.03.20, 13:39
-6#3
A amd jeszcze w titana nie wierzy a tu już volta nadciąga:D
WibowitZobacz profil
Poziom ostrzeżenia: 0%
Wibowit2013.03.20, 13:49
11#4
szalony kefir @ 2013.03.20 13:39  Post: 644661
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).

Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.
SupermanZobacz profil
Poziom ostrzeżenia: 0%
Superman2013.03.20, 13:59
-15#5
Ambitne plany. Taki Volta nawet w trybie idle zmiażdży PS4 i XBOX 720 ...
szalony kefirZobacz profil
Poziom ostrzeżenia: 0%
szalony kefir2013.03.20, 14:08
Wibowit @ 2013.03.20 13:49  Post: 644663
szalony kefir @ 2013.03.20 13:39  Post: 644661
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).

Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.

Tylko, że w przypadku ARM wzrost wydajności idzie w parze ze wzrostem poboru prądu, a w Atomach odwrotnie. Poza tym, co zainstalujesz na tej platformie? Laptopowy klon Androida(Google Chrome OS) czy totalnie okrojonego Windowsa RT? Test Samsunga Ativ Smart PC 500T1C pokazał, że jedyną słuszną drogą jest Atom i Windows 8.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2013.03.20, 14:13
Wibowit @ 2013.03.20 13:49  Post: 644663
szalony kefir @ 2013.03.20 13:39  Post: 644661
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).

Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.

Zobacz jak wydajność rosła w czasach P4, bo taką wydajność dziś archi ARM prezentuje. C2D daleko. Oczywiście pobór energii dużo mniejszy, ale chodzi o to, że wydajność ARMów daleko, daleko....
DziubekR1Zobacz profil
Poziom ostrzeżenia: 0%
DziubekR12013.03.20, 14:21
Virtus* @ 2013.03.20 13:38  Post: 644660
''Czy Nvidia będzie w stanie doprowadzić do tego, że za kilka lat mocniejsze odmiany Tegry będziemy znajdować w laptopach i montować w PC-tach?''

Taki jest plan od samego początku.

P.S. Tyle tylko, że to już nie będzie się nazywało Tegra.


Napewno beda w stanie. Juz sam Kepler i karty w stylu GF 650M, czy 660GTX to dla mnie ogromny postęp. Wydajnosc w laptopie, jakiej jeszcze niedawno nie mialem w PCcie, do tego nie grzeją sie, no dla mnie rewelacja.
PFC2013.03.20, 14:31
GPU w 16 nm planowane na rok 2015? Cieszę się, że dane mi będzie zobaczyć za mojego życia tyle problemów technologicznych jak choćby śrubowanie minimalizacji tranzystorów, rozmiary pojedynczych czipów przekraczających już w tej chwili 7 mld tranzystorów, problemy z odprowadzaniem ciepła a'la Ivy Bridge i wiele, wiele innych.:)
MegabyteZobacz profil
Poziom ostrzeżenia: 0%
Megabyte2013.03.20, 14:55

Na tegorocznym GTC ujawniono, że rdzenie GPU i CPU tych układów będą mogły korzystać ze wspólnej pamięci RAM, tak jak na przykład w SoC AMD przygotowanym dla PlayStation 4. Nie zdradzono szczegółów, ale prawdopodobnie to rozwiązanie będzie działać tylko dla rdzeni ARM obecnych na karcie graficznej (?). Nie ma co liczyć na współdzielenie pamięci GPU i procesora w PC-tach, przynajmniej dopóki Nvidia nie nawiąże w tej kwestii współpracy z Intelem. To może wcale nie nastąpić.

Panie redaktorze radzę szybko poprawić ten fragment.

Maxwell będzie obsługiwał Unified Virtual Memory. Słowem klucz jest tutaj 'Virtual', co oznacza że CPU nadal może mieć swoją własną fizyczną pamięć, podobnie jak GPU. Unified Virtual Memory to zmapowanie pamięci CPU i GPU do jednej wirtualnej przestrzeni adresowej dla procesu systemowego. Nvidia nie musi czekać na Intela, odpowiednie standardy zostały już zdefiniowane (Address Translation Services (ATS) Page Request Interface (PRI). Jeśli dobrze pamiętam AST jest już zaimplementowane w Sandy Bridge E/EP. Dla pewności sprawdzę to jeszcze.
HΛЯPΛGŌNZobacz profil
Poziom ostrzeżenia: 0%
HΛЯPΛGŌN2013.03.20, 14:58
-5#11
No no... i cena za Titana 980 prosze państwa 5 patyków :)
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2013.03.20, 15:02
16nm w 2015? Global chce już w 2014 zaoferować 14nm FinFET, więc nvidia będzie znowu do tyłu względem innych producentów.

Swoja drogą nagle opóźnił im się wykres - ostatnio twierdzili, że tesla/fermi/kepler to 2007/2009/2011... i o ile w pierwszym przypadku tesli była to prawda (naciągana, bo była w 2006 pierwsza tesla), to w pozostałych bajka, a teraz żeby zachować '2 letni cykl' na wykresie musieli wszystko pchnąć do przodu i na reszcie fermi i kepler się zgadzają - widocznie maxwella aż tak prędko nie zobaczymy ;) Gigaflopsy też im się zmieniły na bardziej zachowawcze, bo maxwell był wciśnięty rok temu między 14 i 16 DP Gflops, a aktualnie jak widać między 8 a 16.



już poprawiona stara roadmapa.
SNC2013.03.20, 15:11
Amitoza @ 2013.03.20 15:02  Post: 644683
16nm w 2015? Global chce już w 2014 zaoferować 14nm FinFET, więc nvidia będzie znowu do tyłu względem innych producentów.

Global to sobie moze chciec, a jak na razie to sa za TSMC.
LuksonZobacz profil
Poziom ostrzeżenia: 0%
Lukson2013.03.20, 15:26
Jak ja kocham te ich wykresy wyskalowane: 0, 10, 100.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2013.03.20, 15:26
-1#15
SNC @ 2013.03.20 15:11  Post: 644689
Amitoza @ 2013.03.20 15:02  Post: 644683
16nm w 2015? Global chce już w 2014 zaoferować 14nm FinFET, więc nvidia będzie znowu do tyłu względem innych producentów.

Global to sobie moze chciec, a jak na razie to sa za TSMC.

tak? To TSMC ma już 20nm? ;) Bo jak dla mnie to i jedni i drudzy dysponują na ten moment tym samym procesem i jedni i drudzy w tym roku wprowadzą 20nm.

paulusss @ 2013.03.20 15:44  Post: 644695
Po co taka wydajośc, skoro gry bedą tworzone na PS4 co najmniej do 2020:]

Bo GPU nie są już tylko do gier? A jak widać wszystkie zmiany jakich nvidia dokonuje w swoich układach mają przede wszystkim poprawić wydajność w GPGPU.
paulusssZobacz profil
Poziom ostrzeżenia: 0%
paulusss2013.03.20, 15:44
-5#16
Po co taka wydajośc, skoro gry bedą tworzone na PS4 co najmniej do 2020:]
SNC2013.03.20, 15:52
Amitoza @ 2013.03.20 15:26  Post: 644694
SNC @ 2013.03.20 15:11  Post: 644689
(...)

Global to sobie moze chciec, a jak na razie to sa za TSMC.

tak? To TSMC ma już 20nm? ;) Bo jak dla mnie to i jedni i drudzy dysponują na ten moment tym samym procesem i jedni i drudzy w tym roku wprowadzą 20nm.

Nie chce mi sie dokladnie sprawdzac ale kojarze ze Global byl mocno spozniony z 28nm wzgledem TSMC i przypuszczam ze podobnie bedzie z 20nm. Ogolnie oni lubia duzo obiecywac.
MegabyteZobacz profil
Poziom ostrzeżenia: 0%
Megabyte2013.03.20, 15:52
Amitoza @ 2013.03.20 15:02  Post: 644683

Swoja drogą nagle opóźnił im się wykres - ostatnio twierdzili, że tesla/fermi/kepler to 2007/2009/2011... i o ile w pierwszym przypadku tesli była to prawda (naciągana, bo była w 2006 pierwsza tesla), to w pozostałych bajka, a teraz żeby zachować '2 letni cykl' na wykresie musieli wszystko pchnąć do przodu i na reszcie fermi i kepler się zgadzają - widocznie maxwella aż tak prędko nie zobaczymy ;)

Ostatnio czyli w 2010r? Nvidia w 2011r podała uaktualnioną Roadmapę z Fermi na 2010, Keplerem na 2012 i Maxwellem na 2014
SuLac0Zobacz profil
Poziom ostrzeżenia: 0%
SuLac02013.03.20, 16:07
-1#19
Amitoza @ 2013.03.20 15:02  Post: 644683

Swoja drogą nagle opóźnił im się wykres - ostatnio twierdzili, że tesla/fermi/kepler to 2007/2009/2011...

bo jak wiekszosc sraczki dostawala, ze na pokazie nowej arch nikt im nie pokazal nowego gforca, a tylko slajdy, to zmienili. czasami lepiej ustapic.
GangrenaZobacz profil
Poziom ostrzeżenia: 0%
Gangrena2013.03.20, 16:08
Volta będzie wykorzystywać pamięci HMC (Hybrid Memory Cube)
Zaloguj się, by móc komentować