Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).
Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).
Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.
Tylko, że w przypadku ARM wzrost wydajności idzie w parze ze wzrostem poboru prądu, a w Atomach odwrotnie. Poza tym, co zainstalujesz na tej platformie? Laptopowy klon Androida(Google Chrome OS) czy totalnie okrojonego Windowsa RT? Test Samsunga Ativ Smart PC 500T1C pokazał, że jedyną słuszną drogą jest Atom i Windows 8.
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).
Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.
Zobacz jak wydajność rosła w czasach P4, bo taką wydajność dziś archi ARM prezentuje. C2D daleko. Oczywiście pobór energii dużo mniejszy, ale chodzi o to, że wydajność ARMów daleko, daleko....
''Czy Nvidia będzie w stanie doprowadzić do tego, że za kilka lat mocniejsze odmiany Tegry będziemy znajdować w laptopach i montować w PC-tach?''
Taki jest plan od samego początku.
P.S. Tyle tylko, że to już nie będzie się nazywało Tegra.
Napewno beda w stanie. Juz sam Kepler i karty w stylu GF 650M, czy 660GTX to dla mnie ogromny postęp. Wydajnosc w laptopie, jakiej jeszcze niedawno nie mialem w PCcie, do tego nie grzeją sie, no dla mnie rewelacja.
GPU w 16 nm planowane na rok 2015? Cieszę się, że dane mi będzie zobaczyć za mojego życia tyle problemów technologicznych jak choćby śrubowanie minimalizacji tranzystorów, rozmiary pojedynczych czipów przekraczających już w tej chwili 7 mld tranzystorów, problemy z odprowadzaniem ciepła a'la Ivy Bridge i wiele, wiele innych.
Na tegorocznym GTC ujawniono, że rdzenie GPU i CPU tych układów będą mogły korzystać ze wspólnej pamięci RAM, tak jak na przykład w SoC AMD przygotowanym dla PlayStation 4. Nie zdradzono szczegółów, ale prawdopodobnie to rozwiązanie będzie działać tylko dla rdzeni ARM obecnych na karcie graficznej (?). Nie ma co liczyć na współdzielenie pamięci GPU i procesora w PC-tach, przynajmniej dopóki Nvidia nie nawiąże w tej kwestii współpracy z Intelem. To może wcale nie nastąpić.
Panie redaktorze radzę szybko poprawić ten fragment.
Maxwell będzie obsługiwał Unified Virtual Memory. Słowem klucz jest tutaj 'Virtual', co oznacza że CPU nadal może mieć swoją własną fizyczną pamięć, podobnie jak GPU. Unified Virtual Memory to zmapowanie pamięci CPU i GPU do jednej wirtualnej przestrzeni adresowej dla procesu systemowego. Nvidia nie musi czekać na Intela, odpowiednie standardy zostały już zdefiniowane (Address Translation Services (ATS) Page Request Interface (PRI). Jeśli dobrze pamiętam AST jest już zaimplementowane w Sandy Bridge E/EP. Dla pewności sprawdzę to jeszcze.
16nm w 2015? Global chce już w 2014 zaoferować 14nm FinFET, więc nvidia będzie znowu do tyłu względem innych producentów.
Swoja drogą nagle opóźnił im się wykres - ostatnio twierdzili, że tesla/fermi/kepler to 2007/2009/2011... i o ile w pierwszym przypadku tesli była to prawda (naciągana, bo była w 2006 pierwsza tesla), to w pozostałych bajka, a teraz żeby zachować '2 letni cykl' na wykresie musieli wszystko pchnąć do przodu i na reszcie fermi i kepler się zgadzają - widocznie maxwella aż tak prędko nie zobaczymy Gigaflopsy też im się zmieniły na bardziej zachowawcze, bo maxwell był wciśnięty rok temu między 14 i 16 DP Gflops, a aktualnie jak widać między 8 a 16.
16nm w 2015? Global chce już w 2014 zaoferować 14nm FinFET, więc nvidia będzie znowu do tyłu względem innych producentów.
Global to sobie moze chciec, a jak na razie to sa za TSMC.
tak? To TSMC ma już 20nm? Bo jak dla mnie to i jedni i drudzy dysponują na ten moment tym samym procesem i jedni i drudzy w tym roku wprowadzą 20nm.
paulusss @ 2013.03.20 15:44
Po co taka wydajośc, skoro gry bedą tworzone na PS4 co najmniej do 2020
Bo GPU nie są już tylko do gier? A jak widać wszystkie zmiany jakich nvidia dokonuje w swoich układach mają przede wszystkim poprawić wydajność w GPGPU.
Global to sobie moze chciec, a jak na razie to sa za TSMC.
tak? To TSMC ma już 20nm? Bo jak dla mnie to i jedni i drudzy dysponują na ten moment tym samym procesem i jedni i drudzy w tym roku wprowadzą 20nm.
Nie chce mi sie dokladnie sprawdzac ale kojarze ze Global byl mocno spozniony z 28nm wzgledem TSMC i przypuszczam ze podobnie bedzie z 20nm. Ogolnie oni lubia duzo obiecywac.
Swoja drogą nagle opóźnił im się wykres - ostatnio twierdzili, że tesla/fermi/kepler to 2007/2009/2011... i o ile w pierwszym przypadku tesli była to prawda (naciągana, bo była w 2006 pierwsza tesla), to w pozostałych bajka, a teraz żeby zachować '2 letni cykl' na wykresie musieli wszystko pchnąć do przodu i na reszcie fermi i kepler się zgadzają - widocznie maxwella aż tak prędko nie zobaczymy
Ostatnio czyli w 2010r? Nvidia w 2011r podała uaktualnioną Roadmapę z Fermi na 2010, Keplerem na 2012 i Maxwellem na 2014
Taki jest plan od samego początku.
P.S. Tyle tylko, że to już nie będzie się nazywało Tegra.
Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.
Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.
Tylko, że w przypadku ARM wzrost wydajności idzie w parze ze wzrostem poboru prądu, a w Atomach odwrotnie. Poza tym, co zainstalujesz na tej platformie? Laptopowy klon Androida(Google Chrome OS) czy totalnie okrojonego Windowsa RT? Test Samsunga Ativ Smart PC 500T1C pokazał, że jedyną słuszną drogą jest Atom i Windows 8.
Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.
Zobacz jak wydajność rosła w czasach P4, bo taką wydajność dziś archi ARM prezentuje. C2D daleko. Oczywiście pobór energii dużo mniejszy, ale chodzi o to, że wydajność ARMów daleko, daleko....
Taki jest plan od samego początku.
P.S. Tyle tylko, że to już nie będzie się nazywało Tegra.
Napewno beda w stanie. Juz sam Kepler i karty w stylu GF 650M, czy 660GTX to dla mnie ogromny postęp. Wydajnosc w laptopie, jakiej jeszcze niedawno nie mialem w PCcie, do tego nie grzeją sie, no dla mnie rewelacja.
Na tegorocznym GTC ujawniono, że rdzenie GPU i CPU tych układów będą mogły korzystać ze wspólnej pamięci RAM, tak jak na przykład w SoC AMD przygotowanym dla PlayStation 4. Nie zdradzono szczegółów, ale prawdopodobnie to rozwiązanie będzie działać tylko dla rdzeni ARM obecnych na karcie graficznej (?). Nie ma co liczyć na współdzielenie pamięci GPU i procesora w PC-tach, przynajmniej dopóki Nvidia nie nawiąże w tej kwestii współpracy z Intelem. To może wcale nie nastąpić.
Panie redaktorze radzę szybko poprawić ten fragment.
Maxwell będzie obsługiwał Unified Virtual Memory. Słowem klucz jest tutaj 'Virtual', co oznacza że CPU nadal może mieć swoją własną fizyczną pamięć, podobnie jak GPU. Unified Virtual Memory to zmapowanie pamięci CPU i GPU do jednej wirtualnej przestrzeni adresowej dla procesu systemowego. Nvidia nie musi czekać na Intela, odpowiednie standardy zostały już zdefiniowane (Address Translation Services (ATS) Page Request Interface (PRI). Jeśli dobrze pamiętam AST jest już zaimplementowane w Sandy Bridge E/EP. Dla pewności sprawdzę to jeszcze.
Swoja drogą nagle opóźnił im się wykres - ostatnio twierdzili, że tesla/fermi/kepler to 2007/2009/2011... i o ile w pierwszym przypadku tesli była to prawda (naciągana, bo była w 2006 pierwsza tesla), to w pozostałych bajka, a teraz żeby zachować '2 letni cykl' na wykresie musieli wszystko pchnąć do przodu i na reszcie fermi i kepler się zgadzają - widocznie maxwella aż tak prędko nie zobaczymy
już poprawiona stara roadmapa.
Global to sobie moze chciec, a jak na razie to sa za TSMC.
Global to sobie moze chciec, a jak na razie to sa za TSMC.
tak? To TSMC ma już 20nm?
Bo GPU nie są już tylko do gier? A jak widać wszystkie zmiany jakich nvidia dokonuje w swoich układach mają przede wszystkim poprawić wydajność w GPGPU.
Global to sobie moze chciec, a jak na razie to sa za TSMC.
tak? To TSMC ma już 20nm?
Nie chce mi sie dokladnie sprawdzac ale kojarze ze Global byl mocno spozniony z 28nm wzgledem TSMC i przypuszczam ze podobnie bedzie z 20nm. Ogolnie oni lubia duzo obiecywac.
Swoja drogą nagle opóźnił im się wykres - ostatnio twierdzili, że tesla/fermi/kepler to 2007/2009/2011... i o ile w pierwszym przypadku tesli była to prawda (naciągana, bo była w 2006 pierwsza tesla), to w pozostałych bajka, a teraz żeby zachować '2 letni cykl' na wykresie musieli wszystko pchnąć do przodu i na reszcie fermi i kepler się zgadzają - widocznie maxwella aż tak prędko nie zobaczymy
Ostatnio czyli w 2010r? Nvidia w 2011r podała uaktualnioną Roadmapę z Fermi na 2010, Keplerem na 2012 i Maxwellem na 2014
Swoja drogą nagle opóźnił im się wykres - ostatnio twierdzili, że tesla/fermi/kepler to 2007/2009/2011...
bo jak wiekszosc sraczki dostawala, ze na pokazie nowej arch nikt im nie pokazal nowego gforca, a tylko slajdy, to zmienili. czasami lepiej ustapic.