W sumie to nawet oczekiwałem mniej. Było wiadomo, że to będzie trinity 2.0, a jednak zrobili coś z niczego. Zwiększenie taktowania pozwoli chociaż trochę mniej uciec haswellowi. AMD pokłada teraz chyba nadzieje w jaguarze i kavieri.
AMD zawsze pokłada nadzieję w tym czego jeszcze nie wydało, do momentu premiery, później zmienia obiekt pokładanych nadziei na kolejny produkt który ma się ukazać 'kiedyś tam w przyszłości' i tak w kółko....
Porozmawiamy jak Intel nauczy się pisać sterowniki tak, żeby na tych jego pseudo grafikach większość gier mogła się uruchamiać bez problemów, o bardziej zaawansowanych funkcjach już nie wspominając, jak np. ustawienie innych proporcji obrazu dla drugiego ekranu niż te z ekranu podstawowego, przy pulpicie rozszerzonym. Znając wcześniejesze 'dokonania' Intela w GPU, można się jak zawsze spodziewać tego samego, czyli kolejnych informacji na co bardziej grywalnych tytułach, że nie współpracują z integrami Intela...
Ponieważ wspomniana nauka nigdy nie będzie miała miejsca, to w zasadzie nie o czym rozmawiać
''Richland to rodzina APU zbudowanych z rdzeni Piledriver i układu graficznego DX11 drugiej generacji. Pierwszą generacją DX11 była rodzina HD 5000, drugą – HD 6000, czyli architektura VLIW4.''
Dlaczego wciąż nie ma tutaj GCN?
Ponieważ GCN zajmuje znacznie większą powierzchnię niż VLIW oraz ma dość duży pobór energii.
Za to lepiej się skaluje, ma znacznie większą wydajność w GPGPU.
Ogromny progres byłby w aplikacjach GPGPU, ze zmiennym szczęściem spadek wydajności w zadaniach graficznych. Okazja na przejście do GCN-a byłaby podczas przejścia na 28nm.
Ale tutaj AMD przeskoczyło jeden etap i nie będzie GPU w klasycznym jego rozumieniu.
Stanley @ 2013.03.12 16:17
Z całą pewnością nie jest prosto połączyć z sobą dwa różne procesy technologiczne (SOI+HKMG oraz bulk).
dokładnie tak, samo sedno, bo przecież to układ scalony wiele warstw ścieżek, inaczej skonstruowane tranzystory w obu tych procesach ich ułożenie jest odmienne, kolejne maski warstw 'instrukcje' krok po kroku podczas etapów produkcji(w soi jest mniej etapów ale wafel jest droższy) soi vs bulk to jakby najpierw namalować obraz farbami olejnymi a później próbować to samo plakatówkami na papierze
Dzięki panowie Wygląda więc na to, że architektury GCN w APU nie doczekamy się dopóki nie będą ich robili w procesie 28 nm, zgadza się?
W sumie to nawet oczekiwałem mniej. Było wiadomo, że to będzie trinity 2.0, a jednak zrobili coś z niczego. Zwiększenie taktowania pozwoli chociaż trochę mniej uciec haswellowi. AMD pokłada teraz chyba nadzieje w jaguarze i kavieri.
AMD zawsze pokłada nadzieję w tym czego jeszcze nie wydało, do momentu premiery, później zmienia obiekt pokładanych nadziei na kolejny produkt który ma się ukazać 'kiedyś tam w przyszłości' i tak w kółko....
Tym twoim wkladem, mozna zakonczyc cala dyskusje i swiatlo zgasic, ale jestem pewny, ze sie nasz Don mlopdy Kichote pojawi i bedzie wszytkiemu zaprzeczal...
W sumie to nawet oczekiwałem mniej. Było wiadomo, że to będzie trinity 2.0, a jednak zrobili coś z niczego. Zwiększenie taktowania pozwoli chociaż trochę mniej uciec haswellowi. AMD pokłada teraz chyba nadzieje w jaguarze i kavieri.
AMD zawsze pokłada nadzieję w tym czego jeszcze nie wydało, do momentu premiery, później zmienia obiekt pokładanych nadziei na kolejny produkt który ma się ukazać 'kiedyś tam w przyszłości' i tak w kółko....
W sumie to nawet oczekiwałem mniej. Było wiadomo, że to będzie trinity 2.0, a jednak zrobili coś z niczego. Zwiększenie taktowania pozwoli chociaż trochę mniej uciec haswellowi. AMD pokłada teraz chyba nadzieje w jaguarze i kavieri.
Z całą pewnością nie jest prosto połączyć z sobą dwa różne procesy technologiczne (SOI+HKMG oraz bulk).
dokładnie tak, samo sedno, bo przecież to układ scalony wiele warstw ścieżek, inaczej skonstruowane tranzystory w obu tych procesach ich ułożenie jest odmienne, kolejne maski warstw 'instrukcje' krok po kroku podczas etapów produkcji(w soi jest mniej etapów ale wafel jest droższy) soi vs bulk to jakby najpierw namalować obraz farbami olejnymi a później próbować to samo plakatówkami na papierze
''Richland to rodzina APU zbudowanych z rdzeni Piledriver i układu graficznego DX11 drugiej generacji. Pierwszą generacją DX11 była rodzina HD 5000, drugą – HD 6000, czyli architektura VLIW4.''
Dlaczego wciąż nie ma tutaj GCN?
Ponieważ GCN zajmuje znacznie większą powierzchnię niż VLIW oraz ma dość duży pobór energii.
Za to lepiej się skaluje, ma znacznie większą wydajność w GPGPU.
Do tego musieli by wypuscic na GCN dedykowane karty mobilne o podobnej wydajnosci aby mogly byc laczone w dual graphics.
''Richland to rodzina APU zbudowanych z rdzeni Piledriver i układu graficznego DX11 drugiej generacji. Pierwszą generacją DX11 była rodzina HD 5000, drugą – HD 6000, czyli architektura VLIW4.''
Dlaczego wciąż nie ma tutaj GCN?
Ponieważ GCN zajmuje znacznie większą powierzchnię niż VLIW oraz ma dość duży pobór energii.
Za to lepiej się skaluje, ma znacznie większą wydajność w GPGPU.
Ogromny progres byłby w aplikacjach GPGPU, ze zmiennym szczęściem spadek wydajności w zadaniach graficznych. Okazja na przejście do GCN-a byłaby podczas przejścia na 28nm.
Ale tutaj AMD przeskoczyło jeden etap i nie będzie GPU w klasycznym jego rozumieniu.
''Richland to rodzina APU zbudowanych z rdzeni Piledriver i układu graficznego DX11 drugiej generacji. Pierwszą generacją DX11 była rodzina HD 5000, drugą – HD 6000, czyli architektura VLIW4.''
Dlaczego wciąż nie ma tutaj GCN?
Skok wydajnosciowy w GPU wzgledem Intela bylby za duzy
A teraz Ci twoje wlasne slowa przypomne..co do Haswell
**Niewiele tych zmian, tak na moje oko. Intel dobrze robi, że nie wprowadza rewolucyjnych zmian w architekturze. Szczególnie jeśli chodzi o wydajność jednego rdzenia. Starsze aplikacje zyskają na tym, a nowe pisane już z nowymi instrukcjami będą znacznie szybsze. Z drugiej strony myślę sobie, że takie podejście chyba trochę rozleniwia programistów.**
Nowa jest nalepka....czy ci to nie wystarczy...jak ich ten Jaguar z blota nie wyciagnie to chyba beda musieli naszemu Mlodemu pensje obciac.
Znowu wycieczki osobiste kolego. Tuż żeś się najlepiej popisał http://pclab.pl/kom66732--0.html#c642462 wiec już skończ trollować. A i po Polsku proszę pisać.
Dodam ci plus , bo mnie ciebie bardzo zal jest...
AMD zawsze pokłada nadzieję w tym czego jeszcze nie wydało, do momentu premiery, później zmienia obiekt pokładanych nadziei na kolejny produkt który ma się ukazać 'kiedyś tam w przyszłości' i tak w kółko....
Porozmawiamy jak Intel nauczy się pisać sterowniki tak, żeby na tych jego pseudo grafikach większość gier mogła się uruchamiać bez problemów, o bardziej zaawansowanych funkcjach już nie wspominając, jak np. ustawienie innych proporcji obrazu dla drugiego ekranu niż te z ekranu podstawowego, przy pulpicie rozszerzonym. Znając wcześniejesze 'dokonania' Intela w GPU, można się jak zawsze spodziewać tego samego, czyli kolejnych informacji na co bardziej grywalnych tytułach, że nie współpracują z integrami Intela...
Ponieważ wspomniana nauka nigdy nie będzie miała miejsca, to w zasadzie nie o czym rozmawiać
Jako APU Intel może co najwyżej czyścić AMD socket.
Dzięki panowie
Zgadza się, zresztą nie będziesz musiał długo czekać - Kaveri (Steamroller+GCN) ma zadebiutować w IV kwartale.
Dlaczego wciąż nie ma tutaj GCN?
Ponieważ GCN zajmuje znacznie większą powierzchnię niż VLIW oraz ma dość duży pobór energii.
Za to lepiej się skaluje, ma znacznie większą wydajność w GPGPU.
Ogromny progres byłby w aplikacjach GPGPU, ze zmiennym szczęściem spadek wydajności w zadaniach graficznych. Okazja na przejście do GCN-a byłaby podczas przejścia na 28nm.
Ale tutaj AMD przeskoczyło jeden etap i nie będzie GPU w klasycznym jego rozumieniu.
dokładnie tak, samo sedno, bo przecież to układ scalony wiele warstw ścieżek, inaczej skonstruowane tranzystory w obu tych procesach ich ułożenie jest odmienne, kolejne maski warstw 'instrukcje' krok po kroku podczas etapów produkcji(w soi jest mniej etapów ale wafel jest droższy) soi vs bulk to jakby najpierw namalować obraz farbami olejnymi a później próbować to samo plakatówkami na papierze
Dzięki panowie
Nowa jest nalepka....czy ci to nie wystarczy...jak ich ten Jaguar z blota nie wyciagnie to chyba beda musieli naszemu Mlodemu pensje obciac.
Znowu wycieczki osobiste kolego. Tuż żeś się najlepiej popisał http://pclab.pl/kom66732--0.html#c642462 wiec już skończ trollować. A i po Polsku proszę pisać.
AMD zawsze pokłada nadzieję w tym czego jeszcze nie wydało, do momentu premiery, później zmienia obiekt pokładanych nadziei na kolejny produkt który ma się ukazać 'kiedyś tam w przyszłości' i tak w kółko....
Tym twoim wkladem, mozna zakonczyc cala dyskusje i swiatlo zgasic, ale jestem pewny, ze sie nasz Don mlopdy Kichote pojawi i bedzie wszytkiemu zaprzeczal...
Cos ci sie pomylilo i to grubo...
AMD zawsze pokłada nadzieję w tym czego jeszcze nie wydało, do momentu premiery, później zmienia obiekt pokładanych nadziei na kolejny produkt który ma się ukazać 'kiedyś tam w przyszłości' i tak w kółko....
AMD nie robi tego z automatu ?
dokładnie tak, samo sedno, bo przecież to układ scalony wiele warstw ścieżek, inaczej skonstruowane tranzystory w obu tych procesach ich ułożenie jest odmienne, kolejne maski warstw 'instrukcje' krok po kroku podczas etapów produkcji(w soi jest mniej etapów ale wafel jest droższy) soi vs bulk to jakby najpierw namalować obraz farbami olejnymi a później próbować to samo plakatówkami na papierze
Jest przecie 384 GCN-owe GPU od jakiegoś czasu
Dlaczego wciąż nie ma tutaj GCN?
Ponieważ GCN zajmuje znacznie większą powierzchnię niż VLIW oraz ma dość duży pobór energii.
Za to lepiej się skaluje, ma znacznie większą wydajność w GPGPU.
Do tego musieli by wypuscic na GCN dedykowane karty mobilne o podobnej wydajnosci aby mogly byc laczone w dual graphics.
Dlaczego wciąż nie ma tutaj GCN?
Ponieważ GCN zajmuje znacznie większą powierzchnię niż VLIW oraz ma dość duży pobór energii.
Za to lepiej się skaluje, ma znacznie większą wydajność w GPGPU.
Ogromny progres byłby w aplikacjach GPGPU, ze zmiennym szczęściem spadek wydajności w zadaniach graficznych. Okazja na przejście do GCN-a byłaby podczas przejścia na 28nm.
Ale tutaj AMD przeskoczyło jeden etap i nie będzie GPU w klasycznym jego rozumieniu.
Dlaczego wciąż nie ma tutaj GCN?
Skok wydajnosciowy w GPU wzgledem Intela bylby za duzy
A teraz Ci twoje wlasne slowa przypomne..co do Haswell
**Niewiele tych zmian, tak na moje oko. Intel dobrze robi, że nie wprowadza rewolucyjnych zmian w architekturze. Szczególnie jeśli chodzi o wydajność jednego rdzenia. Starsze aplikacje zyskają na tym, a nowe pisane już z nowymi instrukcjami będą znacznie szybsze. Z drugiej strony myślę sobie, że takie podejście chyba trochę rozleniwia programistów.**
Moralnosc Kalego sie to nazywa
Nowa jest nalepka....czy ci to nie wystarczy...jak ich ten Jaguar z blota nie wyciagnie to chyba beda musieli naszemu Mlodemu pensje obciac.