W sumie to mało vs SB-E, 3x.... Jak weźmiemy nie DDR3-1600, a szybsze i jeszcze OC różnica się zmniejszy do <3x.
Ale to nie ma większego wpływu na wydajność CPU... GPU tak.. Nie ma sensu wprowadzać tego do komputerów ze względu na CPU ponieważ jest wydajniejsze Trinity. Gry puki co na PC mają zupełnie inną charakterystykę i wymagają mocnego procesora.
Za to GPU inna sprawa. Takie jest mile widziane. Znowu, PC to nie konsola i niestety trzeba mocnego CPU.
Współdzielna pamięć w tym przypadku ma inne znaczenie i jednak podnosi wydajność całego układu.
Po prostu nie jest potrzebne wrzucanie oddzielnie danych dla CPU i GPU (jak w Llano czy Trinity) zaś wrzuca raz i oba elementy maja do nich dostęp jednocześnie. W praktyce nie zapycha się bezpotrzebnie ramu zdublowanymi danymi.
W przypadku PC jednak nie obniża wydajności. Co do zapychania RAM-u... 16GB RAMu to grosze.
Czy aby w na pewno w Trinity/Llano nie ma potrzeby wrzucania oddzielnie danych dla CPU/GPU
Chętnie bym kupił laptopa z wlutowanym procesorem AMD od PS4 i 8 GB DDR5 - czego chcieć więcej?
Będzie śmiesznie jeśli okaże się że porty z PS4 na takim laptopie albo desktopie będą działały znacznie lepiej niż na najdroższym i7 z GeForce Titan, gdyż zastosowane techniki optymalizacji nie będą efektywnie działać na pececie. Na przykład proceduralne, dynamicznie tworzone przez CPU tekstury na pececie będą kopiowane do pamięci karty graficznej,a na PS4 nie. Podobnie przetwarzanie danych znajdujących się w pamięci operacyjnej przez jednostki obliczeniowe GPU będzie odbywać się bez opóźnień związanych z kopiowaniem tych danych tam i z powrotem.
Dziwie sie ze jeszcze czegos takiego niezastosowali, przeciez kostki sa male i nie trzeba ich chlodzic, wiec mogly by na rewersie plyty byc przylutowane, tam nadmiar wolnego miejsca... 1GB by duzo kosztu plyt nie zwiekszyl, za to wydajnosc juz tak.
AMD powinno pomyśleć o podobnym rozwiązaniu kwestii przepustowości pamięci w swoich mobilnych i desktopowych APU, które właśnie przez wolną pamięć nie działają tak szybko jak powinny.
Mogliby np. wlutowywać w płytę główną pamięci GDDR5 z których korzystał by IGP. Coś jak dawny 'side port' tyle, że znacznie szybszy.
Warto zauważyć, że jest to aż sześciokrotnie więcej niż w przypadku przepustowości interfejsu RAM w procesorach Intel Core i7 ('Ivy Bridge", działających dwukanałowo z modułami DDR3-1600.
W przypadku s2011 dostępny jest jeszcze quad channel, wtedy różnica robi się tylko trzykrotna. A po zastosowaniu modułów 2400 w miejsce 1600, różnica jest już tylko dwukrotna.
I jakie to ma dokladnie znaczenie, ze wspoldzielona pamiec w ps4 jest 6-7 krotnie szybsza niz RAM w PC ? Skoro juz od dawna szybkosc RAM'u ma najmniejszy wplyw na wydajnosc graficzna calego systemu .
Rozumiem, ze reszta komponentow nie 'powala' - szczegolnie jesli patrzec na to przez pryzmat wykorzystania tej konsoli przez nastepne 6-8 lat - stad walkowany jest cud wspoldzielonego GDDR5 - zupelnie jakby na obecnych kartach graficznych nie znajdowaly sie takie same uklady.
Marketingowy bullshit .
to zrób test na apu i wtedy może podyskutujemy. Zwiększanie taktowania samych pamięci w przypadku apu z 1333mhz do 1800mhz daje bardzo liniowy wzrost wydajności, a nie ruszamy nawet zegara.
A jeżeli o samą współdzieloną pamięć chodzi, to ma to wiele zalet, bo nie trzeba tego samego kopiować po 2 razy jak i cpu ma dostęp do tych samych danych. To, że przyspieszając ram wydajność w grach nie wzrasta nie jest niczym nadzwyczajnym - w końcu opóźnienia pomiędzy ramem i pci-e są tak ogromne, że nawet jak zwiększymy zegar pamięci o 50% czy też przepustowość pci-e to dużej różnicy to nie zrobi.
'...256-bitowej szyny danych pamięci RAM, co w połączeniu z układami GDDR5 daje mu przepustowość na poziomie aż 176 GB/s...'. Czyli wiemy z jaką częstotliwością pracuje pamięć w konsoli (~4,8GHz efektywnie).
Zacytowałeś jeden fragment, a tak naprawdę w obliczeniach brałeś po uwagę tylko drugi:
Warto zauważyć, że jest to aż sześciokrotnie więcej niż w przypadku przepustowości interfejsu RAM w procesorach Intel Core i7 ('Ivy Bridge", działających dwukanałowo z modułami DDR3-1600.
Żeby wyszło 176 GB/s, efektywna częstotliwość pamięci musi wynosić dokładnie 5,5 GHz, czyli będzie to tak naprawdę nie sześciokrotnie, a prawie siedmiokrotnie więcej niż dla wspomnianych w newsie pamięci DDR3 (1600 MHz) działających w trybie dwukanałowym.
Hmm... Sorki, ale błąd poprawiony o 21:57, Twój komentarz napisałeś o 22:04, tak więc masz nieco opóźniony zapłon
Miło jednak, że pokazałeś innym jak się to liczy .
I jakie to ma dokladnie znaczenie, ze wspoldzielona pamiec w ps4 jest 6-7 krotnie szybsza niz RAM w PC ? Skoro juz od dawna szybkosc RAM'u ma najmniejszy wplyw na wydajnosc graficzna calego systemu .
Rozumiem, ze reszta komponentow nie 'powala' - szczegolnie jesli patrzec na to przez pryzmat wykorzystania tej konsoli przez nastepne 6-8 lat - stad walkowany jest cud wspoldzielonego GDDR5 - zupelnie jakby na obecnych kartach graficznych nie znajdowaly sie takie same uklady.
Jak sprawa z DDR4 się w tej chwili przedstawia? Kiedy ktoś wprowadza i jak z wydajnością? Szkoda że xdr2 wszyscy olewają.
DDR4 mają zagościć u Intela w platformie dla entuzjastów - Haswell-E/EP (2014 r.). Dla zwykłych śmiertelników powinny być dostępne od 2015 r. razem z architekturą Skylake (po Haswell/ Broadwell). O AMD chyba nic nie słychać, ale na pewno DDR4 są dla nich równie ważne - większa przepustowość pamięci przyda się głównie w APU.
Z niedawno opublikowanego standardu DDR4 wynika, że otrzymamy moduły o częstotliwości efektywnej 1600-3200 MHz, ale po pewnym czasie raczej pojawią się i sporo szybsze (standard DDR3 określał taktowania na 800-1600 MHz, a wiadomo jakie można dostać na rynku).
slavkozz @ 2013.02.28 22:53
Najważniejsze pytanie - czy AMD wykorzysta tę cenną wiedzę i stworzy jakiś wydajny układzik do pecetów, którym podogoni uciekającego Intela?
Przecież to całkiem inny target, Jaguar to architektura z założenia oszczędna, a nie jakoś szczególnie wydajna. Przed nią są oczywiście procesory oparte o architekturę modułową i to ewentualnie nimi AMD może w przyszłości powalczyć z Intelem. Mówię oczywiście o wydajności samego CPU, bo jest jeszcze kwestia jak rozwinie się to całe HSA.
W sumie to mało vs SB-E, 3x.... Jak weźmiemy nie DDR3-1600, a szybsze i jeszcze OC różnica się zmniejszy do <3x.
Ale to nie ma większego wpływu na wydajność CPU... GPU tak.. Nie ma sensu wprowadzać tego do komputerów ze względu na CPU ponieważ jest wydajniejsze Trinity. Gry puki co na PC mają zupełnie inną charakterystykę i wymagają mocnego procesora.
Za to GPU inna sprawa. Takie jest mile widziane. Znowu, PC to nie konsola i niestety trzeba mocnego CPU.
Współdzielna pamięć w tym przypadku ma inne znaczenie i jednak podnosi wydajność całego układu.
Po prostu nie jest potrzebne wrzucanie oddzielnie danych dla CPU i GPU (jak w Llano czy Trinity) zaś wrzuca raz i oba elementy maja do nich dostęp jednocześnie. W praktyce nie zapycha się bezpotrzebnie ramu zdublowanymi danymi.
W sumie to mało vs SB-E, 3x.... Jak weźmiemy nie DDR3-1600, a szybsze i jeszcze OC różnica się zmniejszy do <3x.
Ale to nie ma większego wpływu na wydajność CPU... GPU tak.. Nie ma sensu wprowadzać tego do komputerów ze względu na CPU ponieważ jest wydajniejsze Trinity. Gry póki co na PC mają zupełnie inną charakterystykę i wymagają mocnego procesora.
Za to GPU inna sprawa. Takie jest mile widziane. Znowu, PC to nie konsola i niestety trzeba mocnego CPU.
Ciekawy news, szczególnie dla tych którzy pierdzielą bez sensu o słabości podzespołów nowego PS4 nie wnikając w szczegóły jego budowy.
Bo podzespoly nie sa mocne a pamiec jest wspoldzielona przez CPU i GPU Dzisiejsza przepustowosc pamieci na GPU w PC dochodzi do 300GB/s więc nie ma czym sie jarać w przypadku PS4
W porównaniu do dzisiejszych PC miał byś racje. Ale nie zapominaj że największa wadą komputerów jest ich zaleta - Uniwersalność. Muszą dźwigać zasobożerny system.
Chodź współdzielność pamięci jak w PS4 może przynieść spory przyrost wydajności.
Przecież to bardziej prawdopodobne, że będzie to jednolita platforma gdzie ilość pamięci była by z góry ustalona bez możliwości rozszerzenia, niż żeby ograniczali się do 2 kanałów ddr3, bo wtedy gpu będzie się marnował. A 4 kanały były by co najmniej wątpliwe.
Przeczytałem to 3x i rozumiem
Przeczytałem to 3x i rozumiem
Po prostu nie jest potrzebne wrzucanie oddzielnie danych dla CPU i GPU (jak w Llano czy Trinity)
Czy aby w na pewno w Trinity/Llano nie ma potrzeby wrzucania oddzielnie danych dla CPU/GPU
Dokładnie to napisałem...
W sumie to mało vs SB-E, 3x.... Jak weźmiemy nie DDR3-1600, a szybsze i jeszcze OC różnica się zmniejszy do <3x.
Ale to nie ma większego wpływu na wydajność CPU... GPU tak.. Nie ma sensu wprowadzać tego do komputerów ze względu na CPU ponieważ jest wydajniejsze Trinity. Gry puki co na PC mają zupełnie inną charakterystykę i wymagają mocnego procesora.
Za to GPU inna sprawa. Takie jest mile widziane. Znowu, PC to nie konsola i niestety trzeba mocnego CPU.
Współdzielna pamięć w tym przypadku ma inne znaczenie i jednak podnosi wydajność całego układu.
Po prostu nie jest potrzebne wrzucanie oddzielnie danych dla CPU i GPU (jak w Llano czy Trinity) zaś wrzuca raz i oba elementy maja do nich dostęp jednocześnie. W praktyce nie zapycha się bezpotrzebnie ramu zdublowanymi danymi.
W przypadku PC jednak nie obniża wydajności. Co do zapychania RAM-u... 16GB RAMu to grosze.
Czy aby w na pewno w Trinity/Llano nie ma potrzeby wrzucania oddzielnie danych dla CPU/GPU
Będzie śmiesznie jeśli okaże się że porty z PS4 na takim laptopie albo desktopie będą działały znacznie lepiej niż na najdroższym i7 z GeForce Titan, gdyż zastosowane techniki optymalizacji nie będą efektywnie działać na pececie. Na przykład proceduralne, dynamicznie tworzone przez CPU tekstury na pececie będą kopiowane do pamięci karty graficznej,a na PS4 nie. Podobnie przetwarzanie danych znajdujących się w pamięci operacyjnej przez jednostki obliczeniowe GPU będzie odbywać się bez opóźnień związanych z kopiowaniem tych danych tam i z powrotem.
Mogliby np. wlutowywać w płytę główną pamięci GDDR5 z których korzystał by IGP. Coś jak dawny 'side port' tyle, że znacznie szybszy.
W przypadku s2011 dostępny jest jeszcze quad channel, wtedy różnica robi się tylko trzykrotna. A po zastosowaniu modułów 2400 w miejsce 1600, różnica jest już tylko dwukrotna.
Rozumiem, ze reszta komponentow nie 'powala' - szczegolnie jesli patrzec na to przez pryzmat wykorzystania tej konsoli przez nastepne 6-8 lat - stad walkowany jest cud wspoldzielonego GDDR5 - zupelnie jakby na obecnych kartach graficznych nie znajdowaly sie takie same uklady.
Marketingowy bullshit
A jeżeli o samą współdzieloną pamięć chodzi, to ma to wiele zalet, bo nie trzeba tego samego kopiować po 2 razy jak i cpu ma dostęp do tych samych danych. To, że przyspieszając ram wydajność w grach nie wzrasta nie jest niczym nadzwyczajnym - w końcu opóźnienia pomiędzy ramem i pci-e są tak ogromne, że nawet jak zwiększymy zegar pamięci o 50% czy też przepustowość pci-e to dużej różnicy to nie zrobi.
Zacytowałeś jeden fragment, a tak naprawdę w obliczeniach brałeś po uwagę tylko drugi:
(1600 MHz * 128 bit)/8 = ~ 25,6 GB/s
(4800 MHz * 256 bit)/8 = ~153,6 GB/s
Żeby wyszło 176 GB/s, efektywna częstotliwość pamięci musi wynosić dokładnie 5,5 GHz, czyli będzie to tak naprawdę nie sześciokrotnie, a prawie siedmiokrotnie więcej niż dla wspomnianych w newsie pamięci DDR3 (1600 MHz) działających w trybie dwukanałowym.
Miło jednak, że pokazałeś innym jak się to liczy
Rozumiem, ze reszta komponentow nie 'powala' - szczegolnie jesli patrzec na to przez pryzmat wykorzystania tej konsoli przez nastepne 6-8 lat - stad walkowany jest cud wspoldzielonego GDDR5 - zupelnie jakby na obecnych kartach graficznych nie znajdowaly sie takie same uklady.
Marketingowy bullshit
DDR4 mają zagościć u Intela w platformie dla entuzjastów - Haswell-E/EP (2014 r.). Dla zwykłych śmiertelników powinny być dostępne od 2015 r. razem z architekturą Skylake (po Haswell/ Broadwell). O AMD chyba nic nie słychać, ale na pewno DDR4 są dla nich równie ważne - większa przepustowość pamięci przyda się głównie w APU.
Z niedawno opublikowanego standardu DDR4 wynika, że otrzymamy moduły o częstotliwości efektywnej 1600-3200 MHz, ale po pewnym czasie raczej pojawią się i sporo szybsze (standard DDR3 określał taktowania na 800-1600 MHz, a wiadomo jakie można dostać na rynku).
Przecież to całkiem inny target, Jaguar to architektura z założenia oszczędna, a nie jakoś szczególnie wydajna. Przed nią są oczywiście procesory oparte o architekturę modułową i to ewentualnie nimi AMD może w przyszłości powalczyć z Intelem. Mówię oczywiście o wydajności samego CPU, bo jest jeszcze kwestia jak rozwinie się to całe HSA.
W sumie to mało vs SB-E, 3x.... Jak weźmiemy nie DDR3-1600, a szybsze i jeszcze OC różnica się zmniejszy do <3x.
Ale to nie ma większego wpływu na wydajność CPU... GPU tak.. Nie ma sensu wprowadzać tego do komputerów ze względu na CPU ponieważ jest wydajniejsze Trinity. Gry puki co na PC mają zupełnie inną charakterystykę i wymagają mocnego procesora.
Za to GPU inna sprawa. Takie jest mile widziane. Znowu, PC to nie konsola i niestety trzeba mocnego CPU.
Współdzielna pamięć w tym przypadku ma inne znaczenie i jednak podnosi wydajność całego układu.
Po prostu nie jest potrzebne wrzucanie oddzielnie danych dla CPU i GPU (jak w Llano czy Trinity) zaś wrzuca raz i oba elementy maja do nich dostęp jednocześnie. W praktyce nie zapycha się bezpotrzebnie ramu zdublowanymi danymi.
Nie wiem o co chodzi z tą puką, mógłbyś przybliżyć?
W sumie to mało vs SB-E, 3x.... Jak weźmiemy nie DDR3-1600, a szybsze i jeszcze OC różnica się zmniejszy do <3x.
Ale to nie ma większego wpływu na wydajność CPU... GPU tak.. Nie ma sensu wprowadzać tego do komputerów ze względu na CPU ponieważ jest wydajniejsze Trinity. Gry póki co na PC mają zupełnie inną charakterystykę i wymagają mocnego procesora.
Za to GPU inna sprawa. Takie jest mile widziane. Znowu, PC to nie konsola i niestety trzeba mocnego CPU.
Bo podzespoly nie sa mocne a pamiec jest wspoldzielona przez CPU i GPU Dzisiejsza przepustowosc pamieci na GPU w PC dochodzi do 300GB/s więc nie ma czym sie jarać w przypadku PS4
W porównaniu do dzisiejszych PC miał byś racje. Ale nie zapominaj że największa wadą komputerów jest ich zaleta - Uniwersalność. Muszą dźwigać zasobożerny system.
Chodź współdzielność pamięci jak w PS4 może przynieść spory przyrost wydajności.