Osobiście czekam aż AMD wypuści na rynek apu podobne do tego z ps4 czy xboxa .
Mam na myśli 4 modułowe cpu + gpu min. pokroju hd7790 + mantel i te inne bajery, wtedy kupuję. Ale pewnie na takie coś jeszcze długo poczekam.
Czemu nadal nie ma w zapowiedziach godnego następcy FX 8350 ?
10 min wcześniej kolega odpowiedział. Ta platforma przestaje istanieć. Serwerowe procesory Warsaw to stara generacja, która nie ma następcy. Teraz będziesz miał mniej rdzeni, mniejszą wydajność CPU, ale dodatkowo GPU.
Bardzo dobry kierunek AMD obrało jeżeli nowe procesory będą wydajniejsze od Haswella...
Albo jeżeli AMD zrobi tanią platformę dwuprocesorową.
ktoś gdzieś tu pisał że AMD całkowicie porzuciło projekty nad zwykłymi CPU i skupia się na APU więc będą już tylko rozwijane i modyfikowane procesory z iGPU.
Wiesz jak pisałem ciężko znaleźć...
Jak widać nawet GPU na PCI-E 1.1 x8 (sic!) dają radę, a teorii PCI-E 3.0 powinno bardzo pomóc, bo znacząco poprawia....
... poprawia i co i nie ma to znaczenia. W teorii PCI-E 3.0 x4 powinno być szybsze od PCI-E 1.1 x16 ( krótszy czas dostępu jak pamiętam)
Rage teorii powinno, ale przemaglowałem tą grę nieźle. Może podczas premiery tak było, bo AMD uwaliło stery przez wakacje, ale potem wyszedł i patch do gry i stery i miech później gra chodziła miodzio.
Czy mógłbyś podać tytuły gier w których widać wzrost wydajności ze względu na zastosowanie interfejsu 3.0. Ostatnio była dyskusja i nie potrafiłem wsakazać żadnego tytułu.
Wątpię, żeby istniał taki tytuł (...no ewentualnie Rage czasami, bo streamuje megatekstury... ale wątpię). Ogólnie gry muszą przepustowość dostosować do minimalnej przepustowości na platformie (a że wymogiem minimum są albo GPU, albo plyty z PCI-E 2.0 to raczej nie robi się gier wymagających większej przepustowości).
ozox @ 2013.11.18 21:34
Tyle że 256MB pamięci dla procka to już dla niego za mało a co dopiero pożyczać jeszcze GPU i tracić cykle zegara na wymianę danych.
256MB ram to wcale nie tak mało na urządzeniach wbudowanych, a w sposobie wykorzystania procesora jako pixelshadera (jak w większości gier PS3) wystarczy kilka kilka/kilkanaście MB (ale bez opóźnień). W wypadku gier które streamują dane (tekstury, siatki...) też stosuje się buffor w pamięci CPU (ładuje się z dysku do pamięci ram CPU, i już się wyświetla, a jeśli jest miejsce przesyła się do pamięci GPU i po kilku sec pamięć cpu jest spowrotem zwolniona na inne zadania).
Fujiyama @ 2013.11.18 22:18
Najistotniejsze jest zwiększenie ilości renderowanych obiektów w scenie, które dzięki Mantle może wzrosnąć z 10 tys. nawet do 100 tys.
Wszystko spoko, tylko o ile w DX jest olbrzymi narzut i 10k drawcali to problem, ale na dużo więcej pozwala OpenGL i blisko milion drawcalli na klatkę jest możliwe u AMD (tu masz art twórcy sterowników OpenGL z AMD http://www.openglsuperbible.com/2013/10/16...-million-draws/ ), a sterowniki Nvidii pozwalają na znacznie więcej.
Ogólnie względem DirectX (który bardzo mocno ogranicza ilość drawcalli) jest to postęp, ale względem OpenGL, jest to raczej kiepski wynik.
Testy pokazały, że FX8350 z zegarem obniżonym do 2GHz osiąga taką samą wydajność jak i4770 na normalnej prędkości, czyli CPU przestało zaniżać wydajność GPU.
Chyba w teście graficznym, chociaż i tak byłoby to wątpliwe .
Mantle oferuje 20% wzrostu FPS przy obniżeniu wymaganej mocy CPU.
Testy pokazały, że FX8350 z zegarem obniżonym do 2GHz osiąga taką samą wydajność jak i4770 na normalnej prędkości, czyli CPU przestało zaniżać wydajność GPU. Będzie można grać używając i3/FX-a/Kaveri etc.
Najistotniejsze jest zwiększenie ilości renderowanych obiektów w scenie, które dzięki Mantle może wzrosnąć z 10 tys. nawet do 100 tys.
To są wyniki, które są nieoficjalne, ale można je znaleźć w sieci jak się wie gdzie szukać.
Mantle oferuje 20% wzrostu FPS przy obniżeniu wymaganej mocy CPU.
Testy pokazały, że FX8350 z zegarem obniżonym do 2GHz osiąga taką samą wydajność jak i4770 na normalnej prędkości, czyli CPU przestało zaniżać wydajność GPU. Będzie można grać używając i3/FX-a/Kaveri etc.
Najistotniejsze jest zwiększenie ilości renderowanych obiektów w scenie, które dzięki Mantle może wzrosnąć z 10 tys. nawet do 100 tys.
To są wyniki, które są nieoficjalne, ale można je znaleźć w sieci jak się wie gdzie szukać.
Bez przesady z tą przepustowością XDR to nie eDRAM z Xboxa (256GB/s) ma jedynie 25,6 GB/s co na dzisiejsze czasy to śmieszna wartość.
Na nadchodzące konsole to śmieszna wartość, ale mówimy zdaje się o Mantle i PC, a tu w najszybszym obecnie PCI-E x16 w wersji 3.0 osiąga niecałe 16GB/s (w czasie wydawania tamtych konsol 4GB/s), a ciężko zapomnieć o opóźnieniach PCI-E, a pamięci DDR3-1600 osiągają 12GB/s (w czasie wydawania konsol DDR2 800 to około 6GB/s). Ogólnie ciężko porównywać to co można było robić z tym transferem na konsolach, a z PC, tak jak teraz te 16GB/s PCI-Ex16 3.0 wygląda śmiesznie przy nowych konsolach i mantle tego nie nadrobi (nie, że Mantle czy niskopoziomowe rozszerzenia OpenGL to zły kierunek, ale po prostu rozwiązań sprzętowych nie zastąpią).
GPU w PS3 miała komunikację w kierunku Cella 15GB/s (w drugim kierunku 20GB/s), PS4 ma komunikację między CPU a GPU 20GB/s, więc jak widzisz dużo się po tych 7 latach nie zmieniło. http://cdn.pcper.com/files/imagecache/arti...rchitecture.png
ozox @ 2013.11.18 19:41
Tylko w X360 pamięć jest współdzielona, w PS3 grafika ma 256MB GDDR3 22.4 GB/s.
W PS3 są 2x pamięci - RSX ma dostęp do włąsnej dedykowanej pamięci, ale ma porównywalnie szybki dostęp do pamięci procesora przez Cell FlexIO
Tyle że 256MB pamięci dla procka to już dla niego za mało a co dopiero pożyczać jeszcze GPU i tracić cykle zegara na wymianę danych.
Czy mógłbyś podać tytuły gier w których widać wzrost wydajności ze względu na zastosowanie interfejsu 3.0. Ostatnio była dyskusja i nie potrafiłem wsakazać żadnego tytułu.
Super, że coś czego nie ma na slajdach. Pytanie ile TDP w IDLE.... Bo ja 4.5W super stresie to dobry wynik w sam raz dla Tabletu, a nawet phabletu. Wreszcie AMD ma układ dość dobry.
Jeżeli 1W w IDLE, podczas oglądania filmów, wyświetlaniem strony (w sensie nic się nie dzieje) to źle... mamy podane 2.5W SDP.
Jednym z największych usprawnień w obu nowych SoC-ach będzie najprawdopodobniej wspomniany agresywny tryb turbo, z możliwością przesuwania budżetu energetycznego między CPU a GPU.
Co trochę martwi przy testach Androida. pisilabuś kochany użyje X benchmarka na GPU-> będzie turbo GPU, użyje Y benchmarka na CPU-> będzie turbo. W realnej grze będzie lipa.
Wreszcie, jakiś artykuł na temat MANTLE napisany z odrobiną zrozumienia, bo poprzednie artykuły były kompromitujące dla pclab.
Przydałoby się jeszcze dodać, MANTLE będzie też chodził na komputerze z procesorem Intela i grafiką AMD.
w artykule pada też zdanie:
'Można też renderować jeden obraz z użyciem więcej niż czterech GPU, choć taki scenariusz użytkowania został wspomniany tylko w odniesieniu do stacji roboczych i pewnie nie da się zastosować w grach.'
Na jakiej podstawie podstawie został sformułowany taki wniosek?
Więcej kart graficznych to dla MANTLE po prostu więcej GCN'ów, nie widzę powodów ani biznesowych, ani technologicznych, żeby stawiać jakieś sztuczne bariery dla MANTLA.
W końcu w interesie AMD jest sprzedać jak najwięcej kart graficznych, i jest sporo płyt głównych które umożliwiają instalacje kilku kart graficznych, ograniczanie MANTLA to mniej sprzedanych kart graficznych.
Dopóki autor ogranicza się do tłumaczenia materiałów reklamowych, jest OK, ale kiedy próbuje formułować jakieś własne wnioski... zupełny brak logiki.
-----------------------------------------------------------------------------------------------------------
Jak się porównuje 4 rdzeniowego Jaguara i 2 modułowego steamrollera, od razu widać, że niskonapięciowe wersje steamrollera powinny zjadać na śniadanie najmocniejsze wersje Jaguara. Wystarczy popatrzeć na obrazek z danymi na TDP, widać nakładające się TDP.
Ciekawe czy Kaveri będzie w stanie pobić Intelowskiego core i3 ?
Niezależnie czy APU Kaveri będzie lepsze od i3, czy nie, cenny laptopów w tym ultrabooków powinny trochę spaść.
Bez przesady z tą przepustowością XDR to nie eDRAM z Xboxa (256GB/s) ma jedynie 25,6 GB/s co na dzisiejsze czasy to śmieszna wartość.
Na nadchodzące konsole to śmieszna wartość, ale mówimy zdaje się o Mantle i PC, a tu w najszybszym obecnie PCI-E x16 w wersji 3.0 osiąga niecałe 16GB/s (w czasie wydawania tamtych konsol 4GB/s), a ciężko zapomnieć o opóźnieniach PCI-E, a pamięci DDR3-1600 osiągają 12GB/s (w czasie wydawania konsol DDR2 800 to około 6GB/s). Ogólnie ciężko porównywać to co można było robić z tym transferem na konsolach, a z PC, tak jak teraz te 16GB/s PCI-Ex16 3.0 wygląda śmiesznie przy nowych konsolach i mantle tego nie nadrobi (nie, że Mantle czy niskopoziomowe rozszerzenia OpenGL to zły kierunek, ale po prostu rozwiązań sprzętowych nie zastąpią).
ozox @ 2013.11.18 19:41
Tylko w X360 pamięć jest współdzielona, w PS3 grafika ma 256MB GDDR3 22.4 GB/s.
W PS3 są 2x pamięci - RSX ma dostęp do włąsnej dedykowanej pamięci, ale ma porównywalnie szybki dostęp do pamięci procesora przez Cell FlexIO
piobzo @ 2013.11.18 19:33
No w końcu na xboxie też jest dx, więc siłą rzeczy musi być tworzony i rozwijany pod kontem optymalności
Na Xbox masz coś ala DirectX, ale z Low-Level API Constructs (czyli takim Mantle), dającym bardzo niskopoziomowy dostęp, czego na PC nie uświadczysz (jedynie w nowych OpenGL (który przez kilka ostatnich lat wyrzucał wszystko co stare, a dodawał nowe API jak najbliżej sprzętu) i Mantle).
To Mantle brzmi jakby miało dać 50% kopa,a prawda jest taka, że to nadmuchany balonik, który w najlepszym wypadku przy złożonym kodzie gry przyśpieszy może o 5-8%. Bo nie wierzę, że DX jest tak zafajdany, że knoci wydajność procesorów graficznych o nie wiadomo ile. Bez przesady.
Pewno że daje. To się nazywa write to the metal, jak w ps3 libgcm. Jakby mogli na xbox360 wyrzucić DX to by to zrobili żeby wyciągnąć maksimum(komuś się to ponoć udało). Fakt faktem że tracisz wtedy dx jako platformę.
Mantel to i tak moim zdaniem nie wypał. Lepiej zrobić nowszą wersję opengl gdzie amd doda takie rozszerzenia jak nvidia, poprawi implementację ogl u siebie i wiele gorzej nie będzie albo tak samo albo i lepiej.. A ludzie znają,soft pod to jest itd.
Mam na myśli 4 modułowe cpu + gpu min. pokroju hd7790 + mantel i te inne bajery, wtedy kupuję. Ale pewnie na takie coś jeszcze długo poczekam.
10 min wcześniej kolega odpowiedział. Ta platforma przestaje istanieć. Serwerowe procesory Warsaw to stara generacja, która nie ma następcy. Teraz będziesz miał mniej rdzeni, mniejszą wydajność CPU, ale dodatkowo GPU.
Bardzo dobry kierunek AMD obrało jeżeli nowe procesory będą wydajniejsze od Haswella...
Albo jeżeli AMD zrobi tanią platformę dwuprocesorową.
Jak widać nawet GPU na PCI-E 1.1 x8 (sic!) dają radę, a teorii PCI-E 3.0 powinno bardzo pomóc, bo znacząco poprawia....
... poprawia i co i nie ma to znaczenia. W teorii PCI-E 3.0 x4 powinno być szybsze od PCI-E 1.1 x16 ( krótszy czas dostępu jak pamiętam)
Rage teorii powinno, ale przemaglowałem tą grę nieźle. Może podczas premiery tak było, bo AMD uwaliło stery przez wakacje, ale potem wyszedł i patch do gry i stery i miech później gra chodziła miodzio.
Wątpię, żeby istniał taki tytuł (...no ewentualnie Rage czasami, bo streamuje megatekstury... ale wątpię). Ogólnie gry muszą przepustowość dostosować do minimalnej przepustowości na platformie (a że wymogiem minimum są albo GPU, albo plyty z PCI-E 2.0 to raczej nie robi się gier wymagających większej przepustowości).
256MB ram to wcale nie tak mało na urządzeniach wbudowanych, a w sposobie wykorzystania procesora jako pixelshadera (jak w większości gier PS3) wystarczy kilka kilka/kilkanaście MB (ale bez opóźnień). W wypadku gier które streamują dane (tekstury, siatki...) też stosuje się buffor w pamięci CPU (ładuje się z dysku do pamięci ram CPU, i już się wyświetla, a jeśli jest miejsce przesyła się do pamięci GPU i po kilku sec pamięć cpu jest spowrotem zwolniona na inne zadania).
Wszystko spoko, tylko o ile w DX jest olbrzymi narzut i 10k drawcali to problem, ale na dużo więcej pozwala OpenGL i blisko milion drawcalli na klatkę jest możliwe u AMD (tu masz art twórcy sterowników OpenGL z AMD http://www.openglsuperbible.com/2013/10/16...-million-draws/ ), a sterowniki Nvidii pozwalają na znacznie więcej.
Ogólnie względem DirectX (który bardzo mocno ogranicza ilość drawcalli) jest to postęp, ale względem OpenGL, jest to raczej kiepski wynik.
Testy pokazały, że FX8350 z zegarem obniżonym do 2GHz osiąga taką samą wydajność jak i4770 na normalnej prędkości, czyli CPU przestało zaniżać wydajność GPU.
Chyba w teście graficznym, chociaż i tak byłoby to wątpliwe
Testy pokazały, że FX8350 z zegarem obniżonym do 2GHz osiąga taką samą wydajność jak i4770 na normalnej prędkości, czyli CPU przestało zaniżać wydajność GPU. Będzie można grać używając i3/FX-a/Kaveri etc.
Najistotniejsze jest zwiększenie ilości renderowanych obiektów w scenie, które dzięki Mantle może wzrosnąć z 10 tys. nawet do 100 tys.
To są wyniki, które są nieoficjalne, ale można je znaleźć w sieci jak się wie gdzie szukać.
Brzmi interesująco. Rzuć linkiem
Testy pokazały, że FX8350 z zegarem obniżonym do 2GHz osiąga taką samą wydajność jak i4770 na normalnej prędkości, czyli CPU przestało zaniżać wydajność GPU. Będzie można grać używając i3/FX-a/Kaveri etc.
Najistotniejsze jest zwiększenie ilości renderowanych obiektów w scenie, które dzięki Mantle może wzrosnąć z 10 tys. nawet do 100 tys.
To są wyniki, które są nieoficjalne, ale można je znaleźć w sieci jak się wie gdzie szukać.
Na nadchodzące konsole to śmieszna wartość, ale mówimy zdaje się o Mantle i PC, a tu w najszybszym obecnie PCI-E x16 w wersji 3.0 osiąga niecałe 16GB/s (w czasie wydawania tamtych konsol 4GB/s), a ciężko zapomnieć o opóźnieniach PCI-E, a pamięci DDR3-1600 osiągają 12GB/s (w czasie wydawania konsol DDR2 800 to około 6GB/s). Ogólnie ciężko porównywać to co można było robić z tym transferem na konsolach, a z PC, tak jak teraz te 16GB/s PCI-Ex16 3.0 wygląda śmiesznie przy nowych konsolach i mantle tego nie nadrobi (nie, że Mantle czy niskopoziomowe rozszerzenia OpenGL to zły kierunek, ale po prostu rozwiązań sprzętowych nie zastąpią).
GPU w PS3 miała komunikację w kierunku Cella 15GB/s (w drugim kierunku 20GB/s), PS4 ma komunikację między CPU a GPU 20GB/s, więc jak widzisz dużo się po tych 7 latach nie zmieniło.
http://cdn.pcper.com/files/imagecache/arti...rchitecture.png
W PS3 są 2x pamięci - RSX ma dostęp do włąsnej dedykowanej pamięci, ale ma porównywalnie szybki dostęp do pamięci procesora przez Cell FlexIO
Tyle że 256MB pamięci dla procka to już dla niego za mało a co dopiero pożyczać jeszcze GPU i tracić cykle zegara na wymianę danych.
Czy mógłbyś podać tytuły gier w których widać wzrost wydajności ze względu na zastosowanie interfejsu 3.0. Ostatnio była dyskusja i nie potrafiłem wsakazać żadnego tytułu.
Super, że coś czego nie ma na slajdach. Pytanie ile TDP w IDLE.... Bo ja 4.5W super stresie to dobry wynik w sam raz dla Tabletu, a nawet phabletu. Wreszcie AMD ma układ dość dobry.
Jeżeli 1W w IDLE, podczas oglądania filmów, wyświetlaniem strony (w sensie nic się nie dzieje) to źle... mamy podane 2.5W SDP.
Co trochę martwi przy testach Androida. pisilabuś kochany użyje X benchmarka na GPU-> będzie turbo GPU, użyje Y benchmarka na CPU-> będzie turbo. W realnej grze będzie lipa.
Przydałoby się jeszcze dodać, MANTLE będzie też chodził na komputerze z procesorem Intela i grafiką AMD.
w artykule pada też zdanie:
'Można też renderować jeden obraz z użyciem więcej niż czterech GPU, choć taki scenariusz użytkowania został wspomniany tylko w odniesieniu do stacji roboczych i pewnie nie da się zastosować w grach.'
Na jakiej podstawie podstawie został sformułowany taki wniosek?
Więcej kart graficznych to dla MANTLE po prostu więcej GCN'ów, nie widzę powodów ani biznesowych, ani technologicznych, żeby stawiać jakieś sztuczne bariery dla MANTLA.
W końcu w interesie AMD jest sprzedać jak najwięcej kart graficznych, i jest sporo płyt głównych które umożliwiają instalacje kilku kart graficznych, ograniczanie MANTLA to mniej sprzedanych kart graficznych.
Dopóki autor ogranicza się do tłumaczenia materiałów reklamowych, jest OK, ale kiedy próbuje formułować jakieś własne wnioski... zupełny brak logiki.
-----------------------------------------------------------------------------------------------------------
Jak się porównuje 4 rdzeniowego Jaguara i 2 modułowego steamrollera, od razu widać, że niskonapięciowe wersje steamrollera powinny zjadać na śniadanie najmocniejsze wersje Jaguara. Wystarczy popatrzeć na obrazek z danymi na TDP, widać nakładające się TDP.
Ciekawe czy Kaveri będzie w stanie pobić Intelowskiego core i3 ?
Niezależnie czy APU Kaveri będzie lepsze od i3, czy nie, cenny laptopów w tym ultrabooków powinny trochę spaść.
Na nadchodzące konsole to śmieszna wartość, ale mówimy zdaje się o Mantle i PC, a tu w najszybszym obecnie PCI-E x16 w wersji 3.0 osiąga niecałe 16GB/s (w czasie wydawania tamtych konsol 4GB/s), a ciężko zapomnieć o opóźnieniach PCI-E, a pamięci DDR3-1600 osiągają 12GB/s (w czasie wydawania konsol DDR2 800 to około 6GB/s). Ogólnie ciężko porównywać to co można było robić z tym transferem na konsolach, a z PC, tak jak teraz te 16GB/s PCI-Ex16 3.0 wygląda śmiesznie przy nowych konsolach i mantle tego nie nadrobi (nie, że Mantle czy niskopoziomowe rozszerzenia OpenGL to zły kierunek, ale po prostu rozwiązań sprzętowych nie zastąpią).
W PS3 są 2x pamięci - RSX ma dostęp do włąsnej dedykowanej pamięci, ale ma porównywalnie szybki dostęp do pamięci procesora przez Cell FlexIO
Na Xbox masz coś ala DirectX, ale z Low-Level API Constructs (czyli takim Mantle), dającym bardzo niskopoziomowy dostęp, czego na PC nie uświadczysz (jedynie w nowych OpenGL (który przez kilka ostatnich lat wyrzucał wszystko co stare, a dodawał nowe API jak najbliżej sprzętu) i Mantle).
Pewno że daje. To się nazywa write to the metal, jak w ps3 libgcm. Jakby mogli na xbox360 wyrzucić DX to by to zrobili żeby wyciągnąć maksimum(komuś się to ponoć udało). Fakt faktem że tracisz wtedy dx jako platformę.
Mantel to i tak moim zdaniem nie wypał. Lepiej zrobić nowszą wersję opengl gdzie amd doda takie rozszerzenia jak nvidia, poprawi implementację ogl u siebie i wiele gorzej nie będzie albo tak samo albo i lepiej.. A ludzie znają,soft pod to jest itd.