Nim DX12 pojawi się na dobre i jakiekolwiek gry pod to, NVIDIA będzie już miała Pascala na półkach sklepowych. Stac ich teraz na szybsze premiery, mocniejsze obniżki cen, lepszą promocję.
Wyjdzie Pascal, wyjdzie i R9 4xx. TSMC ma zamówienia od obu producentów. Tyle, że chodzi tutaj o inną kwestię. Jeżeli rzeczywiście Maxwell jest 'ułomny' pod kątem obliczeń asynchronicznych i Pascal zanotuje tutaj spory progres to jak mają czuć się posiadacze Maxwelli? Po pierwsze Maxwelli, które zieloni reklamowali na pudełkach logiem 'DX12 full support' a po drugie Maxwelli, które najprawdopodobniej zostaną olane jeżeli będzie potrzeba dodatkowej optymalizacji. Nie ma co robić burzy w szklance wody, ale taki argument, że i tak wyjdzie Pascal to dla Nvidii przyzwolenie dla podobne praktyki.
A moim zdaniem będzie tak - jak chcesz grać w DX 11 to zostaw sobie Maxwella, a jak w DX 11 i DX 12 to kup Pascala.
Trochę jak z iPhonem - mozesz mieć sarszy model, ale kup nowszy, bo starszy to już nie wypada mieć przy kolegach
Nie ma co robić burzy w szklance wody, ale taki argument, że i tak wyjdzie Pascal to dla Nvidii przyzwolenie dla podobne praktyki.
Mamy rok 2015. Chcemy w coś pograć komfortowo? Kupujemy GTXa 960/970. Statystyki sprzdazy tych kart mówią same za siebie. Ludzie tego nie kupili dla jakiegoś tam przyszłego supportu DX12, tylko dla współczesnych gier. Co mieli innego wybrać? Radeona, któremu puści zatwardzenie po DX12?
Gdyby Oxide Games nie wyłączyła tej opcji dla kart nVidii, tylko stworzyła kod niezależny od producenta, wyniki mogłyby być zupełnie inne. Teraz ten benchmark niczego nie dowodzi, na pewno nie pozwala porównać wydajności w obliczeniach asynchronicznych będących jedną z cech DX 12.1.
Aha, czyli wiemy, że nic nie wiemy. Ktoś powiedział, że Maxwell nie wspiera obliczeń asynchronicznych, a ktoś inny, że wspiera, ale w ograniczonym zakresie. Człowiek rozsądny i nie podjarany pseudo sensacją powinien zatem poczekać, aż pojawią się wiarygodne narzędzia do sprawdzenia, jak to z tymi Maxwellami w DX12 rzeczywiście jest. W tej chwili, to jest dyskusja o niczym. Oczywiście można, jeśli się komuś bardzo nudzi.
Czy przeczytaliście w ogóle artykuł przed skomentowaniem go? Wszyscy przytoczeni w nim sugerują, że Nvidia nie wspiera DX 12 Asynchronous Compute.
Oxide Games w swojej grze korzysta w niewielkim stopniu z tej funkcjonalności:
Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features.
Pomimo to musieli zrezygnować z niej przy kartach Nvidii, gdyż pogarszała ona ich wydajność:
Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that.
Nvidia reklamuje karty z serii 900 jako wspierające Asynchronous Compute, Oxide twierdzi że to nieprawda, przedstawiciel AMD wtrąca się i też twierdzi że to nieprawda, pasjonat-amator sprawdza to swoim programem i też wygląda na to, że to nieprawda. Nvidia milczy od paru dni.
Jeżeli plotki o braku wsparcia dla DX12 okażą się prawdą to po ile będą chodzić GTX980TI po premierze PASCALA?
To chyba że będzie można dochodzić prawa do zwrotu pieniędzy za niezgodność towaru z umową.
who is fu##ing twórcy z Oxid Games? cała akcja wygląda jak próba wypromowania gry-crapu. cwaniaki z PR AMD podchwyciły temat bo to wciąż stara szkoła Rory'ego R.. A ten majstersztyk wizualny od Oxid wygląda tak:
pasjonat-amator sprawdza to swoim programem i też wygląda na to, że to nieprawda.
No nie do końca:
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
Nie ma co robić burzy w szklance wody, ale taki argument, że i tak wyjdzie Pascal to dla Nvidii przyzwolenie dla podobne praktyki.
Mamy rok 2015. Chcemy w coś pograć komfortowo? Kupujemy GTXa 960/970. Statystyki sprzdazy tych kart mówią same za siebie. Ludzie tego nie kupili dla jakiegoś tam przyszłego supportu DX12, tylko dla współczesnych gier. Co mieli innego wybrać? Radeona, któremu puści zatwardzenie po DX12?
Jako posiadacz GTX 970 kupiłem kartę z nadzieją, że zapewni komfortową rozgrywkę przez kolejne 2-3 lata, kierując się m.in. zapewnieniami Nvidii o wsparciu dla DX 12.
Unreal Engine dostał parę dni temu to wsparcie (eksperymentalne), nowe gry z DX 12 korzystające pojawią się już za parę miesięcy (w tym pozycja z mojej ulubionej serii Deus Ex - w lutym). Xbox One również już wspiera DX 12, a więc wszystkie tytuły na niego wydawane będą prawdopodobnie mocno się na nim opierały, by wycisnąć ostatnie soki z tej najsłabszej sprzętowo na rynku platformy.
Tymczasem Oxide sugeruje, że potencjalnie istotna funkcjonalność DX 12 nie jest w ogóle wspierana przez Nvidię:
Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute.
AFAIK, Maxwell doesn't support Async Compute, at least not natively. We disabled it at the request of Nvidia, as it was much slower to try to use it then to not. Weather or not Async Compute is better or not is subjective, but it definitely does buy some performance on AMD's hardware.
Jestem zadowolony obecnie z karty, lecz zamierzałem być zadowolony przez kolejne 2 lata. Tymczasem już po raz drugi zostałem okłamany co do jej możliwości (patrz skandal '4GB". Sugerujesz, żebym nie robił burzy w szklance wody? Nie będę tego robił, jeżeli zarzuty się potwierdzą (lub Nvidia przyzna do nich) po prostu zwrócę kartę powołując się na niezgodność towaru z umową, przy pomocy rzecznika konsumentów jeżeli zajdzie taka potrzeba.
pasjonat-amator sprawdza to swoim programem i też wygląda na to, że to nieprawda.
No nie do końca:
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
pasjonat-amator sprawdza to swoim programem i też wygląda na to, że to nieprawda.
No nie do końca:
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
W ogóle nie obsługuje lub obsługuje w taki sposób, że korzystanie z funkcjonalnośc jest kontrproduktywne, przyjrzyj się łaskawie wykresom.
Asynchronous Compute, w założeniu ma pozwalać na pełniejsze wykorzystanie dostępnych zasobów obliczeniowych (więcej obliczeń w tym samym czasie).
Przytoczone wyniki testu (zupełny brak opisów i linka do oryginału, można tylko mieć nadzieję, że jest poprawny) sugerują, iż karta Nvidii nie zachowuje się zgodnie z oczekiwaniami. Kolumny mieszanego trybu (DX 12, 'async compute', czyli graphics + compute) są dla niej wyższe niż w dla samego trybu compute, czyli łącznie operacje trwają dłużej. Dodatkowe obliczenia async compute nie wykonują się więc współbieżnie do obliczeń głównej kolejki (a taki jest cały sens tej funkcjonalności), a albo szeregowo z nią, albo ich obsługa dokłada ogromny narzut czasowy. Dla porównania - karta AMD ma takie same wyniki dla obu wymienionych trybów.
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
To jest napisane w artykule. Teraz odpowiedz mi (alko ktokolwiek inny), jaki to będzie miało wpływ na ilość klatek na sekundę w grach DX12? Potrafisz to zrobić? No nie, więc na tą chwilę, dyskusja jest czysto akademicka. Oczywiście, jeśli ktoś bardzo chce, to może zwrócić swojego GTX-a 900 i nabyć Radeona. Ja bym radził jednak poczekać na większą ilość wiarygodnych narzędzi, którymi będzie można sprawdzić wydajność Maxwella w nowym DX-ie.
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
Według tych testów nie jest. Rozwiązanie nvidii zwalnia powoli do poziomu amd powyżej tych 32 kolejek. Do 32 jest uber szybsze. Tak czy siak DX12 to API niskopoziomowe i kod vendor specific musi być jak chce się wykorzystać architekture danego producenta w pełni. Sam benchmark panów noname z Oxid jednak wygląda jak kupa, dużo gorzej niż rts'y z przed lat i nawet ilość jednostek wrażenia nie robi. Poczekajmy z osądami do czasu az pojawi się więcej aplikacji z DX12/Vulcan.
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
Liczba kolejek nie ma nic do rzeczy, sedno problemu jest takie, że Asynchronous Compute nie działa jak powinno. Przy zastosowaniu chociaż jednej z asynchronicznych kolejek jednocześnie z główną kolejką łączny czas wykonania obliczeń powinien być krótszy od ich sumy (gdyż stąd się biorą przyrosty wydajności). Tak się dzieje dla karty AMD, lecz nie dla Nvidii. Oxide twierdzi to samo.
Unreal Engine dostał parę dni temu to wsparcie (eksperymentalne), nowe gry z DX 12 korzystające pojawią się już za parę miesięcy (w tym pozycja z mojej ulubionej serii Deus Ex - w lutym).
Przez najbliższy rok albo i dłużej otrzymasz gry korzystające w znikomym stopniu z DX12, będziesz miał pojedyncze instrukcje z tego API i to wszystko. Tak samo jak było z DX9/10/11. Na natywne gry DX12 poczekamy jeszcze długo i do tego czasu jedynie co pozostanie AMD i NV to kopanie się jakimiś tandetnymi benchmarkami, które jak mamy przykład wyżej wyglądają jak gra z PSXa i z DX12, a raczej jego realnymi wykorzystaniem i implementacją w grach niewiele ma wspólnego.
U AMD od lat leży tesselacja, pamiętacie jak mamiono nas graczy grafikami jakie to okrągłe głowy i koła będą w grach dzięki tesselacji? No to odpalcie sobie kilka gier z tego roku i podziwiajcie te piękne kwadraty i wielokąty.
Do dzisiaj implementacja tesselacji leży i kwiczy, a taki przełom miał być, taki ficzer, z kapci miało wyrywać. Jak jest, każdy widzi.
DX12 na kartach 28nm to tylko mrzonki i kopanie się po kostkach, nic więcej.
Naprawdę chcecie wspierać swoimi pieniędzmi takie wyrachowane i bezwzględne firmy? Proszę bardzo. Ja przynajmniej mam czyste sumienie że nie dofinansowuje dupków.
Ja jadę na takich GPU i CPU jakie są najwydajniejsze w cenie którą sobie wyznaczyłem. Wisi mi czy CEO nVidii to drań kąpiący się w dolarach albo czy zdradza żonę.
Wyrachowane i bezwstydne firmy? O rany co za egzaltacja, a to mieszanie sumienia do zakupu CPU czy GPU, czy to jest normalne?! Nigdy jakoś nie przyszło mi sumienia angażować przy wyborze części do PC.
'Wyłączanie sumienia' gdy tylko jest niewygodne. Skrajnie typowe zachowanie dla ludzi którzy wolą okłamywać samych siebie i uciekają w ignorancję dla własnej, iluzorycznej wygody. Ignorancja długodystansowych skutków swoich działań, zrzucanie odpowiedzialności za trudności na wszystkich i wszystko tylko nie na siebie samego.
Każda firma ma 'swoje za uszami', niemniej całkowicie zasadne jest wspierać te które prowadzą relatywnie uczciwszą politykę oraz piętnować te które dopuszczają się oszustw dla korzyści majątkowych. Bo choć z pozoru, może to oznaczać nieco trudniejsze warunki 'na teraz', to z w dalszej perspektywie prowadzi do większej równowagi i lepszych warunków w znacznie większej skali niż trudy obecne.
Idealistyczny, a jednak całkowicie możliwy do realizacji przykład.
Gdyby lata tumu, gdy przestępstwa biznesowe i kryminalne Intela o globalnym zasięgu (!) zaczęły wychodzić na wierzch, ludzie postawili by na sumienie niż ignorancję i wygodę, ta złodziejska firma dostała by tak po tyłku że dziś AMD by w nieporównywalnie lepszej kondycji. Znacznie bogatsze miało by środki by znacznie łatwiej i szybciej wprowadzać w życie projekty.
Relacja udziałów rynku X86 wynosiła by załóżmy 57/43% (Intel/AMD), konkurencja działałaby żywo, wydajnościowo bylibyśmy lata świetle do przodu.
A co mamy? AMD dyszy a Intel tak zwolnił że nawet załamał swoja 'żelazną' strategię Tic-Toc.
Nic tutaj nie jest całkowicie białe ani czarne, mamy 16,7 mln odcieni szarości.
Niemniej każde świadome działanie na rzecz równowagi i uczciwość jest warte zachodu.
Dlatego gratuluje każdemu kto jest na tyle rozwinięty z poziomu czakry serca by mieć dość odwagi i na tyle twarda dupę by robić co trzeba i pokonać swoją ignorancję.
Athallus @ 2015.09.02 08:52
Póki co jestem zadowolony z G-force'ów, na Dx11 działają bardzo wydajnie, na Dx 12 mimo, że nie wyfrunęły w kosmos (a może i dobrze, szkoda sufitu) to wciąż wypadają lepiej niż produkcje AMD (niestety).
Wykres. Wynika z niego że nVidia radzi sobie lepiej w DX11. Wynika też że w benchmark-u gry pisanej pod DX12, karta GCN za 1870zł lekko pokonuje Maxwell-a za 2150zł i to pomimo że studio Oxide wyłączyło asynchroniczne obliczenia na prośbę nVidii. Więc tak jak mówiła nVidia - owszem - wyniki nie są miarodajne, ale na ich własną niekorzyść.
'Jak twierdzi programista studia Oxide Games (odpowiedzialnego m.in. za grę Ashes of the Singularity), karty graficzne Nvidii nie posiadają natywnego wsparcia dla asynchronicznych jednostek cieniujących - konieczne było zatem wyłączenie ich obsługi, bo siłowe wymuszenie aktywacji po prostu dawało gorsze rezultaty.'
Jako użytkownik Keplera który miał wejść z tą kartą w Vulkan/DX12, czuję zniesmaczenie.
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
To dlaczego rozwiązanie programowe spisuje się idealnie do 32 kolejek, a później następuje spadek wydajności? Przecież to ewidentnie świadczy o tym, że mamy do czynienia z rozwiązaniem sprzętowym, z ograniczoną ilością dedykowanych jednostek.
Na razie to działamy trochę po omacku. Na pewno twierdzenia devsów z Oxid okazały się nieprawdziwe i Maxwell wspiera Async Compute, co pokazał ten benchmark syntetyczny. Ten sam benchmark pokazuje, że choć powyżej 32 kolejek na Nvidii opóźnienia wzrastają, to i tak Maxwell bardzo długo utrzymuje znaczną przewagę na GCN (mniej więcej do 96 kolejek). Ten test może jednak nie być reprezentatywny, być może w przypadku obliczeń innego rodzaju mielibyśmy remis do 32 kolejek, a potem zaczynałaby się i rosła przewaga AMD. Tego jednak nie wiemy., to tylko gdybanie.
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
To dlaczego rozwiązanie programowe spisuje się idealnie do 32 kolejek, a później następuje spadek wydajności? Przecież to ewidentnie świadczy o tym, że mamy do czynienia z rozwiązaniem sprzętowym, z ograniczoną ilością dedykowanych jednostek.
Na razie to działamy trochę po omacku. Na pewno twierdzenia devsów z Oxid okazały się nieprawdziwe i Maxwell wspiera Async Compute, co pokazał ten benchmark syntetyczny. Ten sam benchmark pokazuje, że choć powyżej 32 kolejek na Nvidii opóźnienia wzrastają, to i tak Maxwell bardzo długo utrzymuje znaczną przewagę na GCN (mniej więcej do 96 kolejek). Ten test może jednak nie być reprezentatywny, być może w przypadku obliczeń innego rodzaju mielibyśmy remis do 32 kolejek, a potem zaczynałaby się i rosła przewaga AMD. Tego jednak nie wiemy., to tylko gdybanie.
Swoją wiedzę opieram jedynie na informacjach powszechnie dostępnych w internecie a te są bardzo ograniczone. Nie dodaję też nic od siebie ani nie staram się prorokować.
Według tych testów nie jest. Rozwiązanie nvidii zwalnia powoli do poziomu amd powyżej tych 32 kolejek. Do 32 jest uber szybsze.
Nie przyglądasz się temu co trzeba, a bezsensowna analiza pclabu tylko zaciemnia sprawę.
Test jest rzekomo zaprojektowany by sprawdzić działanie Asynchronous Compute, porównywanie 'szybkości' na jego podstawie nie ma żadnego sensu, gdyż nie znamy w ogóle stosowanego obciążenia, które prawdopodobnie dla celów testowych jest znikome. Wyniki, które widzimy (brak opisów wykresów) to zapewne ledwo czasy podstawowego narzutu - dostępu do pamięci + testowej operacji. Jeżeli nie rozumiesz o czym mowię, to przyjmij porównanie, że jeżeli w teście AMD miałoby wynik 10 jcz (jednostek czasu ), a Nvidia 5, to w rzeczywistym zastosowaniu przy prawdziwych obliczeniach może to być 100 jcz dla AMD i 95 dla Nvidii.
Nie taki jest jednak cel testu. Ma on pokazać, że czasy Nvidii z wykorzystaniem głównej kolekcji z dodatkiem asynchronicznych (niezależnie od ich liczby) są niemalże sumą osobnych czasów wykonania. Przy prawidłowo działającym Asynchronous Compute nie powinno tak być.
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
To dlaczego rozwiązanie programowe spisuje się idealnie do 32 kolejek, a później następuje spadek wydajności? Przecież to ewidentnie świadczy o tym, że mamy do czynienia z rozwiązaniem sprzętowym, z ograniczoną ilością dedykowanych jednostek.
Na razie to działamy trochę po omacku. Na pewno twierdzenia devsów z Oxid okazały się nieprawdziwe i Maxwell wspiera Async Compute, co pokazał ten benchmark syntetyczny. Ten sam benchmark pokazuje, że choć powyżej 32 kolejek na Nvidii opóźnienia wzrastają, to i tak Maxwell bardzo długo utrzymuje znaczną przewagę na GCN (mniej więcej do 96 kolejek). Ten test może jednak nie być reprezentatywny, być może w przypadku obliczeń innego rodzaju mielibyśmy remis do 32 kolejek, a potem zaczynałaby się i rosła przewaga AMD. Tego jednak nie wiemy., to tylko gdybanie.
Poczytaj sobie o tym gościu od tego syntetyka to trochę ci się rozjaśni czym jest ten programik.
Według tych testów nie jest. Rozwiązanie nvidii zwalnia powoli do poziomu amd powyżej tych 32 kolejek. Do 32 jest uber szybsze.
Nie przyglądasz się temu co trzeba, a bezsensowna analiza pclabu tylko zaciemnia sprawę.
Test jest rzekomo zaprojektowany by sprawdzić działanie Asynchronous Compute, porównywanie 'szybkości' na jego podstawie nie ma żadnego sensu, gdyż nie znamy w ogóle stosowanego obciążenia, które prawdopodobnie dla celów testowych jest znikome. Wyniki, które widzimy (brak opisów wykresów) to zapewne ledwo czasy podstawowego narzutu - dostępu do pamięci + testowej operacji. Jeżeli nie rozumiesz o czym mowię, to przyjmij porównanie, że jeżeli w teście AMD miałoby wynik 10 jcz (jednostek czasu ), a Nvidia 5, to w rzeczywistym zastosowaniu przy prawdziwych obliczeniach może to być 100 jcz dla AMD i 95 dla Nvidii.
Nie taki jest jednak cel testu. Ma on pokazać, że czasy Nvidii z wykorzystaniem głównej kolekcji z dodatkiem asynchronicznych (niezależnie od ich liczby) są niemalże sumą osobnych czasów wykonania. Przy prawidłowo działającym Asynchronous Compute nie powinno tak być.
Jeżeli nie rozumiesz o czym mowię, to przyjmij porównanie, że jeżeli w teście AMD miałoby wynik 10 jcz (jednostek czasu ), a Nvidia 5, to w rzeczywistym zastosowaniu przy prawdziwych obliczeniach może to być 100 jcz dla AMD i 95 dla Nvidii.
No właśnie, może być, ale nie musi. Znów gdybanie. Jak piszesz, mamy wykresy bez opisów, jak również bez objaśnienia procedury testowej. Brak sprzętowej obsługi asynchronicznych obliczeń (o ile rzeczywiście występuje) może mieć znikomy wpływ na wydajność w grach DX12, a może mieć znaczący. Tego dowiemy się jednak w momencie, gdy takowe pojawią się na rynku w większej ilości. Póki co, gdybamy. Na podstawie gdybania i syntetycznego testu o niewiadomej wiarygodności mam pozbyć się swojego Maxwella? No chyba nie. Tyle w temacie, bo dla mnie ta dyskusja jest czysto akademicka.
Wyjdzie Pascal, wyjdzie i R9 4xx. TSMC ma zamówienia od obu producentów. Tyle, że chodzi tutaj o inną kwestię. Jeżeli rzeczywiście Maxwell jest 'ułomny' pod kątem obliczeń asynchronicznych i Pascal zanotuje tutaj spory progres to jak mają czuć się posiadacze Maxwelli? Po pierwsze Maxwelli, które zieloni reklamowali na pudełkach logiem 'DX12 full support' a po drugie Maxwelli, które najprawdopodobniej zostaną olane jeżeli będzie potrzeba dodatkowej optymalizacji. Nie ma co robić burzy w szklance wody, ale taki argument, że i tak wyjdzie Pascal to dla Nvidii przyzwolenie dla podobne praktyki.
A moim zdaniem będzie tak - jak chcesz grać w DX 11 to zostaw sobie Maxwella, a jak w DX 11 i DX 12 to kup Pascala.
Trochę jak z iPhonem - mozesz mieć sarszy model, ale kup nowszy, bo starszy to już nie wypada mieć przy kolegach
Mamy rok 2015. Chcemy w coś pograć komfortowo? Kupujemy GTXa 960/970. Statystyki sprzdazy tych kart mówią same za siebie. Ludzie tego nie kupili dla jakiegoś tam przyszłego supportu DX12, tylko dla współczesnych gier. Co mieli innego wybrać? Radeona, któremu puści zatwardzenie po DX12?
Aha, czyli wiemy, że nic nie wiemy. Ktoś powiedział, że Maxwell nie wspiera obliczeń asynchronicznych, a ktoś inny, że wspiera, ale w ograniczonym zakresie. Człowiek rozsądny i nie podjarany pseudo sensacją powinien zatem poczekać, aż pojawią się wiarygodne narzędzia do sprawdzenia, jak to z tymi Maxwellami w DX12 rzeczywiście jest. W tej chwili, to jest dyskusja o niczym. Oczywiście można, jeśli się komuś bardzo nudzi.
Czy przeczytaliście w ogóle artykuł przed skomentowaniem go? Wszyscy przytoczeni w nim sugerują, że Nvidia nie wspiera DX 12 Asynchronous Compute.
Oxide Games w swojej grze korzysta w niewielkim stopniu z tej funkcjonalności:
Pomimo to musieli zrezygnować z niej przy kartach Nvidii, gdyż pogarszała ona ich wydajność:
Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that.
Nvidia reklamuje karty z serii 900 jako wspierające Asynchronous Compute, Oxide twierdzi że to nieprawda, przedstawiciel AMD wtrąca się i też twierdzi że to nieprawda, pasjonat-amator sprawdza to swoim programem i też wygląda na to, że to nieprawda. Nvidia milczy od paru dni.
To chyba że będzie można dochodzić prawa do zwrotu pieniędzy za niezgodność towaru z umową.
No nie do końca:
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
Mamy rok 2015. Chcemy w coś pograć komfortowo? Kupujemy GTXa 960/970. Statystyki sprzdazy tych kart mówią same za siebie. Ludzie tego nie kupili dla jakiegoś tam przyszłego supportu DX12, tylko dla współczesnych gier. Co mieli innego wybrać? Radeona, któremu puści zatwardzenie po DX12?
Jako posiadacz GTX 970 kupiłem kartę z nadzieją, że zapewni komfortową rozgrywkę przez kolejne 2-3 lata, kierując się m.in. zapewnieniami Nvidii o wsparciu dla DX 12.
Unreal Engine dostał parę dni temu to wsparcie (eksperymentalne), nowe gry z DX 12 korzystające pojawią się już za parę miesięcy (w tym pozycja z mojej ulubionej serii Deus Ex - w lutym). Xbox One również już wspiera DX 12, a więc wszystkie tytuły na niego wydawane będą prawdopodobnie mocno się na nim opierały, by wycisnąć ostatnie soki z tej najsłabszej sprzętowo na rynku platformy.
Tymczasem Oxide sugeruje, że potencjalnie istotna funkcjonalność DX 12 nie jest w ogóle wspierana przez Nvidię:
Jestem zadowolony obecnie z karty, lecz zamierzałem być zadowolony przez kolejne 2 lata. Tymczasem już po raz drugi zostałem okłamany co do jej możliwości (patrz skandal '4GB"
No nie do końca:
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
No nie do końca:
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
W ogóle nie obsługuje lub obsługuje w taki sposób, że korzystanie z funkcjonalnośc jest kontrproduktywne, przyjrzyj się łaskawie wykresom.
Asynchronous Compute, w założeniu ma pozwalać na pełniejsze wykorzystanie dostępnych zasobów obliczeniowych (więcej obliczeń w tym samym czasie).
Przytoczone wyniki testu (zupełny brak opisów i linka do oryginału, można tylko mieć nadzieję, że jest poprawny) sugerują, iż karta Nvidii nie zachowuje się zgodnie z oczekiwaniami. Kolumny mieszanego trybu (DX 12, 'async compute', czyli graphics + compute) są dla niej wyższe niż w dla samego trybu compute, czyli łącznie operacje trwają dłużej. Dodatkowe obliczenia async compute nie wykonują się więc współbieżnie do obliczeń głównej kolejki (a taki jest cały sens tej funkcjonalności), a albo szeregowo z nią, albo ich obsługa dokłada ogromny narzut czasowy. Dla porównania - karta AMD ma takie same wyniki dla obu wymienionych trybów.
To jest napisane w artykule. Teraz odpowiedz mi (alko ktokolwiek inny), jaki to będzie miało wpływ na ilość klatek na sekundę w grach DX12? Potrafisz to zrobić? No nie, więc na tą chwilę, dyskusja jest czysto akademicka. Oczywiście, jeśli ktoś bardzo chce, to może zwrócić swojego GTX-a 900 i nabyć Radeona. Ja bym radził jednak poczekać na większą ilość wiarygodnych narzędzi, którymi będzie można sprawdzić wydajność Maxwella w nowym DX-ie.
No nie do końca:
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
Według tych testów nie jest. Rozwiązanie nvidii zwalnia powoli do poziomu amd powyżej tych 32 kolejek. Do 32 jest uber szybsze. Tak czy siak DX12 to API niskopoziomowe i kod vendor specific musi być jak chce się wykorzystać architekture danego producenta w pełni. Sam benchmark panów noname z Oxid jednak wygląda jak kupa, dużo gorzej niż rts'y z przed lat i nawet ilość jednostek wrażenia nie robi. Poczekajmy z osądami do czasu az pojawi się więcej aplikacji z DX12/Vulcan.
No nie do końca:
Z udostępnionych przez niego danych wynika, że Maxwell jednak obsługuje asynchroniczne shadery, przy czym w bardziej ograniczonym stopniu niż karty korzystające z architektury GCN. Karty Nvidii mają być w stanie przetwarzać jednocześnie do 31+1 kolejek, podczas gdy w przypadku GCN mówimy o wartości od 96 – 128.
No to jak to w końcu jest? Nie obsługuje, obsługuje, czy obsługuje w ograniczonym zakresie?
Obsługuje w ograniczonym zakresie. Można odnieść wrażenie, że ACE jest realizowane programowo i sprawdza się (bądź jest ograniczone programowo) do 32 kolejek (31 + 1). I tutaj NVidia radzi sobie bardzo dobrze. Lecz, jeśli jest więcej kolejek, powyżej 32, tutaj rozwiązanie AMD jest lepsze.
Liczba kolejek nie ma nic do rzeczy, sedno problemu jest takie, że Asynchronous Compute nie działa jak powinno. Przy zastosowaniu chociaż jednej z asynchronicznych kolejek jednocześnie z główną kolejką łączny czas wykonania obliczeń powinien być krótszy od ich sumy (gdyż stąd się biorą przyrosty wydajności). Tak się dzieje dla karty AMD, lecz nie dla Nvidii. Oxide twierdzi to samo.
Unreal Engine dostał parę dni temu to wsparcie (eksperymentalne), nowe gry z DX 12 korzystające pojawią się już za parę miesięcy (w tym pozycja z mojej ulubionej serii Deus Ex - w lutym).
Przez najbliższy rok albo i dłużej otrzymasz gry korzystające w znikomym stopniu z DX12, będziesz miał pojedyncze instrukcje z tego API i to wszystko. Tak samo jak było z DX9/10/11. Na natywne gry DX12 poczekamy jeszcze długo i do tego czasu jedynie co pozostanie AMD i NV to kopanie się jakimiś tandetnymi benchmarkami, które jak mamy przykład wyżej wyglądają jak gra z PSXa i z DX12, a raczej jego realnymi wykorzystaniem i implementacją w grach niewiele ma wspólnego.
U AMD od lat leży tesselacja, pamiętacie jak mamiono nas graczy grafikami jakie to okrągłe głowy i koła będą w grach dzięki tesselacji? No to odpalcie sobie kilka gier z tego roku i podziwiajcie te piękne kwadraty i wielokąty.
Do dzisiaj implementacja tesselacji leży i kwiczy, a taki przełom miał być, taki ficzer, z kapci miało wyrywać. Jak jest, każdy widzi.
DX12 na kartach 28nm to tylko mrzonki i kopanie się po kostkach, nic więcej.
Naprawdę chcecie wspierać swoimi pieniędzmi takie wyrachowane i bezwzględne firmy? Proszę bardzo. Ja przynajmniej mam czyste sumienie że nie dofinansowuje dupków.
Ja jadę na takich GPU i CPU jakie są najwydajniejsze w cenie którą sobie wyznaczyłem. Wisi mi czy CEO nVidii to drań kąpiący się w dolarach albo czy zdradza żonę.
Wyrachowane i bezwstydne firmy? O rany co za egzaltacja, a to mieszanie sumienia do zakupu CPU czy GPU, czy to jest normalne?! Nigdy jakoś nie przyszło mi sumienia angażować przy wyborze części do PC.
'Wyłączanie sumienia' gdy tylko jest niewygodne. Skrajnie typowe zachowanie dla ludzi którzy wolą okłamywać samych siebie i uciekają w ignorancję dla własnej, iluzorycznej wygody. Ignorancja długodystansowych skutków swoich działań, zrzucanie odpowiedzialności za trudności na wszystkich i wszystko tylko nie na siebie samego.
Każda firma ma 'swoje za uszami', niemniej całkowicie zasadne jest wspierać te które prowadzą relatywnie uczciwszą politykę oraz piętnować te które dopuszczają się oszustw dla korzyści majątkowych. Bo choć z pozoru, może to oznaczać nieco trudniejsze warunki 'na teraz', to z w dalszej perspektywie prowadzi do większej równowagi i lepszych warunków w znacznie większej skali niż trudy obecne.
Idealistyczny, a jednak całkowicie możliwy do realizacji przykład.
Gdyby lata tumu, gdy przestępstwa biznesowe i kryminalne Intela o globalnym zasięgu (!) zaczęły wychodzić na wierzch, ludzie postawili by na sumienie niż ignorancję i wygodę, ta złodziejska firma dostała by tak po tyłku że dziś AMD by w nieporównywalnie lepszej kondycji. Znacznie bogatsze miało by środki by znacznie łatwiej i szybciej wprowadzać w życie projekty.
Relacja udziałów rynku X86 wynosiła by załóżmy 57/43% (Intel/AMD), konkurencja działałaby żywo, wydajnościowo bylibyśmy lata świetle do przodu.
A co mamy? AMD dyszy a Intel tak zwolnił że nawet załamał swoja 'żelazną' strategię Tic-Toc.
Nic tutaj nie jest całkowicie białe ani czarne, mamy 16,7 mln odcieni szarości.
Niemniej każde świadome działanie na rzecz równowagi i uczciwość jest warte zachodu.
Dlatego gratuluje każdemu kto jest na tyle rozwinięty z poziomu czakry serca by mieć dość odwagi i na tyle twarda dupę by robić co trzeba i pokonać swoją ignorancję.
'Jak twierdzi programista studia Oxide Games (odpowiedzialnego m.in. za grę Ashes of the Singularity), karty graficzne Nvidii nie posiadają natywnego wsparcia dla asynchronicznych jednostek cieniujących - konieczne było zatem wyłączenie ich obsługi, bo siłowe wymuszenie aktywacji po prostu dawało gorsze rezultaty.'
Jako użytkownik Keplera który miał wejść z tą kartą w Vulkan/DX12, czuję zniesmaczenie.
To dlaczego rozwiązanie programowe spisuje się idealnie do 32 kolejek, a później następuje spadek wydajności? Przecież to ewidentnie świadczy o tym, że mamy do czynienia z rozwiązaniem sprzętowym, z ograniczoną ilością dedykowanych jednostek.
Na razie to działamy trochę po omacku. Na pewno twierdzenia devsów z Oxid okazały się nieprawdziwe i Maxwell wspiera Async Compute, co pokazał ten benchmark syntetyczny. Ten sam benchmark pokazuje, że choć powyżej 32 kolejek na Nvidii opóźnienia wzrastają, to i tak Maxwell bardzo długo utrzymuje znaczną przewagę na GCN (mniej więcej do 96 kolejek). Ten test może jednak nie być reprezentatywny, być może w przypadku obliczeń innego rodzaju mielibyśmy remis do 32 kolejek, a potem zaczynałaby się i rosła przewaga AMD. Tego jednak nie wiemy., to tylko gdybanie.
To dlaczego rozwiązanie programowe spisuje się idealnie do 32 kolejek, a później następuje spadek wydajności? Przecież to ewidentnie świadczy o tym, że mamy do czynienia z rozwiązaniem sprzętowym, z ograniczoną ilością dedykowanych jednostek.
Na razie to działamy trochę po omacku. Na pewno twierdzenia devsów z Oxid okazały się nieprawdziwe i Maxwell wspiera Async Compute, co pokazał ten benchmark syntetyczny. Ten sam benchmark pokazuje, że choć powyżej 32 kolejek na Nvidii opóźnienia wzrastają, to i tak Maxwell bardzo długo utrzymuje znaczną przewagę na GCN (mniej więcej do 96 kolejek). Ten test może jednak nie być reprezentatywny, być może w przypadku obliczeń innego rodzaju mielibyśmy remis do 32 kolejek, a potem zaczynałaby się i rosła przewaga AMD. Tego jednak nie wiemy., to tylko gdybanie.
Swoją wiedzę opieram jedynie na informacjach powszechnie dostępnych w internecie a te są bardzo ograniczone. Nie dodaję też nic od siebie ani nie staram się prorokować.
Według tych testów nie jest. Rozwiązanie nvidii zwalnia powoli do poziomu amd powyżej tych 32 kolejek. Do 32 jest uber szybsze.
Nie przyglądasz się temu co trzeba, a bezsensowna analiza pclabu tylko zaciemnia sprawę.
Test jest rzekomo zaprojektowany by sprawdzić działanie Asynchronous Compute, porównywanie 'szybkości' na jego podstawie nie ma żadnego sensu, gdyż nie znamy w ogóle stosowanego obciążenia, które prawdopodobnie dla celów testowych jest znikome. Wyniki, które widzimy (brak opisów wykresów) to zapewne ledwo czasy podstawowego narzutu - dostępu do pamięci + testowej operacji. Jeżeli nie rozumiesz o czym mowię, to przyjmij porównanie, że jeżeli w teście AMD miałoby wynik 10 jcz (jednostek czasu
Nie taki jest jednak cel testu. Ma on pokazać, że czasy Nvidii z wykorzystaniem głównej kolekcji z dodatkiem asynchronicznych (niezależnie od ich liczby) są niemalże sumą osobnych czasów wykonania. Przy prawidłowo działającym Asynchronous Compute nie powinno tak być.
To dlaczego rozwiązanie programowe spisuje się idealnie do 32 kolejek, a później następuje spadek wydajności? Przecież to ewidentnie świadczy o tym, że mamy do czynienia z rozwiązaniem sprzętowym, z ograniczoną ilością dedykowanych jednostek.
Na razie to działamy trochę po omacku. Na pewno twierdzenia devsów z Oxid okazały się nieprawdziwe i Maxwell wspiera Async Compute, co pokazał ten benchmark syntetyczny. Ten sam benchmark pokazuje, że choć powyżej 32 kolejek na Nvidii opóźnienia wzrastają, to i tak Maxwell bardzo długo utrzymuje znaczną przewagę na GCN (mniej więcej do 96 kolejek). Ten test może jednak nie być reprezentatywny, być może w przypadku obliczeń innego rodzaju mielibyśmy remis do 32 kolejek, a potem zaczynałaby się i rosła przewaga AMD. Tego jednak nie wiemy., to tylko gdybanie.
Poczytaj sobie o tym gościu od tego syntetyka to trochę ci się rozjaśni czym jest ten programik.
Według tych testów nie jest. Rozwiązanie nvidii zwalnia powoli do poziomu amd powyżej tych 32 kolejek. Do 32 jest uber szybsze.
Nie przyglądasz się temu co trzeba, a bezsensowna analiza pclabu tylko zaciemnia sprawę.
Test jest rzekomo zaprojektowany by sprawdzić działanie Asynchronous Compute, porównywanie 'szybkości' na jego podstawie nie ma żadnego sensu, gdyż nie znamy w ogóle stosowanego obciążenia, które prawdopodobnie dla celów testowych jest znikome. Wyniki, które widzimy (brak opisów wykresów) to zapewne ledwo czasy podstawowego narzutu - dostępu do pamięci + testowej operacji. Jeżeli nie rozumiesz o czym mowię, to przyjmij porównanie, że jeżeli w teście AMD miałoby wynik 10 jcz (jednostek czasu
Nie taki jest jednak cel testu. Ma on pokazać, że czasy Nvidii z wykorzystaniem głównej kolekcji z dodatkiem asynchronicznych (niezależnie od ich liczby) są niemalże sumą osobnych czasów wykonania. Przy prawidłowo działającym Asynchronous Compute nie powinno tak być.
Dzięki za wyjaśnienie
No właśnie, może być, ale nie musi. Znów gdybanie. Jak piszesz, mamy wykresy bez opisów, jak również bez objaśnienia procedury testowej. Brak sprzętowej obsługi asynchronicznych obliczeń (o ile rzeczywiście występuje) może mieć znikomy wpływ na wydajność w grach DX12, a może mieć znaczący. Tego dowiemy się jednak w momencie, gdy takowe pojawią się na rynku w większej ilości. Póki co, gdybamy. Na podstawie gdybania i syntetycznego testu o niewiadomej wiarygodności mam pozbyć się swojego Maxwella? No chyba nie. Tyle w temacie, bo dla mnie ta dyskusja jest czysto akademicka.