komentarze
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2016.03.30, 17:46
DjXbeat @ 2016.03.30 12:17  Post: 961390
SALETRZAK @ 2016.03.30 00:11  Post: 961293
DX 12 wg. Nvidii:)
https://www.youtube.com/watch?v=VWiSex0NhlI
Dodamy VXAO żeby zajechać Radeony,a przy okazji sami siebie
980ti z VXAO po 30 parę FPS.Brawo:)

Chyba nawet nie wiesz o czym piszesz.
Po pierwsze napisałeś 'DX12 wg Nvidii' a podajesz przykład VXAO, które działa na DX11 - myśl trochę.
Po drugie napisałeś 'dodamy VXAO żeby zajechać radeony' - nic nie zajedziesz bo Radeony nie obsługują VXAO ze względu na brak sprzętowego Conservative Rasterization a to jest podstawa do obsługi VXAO czy VXGI.
Idąc dalej, AMD mogło przygotować odpowiednie sterowniki z programową obsługą VXAO ale nie było tym całkowicie zainteresowane i nie ma się co dziwić bo jeśli sprzętowe wsparcie powoduje taki spadek wydajności to co będzie przy programowym?

A co mają sterowniki do programowego conservative rasterization? VXAO w tombie zostało tak zaimplementowane, że wymaga sprzętowej obsługi CS i tutaj sterowniki nie mają nic do tego. W UE4.x VXAO/VXGI będzie można odpalić na gpu bez sprzętowego CS , CS będzie emulowany za pomocą geometry shader. Tylko raczej nikt z tego będzie korzystał zbyt duży spadek wydajności, zanim pojawią gry na szeroką skalę z VXAO/VXGI to amd będzie posiadać gpu ze sprzętowym CS i skończy się pitolenie.
umcaczZobacz profil
Poziom ostrzeżenia: 0%
umcacz2016.03.30, 16:25
DjXbeat @ 2016.03.30 16:21  Post: 961479

Po pierwsze HairWorks to nie tylko same włosy tak jak TresFX w RotTRa po drugie Nvidia chciała udpstępnić VXAO aby AMD odpowiednio przygotowało programowe wsparcie razem ze sterownikamki ale AMD nie było zainteresowane tą techniką.

To jak nie chcą chować tego przed AMD to przed kim nadal jest zamknięte ? Przed Intelem?
DjXbeatZobacz profil
Poziom ostrzeżenia: 0%
DjXbeat2016.03.30, 16:21
umcacz @ 2016.03.30 15:24  Post: 961450

Hairworks x64 też zabierał 10 fps i jeszcze więcej na Radeonach. Kiedy AMD zrobiło swoje TressFX, dało kod programistom i proszę- 1-2 fps zabiera PureHair w Rise of the Tomb Raider i to obojętne na jakiej karcie. Może Nvidia powinna otworzyć kod VXAO i dać AMD do poprawienia - wtedy każdy by to odpalił z minimalnym spadkiem fps. Jak się nie da, to trzeba zrobić tak aby się dało, tylko trzeba chcieć.

Po pierwsze HairWorks to nie tylko same włosy tak jak TresFX w RotTRa po drugie Nvidia chciała udpstępnić VXAO aby AMD odpowiednio przygotowało programowe wsparcie razem ze sterownikamki ale AMD nie było zainteresowane tą techniką.
umcaczZobacz profil
Poziom ostrzeżenia: 0%
umcacz2016.03.30, 15:24
DjXbeat @ 2016.03.30 12:17  Post: 961390

Idąc dalej, AMD mogło przygotować odpowiednie sterowniki z programową obsługą VXAO ale nie było tym całkowicie zainteresowane i nie ma się co dziwić bo jeśli sprzętowe wsparcie powoduje taki spadek wydajności to co będzie przy programowym?


Hairworks x64 też zabierał 10 fps i jeszcze więcej na Radeonach. Kiedy AMD zrobiło swoje TressFX, dało kod programistom i proszę- 1-2 fps zabiera PureHair w Rise of the Tomb Raider i to obojętne na jakiej karcie. Może Nvidia powinna otworzyć kod VXAO i dać AMD do poprawienia - wtedy każdy by to odpalił z minimalnym spadkiem fps. Jak się nie da, to trzeba zrobić tak aby się dało, tylko trzeba chcieć.
mfukerZobacz profil
Poziom ostrzeżenia: 0%
mfuker2016.03.30, 14:24
Nie trzeba tracic calych dni na testatch aby wiedziec, ze kolejny DX to nic innego jak papka w mozgi gimbazjady.
Raven_PLZobacz profil
Poziom ostrzeżenia: 0%
Raven_PL2016.03.30, 12:50
W Hitmanie są różnice na plus, zaś w Rise of Tomb Rider sytuacja ma się całkiem odwrotnie. Moim zdaniem te testy pokazały, iż nie należy przesądzać co do DX12. Bardzo dużo zależy od optymalizacji gier, a twórcy pierwszy raz korzystali z dobrodziejstw nowego API. Wiadomo, sporo newsów w tej sprawie od Microsoftu to była marketingowa papka, ale z drugiej strony, tak jak pisałem - twórcy tych gier pewnie mogli by lepiej. W przyszłości skok nawet kilkunastu klatek, powinien pozwolić nałożyć trochę więcej efektów, co za tym idzie grafika minimalnie na plus.
DjXbeatZobacz profil
Poziom ostrzeżenia: 0%
DjXbeat2016.03.30, 12:17
BlindObserver @ 2016.03.30 11:17  Post: 961381

DX12 według Nvidii, a piszesz o VXAO, które w tej grze działa tylko w DX11 :D

Zamotał się ładnie :)
DjXbeatZobacz profil
Poziom ostrzeżenia: 0%
DjXbeat2016.03.30, 12:17
SALETRZAK @ 2016.03.30 00:11  Post: 961293
DX 12 wg. Nvidii:)
https://www.youtube.com/watch?v=VWiSex0NhlI
Dodamy VXAO żeby zajechać Radeony,a przy okazji sami siebie
980ti z VXAO po 30 parę FPS.Brawo:)

Chyba nawet nie wiesz o czym piszesz.
Po pierwsze napisałeś 'DX12 wg Nvidii' a podajesz przykład VXAO, które działa na DX11 - myśl trochę.
Po drugie napisałeś 'dodamy VXAO żeby zajechać radeony' - nic nie zajedziesz bo Radeony nie obsługują VXAO ze względu na brak sprzętowego Conservative Rasterization a to jest podstawa do obsługi VXAO czy VXGI.
Idąc dalej, AMD mogło przygotować odpowiednie sterowniki z programową obsługą VXAO ale nie było tym całkowicie zainteresowane i nie ma się co dziwić bo jeśli sprzętowe wsparcie powoduje taki spadek wydajności to co będzie przy programowym?

BlindObserverZobacz profil
Poziom ostrzeżenia: 0%
ModeratorBlindObserver2016.03.30, 11:17
SALETRZAK @ 2016.03.30 00:11  Post: 961293
DX 12 wg. Nvidii:)
https://www.youtube.com/watch?v=VWiSex0NhlI
Dodamy VXAO żeby zajechać Radeony,a przy okazji sami siebie
980ti z VXAO po 30 parę FPS.Brawo:)


DX12 według Nvidii, a piszesz o VXAO, które w tej grze działa tylko w DX11 :D
gamesiarzZobacz profil
Poziom ostrzeżenia: 0%
gamesiarz2016.03.30, 08:33
Mam pytanie do redakcji, czy możecie sprawdzić czy gsync na Windows 10 faktycznie działa, bo po tych informacjach odnośnie synchronizacji zaczynam mieć pewne obawy. Jeśli jest możliwość prosiłbym o test gsync z rise of the tomb rider w d 12, tak jak dawniej robiliście to przy tomb rider.
wwadZobacz profil
Poziom ostrzeżenia: 0%
wwad2016.03.30, 05:37
Pierwsze testy pokazuja ze nowe api ma kryzys wieku dojrzewania i troche potrwa nim cos z tego bedzie. Szkoda sobie robic nadzieje bo Dx12 dziala lepiej lub gorzej jak mu sie chce i nie ma czym tego mierzyc latwo w domu co przemawia za pozostaniem obecnie przy dx11 je mozna sprawnie kontrolowac, ma sweetfxa ktory tez czesto sie przydaje jak producent skopie wygladzanie krawedzi np. w sweetfx jest ono bardzo lekkie dla sprzetu i w miare ladne. Nie wiem jak z wsparciem wielu gpu w dx12 moze jakis przykladowy tescik? by tylko pokazac jak sprawa wyglada.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2016.03.30, 02:11
Ale przyznasz że różnicę na plus w jakości obrazu i jego realizmie między VXAO a starszymi sposobami cieniowania po prostu widać!
http://abload.de/img/vxao_hbao_1vkxff.gif
Za kilka miesięcy będą dostępne karty graficzne nowej generacji, wtedy spadek wydajności związany z VXAO będzie skompensowany wzrostem wydajności GPU.
SALETRZAKZobacz profil
Poziom ostrzeżenia: 0%
SALETRZAK2016.03.30, 00:11
DX 12 wg. Nvidii:)
https://www.youtube.com/watch?v=VWiSex0NhlI
Dodamy VXAO żeby zajechać Radeony,a przy okazji sami siebie
980ti z VXAO po 30 parę FPS.Brawo:)
dulu10Zobacz profil
Poziom ostrzeżenia: 0%
dulu102016.03.29, 23:16
SambaVerde @ 2016.03.28 21:49  Post: 961004
Landsberg2015 @ 2016.03.28 21:23  Post: 960998

Kupiłem tą kartę w sierpniu 2015. I nie gram na ultra tylko na wysokich zazwyczaj bo róznica nie duża fps więcej. Poza tym jak miałem przewidzieć że w nowych grach Nvidia będzie przegrywać z AMD? Dziś AMd r9 380 niewiele droższy od 960 wystarcza właśnie do każdej nowej gry na ultra wyprzedzając Gtx 960 o kilkanaście fps. No ale pewnie masz rację zaufałem złej firmie. W czerwcu przechodzę na AMD Polaris jeśli nie zepusją tej generacji. I rzeczywiście wydam już więcej bo 1500- 1700 zl na kartę ale patrząc jak AMD zyskuje z czasem starczy na 2 lata spokojnie i da +60 fps w wysokich ustawieniach


Nie gram w najnowsze gry więc GTX960 wystarcza z nawiązką, ale też byłem zaskoczony, że czasem wymięka ni z tego ni z owego. Widocznie ten typ tak ma. Z drugiej strony jeśli znowu mam się użerać ze sterownikami AMD to jednak wolę coś tam wyłączyć np. przenikanie niezależne dla każdej z warstw albo wysoką precyzję i cieszyć się grą :) Bywa tak, że jakiś zbędny bajer zjada 30 fps a kiedy go wyłączysz gra wygląda tak samo, tylko możesz użyć ustawień o oczko wyższych. Powiedz mi tak z ręką na sercu: czym się różni High, Very High od Ultra w 'Shadow of Mordor'? Może to wina monitora, ale ja wielkiej różnicy nie widzę. Więcej dawało zmniejszenie detali i włączenie DSR.

Co będzie za kilka miesięcy nikt nie wie... Tym razem uważniej czytaj testy i skoro masz aspiracje na więcej jak średnio-wysokie detale kup kartę z wyższej półki jaka by ona nie była. ;) Ja tam się cieszę, że nie kupiłem GTX970, bo była bardzo droga a dostaje w piszczel na DX12 proporcjonalnie bardziej jak 960-tka.



Pamiętam jak jakiś czas temu oglądałem testy kart i procesorów w GTA 5, i jak je czytałem to byłem pewny że będe musiał grać na low (i5 750@3,6Ghz, hd7850). A okazało się że grałem na very high tylko trawę zmniejszyłem na high, gdzie różnicy w obrazie jakoś nie widziałem. Oczywiście wszystko bez aa. Nie miałem spadków poniżej 30fps. A mówię tutaj teraz o komputerze wartym jakieś 1k pln.

Zmierzam do tego, że wszystkie te testy, niezależnie od portalu, trzeba czytać z pewnym przymrużeniem oka, warto coś niepotrzebnego wyłączyć, tak jak mówisz ;)
FoperZobacz profil
Poziom ostrzeżenia: 0%
Foper2016.03.29, 22:41
iniside @ 2016.03.29 22:03  Post: 961246
Jedno jest faktem. Z tych testów nic nie wynika. Porównywanie wydajności API, to niemal tak samo durne jak porównywanie wydajności Javy, C#, Pythona i C++ poprzez napisanie prostej pętli.

DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.

Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.

DX12 poprzez równomierniejsze rozkładanie obciążeń na kolejne rdzenie powoduje właśnie taki efekt o jakim piszesz.

DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.

Powiedz mi proszę jak to co napisałeś ma się do tego

http://pclab.pl/art37055-3.html


Te dwa slajdy pokazują jeden z podstawowych problemów wcześniejszych DirectX-ów – do tej pory budowaniem kolejek poleceń dla GPU zajmował się tylko jeden rdzeń procesora, co łatwo mogło doprowadzić do powstania wąskiego gardła. DirectX 11 w końcu ma to zmienić i w pełni korzystać z potencjału wielordzeniowych procesorów, gdyż wszystkie rdzenie mają się zajmować przygotowywaniem kolejek poleceń i robić to równolegle
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2016.03.29, 22:13
iniside @ 2016.03.29 22:03  Post: 961246

Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.


Tylko czy nie zacznie się pisanie gier pod jedną konkretną architekturę?
Zobacz jak już teraz rysuje się podział - jedne gry dobrze działają na Nvidii a inne na AMD i to nie są różnice 5 fps na Ultra tylko działa albo nie bardzo.
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2016.03.29, 22:07
Mcix @ 2016.03.28 09:00  Post: 960803
DX11 korzysta tylko z jednego rdzenia wiec nie ma znaczenia czy jest ich 2, 4 czy 8.


Jesteś w błędzie.
DX11 korzysta z maksymalnie 6-ciu rdzeni z tym, że pierwszy jest obciążony najmocniej.

http://www.amd.com/PublishingImages/graphi...kload-8core.jpg
DX12 potrafi wykorzystać 8 rdzeni.

http://www.amd.com/PublishingImages/graphi...kload-8core.jpg
inisideZobacz profil
Poziom ostrzeżenia: 0%
iniside2016.03.29, 22:03
Jedno jest faktem. Z tych testów nic nie wynika. Porównywanie wydajności API, to niemal tak samo durne jak porównywanie wydajności Javy, C#, Pythona i C++ poprzez napisanie prostej pętli.

DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.

Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.

DX12 poprzez równomierniejsze rozkładanie obciążeń na kolejne rdzenie powoduje właśnie taki efekt o jakim piszesz.

DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
dulu10Zobacz profil
Poziom ostrzeżenia: 0%
dulu102016.03.29, 21:46
Mcix @ 2016.03.28 09:00  Post: 960803
DX11 korzysta tylko z jednego rdzenia wiec nie ma znaczenia czy jest ich 2, 4 czy 8.


Jak to zobaczyłem to aż się specjalnie na labie zarejestrowałem 0_o. Ty na prawdę uważasz że dx11 używa jednego rdzenia? trochę tak jakbyś z tą tematyką ostatni raz miał styczność za czasów d3 i hl2, błagam cie, nie pisz takich głupot i nie wprowadzaj nieobeznanych ludzi w błąd bo robisz z siebie pośmiewisko, co zresztą widać po minusach.
letsgochampZobacz profil
Poziom ostrzeżenia: 0%
letsgochamp2016.03.29, 20:34
A takie było pitolenie o super przełomie i wydajności. Jebać to
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.