Chyba nawet nie wiesz o czym piszesz.
Po pierwsze napisałeś 'DX12 wg Nvidii' a podajesz przykład VXAO, które działa na DX11 - myśl trochę.
Po drugie napisałeś 'dodamy VXAO żeby zajechać radeony' - nic nie zajedziesz bo Radeony nie obsługują VXAO ze względu na brak sprzętowego Conservative Rasterization a to jest podstawa do obsługi VXAO czy VXGI.
Idąc dalej, AMD mogło przygotować odpowiednie sterowniki z programową obsługą VXAO ale nie było tym całkowicie zainteresowane i nie ma się co dziwić bo jeśli sprzętowe wsparcie powoduje taki spadek wydajności to co będzie przy programowym?
A co mają sterowniki do programowego conservative rasterization? VXAO w tombie zostało tak zaimplementowane, że wymaga sprzętowej obsługi CS i tutaj sterowniki nie mają nic do tego. W UE4.x VXAO/VXGI będzie można odpalić na gpu bez sprzętowego CS , CS będzie emulowany za pomocą geometry shader. Tylko raczej nikt z tego będzie korzystał zbyt duży spadek wydajności, zanim pojawią gry na szeroką skalę z VXAO/VXGI to amd będzie posiadać gpu ze sprzętowym CS i skończy się pitolenie.
Po pierwsze HairWorks to nie tylko same włosy tak jak TresFX w RotTRa po drugie Nvidia chciała udpstępnić VXAO aby AMD odpowiednio przygotowało programowe wsparcie razem ze sterownikamki ale AMD nie było zainteresowane tą techniką.
To jak nie chcą chować tego przed AMD to przed kim nadal jest zamknięte ? Przed Intelem?
Hairworks x64 też zabierał 10 fps i jeszcze więcej na Radeonach. Kiedy AMD zrobiło swoje TressFX, dało kod programistom i proszę- 1-2 fps zabiera PureHair w Rise of the Tomb Raider i to obojętne na jakiej karcie. Może Nvidia powinna otworzyć kod VXAO i dać AMD do poprawienia - wtedy każdy by to odpalił z minimalnym spadkiem fps. Jak się nie da, to trzeba zrobić tak aby się dało, tylko trzeba chcieć.
Po pierwsze HairWorks to nie tylko same włosy tak jak TresFX w RotTRa po drugie Nvidia chciała udpstępnić VXAO aby AMD odpowiednio przygotowało programowe wsparcie razem ze sterownikamki ale AMD nie było zainteresowane tą techniką.
Idąc dalej, AMD mogło przygotować odpowiednie sterowniki z programową obsługą VXAO ale nie było tym całkowicie zainteresowane i nie ma się co dziwić bo jeśli sprzętowe wsparcie powoduje taki spadek wydajności to co będzie przy programowym?
Hairworks x64 też zabierał 10 fps i jeszcze więcej na Radeonach. Kiedy AMD zrobiło swoje TressFX, dało kod programistom i proszę- 1-2 fps zabiera PureHair w Rise of the Tomb Raider i to obojętne na jakiej karcie. Może Nvidia powinna otworzyć kod VXAO i dać AMD do poprawienia - wtedy każdy by to odpalił z minimalnym spadkiem fps. Jak się nie da, to trzeba zrobić tak aby się dało, tylko trzeba chcieć.
W Hitmanie są różnice na plus, zaś w Rise of Tomb Rider sytuacja ma się całkiem odwrotnie. Moim zdaniem te testy pokazały, iż nie należy przesądzać co do DX12. Bardzo dużo zależy od optymalizacji gier, a twórcy pierwszy raz korzystali z dobrodziejstw nowego API. Wiadomo, sporo newsów w tej sprawie od Microsoftu to była marketingowa papka, ale z drugiej strony, tak jak pisałem - twórcy tych gier pewnie mogli by lepiej. W przyszłości skok nawet kilkunastu klatek, powinien pozwolić nałożyć trochę więcej efektów, co za tym idzie grafika minimalnie na plus.
Chyba nawet nie wiesz o czym piszesz.
Po pierwsze napisałeś 'DX12 wg Nvidii' a podajesz przykład VXAO, które działa na DX11 - myśl trochę.
Po drugie napisałeś 'dodamy VXAO żeby zajechać radeony' - nic nie zajedziesz bo Radeony nie obsługują VXAO ze względu na brak sprzętowego Conservative Rasterization a to jest podstawa do obsługi VXAO czy VXGI.
Idąc dalej, AMD mogło przygotować odpowiednie sterowniki z programową obsługą VXAO ale nie było tym całkowicie zainteresowane i nie ma się co dziwić bo jeśli sprzętowe wsparcie powoduje taki spadek wydajności to co będzie przy programowym?
Mam pytanie do redakcji, czy możecie sprawdzić czy gsync na Windows 10 faktycznie działa, bo po tych informacjach odnośnie synchronizacji zaczynam mieć pewne obawy. Jeśli jest możliwość prosiłbym o test gsync z rise of the tomb rider w d 12, tak jak dawniej robiliście to przy tomb rider.
Pierwsze testy pokazuja ze nowe api ma kryzys wieku dojrzewania i troche potrwa nim cos z tego bedzie. Szkoda sobie robic nadzieje bo Dx12 dziala lepiej lub gorzej jak mu sie chce i nie ma czym tego mierzyc latwo w domu co przemawia za pozostaniem obecnie przy dx11 je mozna sprawnie kontrolowac, ma sweetfxa ktory tez czesto sie przydaje jak producent skopie wygladzanie krawedzi np. w sweetfx jest ono bardzo lekkie dla sprzetu i w miare ladne. Nie wiem jak z wsparciem wielu gpu w dx12 moze jakis przykladowy tescik? by tylko pokazac jak sprawa wyglada.
Ale przyznasz że różnicę na plus w jakości obrazu i jego realizmie między VXAO a starszymi sposobami cieniowania po prostu widać! http://abload.de/img/vxao_hbao_1vkxff.gif
Za kilka miesięcy będą dostępne karty graficzne nowej generacji, wtedy spadek wydajności związany z VXAO będzie skompensowany wzrostem wydajności GPU.
Kupiłem tą kartę w sierpniu 2015. I nie gram na ultra tylko na wysokich zazwyczaj bo róznica nie duża fps więcej. Poza tym jak miałem przewidzieć że w nowych grach Nvidia będzie przegrywać z AMD? Dziś AMd r9 380 niewiele droższy od 960 wystarcza właśnie do każdej nowej gry na ultra wyprzedzając Gtx 960 o kilkanaście fps. No ale pewnie masz rację zaufałem złej firmie. W czerwcu przechodzę na AMD Polaris jeśli nie zepusją tej generacji. I rzeczywiście wydam już więcej bo 1500- 1700 zl na kartę ale patrząc jak AMD zyskuje z czasem starczy na 2 lata spokojnie i da +60 fps w wysokich ustawieniach
Nie gram w najnowsze gry więc GTX960 wystarcza z nawiązką, ale też byłem zaskoczony, że czasem wymięka ni z tego ni z owego. Widocznie ten typ tak ma. Z drugiej strony jeśli znowu mam się użerać ze sterownikami AMD to jednak wolę coś tam wyłączyć np. przenikanie niezależne dla każdej z warstw albo wysoką precyzję i cieszyć się grą Bywa tak, że jakiś zbędny bajer zjada 30 fps a kiedy go wyłączysz gra wygląda tak samo, tylko możesz użyć ustawień o oczko wyższych. Powiedz mi tak z ręką na sercu: czym się różni High, Very High od Ultra w 'Shadow of Mordor'? Może to wina monitora, ale ja wielkiej różnicy nie widzę. Więcej dawało zmniejszenie detali i włączenie DSR.
Co będzie za kilka miesięcy nikt nie wie... Tym razem uważniej czytaj testy i skoro masz aspiracje na więcej jak średnio-wysokie detale kup kartę z wyższej półki jaka by ona nie była. Ja tam się cieszę, że nie kupiłem GTX970, bo była bardzo droga a dostaje w piszczel na DX12 proporcjonalnie bardziej jak 960-tka.
Pamiętam jak jakiś czas temu oglądałem testy kart i procesorów w GTA 5, i jak je czytałem to byłem pewny że będe musiał grać na low (i5 750@3,6Ghz, hd7850). A okazało się że grałem na very high tylko trawę zmniejszyłem na high, gdzie różnicy w obrazie jakoś nie widziałem. Oczywiście wszystko bez aa. Nie miałem spadków poniżej 30fps. A mówię tutaj teraz o komputerze wartym jakieś 1k pln.
Zmierzam do tego, że wszystkie te testy, niezależnie od portalu, trzeba czytać z pewnym przymrużeniem oka, warto coś niepotrzebnego wyłączyć, tak jak mówisz
Jedno jest faktem. Z tych testów nic nie wynika. Porównywanie wydajności API, to niemal tak samo durne jak porównywanie wydajności Javy, C#, Pythona i C++ poprzez napisanie prostej pętli.
DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
DX12 poprzez równomierniejsze rozkładanie obciążeń na kolejne rdzenie powoduje właśnie taki efekt o jakim piszesz.
DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
Powiedz mi proszę jak to co napisałeś ma się do tego
Te dwa slajdy pokazują jeden z podstawowych problemów wcześniejszych DirectX-ów – do tej pory budowaniem kolejek poleceń dla GPU zajmował się tylko jeden rdzeń procesora, co łatwo mogło doprowadzić do powstania wąskiego gardła. DirectX 11 w końcu ma to zmienić i w pełni korzystać z potencjału wielordzeniowych procesorów, gdyż wszystkie rdzenie mają się zajmować przygotowywaniem kolejek poleceń i robić to równolegle
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
Tylko czy nie zacznie się pisanie gier pod jedną konkretną architekturę?
Zobacz jak już teraz rysuje się podział - jedne gry dobrze działają na Nvidii a inne na AMD i to nie są różnice 5 fps na Ultra tylko działa albo nie bardzo.
Jedno jest faktem. Z tych testów nic nie wynika. Porównywanie wydajności API, to niemal tak samo durne jak porównywanie wydajności Javy, C#, Pythona i C++ poprzez napisanie prostej pętli.
DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
DX12 poprzez równomierniejsze rozkładanie obciążeń na kolejne rdzenie powoduje właśnie taki efekt o jakim piszesz.
DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
DX11 korzysta tylko z jednego rdzenia wiec nie ma znaczenia czy jest ich 2, 4 czy 8.
Jak to zobaczyłem to aż się specjalnie na labie zarejestrowałem 0_o. Ty na prawdę uważasz że dx11 używa jednego rdzenia? trochę tak jakbyś z tą tematyką ostatni raz miał styczność za czasów d3 i hl2, błagam cie, nie pisz takich głupot i nie wprowadzaj nieobeznanych ludzi w błąd bo robisz z siebie pośmiewisko, co zresztą widać po minusach.
https://www.youtube.com/watch?v=VWiSex0NhlI
Dodamy VXAO żeby zajechać Radeony,a przy okazji sami siebie
980ti z VXAO po 30 parę FPS.Brawo
Chyba nawet nie wiesz o czym piszesz.
Po pierwsze napisałeś 'DX12 wg Nvidii' a podajesz przykład VXAO, które działa na DX11 - myśl trochę.
Po drugie napisałeś 'dodamy VXAO żeby zajechać radeony' - nic nie zajedziesz bo Radeony nie obsługują VXAO ze względu na brak sprzętowego Conservative Rasterization a to jest podstawa do obsługi VXAO czy VXGI.
Idąc dalej, AMD mogło przygotować odpowiednie sterowniki z programową obsługą VXAO ale nie było tym całkowicie zainteresowane i nie ma się co dziwić bo jeśli sprzętowe wsparcie powoduje taki spadek wydajności to co będzie przy programowym?
A co mają sterowniki do programowego conservative rasterization? VXAO w tombie zostało tak zaimplementowane, że wymaga sprzętowej obsługi CS i tutaj sterowniki nie mają nic do tego. W UE4.x VXAO/VXGI będzie można odpalić na gpu bez sprzętowego CS , CS będzie emulowany za pomocą geometry shader. Tylko raczej nikt z tego będzie korzystał zbyt duży spadek wydajności, zanim pojawią gry na szeroką skalę z VXAO/VXGI to amd będzie posiadać gpu ze sprzętowym CS i skończy się pitolenie.
Po pierwsze HairWorks to nie tylko same włosy tak jak TresFX w RotTRa po drugie Nvidia chciała udpstępnić VXAO aby AMD odpowiednio przygotowało programowe wsparcie razem ze sterownikamki ale AMD nie było zainteresowane tą techniką.
To jak nie chcą chować tego przed AMD to przed kim nadal jest zamknięte ? Przed Intelem?
Hairworks x64 też zabierał 10 fps i jeszcze więcej na Radeonach. Kiedy AMD zrobiło swoje TressFX, dało kod programistom i proszę- 1-2 fps zabiera PureHair w Rise of the Tomb Raider i to obojętne na jakiej karcie. Może Nvidia powinna otworzyć kod VXAO i dać AMD do poprawienia - wtedy każdy by to odpalił z minimalnym spadkiem fps. Jak się nie da, to trzeba zrobić tak aby się dało, tylko trzeba chcieć.
Po pierwsze HairWorks to nie tylko same włosy tak jak TresFX w RotTRa po drugie Nvidia chciała udpstępnić VXAO aby AMD odpowiednio przygotowało programowe wsparcie razem ze sterownikamki ale AMD nie było zainteresowane tą techniką.
Idąc dalej, AMD mogło przygotować odpowiednie sterowniki z programową obsługą VXAO ale nie było tym całkowicie zainteresowane i nie ma się co dziwić bo jeśli sprzętowe wsparcie powoduje taki spadek wydajności to co będzie przy programowym?
Hairworks x64 też zabierał 10 fps i jeszcze więcej na Radeonach. Kiedy AMD zrobiło swoje TressFX, dało kod programistom i proszę- 1-2 fps zabiera PureHair w Rise of the Tomb Raider i to obojętne na jakiej karcie. Może Nvidia powinna otworzyć kod VXAO i dać AMD do poprawienia - wtedy każdy by to odpalił z minimalnym spadkiem fps. Jak się nie da, to trzeba zrobić tak aby się dało, tylko trzeba chcieć.
DX12 według Nvidii, a piszesz o VXAO, które w tej grze działa tylko w DX11
Zamotał się ładnie
https://www.youtube.com/watch?v=VWiSex0NhlI
Dodamy VXAO żeby zajechać Radeony,a przy okazji sami siebie
980ti z VXAO po 30 parę FPS.Brawo
Chyba nawet nie wiesz o czym piszesz.
Po pierwsze napisałeś 'DX12 wg Nvidii' a podajesz przykład VXAO, które działa na DX11 - myśl trochę.
Po drugie napisałeś 'dodamy VXAO żeby zajechać radeony' - nic nie zajedziesz bo Radeony nie obsługują VXAO ze względu na brak sprzętowego Conservative Rasterization a to jest podstawa do obsługi VXAO czy VXGI.
Idąc dalej, AMD mogło przygotować odpowiednie sterowniki z programową obsługą VXAO ale nie było tym całkowicie zainteresowane i nie ma się co dziwić bo jeśli sprzętowe wsparcie powoduje taki spadek wydajności to co będzie przy programowym?
https://www.youtube.com/watch?v=VWiSex0NhlI
Dodamy VXAO żeby zajechać Radeony,a przy okazji sami siebie
980ti z VXAO po 30 parę FPS.Brawo
DX12 według Nvidii, a piszesz o VXAO, które w tej grze działa tylko w DX11
http://abload.de/img/vxao_hbao_1vkxff.gif
Za kilka miesięcy będą dostępne karty graficzne nowej generacji, wtedy spadek wydajności związany z VXAO będzie skompensowany wzrostem wydajności GPU.
https://www.youtube.com/watch?v=VWiSex0NhlI
Dodamy VXAO żeby zajechać Radeony,a przy okazji sami siebie
980ti z VXAO po 30 parę FPS.Brawo
Kupiłem tą kartę w sierpniu 2015. I nie gram na ultra tylko na wysokich zazwyczaj bo róznica nie duża fps więcej. Poza tym jak miałem przewidzieć że w nowych grach Nvidia będzie przegrywać z AMD? Dziś AMd r9 380 niewiele droższy od 960 wystarcza właśnie do każdej nowej gry na ultra wyprzedzając Gtx 960 o kilkanaście fps. No ale pewnie masz rację zaufałem złej firmie. W czerwcu przechodzę na AMD Polaris jeśli nie zepusją tej generacji. I rzeczywiście wydam już więcej bo 1500- 1700 zl na kartę ale patrząc jak AMD zyskuje z czasem starczy na 2 lata spokojnie i da +60 fps w wysokich ustawieniach
Nie gram w najnowsze gry więc GTX960 wystarcza z nawiązką, ale też byłem zaskoczony, że czasem wymięka ni z tego ni z owego. Widocznie ten typ tak ma. Z drugiej strony jeśli znowu mam się użerać ze sterownikami AMD to jednak wolę coś tam wyłączyć np. przenikanie niezależne dla każdej z warstw albo wysoką precyzję i cieszyć się grą
Co będzie za kilka miesięcy nikt nie wie... Tym razem uważniej czytaj testy i skoro masz aspiracje na więcej jak średnio-wysokie detale kup kartę z wyższej półki jaka by ona nie była.
Pamiętam jak jakiś czas temu oglądałem testy kart i procesorów w GTA 5, i jak je czytałem to byłem pewny że będe musiał grać na low (i5 750@3,6Ghz, hd7850). A okazało się że grałem na very high tylko trawę zmniejszyłem na high, gdzie różnicy w obrazie jakoś nie widziałem. Oczywiście wszystko bez aa. Nie miałem spadków poniżej 30fps. A mówię tutaj teraz o komputerze wartym jakieś 1k pln.
Zmierzam do tego, że wszystkie te testy, niezależnie od portalu, trzeba czytać z pewnym przymrużeniem oka, warto coś niepotrzebnego wyłączyć, tak jak mówisz
DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
Powiedz mi proszę jak to co napisałeś ma się do tego
http://pclab.pl/art37055-3.html
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
Tylko czy nie zacznie się pisanie gier pod jedną konkretną architekturę?
Zobacz jak już teraz rysuje się podział - jedne gry dobrze działają na Nvidii a inne na AMD i to nie są różnice 5 fps na Ultra tylko działa albo nie bardzo.
Jesteś w błędzie.
DX11 korzysta z maksymalnie 6-ciu rdzeni z tym, że pierwszy jest obciążony najmocniej.
http://www.amd.com/PublishingImages/graphi...kload-8core.jpg
DX12 potrafi wykorzystać 8 rdzeni.
http://www.amd.com/PublishingImages/graphi...kload-8core.jpg
DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
Jak to zobaczyłem to aż się specjalnie na labie zarejestrowałem 0_o. Ty na prawdę uważasz że dx11 używa jednego rdzenia? trochę tak jakbyś z tą tematyką ostatni raz miał styczność za czasów d3 i hl2, błagam cie, nie pisz takich głupot i nie wprowadzaj nieobeznanych ludzi w błąd bo robisz z siebie pośmiewisko, co zresztą widać po minusach.