ppc dobry portal ale mam nadzieje, zem mi nie zrobicie gownoburzy pod kazdym komentarzem jak tam. nie da sie tego czytac. zwykly news potrafi miec 150 komentow, z czego polowe napisaly 3 osoby.
moderacja powinna banowac ich tu zawczasu, zeby sie to tu sie nie zaleglo.
Sam mam Gtx 960 więc patrzę na to obiektywnie i czuję się oszukany przez Nvidie która zapewniała o pełnej obsłudze DX12. Ten test jest całkiem odmienny od testów pure pc/ Gtx 960 nie ma możliwości żeby było ponad 30 fps w Rise of Tomb Rider czy Hitman na Ultra
Jeśli kupiłeś GTX 960 z myślą, że zagrasz na tym w najnowsze gry na 'Ultra' to sam się oszukiwałeś. Były od dawna testy w sieci - na pewno wcześniej niż kupiłeś kartę.
Nvidia nigdy nie przedstawiała 960-tki jako 'Ultra' karty. 'Ultra' to domena GTX980Ti i Titan X. 960 i tak jest super jak na kartę mainstream - czyli do detali MEDIUM.
Kupiłem tą kartę w sierpniu 2015. I nie gram na ultra tylko na wysokich zazwyczaj bo róznica nie duża fps więcej. Poza tym jak miałem przewidzieć że w nowych grach Nvidia będzie przegrywać z AMD? Dziś AMd r9 380 niewiele droższy od 960 wystarcza właśnie do każdej nowej gry na ultra wyprzedzając Gtx 960 o kilkanaście fps. No ale pewnie masz rację zaufałem złej firmie. W czerwcu przechodzę na AMD Polaris jeśli nie zepusją tej generacji. I rzeczywiście wydam już więcej bo 1500- 1700 zl na kartę ale patrząc jak AMD zyskuje z czasem starczy na 2 lata spokojnie i da +60 fps w wysokich ustawieniach
Ps. SambaVerde już dostał bana na PurePC za trolling.
Owszem. Przyznaję i nie kryję się z tym. Od początku mówiłem otwarcie, że jestem trollem.
Jednak nigdy nie postępowałem nieetycznie wobec uczestników forum a wyśmiewanie bzdurnych tez to nie łamanie regulaminu.
Dobra... Koniec tematu.
Atak_Snajpera - zająłbyś się swoją osobą zamiast donosić na mnie, OK?
Nie rozumiem, dlaczego w komentarzach muszą pojawiać się teksty antyPPC, tak jak u nich pojawiają się teksty antyPCL. Wy chcecie pod względem 'fajności' mbe czy ruuja dogonić?
Nie wiem czy zdajesz sobie sprawę, ale ten psychol RUUJ już wylał swoją żółć jako m.salon, wcześniej komoroski. Ma jeszcze kilka kont. Czyń honory
HA HA HA
Umoralniać próbuje pierwsza Labowa szczekaczka anty AMD. Człowieku, spójrz w lustro zanim zaczniesz oceniać innych.
Kupiłem tą kartę w sierpniu 2015. I nie gram na ultra tylko na wysokich zazwyczaj bo róznica nie duża fps więcej. Poza tym jak miałem przewidzieć że w nowych grach Nvidia będzie przegrywać z AMD? Dziś AMd r9 380 niewiele droższy od 960 wystarcza właśnie do każdej nowej gry na ultra wyprzedzając Gtx 960 o kilkanaście fps. No ale pewnie masz rację zaufałem złej firmie. W czerwcu przechodzę na AMD Polaris jeśli nie zepusją tej generacji. I rzeczywiście wydam już więcej bo 1500- 1700 zl na kartę ale patrząc jak AMD zyskuje z czasem starczy na 2 lata spokojnie i da +60 fps w wysokich ustawieniach
Nie gram w najnowsze gry więc GTX960 wystarcza z nawiązką, ale też byłem zaskoczony, że czasem wymięka ni z tego ni z owego. Widocznie ten typ tak ma. Z drugiej strony jeśli znowu mam się użerać ze sterownikami AMD to jednak wolę coś tam wyłączyć np. przenikanie niezależne dla każdej z warstw albo wysoką precyzję i cieszyć się grą Bywa tak, że jakiś zbędny bajer zjada 30 fps a kiedy go wyłączysz gra wygląda tak samo, tylko możesz użyć ustawień o oczko wyższych. Powiedz mi tak z ręką na sercu: czym się różni High, Very High od Ultra w 'Shadow of Mordor'? Może to wina monitora, ale ja wielkiej różnicy nie widzę. Więcej dawało zmniejszenie detali i włączenie DSR.
Co będzie za kilka miesięcy nikt nie wie... Tym razem uważniej czytaj testy i skoro masz aspiracje na więcej jak średnio-wysokie detale kup kartę z wyższej półki jaka by ona nie była. Ja tam się cieszę, że nie kupiłem GTX970, bo była bardzo droga a dostaje w piszczel na DX12 proporcjonalnie bardziej jak 960-tka.
Chyba miałeś na myśli kartę 2-3 segmenty wyżej bo 380 nie dawał rady na ultra już 1,5 roku temu kiedy występował jako r9 285.
R9 285 nie był czasem szybszy od R9 380?
O ile pamiętam to chyba AMD zmniejszyło pobór prądu spowalniając pamięć karty?
Jeszcze coś tam potem opowiadali o tym, że ich karty są wystarczająco szybkie...
Kupiłem tą kartę w sierpniu 2015. I nie gram na ultra tylko na wysokich zazwyczaj bo róznica nie duża fps więcej. Poza tym jak miałem przewidzieć że w nowych grach Nvidia będzie przegrywać z AMD? Dziś AMd r9 380 niewiele droższy od 960 wystarcza właśnie do każdej nowej gry na ultra wyprzedzając Gtx 960 o kilkanaście fps. No ale pewnie masz rację zaufałem złej firmie. W czerwcu przechodzę na AMD Polaris jeśli nie zepusją tej generacji. I rzeczywiście wydam już więcej bo 1500- 1700 zl na kartę ale patrząc jak AMD zyskuje z czasem starczy na 2 lata spokojnie i da +60 fps w wysokich ustawieniach
Nie gram w najnowsze gry więc GTX960 wystarcza z nawiązką, ale też byłem zaskoczony, że czasem wymięka ni z tego ni z owego. Widocznie ten typ tak ma. Z drugiej strony jeśli znowu mam się użerać ze sterownikami AMD to jednak wolę coś tam wyłączyć np. przenikanie niezależne dla każdej z warstw albo wysoką precyzję i cieszyć się grą Bywa tak, że jakiś zbędny bajer zjada 30 fps a kiedy go wyłączysz gra wygląda tak samo, tylko możesz użyć ustawień o oczko wyższych. Powiedz mi tak z ręką na sercu: czym się różni High, Very High od Ultra w 'Shadow of Mordor'? Może to wina monitora, ale ja wielkiej różnicy nie widzę. Więcej dawało zmniejszenie detali i włączenie DSR.
Co będzie za kilka miesięcy nikt nie wie... Tym razem uważniej czytaj testy i skoro masz aspiracje na więcej jak średnio-wysokie detale kup kartę z wyższej półki jaka by ona nie była. Ja tam się cieszę, że nie kupiłem GTX970, bo była bardzo droga a dostaje w piszczel na DX12 proporcjonalnie bardziej jak 960-tka.
Jak dla mnie to wymagania gier idą w górę ogromnie a grafika już nie. Zawsze się zastanawiam jak włączam nową grę dlaczego wymagania poszły tak do góry a różnica grafiki nie wiele większa niż w Alan Wake z 2012 który chodził dobrze na karcie 1 GB Ram Gtx 650 ti (moja była)
Wszelkie obietnice dotyczące DX12 że ma być ach i och czyli ma odciążyć cpu to po prostu bajki. Procki mają się sprzedawać, podobnie gpu ma się sprzedawać i tyle.
Najwięcej zyskać mogą konsole, trwa bezkrytyczny kurs w stronę portów dla konsol, develeperzy nawet ostrzegają, że w pecetach tylko wybrana marka i tak będzie różnie, bo różne konfigi, czyli dx12 parodia.
Jak dla mnie to wymagania gier idą w górę ogromnie a grafika już nie. Zawsze się zastanawiam jak włączam nową grę dlaczego wymagania poszły tak do góry a różnica grafiki nie wiele większa niż w Alan Wake z 2012 który chodził dobrze na karcie 1 GB Ram Gtx 650 ti (moja była)
Wszystko zależy jakich efektów użyjesz.
GTX960 4GB uwielbia szczegółowe tekstury i gęstą siatkę a nie lubi efektów wygładzania.
Daj kiepskie tekstury i nadrabiaj postprocesingiem i wygładzaniem i masz na 960-tce 20 fps a grafikę gorszą jakbyś użył ładnych tekstur i siatki. Albo ta nieszczęsna wysoka precyzja. Daje nic do obrazu, ale za to zabije Ci 960-tkę. 'Przenikanie niezależne' - kolejna super funkcja Minus 20 klatek na sekundę
Tak to wygląda
Widać że na razie ino HITMAN coś pokazał DX11 vs DX12
'Nowe API Microsoftu ma – według zapowiedzi osób oraz firm zaangażowanych w prace nad DirectX 12 i rozwój gier wykorzystujących ten interfejs programowania – przede wszystkim odciążyć procesor. Ze względu na te zapewnienia powoli zaczyna się wykształcać przekonanie, w tej chwili kompletnie bezpodstawne, że do gier przestanie być potrzebny szybki procesor.'
Nie wiem skąd mieliście takie zapewnienia ja jedynie widziałem zapewnienia że obsługa karty graf w końcu zacznie używać czegoś więcej niż jednego rdzenia. I w waszym teście CPU to widać i5 6600k @3,5GHz niebezpiecznie blisko i5 6700k 4,7GHz (Jeśli to jest brak rewolucji to sorry).
Pentium G4400 ma za mało rdzeni by się mogło coś rozłożyć.
Czekam na procesory czerwonych tam zwykle rdzeni/modułów nie brakuje a i nikt nie mówi że to mocne procesory.
Masz wyjaśnienie powyżej..bo będzie musiał Poza tym wydajność poszła do przodu nie tylko w grach, więc zmiana pewnie będzie się opłacała/będzie częściowo wymuszona (patrz chociażby na G860).
Argument jest o tyle bezsensowny ze porownujesz rozne predkosci a wnioski wyciagasz do różnic architektury. Puść tego q6600 na 3Ghz (tak działały u większosci, 2.4 Ghz nikt nie używał bo tego procka kupowało sie po to żeby chodził na 3) i wtedy okaze się że róznica nie jest juz tak duża.
Nie wiem skąd mieliście takie zapewnienia ja jedynie widziałem zapewnienia że obsługa karty graf w końcu zacznie używać czegoś więcej niż jednego rdzenia. I w waszym teście CPU to widać i5 6600k @3,5GHz niebezpiecznie blisko i5 6700k 4,7GHz (Jeśli to jest brak rewolucji to sorry).
Pentium G4400 ma za mało rdzeni by się mogło coś rozłożyć.
Czekam na procesory czerwonych tam zwykle rdzeni/modułów nie brakuje a i nikt nie mówi że to mocne procesory.
DX12 poprzez równomierniejsze rozkładanie obciążeń na kolejne rdzenie powoduje właśnie taki efekt o jakim piszesz.
Szkoda, że nie ma opisu przy jakim obciążeniu kolejnych rdzeni pracowały CPU z testu.
Wtedy mielibyśmy pewność jak działa nowe API.
AMD FX mogą tylko zyskać, bo mimo niezbyt wysokiej mocy obliczeniowej pojedynczego rdzenia mają ich więcej od konkurencyjnych rozwiązań Intela. Właściwie to nie zdziwiłbym się, gdyby nawet C2Q z późniejszych serii całkiem dobrze dawały sobie radę w DX12.
DX11 korzysta tylko z jednego rdzenia wiec nie ma znaczenia czy jest ich 2, 4 czy 8.
Jak to zobaczyłem to aż się specjalnie na labie zarejestrowałem 0_o. Ty na prawdę uważasz że dx11 używa jednego rdzenia? trochę tak jakbyś z tą tematyką ostatni raz miał styczność za czasów d3 i hl2, błagam cie, nie pisz takich głupot i nie wprowadzaj nieobeznanych ludzi w błąd bo robisz z siebie pośmiewisko, co zresztą widać po minusach.
Jedno jest faktem. Z tych testów nic nie wynika. Porównywanie wydajności API, to niemal tak samo durne jak porównywanie wydajności Javy, C#, Pythona i C++ poprzez napisanie prostej pętli.
DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
DX12 poprzez równomierniejsze rozkładanie obciążeń na kolejne rdzenie powoduje właśnie taki efekt o jakim piszesz.
DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
Tylko czy nie zacznie się pisanie gier pod jedną konkretną architekturę?
Zobacz jak już teraz rysuje się podział - jedne gry dobrze działają na Nvidii a inne na AMD i to nie są różnice 5 fps na Ultra tylko działa albo nie bardzo.
Jedno jest faktem. Z tych testów nic nie wynika. Porównywanie wydajności API, to niemal tak samo durne jak porównywanie wydajności Javy, C#, Pythona i C++ poprzez napisanie prostej pętli.
DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
DX12 poprzez równomierniejsze rozkładanie obciążeń na kolejne rdzenie powoduje właśnie taki efekt o jakim piszesz.
DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
Powiedz mi proszę jak to co napisałeś ma się do tego
Te dwa slajdy pokazują jeden z podstawowych problemów wcześniejszych DirectX-ów – do tej pory budowaniem kolejek poleceń dla GPU zajmował się tylko jeden rdzeń procesora, co łatwo mogło doprowadzić do powstania wąskiego gardła. DirectX 11 w końcu ma to zmienić i w pełni korzystać z potencjału wielordzeniowych procesorów, gdyż wszystkie rdzenie mają się zajmować przygotowywaniem kolejek poleceń i robić to równolegle
OK. Sorry. Masz rację.
Ale niech mi nikt ich nie stawia za wzór solidności, bo to śmieszne
moderacja powinna banowac ich tu zawczasu, zeby sie to tu sie nie zaleglo.
Sam mam Gtx 960 więc patrzę na to obiektywnie i czuję się oszukany przez Nvidie która zapewniała o pełnej obsłudze DX12. Ten test jest całkiem odmienny od testów pure pc/ Gtx 960 nie ma możliwości żeby było ponad 30 fps w Rise of Tomb Rider czy Hitman na Ultra
Jeśli kupiłeś GTX 960 z myślą, że zagrasz na tym w najnowsze gry na 'Ultra' to sam się oszukiwałeś. Były od dawna testy w sieci - na pewno wcześniej niż kupiłeś kartę.
Nvidia nigdy nie przedstawiała 960-tki jako 'Ultra' karty. 'Ultra' to domena GTX980Ti i Titan X. 960 i tak jest super jak na kartę mainstream - czyli do detali MEDIUM.
Kupiłem tą kartę w sierpniu 2015. I nie gram na ultra tylko na wysokich zazwyczaj bo róznica nie duża fps więcej. Poza tym jak miałem przewidzieć że w nowych grach Nvidia będzie przegrywać z AMD? Dziś AMd r9 380 niewiele droższy od 960 wystarcza właśnie do każdej nowej gry na ultra wyprzedzając Gtx 960 o kilkanaście fps. No ale pewnie masz rację zaufałem złej firmie. W czerwcu przechodzę na AMD Polaris jeśli nie zepusją tej generacji. I rzeczywiście wydam już więcej bo 1500- 1700 zl na kartę ale patrząc jak AMD zyskuje z czasem starczy na 2 lata spokojnie i da +60 fps w wysokich ustawieniach
Ps. SambaVerde już dostał bana na PurePC za trolling.
Owszem. Przyznaję i nie kryję się z tym. Od początku mówiłem otwarcie, że jestem trollem.
Jednak nigdy nie postępowałem nieetycznie wobec uczestników forum a wyśmiewanie bzdurnych tez to nie łamanie regulaminu.
Dobra... Koniec tematu.
Atak_Snajpera - zająłbyś się swoją osobą zamiast donosić na mnie, OK?
Nie wiem czy zdajesz sobie sprawę, ale ten psychol RUUJ już wylał swoją żółć jako m.salon, wcześniej komoroski. Ma jeszcze kilka kont. Czyń honory
HA HA HA
Umoralniać próbuje pierwsza Labowa szczekaczka anty AMD. Człowieku, spójrz w lustro zanim zaczniesz oceniać innych.
Chyba miałeś na myśli kartę 2-3 segmenty wyżej bo 380 nie dawał rady na ultra już 1,5 roku temu kiedy występował jako r9 285.
Kupiłem tą kartę w sierpniu 2015. I nie gram na ultra tylko na wysokich zazwyczaj bo róznica nie duża fps więcej. Poza tym jak miałem przewidzieć że w nowych grach Nvidia będzie przegrywać z AMD? Dziś AMd r9 380 niewiele droższy od 960 wystarcza właśnie do każdej nowej gry na ultra wyprzedzając Gtx 960 o kilkanaście fps. No ale pewnie masz rację zaufałem złej firmie. W czerwcu przechodzę na AMD Polaris jeśli nie zepusją tej generacji. I rzeczywiście wydam już więcej bo 1500- 1700 zl na kartę ale patrząc jak AMD zyskuje z czasem starczy na 2 lata spokojnie i da +60 fps w wysokich ustawieniach
Nie gram w najnowsze gry więc GTX960 wystarcza z nawiązką, ale też byłem zaskoczony, że czasem wymięka ni z tego ni z owego. Widocznie ten typ tak ma. Z drugiej strony jeśli znowu mam się użerać ze sterownikami AMD to jednak wolę coś tam wyłączyć np. przenikanie niezależne dla każdej z warstw albo wysoką precyzję i cieszyć się grą
Co będzie za kilka miesięcy nikt nie wie... Tym razem uważniej czytaj testy i skoro masz aspiracje na więcej jak średnio-wysokie detale kup kartę z wyższej półki jaka by ona nie była.
Chyba miałeś na myśli kartę 2-3 segmenty wyżej bo 380 nie dawał rady na ultra już 1,5 roku temu kiedy występował jako r9 285.
R9 285 nie był czasem szybszy od R9 380?
O ile pamiętam to chyba AMD zmniejszyło pobór prądu spowalniając pamięć karty?
Jeszcze coś tam potem opowiadali o tym, że ich karty są wystarczająco szybkie...
Kupiłem tą kartę w sierpniu 2015. I nie gram na ultra tylko na wysokich zazwyczaj bo róznica nie duża fps więcej. Poza tym jak miałem przewidzieć że w nowych grach Nvidia będzie przegrywać z AMD? Dziś AMd r9 380 niewiele droższy od 960 wystarcza właśnie do każdej nowej gry na ultra wyprzedzając Gtx 960 o kilkanaście fps. No ale pewnie masz rację zaufałem złej firmie. W czerwcu przechodzę na AMD Polaris jeśli nie zepusją tej generacji. I rzeczywiście wydam już więcej bo 1500- 1700 zl na kartę ale patrząc jak AMD zyskuje z czasem starczy na 2 lata spokojnie i da +60 fps w wysokich ustawieniach
Nie gram w najnowsze gry więc GTX960 wystarcza z nawiązką, ale też byłem zaskoczony, że czasem wymięka ni z tego ni z owego. Widocznie ten typ tak ma. Z drugiej strony jeśli znowu mam się użerać ze sterownikami AMD to jednak wolę coś tam wyłączyć np. przenikanie niezależne dla każdej z warstw albo wysoką precyzję i cieszyć się grą
Co będzie za kilka miesięcy nikt nie wie... Tym razem uważniej czytaj testy i skoro masz aspiracje na więcej jak średnio-wysokie detale kup kartę z wyższej półki jaka by ona nie była.
Jak dla mnie to wymagania gier idą w górę ogromnie a grafika już nie. Zawsze się zastanawiam jak włączam nową grę dlaczego wymagania poszły tak do góry a różnica grafiki nie wiele większa niż w Alan Wake z 2012 który chodził dobrze na karcie 1 GB Ram Gtx 650 ti (moja była)
Najwięcej zyskać mogą konsole, trwa bezkrytyczny kurs w stronę portów dla konsol, develeperzy nawet ostrzegają, że w pecetach tylko wybrana marka i tak będzie różnie, bo różne konfigi, czyli dx12 parodia.
Jak dla mnie to wymagania gier idą w górę ogromnie a grafika już nie. Zawsze się zastanawiam jak włączam nową grę dlaczego wymagania poszły tak do góry a różnica grafiki nie wiele większa niż w Alan Wake z 2012 który chodził dobrze na karcie 1 GB Ram Gtx 650 ti (moja była)
Wszystko zależy jakich efektów użyjesz.
GTX960 4GB uwielbia szczegółowe tekstury i gęstą siatkę a nie lubi efektów wygładzania.
Daj kiepskie tekstury i nadrabiaj postprocesingiem i wygładzaniem i masz na 960-tce 20 fps a grafikę gorszą jakbyś użył ładnych tekstur i siatki. Albo ta nieszczęsna wysoka precyzja. Daje nic do obrazu, ale za to zabije Ci 960-tkę. 'Przenikanie niezależne' - kolejna super funkcja
Tak to wygląda
'Nowe API Microsoftu ma – według zapowiedzi osób oraz firm zaangażowanych w prace nad DirectX 12 i rozwój gier wykorzystujących ten interfejs programowania – przede wszystkim odciążyć procesor. Ze względu na te zapewnienia powoli zaczyna się wykształcać przekonanie, w tej chwili kompletnie bezpodstawne, że do gier przestanie być potrzebny szybki procesor.'
Nie wiem skąd mieliście takie zapewnienia ja jedynie widziałem zapewnienia że obsługa karty graf w końcu zacznie używać czegoś więcej niż jednego rdzenia. I w waszym teście CPU to widać i5 6600k @3,5GHz niebezpiecznie blisko i5 6700k 4,7GHz (Jeśli to jest brak rewolucji to sorry).
Pentium G4400 ma za mało rdzeni by się mogło coś rozłożyć.
Czekam na procesory czerwonych tam zwykle rdzeni/modułów nie brakuje a i nikt nie mówi że to mocne procesory.
Masz wyjaśnienie powyżej..bo będzie musiał
Argument jest o tyle bezsensowny ze porownujesz rozne predkosci a wnioski wyciagasz do różnic architektury. Puść tego q6600 na 3Ghz (tak działały u większosci, 2.4 Ghz nikt nie używał bo tego procka kupowało sie po to żeby chodził na 3) i wtedy okaze się że róznica nie jest juz tak duża.
Nie wiem skąd mieliście takie zapewnienia ja jedynie widziałem zapewnienia że obsługa karty graf w końcu zacznie używać czegoś więcej niż jednego rdzenia. I w waszym teście CPU to widać i5 6600k @3,5GHz niebezpiecznie blisko i5 6700k 4,7GHz (Jeśli to jest brak rewolucji to sorry).
Pentium G4400 ma za mało rdzeni by się mogło coś rozłożyć.
Czekam na procesory czerwonych tam zwykle rdzeni/modułów nie brakuje a i nikt nie mówi że to mocne procesory.
DX12 poprzez równomierniejsze rozkładanie obciążeń na kolejne rdzenie powoduje właśnie taki efekt o jakim piszesz.
Szkoda, że nie ma opisu przy jakim obciążeniu kolejnych rdzeni pracowały CPU z testu.
Wtedy mielibyśmy pewność jak działa nowe API.
AMD FX mogą tylko zyskać, bo mimo niezbyt wysokiej mocy obliczeniowej pojedynczego rdzenia mają ich więcej od konkurencyjnych rozwiązań Intela. Właściwie to nie zdziwiłbym się, gdyby nawet C2Q z późniejszych serii całkiem dobrze dawały sobie radę w DX12.
Jak to zobaczyłem to aż się specjalnie na labie zarejestrowałem 0_o. Ty na prawdę uważasz że dx11 używa jednego rdzenia? trochę tak jakbyś z tą tematyką ostatni raz miał styczność za czasów d3 i hl2, błagam cie, nie pisz takich głupot i nie wprowadzaj nieobeznanych ludzi w błąd bo robisz z siebie pośmiewisko, co zresztą widać po minusach.
DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
Jesteś w błędzie.
DX11 korzysta z maksymalnie 6-ciu rdzeni z tym, że pierwszy jest obciążony najmocniej.
http://www.amd.com/PublishingImages/graphi...kload-8core.jpg
DX12 potrafi wykorzystać 8 rdzeni.
http://www.amd.com/PublishingImages/graphi...kload-8core.jpg
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
Tylko czy nie zacznie się pisanie gier pod jedną konkretną architekturę?
Zobacz jak już teraz rysuje się podział - jedne gry dobrze działają na Nvidii a inne na AMD i to nie są różnice 5 fps na Ultra tylko działa albo nie bardzo.
DX12/Vulkan, nigdy nie miał przynieść zwiększonej wydajności w każdym możliwym scenariuszu. Miał przenieść zwiększoną wydajność tam gdzie wąskim gardłem jest procesor.
Oddają one też niemal całkowitą kontrole nad GPU w ręce developera. Wiec w niedalekiej przyszłości skończą sie sterownikowe machlojki.
DX12 niczego nie rozkłada. Jak napiszesz gowiany kod to dalej on bedzie jednowątkowy.
DX12 w przeciwieństwie do DX11 po prostu nie wymusza, zeby cały workload był przekazywany na jednym wątku do karty graficznej.
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
Powiedz mi proszę jak to co napisałeś ma się do tego
http://pclab.pl/art37055-3.html