komentarze
lukaddZobacz profil
Poziom ostrzeżenia: 0%
lukadd2016.03.28, 14:44
Pazura7 @ 2016.03.28 14:39  Post: 960891
EntuzjastaKpiny @ 2016.03.28 14:03  Post: 960886
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata

Taa z taką ilością VRAM napewno. Nawet na 10 lat.


Jeszcze pół roku temu 90% użytkowników PClab twierdziło, że nie ma sensu kupować gtx 960 z 4GB ram bo nie wykorzysta tego w żadnej grze. A dziś okazuje się, że prawie w każdej nowej grze wersja z 4GBvram radzi sobie zdecydowanie lepiej od wersji z 2GB.
To samo, może być za kilka miesięcy z 4Gb vram. Już Rise of tomb raiderowi brakuje 4GB vram, aby ustawić textury na very High i to w FullHd. Więc ja bym to był ostrożny z wyciąganiem takich wniosków.
McixZobacz profil
Poziom ostrzeżenia: 0%
Mcix2016.03.28, 14:51
-14#82
EntuzjastaKpiny @ 2016.03.28 14:03  Post: 960886
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata


Wydajność gier zależy w większości od tego z kim współpracują programiści. W ostatnich latach to Nvidia częściej współpracowała z twórcami gier więc działały one lepiej na ich kartach. Teraz to się zmieniło. W obu konsolach są układy AMD więc twórcy gier częściej wybierają współpracę z AMD. Przy tytułach napisanych dla DirectX 12 podział jest następujący:

Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate

AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity

Bez współpracy z twórcą kart lub nieujawniona:
- Quantum Break
- Killer Instinct 3
- Forza Motorsport 6 Apex
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2016.03.28, 15:19
Mcix @ 2016.03.28 14:51  Post: 960893
Teraz to się zmieniło. W obu konsolach są układy AMD więc twórcy gier częściej wybierają współpracę z AMD.

Ja pierdzielę, ale bzdury. Konsole są już 2 lata i NIC się nie zmieniło. Zwykłe bajki.
McixZobacz profil
Poziom ostrzeżenia: 0%
Mcix2016.03.28, 15:32
-17#84
Kowal @ 2016.03.28 15:19  Post: 960894
Mcix @ 2016.03.28 14:51  Post: 960893
Teraz to się zmieniło. W obu konsolach są układy AMD więc twórcy gier częściej wybierają współpracę z AMD.

Ja pierdzielę, ale bzdury. Konsole są już 2 lata i NIC się nie zmieniło. Zwykłe bajki.


To czemu twoim zdaniem kolejne gry są wprost optymalizowane pod AMD np. Watch Dogs 2? Jak to wytłumaczysz? AMD przekupiło Ubisoft?

http://www.gamespot.com/articles/watch-dog...-/1100-6436052/
Watch Dogs 2 was announced last month, and now we're learning more information about it, specifically around the PC edition. AMD's Roy Taylor says on Twitter that the sequel will make use of DirectX 12 and that, overall, the game will be 'highly optimized' for AMD GPUs.



KrisolZobacz profil
Poziom ostrzeżenia: 0%
Krisol2016.03.28, 15:36
-7#85
EntuzjastaKpiny @ 2016.03.28 14:03  Post: 960886
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata

Dobre sobie, ona juz w 2016 odpada ze względu na ilość VRAM. Jedyne karty warte kupna to 750ti, 950, R9 380 4GB, R9 390, 980ti.
BornZobacz profil
Poziom ostrzeżenia: 0%
Born2016.03.28, 15:50
Krisol @ 2016.03.28 15:36  Post: 960896
EntuzjastaKpiny @ 2016.03.28 14:03  Post: 960886
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata

Dobre sobie, ona juz w 2016 odpada ze względu na ilość VRAM. Jedyne karty warte kupna to 750ti, 950, R9 380 4GB, R9 390, 980ti.

Jeśli mowa o kartach referencyjnych to masz rację, ale w praktyce GTX 960 4gb producencki jest lepszym wyborem od 380. To samo tyczy się GTX 970 kontra 390
KrisolZobacz profil
Poziom ostrzeżenia: 0%
Krisol2016.03.28, 15:58
-11#87
Born @ 2016.03.28 15:50  Post: 960897
Krisol @ 2016.03.28 15:36  Post: 960896
(...)

Dobre sobie, ona juz w 2016 odpada ze względu na ilość VRAM. Jedyne karty warte kupna to 750ti, 950, R9 380 4GB, R9 390, 980ti.

Jeśli mowa o kartach referencyjnych to masz rację, ale w praktyce GTX 960 4gb producencki jest lepszym wyborem od 380. To samo tyczy się GTX 970 kontra 390

Lepszym na pewno nie, co najwyżej porównywalnym po OC.
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2016.03.28, 15:59
-3#88
lukadd @ 2016.03.28 13:17  Post: 960875
4 rdzenie będą zawsze potrzebne w wymagających produkcjach. Producenci gier musieli by po prostu zrezygnować z wykorzystania mocy CPU i przerzucić wszystko na GPU. Niestety odbiło by się to na jakości gier. DX12 miał za zadanie po prostu zmniejszyć narzut sterownika na CPU. I tu nie mamy co liczyć, że nagle Pentium, czy tani i3 nagle stanie się demonem prędkości w grach.


Nie ma siły, żeby wszystkie obliczenia przerzucić na GPU z prostej przyczyny - GPU to układy dedykowane do konkretnych zastosowań. Policzenie na np. CUDA dokładnie tego samego co na x86 nie jest możliwe (albo bardzo utrudnione).

Co do ilości rdzeni/wątków to DX12 ma równoczesne wykorzystanie 8 wątków CPU - czyli potrzebujesz piekielnie szybkiego Celerona :D
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2016.03.28, 16:03
-5#89
doopan @ 2016.03.28 13:19  Post: 960878
Sądząc po podsumowaniu, nikt nie zastanowił się, czy nie poprawiła się jakość grafiki ? Pamiętam, że starsze DXy wprowadzały różne nowości w tym zakresie i było widać różnicę.


DX12 też wprowadza nowinki. To co mi osobiście najbardziej rzuciło się w oczy to refleksy świetlne, odbicia i jakość powierzchni przedmiotów odwzorowanych w grze. Widać też było większą spójność obrazu - tj. nie było widać, że postać jest oderwana od tła. Przynajmniej to najbardziej było widać na demach technologicznych, gdzie starano się jak najlepiej pokazać możliwości nowego API.
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2016.03.28, 16:05
-9#90
dysan112 @ 2016.03.28 13:38  Post: 960882
Czyli podsumowanie jak AMD jest słabe nadal tak jest słabe. Intel rządzi


Testy AMD FX-83xx wypadają dość zachęcająco, więc nie skreślaj ich już na starcie ;)
FX lubi małe obciążenie wielu rdzeni... czyli dokładnie to co proponuje DX12.
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2016.03.28, 16:06
-4#91
WujekAntoś @ 2016.03.28 13:48  Post: 960883
a jak multi gpu?


Na razie lipa ;)
DjXbeatZobacz profil
Poziom ostrzeżenia: 0%
DjXbeat2016.03.28, 16:08
Krisol @ 2016.03.28 15:58  Post: 960898

Lepszym na pewno nie, co najwyżej porównywalnym po OC.

GTX970 po oc to wygrywa z R9 390 po oc w praktycznie każdej grze
http://www.purepc.pl/karty_graficzne/gefor...art_graficznych
cytat z podsumowania
'Summa summarum na ustawieniach bazowych faworytem jest Radeon R9 390, aczkolwiek gdy uwzględnimy pełny potencjał podkręcania, prowadzenie obejmuje GeForce GTX 970. Zieloni wygrywają wówczas praktycznie wszystkie konkurencje, chociaż różnice w wydajności bywają symboliczne, czego nie sposób powiedzieć o poborze mocy. Radeon R9 390 potrafi wciągnąć prawie 130W więcej od GeForce GTX 970, dlatego osoby nastawione na maksymalny overclocking, muszą posiadać odpowiedni zasilacz. Trzeba również pamiętać, że Radeony do zaprezentowania pełni możliwości, potrzebują mocniejszego procesora, niż GeForce zadowalający się zdecydowanie słabszymi jednostkami.'

AvitrZobacz profil
Poziom ostrzeżenia: 0%
Avitr2016.03.28, 16:08
-13#93
Dobrze widzę że dla każdej gry użyliście jednego miejsca testowego (bez rozgraniczania jak do tej pory, na miejsce 'procesorowe' i 'graficzne";)?

PCLab

Po drugie, benchmarki we wszystkich trzech wymienionych grach nie pozwalają na konfigurację scen, w których mierzona jest wydajność. Usiłują pokazać przekrój całej rozgrywki, również momentów nieistotnych i tych, w których nie potrzeba dużej płynności. Wyniki w benchmarku w Hitmanie są szczególnie bezużyteczne: maksymalna liczba klatek jest wręcz nieprawdopodobnie zawyżona, minimalna – zaniżona

Ale skoro nagrywacie i analizujecie obraz na wyjściu karty graficznej to sami możecie określić tam minimalny fps.

PCLab

jeśli wierzyć przetrawionym informacjom podawanym przez

'przetrawionym', a następnie 'wydalonym'? Czyli użyliście tzw. argumentu z d*py?

PCLab

Kiedy włączona jest synchronizacja pionowa, czas oczekiwania na kolejny nowy obraz może przyjąć tylko kilka kwantyfikowanych wartości. Dlatego podawanie minimalnej liczby klatek na sekundę nie ma sensu: chwilowa minimalna wartość jest niemal zawsze pierwszą dostępną wartością poniżej średniej. W dalszej części artykułu będziemy przedstawiać średnią liczbę klatek na sekundę w grach uruchamianych w trybie DirectX 12. Jeśli widzicie średnią między 30 kl./sek. a 60 kl./sek., to wiedzcie, że minimalną wartością było 30 kl./sek. – i tak samo w innych przedziałach.

Można to ominąć poprzez zastosowanie potrójnego buforwania. Wtedy framerate jest równie zmienne jak przy wyłączonym vsync.
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2016.03.28, 16:10
-2#94
nadro-linux @ 2016.03.28 13:54  Post: 960884
(...) W testach, gdzie 390X jest szybszy od Fury X, widać, że dużym problemem jest zarządzanie pamięcią GPU przez programistów.


To jest pokłosie konsolowych konotacji dzisiejszych gier AAA.
R9 390(X) to bardzo udana karta - w przeciwieństwie do sknoconej Fury (X).
AMD z Furią dała ciała jak Nvidia z GTX970 - tu i tu zapomnieli o pamięci.
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2016.03.28, 16:18
lukadd @ 2016.03.28 14:44  Post: 960892

Jeszcze pół roku temu 90% użytkowników PClab twierdziło, że nie ma sensu kupować gtx 960 z 4GB ram bo nie wykorzysta tego w żadnej grze. A dziś okazuje się, że prawie w każdej nowej grze wersja z 4GBvram radzi sobie zdecydowanie lepiej od wersji z 2GB.
To samo, może być za kilka miesięcy z 4Gb vram. Już Rise of tomb raiderowi brakuje 4GB vram, aby ustawić textury na very High i to w FullHd. Więc ja bym to był ostrożny z wyciąganiem takich wniosków.


Jest taki jeden portal, który mocno utwierdzał użytkowników PC w takim myśleniu. A ci łykali to jak pelikan rybkę. Widać nikt nie czytał instrukcji obsługi do 'Shadow of Mordor'. Gra ma już 2 lata i do ustawień 'high' potrzebuje co najmniej 3GB VRAM. GTX960 łyka tę grę nawet na 'Very High' pod warunkiem, że ma na pokładzie 4GB VRAM.
lukaddZobacz profil
Poziom ostrzeżenia: 0%
lukadd2016.03.28, 16:20
SambaVerde @ 2016.03.28 16:10  Post: 960905
nadro-linux @ 2016.03.28 13:54  Post: 960884
(...) W testach, gdzie 390X jest szybszy od Fury X, widać, że dużym problemem jest zarządzanie pamięcią GPU przez programistów.


To jest pokłosie konsolowych konotacji dzisiejszych gier AAA.
R9 390(X) to bardzo udana karta - w przeciwieństwie do sknoconej Fury (X).
AMD z Furią dała ciała jak Nvidia z GTX970 - tu i tu zapomnieli o pamięci.


AMD chciało na siłę wpakować HBM więc zostali niejako zmuszeni do zastosowania tylko 4GB Vram. Nvidia podchodzi bardziej marketingowo. Moim zdaniem gtx 970 powinien mieć 6Gb Vram, 980 6GB vram, a GTX 980Ti 8GbVram. Ale to by spowodowało znacznie dłuższy żywot tych kart więc Nvidia dała pamięci na jeden sezon. Tak jak i w przypadku keplerów 770 2GB i gtx 780/780Ti 3Gb, bardzo dobre karty, ale dziś cierpią na braki Vram.
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2016.03.28, 16:25
Krisol @ 2016.03.28 15:58  Post: 960898

Lepszym na pewno nie, co najwyżej porównywalnym po OC.


A widziałeś gdzieś w sklepie GTX960 4GB bez OC?
Teraz już jest nawet wersja XTREME, która ma zegar bazowy 1304 MHz.
Ciekawe który R9 380 będzie szybszy? :P
edek20Zobacz profil
Poziom ostrzeżenia: 0%
edek202016.03.28, 16:27
lukadd @ 2016.03.28 16:20  Post: 960907
SambaVerde @ 2016.03.28 16:10  Post: 960905
(...)


To jest pokłosie konsolowych konotacji dzisiejszych gier AAA.
R9 390(X) to bardzo udana karta - w przeciwieństwie do sknoconej Fury (X).
AMD z Furią dała ciała jak Nvidia z GTX970 - tu i tu zapomnieli o pamięci.


AMD chciało na siłę wpakować HBM więc zostali niejako zmuszeni do zastosowania tylko 4GB Vram. Nvidia podchodzi bardziej marketingowo. Moim zdaniem gtx 970 powinien mieć 6Gb Vram, 980 6GB vram, a GTX 980Ti 8GbVram. Ale to by spowodowało znacznie dłuższy żywot tych kart więc Nvidia dała pamięci na jeden sezon. Tak jak i w przypadku keplerów 770 2GB i gtx 780/780Ti 3Gb, bardzo dobre karty, ale dziś cierpią na braki Vram.

Zapominasz całkowicie że GTX 970 wyszedł we wrześniu 2014 roku, podczas gdy R9 390 pod koniec czerwca 2015. Dziwne by karta która wyszła później nie miała jakiejś przewagi np. w postaci większej ilości VRAM. Gdyby Nvidiaa wprowadzała na rynek GTX 970 niemal rok później najpewniej by miał on 6 lub 8 gb VRAM
KrisolZobacz profil
Poziom ostrzeżenia: 0%
Krisol2016.03.28, 16:28
-10#99
DjXbeat @ 2016.03.28 16:08  Post: 960903
Krisol @ 2016.03.28 15:58  Post: 960898

Lepszym na pewno nie, co najwyżej porównywalnym po OC.

GTX970 po oc to wygrywa z R9 390 po oc w praktycznie każdej grze
http://www.purepc.pl/karty_graficzne/gefor...art_graficznych
cytat z podsumowania
'Summa summarum na ustawieniach bazowych faworytem jest Radeon R9 390, aczkolwiek gdy uwzględnimy pełny potencjał podkręcania, prowadzenie obejmuje GeForce GTX 970. Zieloni wygrywają wówczas praktycznie wszystkie konkurencje, chociaż różnice w wydajności bywają symboliczne, czego nie sposób powiedzieć o poborze mocy. Radeon R9 390 potrafi wciągnąć prawie 130W więcej od GeForce GTX 970, dlatego osoby nastawione na maksymalny overclocking, muszą posiadać odpowiedni zasilacz. Trzeba również pamiętać, że Radeony do zaprezentowania pełni możliwości, potrzebują mocniejszego procesora, niż GeForce zadowalający się zdecydowanie słabszymi jednostkami.'


Nie mówie tylko o wydajności dzisiaj, lecz o ilości VRAM, obsłudze async, prawdopodobnej wydajności w przyszłości.

edek20 @ 2016.03.28 16:27  Post: 960909
lukadd @ 2016.03.28 16:20  Post: 960907
(...)


AMD chciało na siłę wpakować HBM więc zostali niejako zmuszeni do zastosowania tylko 4GB Vram. Nvidia podchodzi bardziej marketingowo. Moim zdaniem gtx 970 powinien mieć 6Gb Vram, 980 6GB vram, a GTX 980Ti 8GbVram. Ale to by spowodowało znacznie dłuższy żywot tych kart więc Nvidia dała pamięci na jeden sezon. Tak jak i w przypadku keplerów 770 2GB i gtx 780/780Ti 3Gb, bardzo dobre karty, ale dziś cierpią na braki Vram.

Zapominasz całkowicie że GTX 970 wyszedł we wrześniu 2014 roku, podczas gdy R9 390 pod koniec czerwca 2015. Dziwne by karta która wyszła później nie miała jakiejś przewagi np. w postaci większej ilości VRAM. Gdyby Nvidiaa wprowadzała na rynek GTX 970 niemal rok później najpewniej by miał on 6 lub 8 gb VRAM

R9 290 też ma więcej VRAM :)
KrisolZobacz profil
Poziom ostrzeżenia: 0%
Krisol2016.03.28, 16:29
-12#100
do usunięcia
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.