(...) W testach, gdzie 390X jest szybszy od Fury X, widać, że dużym problemem jest zarządzanie pamięcią GPU przez programistów.
To jest pokłosie konsolowych konotacji dzisiejszych gier AAA.
R9 390(X) to bardzo udana karta - w przeciwieństwie do sknoconej Fury (X).
AMD z Furią dała ciała jak Nvidia z GTX970 - tu i tu zapomnieli o pamięci.
Dobrze widzę że dla każdej gry użyliście jednego miejsca testowego (bez rozgraniczania jak do tej pory, na miejsce 'procesorowe' i 'graficzne"?
PCLab
Po drugie, benchmarki we wszystkich trzech wymienionych grach nie pozwalają na konfigurację scen, w których mierzona jest wydajność. Usiłują pokazać przekrój całej rozgrywki, również momentów nieistotnych i tych, w których nie potrzeba dużej płynności. Wyniki w benchmarku w Hitmanie są szczególnie bezużyteczne: maksymalna liczba klatek jest wręcz nieprawdopodobnie zawyżona, minimalna – zaniżona
Ale skoro nagrywacie i analizujecie obraz na wyjściu karty graficznej to sami możecie określić tam minimalny fps.
PCLab
jeśli wierzyć przetrawionym informacjom podawanym przez
'przetrawionym', a następnie 'wydalonym'? Czyli użyliście tzw. argumentu z d*py?
PCLab
Kiedy włączona jest synchronizacja pionowa, czas oczekiwania na kolejny nowy obraz może przyjąć tylko kilka kwantyfikowanych wartości. Dlatego podawanie minimalnej liczby klatek na sekundę nie ma sensu: chwilowa minimalna wartość jest niemal zawsze pierwszą dostępną wartością poniżej średniej. W dalszej części artykułu będziemy przedstawiać średnią liczbę klatek na sekundę w grach uruchamianych w trybie DirectX 12. Jeśli widzicie średnią między 30 kl./sek. a 60 kl./sek., to wiedzcie, że minimalną wartością było 30 kl./sek. – i tak samo w innych przedziałach.
Można to ominąć poprzez zastosowanie potrójnego buforwania. Wtedy framerate jest równie zmienne jak przy wyłączonym vsync.
Lepszym na pewno nie, co najwyżej porównywalnym po OC.
GTX970 po oc to wygrywa z R9 390 po oc w praktycznie każdej grze http://www.purepc.pl/karty_graficzne/gefor...art_graficznych
cytat z podsumowania
'Summa summarum na ustawieniach bazowych faworytem jest Radeon R9 390, aczkolwiek gdy uwzględnimy pełny potencjał podkręcania, prowadzenie obejmuje GeForce GTX 970. Zieloni wygrywają wówczas praktycznie wszystkie konkurencje, chociaż różnice w wydajności bywają symboliczne, czego nie sposób powiedzieć o poborze mocy. Radeon R9 390 potrafi wciągnąć prawie 130W więcej od GeForce GTX 970, dlatego osoby nastawione na maksymalny overclocking, muszą posiadać odpowiedni zasilacz. Trzeba również pamiętać, że Radeony do zaprezentowania pełni możliwości, potrzebują mocniejszego procesora, niż GeForce zadowalający się zdecydowanie słabszymi jednostkami.'
Czyli podsumowanie jak AMD jest słabe nadal tak jest słabe. Intel rządzi
Testy AMD FX-83xx wypadają dość zachęcająco, więc nie skreślaj ich już na starcie
FX lubi małe obciążenie wielu rdzeni... czyli dokładnie to co proponuje DX12.
Sądząc po podsumowaniu, nikt nie zastanowił się, czy nie poprawiła się jakość grafiki ? Pamiętam, że starsze DXy wprowadzały różne nowości w tym zakresie i było widać różnicę.
DX12 też wprowadza nowinki. To co mi osobiście najbardziej rzuciło się w oczy to refleksy świetlne, odbicia i jakość powierzchni przedmiotów odwzorowanych w grze. Widać też było większą spójność obrazu - tj. nie było widać, że postać jest oderwana od tła. Przynajmniej to najbardziej było widać na demach technologicznych, gdzie starano się jak najlepiej pokazać możliwości nowego API.
4 rdzenie będą zawsze potrzebne w wymagających produkcjach. Producenci gier musieli by po prostu zrezygnować z wykorzystania mocy CPU i przerzucić wszystko na GPU. Niestety odbiło by się to na jakości gier. DX12 miał za zadanie po prostu zmniejszyć narzut sterownika na CPU. I tu nie mamy co liczyć, że nagle Pentium, czy tani i3 nagle stanie się demonem prędkości w grach.
Nie ma siły, żeby wszystkie obliczenia przerzucić na GPU z prostej przyczyny - GPU to układy dedykowane do konkretnych zastosowań. Policzenie na np. CUDA dokładnie tego samego co na x86 nie jest możliwe (albo bardzo utrudnione).
Co do ilości rdzeni/wątków to DX12 ma równoczesne wykorzystanie 8 wątków CPU - czyli potrzebujesz piekielnie szybkiego Celerona
Dobre sobie, ona juz w 2016 odpada ze względu na ilość VRAM. Jedyne karty warte kupna to 750ti, 950, R9 380 4GB, R9 390, 980ti.
Jeśli mowa o kartach referencyjnych to masz rację, ale w praktyce GTX 960 4gb producencki jest lepszym wyborem od 380. To samo tyczy się GTX 970 kontra 390
Lepszym na pewno nie, co najwyżej porównywalnym po OC.
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata
Dobre sobie, ona juz w 2016 odpada ze względu na ilość VRAM. Jedyne karty warte kupna to 750ti, 950, R9 380 4GB, R9 390, 980ti.
Jeśli mowa o kartach referencyjnych to masz rację, ale w praktyce GTX 960 4gb producencki jest lepszym wyborem od 380. To samo tyczy się GTX 970 kontra 390
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata
Dobre sobie, ona juz w 2016 odpada ze względu na ilość VRAM. Jedyne karty warte kupna to 750ti, 950, R9 380 4GB, R9 390, 980ti.
Watch Dogs 2 was announced last month, and now we're learning more information about it, specifically around the PC edition. AMD's Roy Taylor says on Twitter that the sequel will make use of DirectX 12 and that, overall, the game will be 'highly optimized' for AMD GPUs.
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata
Wydajność gier zależy w większości od tego z kim współpracują programiści. W ostatnich latach to Nvidia częściej współpracowała z twórcami gier więc działały one lepiej na ich kartach. Teraz to się zmieniło. W obu konsolach są układy AMD więc twórcy gier częściej wybierają współpracę z AMD. Przy tytułach napisanych dla DirectX 12 podział jest następujący:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Bez współpracy z twórcą kart lub nieujawniona:
- Quantum Break
- Killer Instinct 3
- Forza Motorsport 6 Apex
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata
Taa z taką ilością VRAM napewno. Nawet na 10 lat.
Jeszcze pół roku temu 90% użytkowników PClab twierdziło, że nie ma sensu kupować gtx 960 z 4GB ram bo nie wykorzysta tego w żadnej grze. A dziś okazuje się, że prawie w każdej nowej grze wersja z 4GBvram radzi sobie zdecydowanie lepiej od wersji z 2GB.
To samo, może być za kilka miesięcy z 4Gb vram. Już Rise of tomb raiderowi brakuje 4GB vram, aby ustawić textury na very High i to w FullHd. Więc ja bym to był ostrożny z wyciąganiem takich wniosków.
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata
W Rise of Tomb Raider cały DX 12 jest zwalony, jakby zrobiony na szybko. Co jest bez sensu bo w końcu MS promuje to grę. W Hitmanie widzimy spore przyśpieszenie Radeonów względem DX 11. R9 390 10-15fps, a Fury X nawet o 30fps. Trzeba poczekać na więcej gier. Pewnie programiści cały czas uczą się nowego środowiska. I w jednej grze będzie lepiej w drugiej gorzej.
Hitman to jedna wielka kaszanka, wygląda średnio a wymaganiami to nawet Unity przebija. Hitman jest skopany, na siłe pokazujący patrzta ludzie jaki dx12 jest super, wincyj fps bo zjeb...my DX11.
No i dla tego wysuwanie wniosków typu 'rewolucji brak' rodem jak z onetu. Podpierając się trzema grami. Z czego jedna ma całkowicie zwaloną implementacje DX12, a druga to nie wiadomo co to jest. Mija się całkowicie z celem. Niedługo więcej gier DX12 zobaczymy co będzie.
Wszelkie obietnice dotyczące DX12 że ma być ach i och czyli ma odciążyć cpu to po prostu bajki. Procki mają się sprzedawać, podobnie gpu ma się sprzedawać i tyle.
W Rise of Tomb Raider cały DX 12 jest zwalony, jakby zrobiony na szybko. Co jest bez sensu bo w końcu MS promuje to grę. W Hitmanie widzimy spore przyśpieszenie Radeonów względem DX 11. R9 390 10-15fps, a Fury X nawet o 30fps. Trzeba poczekać na więcej gier. Pewnie programiści cały czas uczą się nowego środowiska. I w jednej grze będzie lepiej w drugiej gorzej.
Hitman to jedna wielka kaszanka, wygląda średnio a wymaganiami to nawet Unity przebija. Hitman jest skopany, na siłe pokazujący patrzta ludzie jaki dx12 jest super, wincyj fps bo zjeb...my DX11.
Ale mam bekę z tych co kupują dzisiaj karty AMD bo liczą na świetlaną przyszłość..... Na jakim świecie oni żyją? Animowanym? Gdy pojawią się jakieś poważne pozycje DirectX 12 to te karty nie będą się nadawały do gry. A dzisiaj w DirectX 11 zwycięzca jest tylko jeden. GTX970 to karta jeszcze na co najmniej trzy lata
To jest pokłosie konsolowych konotacji dzisiejszych gier AAA.
R9 390(X) to bardzo udana karta - w przeciwieństwie do sknoconej Fury (X).
AMD z Furią dała ciała jak Nvidia z GTX970 - tu i tu zapomnieli o pamięci.
Po drugie, benchmarki we wszystkich trzech wymienionych grach nie pozwalają na konfigurację scen, w których mierzona jest wydajność. Usiłują pokazać przekrój całej rozgrywki, również momentów nieistotnych i tych, w których nie potrzeba dużej płynności. Wyniki w benchmarku w Hitmanie są szczególnie bezużyteczne: maksymalna liczba klatek jest wręcz nieprawdopodobnie zawyżona, minimalna – zaniżona
Ale skoro nagrywacie i analizujecie obraz na wyjściu karty graficznej to sami możecie określić tam minimalny fps.
jeśli wierzyć przetrawionym informacjom podawanym przez
'przetrawionym', a następnie 'wydalonym'? Czyli użyliście tzw. argumentu z d*py?
Kiedy włączona jest synchronizacja pionowa, czas oczekiwania na kolejny nowy obraz może przyjąć tylko kilka kwantyfikowanych wartości. Dlatego podawanie minimalnej liczby klatek na sekundę nie ma sensu: chwilowa minimalna wartość jest niemal zawsze pierwszą dostępną wartością poniżej średniej. W dalszej części artykułu będziemy przedstawiać średnią liczbę klatek na sekundę w grach uruchamianych w trybie DirectX 12. Jeśli widzicie średnią między 30 kl./sek. a 60 kl./sek., to wiedzcie, że minimalną wartością było 30 kl./sek. – i tak samo w innych przedziałach.
Można to ominąć poprzez zastosowanie potrójnego buforwania. Wtedy framerate jest równie zmienne jak przy wyłączonym vsync.
Lepszym na pewno nie, co najwyżej porównywalnym po OC.
GTX970 po oc to wygrywa z R9 390 po oc w praktycznie każdej grze
http://www.purepc.pl/karty_graficzne/gefor...art_graficznych
cytat z podsumowania
'Summa summarum na ustawieniach bazowych faworytem jest Radeon R9 390, aczkolwiek gdy uwzględnimy pełny potencjał podkręcania, prowadzenie obejmuje GeForce GTX 970. Zieloni wygrywają wówczas praktycznie wszystkie konkurencje, chociaż różnice w wydajności bywają symboliczne, czego nie sposób powiedzieć o poborze mocy. Radeon R9 390 potrafi wciągnąć prawie 130W więcej od GeForce GTX 970, dlatego osoby nastawione na maksymalny overclocking, muszą posiadać odpowiedni zasilacz. Trzeba również pamiętać, że Radeony do zaprezentowania pełni możliwości, potrzebują mocniejszego procesora, niż GeForce zadowalający się zdecydowanie słabszymi jednostkami.'
Na razie lipa
Testy AMD FX-83xx wypadają dość zachęcająco, więc nie skreślaj ich już na starcie
FX lubi małe obciążenie wielu rdzeni... czyli dokładnie to co proponuje DX12.
DX12 też wprowadza nowinki. To co mi osobiście najbardziej rzuciło się w oczy to refleksy świetlne, odbicia i jakość powierzchni przedmiotów odwzorowanych w grze. Widać też było większą spójność obrazu - tj. nie było widać, że postać jest oderwana od tła. Przynajmniej to najbardziej było widać na demach technologicznych, gdzie starano się jak najlepiej pokazać możliwości nowego API.
Nie ma siły, żeby wszystkie obliczenia przerzucić na GPU z prostej przyczyny - GPU to układy dedykowane do konkretnych zastosowań. Policzenie na np. CUDA dokładnie tego samego co na x86 nie jest możliwe (albo bardzo utrudnione).
Co do ilości rdzeni/wątków to DX12 ma równoczesne wykorzystanie 8 wątków CPU - czyli potrzebujesz piekielnie szybkiego Celerona
Dobre sobie, ona juz w 2016 odpada ze względu na ilość VRAM. Jedyne karty warte kupna to 750ti, 950, R9 380 4GB, R9 390, 980ti.
Jeśli mowa o kartach referencyjnych to masz rację, ale w praktyce GTX 960 4gb producencki jest lepszym wyborem od 380. To samo tyczy się GTX 970 kontra 390
Lepszym na pewno nie, co najwyżej porównywalnym po OC.
Dobre sobie, ona juz w 2016 odpada ze względu na ilość VRAM. Jedyne karty warte kupna to 750ti, 950, R9 380 4GB, R9 390, 980ti.
Jeśli mowa o kartach referencyjnych to masz rację, ale w praktyce GTX 960 4gb producencki jest lepszym wyborem od 380. To samo tyczy się GTX 970 kontra 390
Dobre sobie, ona juz w 2016 odpada ze względu na ilość VRAM. Jedyne karty warte kupna to 750ti, 950, R9 380 4GB, R9 390, 980ti.
Ja pierdzielę, ale bzdury. Konsole są już 2 lata i NIC się nie zmieniło. Zwykłe bajki.
To czemu twoim zdaniem kolejne gry są wprost optymalizowane pod AMD np. Watch Dogs 2? Jak to wytłumaczysz? AMD przekupiło Ubisoft?
http://www.gamespot.com/articles/watch-dog...-/1100-6436052/
Ja pierdzielę, ale bzdury. Konsole są już 2 lata i NIC się nie zmieniło. Zwykłe bajki.
Wydajność gier zależy w większości od tego z kim współpracują programiści. W ostatnich latach to Nvidia częściej współpracowała z twórcami gier więc działały one lepiej na ich kartach. Teraz to się zmieniło. W obu konsolach są układy AMD więc twórcy gier częściej wybierają współpracę z AMD. Przy tytułach napisanych dla DirectX 12 podział jest następujący:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Bez współpracy z twórcą kart lub nieujawniona:
- Quantum Break
- Killer Instinct 3
- Forza Motorsport 6 Apex
Taa z taką ilością VRAM napewno. Nawet na 10 lat.
Jeszcze pół roku temu 90% użytkowników PClab twierdziło, że nie ma sensu kupować gtx 960 z 4GB ram bo nie wykorzysta tego w żadnej grze. A dziś okazuje się, że prawie w każdej nowej grze wersja z 4GBvram radzi sobie zdecydowanie lepiej od wersji z 2GB.
To samo, może być za kilka miesięcy z 4Gb vram. Już Rise of tomb raiderowi brakuje 4GB vram, aby ustawić textury na very High i to w FullHd. Więc ja bym to był ostrożny z wyciąganiem takich wniosków.
Taa z taką ilością VRAM napewno. Nawet na 10 lat.
No i dla tego wysuwanie wniosków typu 'rewolucji brak' rodem jak z onetu. Podpierając się trzema grami. Z czego jedna ma całkowicie zwaloną implementacje DX12, a druga to nie wiadomo co to jest. Mija się całkowicie z celem. Niedługo więcej gier DX12 zobaczymy co będzie.