komentarze
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.03.17, 20:27
FarCry3 @ 2014.03.17 19:55  Post: 732579
Gra by Nvidia a Radeony wypadają bardzo dobrze

Sporo gier z logiem By NVidia działa dobrze, a nawet bardzo dobrze na Radeonach, to tylko reklama NVidi nic poza tym.
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2014.03.17, 20:29
shmay @ 2014.03.17 20:27  Post: 732605
Czemu 6950 wypada lepiej niż 270x ???

Post #9
*Konto usunięte*2014.03.17, 20:30
-3#23
shmay @ 2014.03.17 20:27  Post: 732605
Czemu 6950 wypada lepiej niż 270x ???

np. dlatego, bo gra ma stary silnik słabe oświetlenie. Ale i tak wygląda nieźle jak na to co mieli do dyspozycji developerzy.
ghetto.pimpZobacz profil
Poziom ostrzeżenia: 0%
ghetto.pimp2014.03.17, 20:33
-4#24
chyba powinno być w tytule: titan falls? NOT.
Adi-CZobacz profil
Poziom ostrzeżenia: 0%
Adi-C2014.03.17, 20:35
'Absolutnym minimum do komfortowej rozgrywki sieciowej będzie nowy GeForce GTX 750 lub Radeon R7 260X'
Kazubin @ 2014.03.17 20:09  Post: 732591
Do gier typowo multi można by dorzucić test bez wygładzania ;)

Po stokroć to.
Już nawet nie chodzi o bycie multi, ale no serio, msaax4 to przy takich kartach lekka przesada.
Nie lubię narzekać na czyjąś pracę, ale można było wziąć powiedzmy 660/7850 i na jej przykładzie pokazać wpływ noAA/x2/x4 i byłoby mw. wiadomo ile można wydajność podnieść, wyłączając/obniżając AA. Albo high/insane, choć to jest na gamegpu ru.
Do tego ludziska narzekają na stutter przy takich teksturach, podejrzewa się właśnie vram na 'słabszych' (1-2GB) kartach, a wiadomo jak wpływa msaa na vram.

Nie żeby mnie ta gra interesowała, ale pokazywać grę na source która na 7950 ciągnie ledwie 45fps, z dropami do 39, gdzie np. gówniane xone działa w 60fps (fakt że w 1400x790 :E :E msaax2), spadając do głównie 50, czasem do 40-45 to trochę nie stawia jej w aż tak bardzo niskich wymaganiach...
HDR'oZobacz profil
Poziom ostrzeżenia: 0%
HDR'o2014.03.17, 20:44
-5#26
Istnieje jakakolwiek szansa, że do Waszych testów w grach użyjecie SLI/CFX ?
chaostheoryZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjichaostheory2014.03.17, 20:45
Davidek123 @ 2014.03.17 20:22  Post: 732602
Jak testowaliście insane na kartach 2gb?Przecież to jest nie grywalne bez 3g vram


Czytaliśmy o tym, między innymi tutaj:

http://www.reddit.com/r/titanfall/comments...nsane_textures/
Jak widać, niektórzy mają, a niektórzy nie mają tego problemu. Nam nie udało się tego zreprodukować. Całą grę 'przeszedłem' jeśli można to tak nazwać na GTX-ie 770 w wersji 2 GB i nie ma żadnych problemów, a już na pewno nie można powiedzieć o tym, że gra się 'wiesza' i tego typu rzeczy :)
*Konto usunięte*2014.03.17, 20:53
chaostheory @ 2014.03.17 20:45  Post: 732617
Davidek123 @ 2014.03.17 20:22  Post: 732602
Jak testowaliście insane na kartach 2gb?Przecież to jest nie grywalne bez 3g vram


Czytaliśmy o tym, między innymi tutaj:

http://www.reddit.com/r/titanfall/comments...nsane_textures/
Jak widać, niektórzy mają, a niektórzy nie mają tego problemu. Nam nie udało się tego zreprodukować. Całą grę 'przeszedłem' jeśli można to tak nazwać na GTX-ie 770 w wersji 2 GB i nie ma żadnych problemów, a już na pewno nie można powiedzieć o tym, że gra się 'wiesza' i tego typu rzeczy :)

specjalnie szukałem kart z różną ilością pamięci i widać, że tutaj nie ma wpływu zarówno na wydajność jak i jakość...
Gdyby gra automatycznie zmniejszała jakość to karta z mniejszą ilością pamięci byłaby lepsza. Gdyby pamię miała wpływ na wydajność to podobne układy, ale z pamięcią 3GB byłyby lepsze.
RazorQsZobacz profil
Poziom ostrzeżenia: 0%
RazorQs2014.03.17, 20:56
-1#29
Dużo dobrego dają te nowe sterowniki do GF? Bo nie wiem czy warto się na nie przesiąść.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2014.03.17, 21:01
A czy programy do monitorowania pracy GPU faktycznie wskazują użycie pamięci na poziomie 3GB w przypadku kart 2GB? Jeśli tak to najwyraźniej mamy teksturowanie przez PCIE.

Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie ;)).
*Konto usunięte*2014.03.17, 21:05
-1#31
Assassin @ 2014.03.17 21:01  Post: 732622
A czy programy do monitorowania pracy GPU faktycznie wskazują użycie pamięci na poziomie 3GB w przypadku kart 2GB? Jeśli tak to najwyraźniej mamy teksturowanie przez PCIE.

Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie ;)).
Tylko problem taki, że gra powinna cachować ile się da do pamięci GPU. Czyli nawet jak gra potrzebuje 1GB to GPU-Z może pokazać i 3GB zajęte z tego powodu.
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.
miki_w1Zobacz profil
Poziom ostrzeżenia: 0%
miki_w12014.03.17, 21:07
CPU przetestujcie. Znając Source, to będzie miał sporo do powiedzenia.
KazubinZobacz profil
Poziom ostrzeżenia: 0%
Kazubin2014.03.17, 21:10
SunTzu @ 2014.03.17 21:05  Post: 732623
Assassin @ 2014.03.17 21:01  Post: 732622
A czy programy do monitorowania pracy GPU faktycznie wskazują użycie pamięci na poziomie 3GB w przypadku kart 2GB? Jeśli tak to najwyraźniej mamy teksturowanie przez PCIE.

Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie ;)).
Tylko problem taki, że gra powinna cachować ile się da do pamięci GPU. Czyli nawet jak gra potrzebuje 1GB to GPU-Z może pokazać i 3GB zajęte z tego powodu.
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.

Czyli takie buforowanie?


@Adi-C
Tak mnie 'zastanawia', kto z średniej i dolnej półki będzie w multi brał 4xMSAA ;)
szefonsZobacz profil
Poziom ostrzeżenia: 0%
szefons2014.03.17, 21:12
'Absolutnym minimum do komfortowej rozgrywki sieciowej będzie nowy GeForce GTX 750 lub Radeon R7 260X '

Znowu te same teksty, jasne każdy gra na very high i 4 x MSAA, może tak wyłączcie AA i kilka opcji, które robią zerową różnicę w obrazie, a zżerają klatki i takie wyniki podajcie. Tak trudno to zrobić?

I uprzedzając wasz wiecznie nietrafiony argument, że 'relacje będą te same', to owe relacje nie mówią ile będzie tych fps, a to chce wiedzieć większość.

Zwłaszcza w grze multi, gdzie nierzadko spadek fps w kluczowym momencie to stracony punkt.

Wyniki które podaliście pokazują konfigurację w której rzadko kto będzie grał, bo liczy się stabilny fps w okolicach 60, a nie 4 x AA.

Więc na gtx 460 nikt raczej nie będzie grał w tylu klatkach, a nawet w kartach co wyciągają te 30 fps, nie będzie się upierał przy tym 4xAA, bo to nie ma sensu.

Więc co komu po tych wynikach, po za tymi co mają najmocniejsze karty.

I jeszcze jedno, piszecie, że nie testowaliście w więcej niż 1080p, bo monitor nie dotarł, kompletna bzdura skoro tylko 5 kart przebija tą granicę, a w 2560 × 1440 zdecydowanie jeszcze wydajność by spadła.

Skoro nie przeszkadza wam robienie bezsensu testu z 4xAA na kartach które wiadomo, że nie dadzą wtedy rady, to co wam szkodzi zrobić to samo w 2560 × 1440 z resztą kart, z tych 5 ile przebije 60 fps?
taithZobacz profil
Poziom ostrzeżenia: 0%
taith2014.03.17, 21:13
-1#35
hmm gdy porównuje się grafikę xbone z PC w titanfall widać, że PC wyświetla bardziej szczegółowe tekstury
spokojnie można to odpalić na GTX 570 i grać na 60FPS
Dark_ReaverZobacz profil
Poziom ostrzeżenia: 0%
Dark_Reaver2014.03.17, 21:15
Fajnie było by zobaczyć test CPU i RAM np.2,4, 8, 16 GB i od 1333 MHz do ponad 2000 MHz.
*Konto usunięte*2014.03.17, 21:17
-3#37
Kazubin @ 2014.03.17 21:10  Post: 732626
SunTzu @ 2014.03.17 21:05  Post: 732623
(...)
Tylko problem taki, że gra powinna cachować ile się da do pamięci GPU. Czyli nawet jak gra potrzebuje 1GB to GPU-Z może pokazać i 3GB zajęte z tego powodu.
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.

Czyli takie buforowanie?


@Adi-C
Tak mnie 'zastanawia', kto z średniej i dolnej półki będzie w multi brał 4xMSAA ;)

No tak...
Gdyby w pamięci GPU gra miała mieć tylko to co widzisz na ekranie, a wszystko miałoby być streamowane z HDD przez RAM to by były jaja. Pomijając przepustowość masz tutaj opóźnienia. Tak jak Assasin napisał kontroler PCI-E w CPU coś by dał...

Na szczęście wystarczy troszeczkę pamięci, by nie miało to kompletnie znaczenia. Praktycznie nie masz gry, gdzie opóźnienia PCI-E miałyby jakieś znaczenie, albo przepustowość byłaby niewystarczająca (no może PCI-E 1.0 x16 w najlepszych GPU). Podobnie z RAMem, gdzie praktycznie daje radę to co jest i tylko do iGPU potrzeba pamięci o dużej przepustowości.

Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety na konsolę w PC wystarczy 512MB vRAM-u i już masz problem z głowy... podobnie dziś 'wystarczy' 6GB pewnie nie będziesz musiał się martwić o vRAM o ile zadowolisz się jakością konsoli...
... ale nie ma zarówno takich gier jak i kart w sensownej cenie. Więc bardziej opłaca się kupić 2GB i czekać, aż pojawi się choć jeden tytuł, który będzie wymagał tej pamięci.
KazubinZobacz profil
Poziom ostrzeżenia: 0%
Kazubin2014.03.17, 21:25
SunTzu @ 2014.03.17 21:17  Post: 732631

Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety dla konsoli wystarczy 512MB vRAM-u i już masz problem z głowy.

Raczej należy rozłączyć słowo bufor od streamingu ;) Cały model w dużej części przypadków architektury pola gry było pod to ukształtowany, czyli tunel. Obecnie dzięki ps4 wracamy do normalności.
*Konto usunięte*2014.03.17, 21:55
-1#39
Kazubin @ 2014.03.17 21:25  Post: 732633
SunTzu @ 2014.03.17 21:17  Post: 732631

Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety dla konsoli wystarczy 512MB vRAM-u i już masz problem z głowy.

Raczej należy rozłączyć słowo bufor od streamingu ;) Cały model w dużej części przypadków architektury pola gry było pod to ukształtowany, czyli tunel. Obecnie dzięki ps4 wracamy do normalności.

Miałem na mysli tylko tyle, że jeśli nie da się czegoś streamować to trzeba buforować. Skoro są w PC-tach zapasy vram-u/ramu to jest buforowanie

W Call of Szarik miałeś podobną sytuację. Gra niby pokazywała użycie pamięci nawet 3GB<, ale nie wpływało to na kolejność GPU, które nie miały 3GB<

W Rome 2 TW masz za to ciekawy mechanizm gdzie możesz wykorzystać jak największą ilość pamięci i gra tak modyfikuje LOD, by maksymalnie wykorzystać pamięć, co ma wpływ na wydajność GPU

jest wiele możliwości tutaj i wyjaśnienia sytuacji, dlaczego karty z małą ilością pamięci radzą sobie, dlaczego GPU-Z może pokazywać większe użycie... Ale tak naprawdę liczy się wydajność.
*Konto usunięte*2014.03.17, 22:18
-1#40
Zrobicie test z teksturami o jedno oczko niżej? Ponoć wymagają 3GB VRamu i dławią karty z mniejszą ilością pamięci.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.