komentarze
fajny RafałekZobacz profil
Poziom ostrzeżenia: 0%
fajny Rafałek2014.03.17, 23:17
Flimi01 @ 2014.03.17 20:01  Post: 732584
6950 szybsza wyraźnie od 7870?


Po prostu skaszanili test i tyle.

Średnio rozumiem... shadery w sensie nowa generacja source ma shadery szybsze?
Generalnie VLIW jest bardziej efektywną archi (nie bijcie mnie), ale nowsze shadery niwelują różnicę, a pewnie przyszłe przeważą na korzyść GCN-a....
Jak dodać do tego GPGPU+Rendering to VLIW już dziś dostaje czkawki.


VLIW to taki Jekyll/Hyde - świetne w niektórych zastosowaniach, gorzej w innych. GCN jest w miarę równomierny wszędzie.
KevioZobacz profil
Poziom ostrzeżenia: 0%
Kevio2014.03.17, 23:12
-1#43
focus @ 2014.03.17 20:29  Post: 732607
shmay @ 2014.03.17 20:27  Post: 732605
Czemu 6950 wypada lepiej niż 270x ???

Post #9

Ciekawe bo np. na Anandtech HD6970 ma problemy z HD7850.
StanleyZobacz profil
Poziom ostrzeżenia: 0%
Stanley2014.03.17, 22:46
Na starcie idiotyczny tytuł

Titan(fail) Nope


Coś przespałem? Amerykanie ustanowili nas 51 stanem?
A moze rodacy z UK wykupili?

Titanfall raczej nie spełnił pokładanych w nim nadziei, lecz mimo to bawi tysiące graczy na całym świecie,


Spełnił czy nie? bo chyba jednak tak skoro bawi?

Choć grafiką najnowsza produkcja studia Respawn Entertainment nie zachwyca, to swoje wymagania ma, choć spokojnie można nazwać je raczej niskimi. W każdym razie wstępnie możemy, nawiązując do tytułu, powiedzieć, że GTX Titan w starciu z Titanfall nie padnie ;


'Swoje wymagania' ma czy niskie wymagania?
Przetestowane 40 kart graficznych - typowe marnowanie czasu, ale procesor jeden w dodatku po OC, a gdzie test procesorów? po co traciliście czas na tyle kart?
a minimalne wymagania?
okej 'dzisiejszy pc udzwignie' a laptopy? a APU?
titan nie poległ ale lab jak zwykle daje bezwartościowe słupki z których w zasadzie niewiele wynika ot poza tym że na ultra extra insane w hiper duper rozdzielczości pogra ktoś kto ma minimum GTX 650 i i7 4.5GHz no zaje'§'§)( sensowny test dla zainteresowanych Tinfallem...

'test kart graficznych' - bardzo praktyczny dla was..to kiedy duży art z 20 grami i 40 kartami? 800 wyników z których jak zwykle niewiele wyniknie?
*Konto usunięte*2014.03.17, 22:29
-1#41
SkynetPL @ 2014.03.17 22:18  Post: 732646
Zrobicie test z teksturami o jedno oczko niżej? Ponoć wymagają 3GB VRamu i dławią karty z mniejszą ilością pamięci.

Test tego nie pokazuje możesz zagrać na 650, które ma 1GB vRAM-u.
*Konto usunięte*2014.03.17, 22:18
-1#40
Zrobicie test z teksturami o jedno oczko niżej? Ponoć wymagają 3GB VRamu i dławią karty z mniejszą ilością pamięci.
*Konto usunięte*2014.03.17, 21:55
-1#39
Kazubin @ 2014.03.17 21:25  Post: 732633
SunTzu @ 2014.03.17 21:17  Post: 732631

Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety dla konsoli wystarczy 512MB vRAM-u i już masz problem z głowy.

Raczej należy rozłączyć słowo bufor od streamingu ;) Cały model w dużej części przypadków architektury pola gry było pod to ukształtowany, czyli tunel. Obecnie dzięki ps4 wracamy do normalności.

Miałem na mysli tylko tyle, że jeśli nie da się czegoś streamować to trzeba buforować. Skoro są w PC-tach zapasy vram-u/ramu to jest buforowanie

W Call of Szarik miałeś podobną sytuację. Gra niby pokazywała użycie pamięci nawet 3GB<, ale nie wpływało to na kolejność GPU, które nie miały 3GB<

W Rome 2 TW masz za to ciekawy mechanizm gdzie możesz wykorzystać jak największą ilość pamięci i gra tak modyfikuje LOD, by maksymalnie wykorzystać pamięć, co ma wpływ na wydajność GPU

jest wiele możliwości tutaj i wyjaśnienia sytuacji, dlaczego karty z małą ilością pamięci radzą sobie, dlaczego GPU-Z może pokazywać większe użycie... Ale tak naprawdę liczy się wydajność.
KazubinZobacz profil
Poziom ostrzeżenia: 0%
Kazubin2014.03.17, 21:25
SunTzu @ 2014.03.17 21:17  Post: 732631

Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety dla konsoli wystarczy 512MB vRAM-u i już masz problem z głowy.

Raczej należy rozłączyć słowo bufor od streamingu ;) Cały model w dużej części przypadków architektury pola gry było pod to ukształtowany, czyli tunel. Obecnie dzięki ps4 wracamy do normalności.
*Konto usunięte*2014.03.17, 21:17
-3#37
Kazubin @ 2014.03.17 21:10  Post: 732626
SunTzu @ 2014.03.17 21:05  Post: 732623
(...)
Tylko problem taki, że gra powinna cachować ile się da do pamięci GPU. Czyli nawet jak gra potrzebuje 1GB to GPU-Z może pokazać i 3GB zajęte z tego powodu.
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.

Czyli takie buforowanie?


@Adi-C
Tak mnie 'zastanawia', kto z średniej i dolnej półki będzie w multi brał 4xMSAA ;)

No tak...
Gdyby w pamięci GPU gra miała mieć tylko to co widzisz na ekranie, a wszystko miałoby być streamowane z HDD przez RAM to by były jaja. Pomijając przepustowość masz tutaj opóźnienia. Tak jak Assasin napisał kontroler PCI-E w CPU coś by dał...

Na szczęście wystarczy troszeczkę pamięci, by nie miało to kompletnie znaczenia. Praktycznie nie masz gry, gdzie opóźnienia PCI-E miałyby jakieś znaczenie, albo przepustowość byłaby niewystarczająca (no może PCI-E 1.0 x16 w najlepszych GPU). Podobnie z RAMem, gdzie praktycznie daje radę to co jest i tylko do iGPU potrzeba pamięci o dużej przepustowości.

Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety na konsolę w PC wystarczy 512MB vRAM-u i już masz problem z głowy... podobnie dziś 'wystarczy' 6GB pewnie nie będziesz musiał się martwić o vRAM o ile zadowolisz się jakością konsoli...
... ale nie ma zarówno takich gier jak i kart w sensownej cenie. Więc bardziej opłaca się kupić 2GB i czekać, aż pojawi się choć jeden tytuł, który będzie wymagał tej pamięci.
Dark_ReaverZobacz profil
Poziom ostrzeżenia: 0%
Dark_Reaver2014.03.17, 21:15
Fajnie było by zobaczyć test CPU i RAM np.2,4, 8, 16 GB i od 1333 MHz do ponad 2000 MHz.
taithZobacz profil
Poziom ostrzeżenia: 0%
taith2014.03.17, 21:13
-1#35
hmm gdy porównuje się grafikę xbone z PC w titanfall widać, że PC wyświetla bardziej szczegółowe tekstury
spokojnie można to odpalić na GTX 570 i grać na 60FPS
szefonsZobacz profil
Poziom ostrzeżenia: 0%
szefons2014.03.17, 21:12
'Absolutnym minimum do komfortowej rozgrywki sieciowej będzie nowy GeForce GTX 750 lub Radeon R7 260X '

Znowu te same teksty, jasne każdy gra na very high i 4 x MSAA, może tak wyłączcie AA i kilka opcji, które robią zerową różnicę w obrazie, a zżerają klatki i takie wyniki podajcie. Tak trudno to zrobić?

I uprzedzając wasz wiecznie nietrafiony argument, że 'relacje będą te same', to owe relacje nie mówią ile będzie tych fps, a to chce wiedzieć większość.

Zwłaszcza w grze multi, gdzie nierzadko spadek fps w kluczowym momencie to stracony punkt.

Wyniki które podaliście pokazują konfigurację w której rzadko kto będzie grał, bo liczy się stabilny fps w okolicach 60, a nie 4 x AA.

Więc na gtx 460 nikt raczej nie będzie grał w tylu klatkach, a nawet w kartach co wyciągają te 30 fps, nie będzie się upierał przy tym 4xAA, bo to nie ma sensu.

Więc co komu po tych wynikach, po za tymi co mają najmocniejsze karty.

I jeszcze jedno, piszecie, że nie testowaliście w więcej niż 1080p, bo monitor nie dotarł, kompletna bzdura skoro tylko 5 kart przebija tą granicę, a w 2560 × 1440 zdecydowanie jeszcze wydajność by spadła.

Skoro nie przeszkadza wam robienie bezsensu testu z 4xAA na kartach które wiadomo, że nie dadzą wtedy rady, to co wam szkodzi zrobić to samo w 2560 × 1440 z resztą kart, z tych 5 ile przebije 60 fps?
KazubinZobacz profil
Poziom ostrzeżenia: 0%
Kazubin2014.03.17, 21:10
SunTzu @ 2014.03.17 21:05  Post: 732623
Assassin @ 2014.03.17 21:01  Post: 732622
A czy programy do monitorowania pracy GPU faktycznie wskazują użycie pamięci na poziomie 3GB w przypadku kart 2GB? Jeśli tak to najwyraźniej mamy teksturowanie przez PCIE.

Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie ;)).
Tylko problem taki, że gra powinna cachować ile się da do pamięci GPU. Czyli nawet jak gra potrzebuje 1GB to GPU-Z może pokazać i 3GB zajęte z tego powodu.
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.

Czyli takie buforowanie?


@Adi-C
Tak mnie 'zastanawia', kto z średniej i dolnej półki będzie w multi brał 4xMSAA ;)
miki_w1Zobacz profil
Poziom ostrzeżenia: 0%
miki_w12014.03.17, 21:07
CPU przetestujcie. Znając Source, to będzie miał sporo do powiedzenia.
*Konto usunięte*2014.03.17, 21:05
-1#31
Assassin @ 2014.03.17 21:01  Post: 732622
A czy programy do monitorowania pracy GPU faktycznie wskazują użycie pamięci na poziomie 3GB w przypadku kart 2GB? Jeśli tak to najwyraźniej mamy teksturowanie przez PCIE.

Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie ;)).
Tylko problem taki, że gra powinna cachować ile się da do pamięci GPU. Czyli nawet jak gra potrzebuje 1GB to GPU-Z może pokazać i 3GB zajęte z tego powodu.
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2014.03.17, 21:01
A czy programy do monitorowania pracy GPU faktycznie wskazują użycie pamięci na poziomie 3GB w przypadku kart 2GB? Jeśli tak to najwyraźniej mamy teksturowanie przez PCIE.

Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie ;)).
RazorQsZobacz profil
Poziom ostrzeżenia: 0%
RazorQs2014.03.17, 20:56
-1#29
Dużo dobrego dają te nowe sterowniki do GF? Bo nie wiem czy warto się na nie przesiąść.
*Konto usunięte*2014.03.17, 20:53
chaostheory @ 2014.03.17 20:45  Post: 732617
Davidek123 @ 2014.03.17 20:22  Post: 732602
Jak testowaliście insane na kartach 2gb?Przecież to jest nie grywalne bez 3g vram


Czytaliśmy o tym, między innymi tutaj:

http://www.reddit.com/r/titanfall/comments...nsane_textures/
Jak widać, niektórzy mają, a niektórzy nie mają tego problemu. Nam nie udało się tego zreprodukować. Całą grę 'przeszedłem' jeśli można to tak nazwać na GTX-ie 770 w wersji 2 GB i nie ma żadnych problemów, a już na pewno nie można powiedzieć o tym, że gra się 'wiesza' i tego typu rzeczy :)

specjalnie szukałem kart z różną ilością pamięci i widać, że tutaj nie ma wpływu zarówno na wydajność jak i jakość...
Gdyby gra automatycznie zmniejszała jakość to karta z mniejszą ilością pamięci byłaby lepsza. Gdyby pamię miała wpływ na wydajność to podobne układy, ale z pamięcią 3GB byłyby lepsze.
chaostheoryZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjichaostheory2014.03.17, 20:45
Davidek123 @ 2014.03.17 20:22  Post: 732602
Jak testowaliście insane na kartach 2gb?Przecież to jest nie grywalne bez 3g vram


Czytaliśmy o tym, między innymi tutaj:

http://www.reddit.com/r/titanfall/comments...nsane_textures/
Jak widać, niektórzy mają, a niektórzy nie mają tego problemu. Nam nie udało się tego zreprodukować. Całą grę 'przeszedłem' jeśli można to tak nazwać na GTX-ie 770 w wersji 2 GB i nie ma żadnych problemów, a już na pewno nie można powiedzieć o tym, że gra się 'wiesza' i tego typu rzeczy :)
HDR'oZobacz profil
Poziom ostrzeżenia: 0%
HDR'o2014.03.17, 20:44
-5#26
Istnieje jakakolwiek szansa, że do Waszych testów w grach użyjecie SLI/CFX ?
Adi-CZobacz profil
Poziom ostrzeżenia: 0%
Adi-C2014.03.17, 20:35
'Absolutnym minimum do komfortowej rozgrywki sieciowej będzie nowy GeForce GTX 750 lub Radeon R7 260X'
Kazubin @ 2014.03.17 20:09  Post: 732591
Do gier typowo multi można by dorzucić test bez wygładzania ;)

Po stokroć to.
Już nawet nie chodzi o bycie multi, ale no serio, msaax4 to przy takich kartach lekka przesada.
Nie lubię narzekać na czyjąś pracę, ale można było wziąć powiedzmy 660/7850 i na jej przykładzie pokazać wpływ noAA/x2/x4 i byłoby mw. wiadomo ile można wydajność podnieść, wyłączając/obniżając AA. Albo high/insane, choć to jest na gamegpu ru.
Do tego ludziska narzekają na stutter przy takich teksturach, podejrzewa się właśnie vram na 'słabszych' (1-2GB) kartach, a wiadomo jak wpływa msaa na vram.

Nie żeby mnie ta gra interesowała, ale pokazywać grę na source która na 7950 ciągnie ledwie 45fps, z dropami do 39, gdzie np. gówniane xone działa w 60fps (fakt że w 1400x790 :E :E msaax2), spadając do głównie 50, czasem do 40-45 to trochę nie stawia jej w aż tak bardzo niskich wymaganiach...
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.