Średnio rozumiem... shadery w sensie nowa generacja source ma shadery szybsze?
Generalnie VLIW jest bardziej efektywną archi (nie bijcie mnie), ale nowsze shadery niwelują różnicę, a pewnie przyszłe przeważą na korzyść GCN-a....
Jak dodać do tego GPGPU+Rendering to VLIW już dziś dostaje czkawki.
VLIW to taki Jekyll/Hyde - świetne w niektórych zastosowaniach, gorzej w innych. GCN jest w miarę równomierny wszędzie.
Coś przespałem? Amerykanie ustanowili nas 51 stanem?
A moze rodacy z UK wykupili?
Titanfall raczej nie spełnił pokładanych w nim nadziei, lecz mimo to bawi tysiące graczy na całym świecie,
Spełnił czy nie? bo chyba jednak tak skoro bawi?
Choć grafiką najnowsza produkcja studia Respawn Entertainment nie zachwyca, to swoje wymagania ma, choć spokojnie można nazwać je raczej niskimi. W każdym razie wstępnie możemy, nawiązując do tytułu, powiedzieć, że GTX Titan w starciu z Titanfall nie padnie ;
'Swoje wymagania' ma czy niskie wymagania?
Przetestowane 40 kart graficznych - typowe marnowanie czasu, ale procesor jeden w dodatku po OC, a gdzie test procesorów? po co traciliście czas na tyle kart?
a minimalne wymagania?
okej 'dzisiejszy pc udzwignie' a laptopy? a APU?
titan nie poległ ale lab jak zwykle daje bezwartościowe słupki z których w zasadzie niewiele wynika ot poza tym że na ultra extra insane w hiper duper rozdzielczości pogra ktoś kto ma minimum GTX 650 i i7 4.5GHz no zaje'§'§)( sensowny test dla zainteresowanych Tinfallem...
'test kart graficznych' - bardzo praktyczny dla was..to kiedy duży art z 20 grami i 40 kartami? 800 wyników z których jak zwykle niewiele wyniknie?
Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety dla konsoli wystarczy 512MB vRAM-u i już masz problem z głowy.
Raczej należy rozłączyć słowo bufor od streamingu Cały model w dużej części przypadków architektury pola gry było pod to ukształtowany, czyli tunel. Obecnie dzięki ps4 wracamy do normalności.
Miałem na mysli tylko tyle, że jeśli nie da się czegoś streamować to trzeba buforować. Skoro są w PC-tach zapasy vram-u/ramu to jest buforowanie
W Call of Szarik miałeś podobną sytuację. Gra niby pokazywała użycie pamięci nawet 3GB<, ale nie wpływało to na kolejność GPU, które nie miały 3GB<
W Rome 2 TW masz za to ciekawy mechanizm gdzie możesz wykorzystać jak największą ilość pamięci i gra tak modyfikuje LOD, by maksymalnie wykorzystać pamięć, co ma wpływ na wydajność GPU
jest wiele możliwości tutaj i wyjaśnienia sytuacji, dlaczego karty z małą ilością pamięci radzą sobie, dlaczego GPU-Z może pokazywać większe użycie... Ale tak naprawdę liczy się wydajność.
Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety dla konsoli wystarczy 512MB vRAM-u i już masz problem z głowy.
Raczej należy rozłączyć słowo bufor od streamingu Cały model w dużej części przypadków architektury pola gry było pod to ukształtowany, czyli tunel. Obecnie dzięki ps4 wracamy do normalności.
Tylko problem taki, że gra powinna cachować ile się da do pamięci GPU. Czyli nawet jak gra potrzebuje 1GB to GPU-Z może pokazać i 3GB zajęte z tego powodu.
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.
Czyli takie buforowanie?
@Adi-C
Tak mnie 'zastanawia', kto z średniej i dolnej półki będzie w multi brał 4xMSAA
No tak...
Gdyby w pamięci GPU gra miała mieć tylko to co widzisz na ekranie, a wszystko miałoby być streamowane z HDD przez RAM to by były jaja. Pomijając przepustowość masz tutaj opóźnienia. Tak jak Assasin napisał kontroler PCI-E w CPU coś by dał...
Na szczęście wystarczy troszeczkę pamięci, by nie miało to kompletnie znaczenia. Praktycznie nie masz gry, gdzie opóźnienia PCI-E miałyby jakieś znaczenie, albo przepustowość byłaby niewystarczająca (no może PCI-E 1.0 x16 w najlepszych GPU). Podobnie z RAMem, gdzie praktycznie daje radę to co jest i tylko do iGPU potrzeba pamięci o dużej przepustowości.
Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety na konsolę w PC wystarczy 512MB vRAM-u i już masz problem z głowy... podobnie dziś 'wystarczy' 6GB pewnie nie będziesz musiał się martwić o vRAM o ile zadowolisz się jakością konsoli...
... ale nie ma zarówno takich gier jak i kart w sensownej cenie. Więc bardziej opłaca się kupić 2GB i czekać, aż pojawi się choć jeden tytuł, który będzie wymagał tej pamięci.
hmm gdy porównuje się grafikę xbone z PC w titanfall widać, że PC wyświetla bardziej szczegółowe tekstury
spokojnie można to odpalić na GTX 570 i grać na 60FPS
'Absolutnym minimum do komfortowej rozgrywki sieciowej będzie nowy GeForce GTX 750 lub Radeon R7 260X '
Znowu te same teksty, jasne każdy gra na very high i 4 x MSAA, może tak wyłączcie AA i kilka opcji, które robią zerową różnicę w obrazie, a zżerają klatki i takie wyniki podajcie. Tak trudno to zrobić?
I uprzedzając wasz wiecznie nietrafiony argument, że 'relacje będą te same', to owe relacje nie mówią ile będzie tych fps, a to chce wiedzieć większość.
Zwłaszcza w grze multi, gdzie nierzadko spadek fps w kluczowym momencie to stracony punkt.
Wyniki które podaliście pokazują konfigurację w której rzadko kto będzie grał, bo liczy się stabilny fps w okolicach 60, a nie 4 x AA.
Więc na gtx 460 nikt raczej nie będzie grał w tylu klatkach, a nawet w kartach co wyciągają te 30 fps, nie będzie się upierał przy tym 4xAA, bo to nie ma sensu.
Więc co komu po tych wynikach, po za tymi co mają najmocniejsze karty.
I jeszcze jedno, piszecie, że nie testowaliście w więcej niż 1080p, bo monitor nie dotarł, kompletna bzdura skoro tylko 5 kart przebija tą granicę, a w 2560 × 1440 zdecydowanie jeszcze wydajność by spadła.
Skoro nie przeszkadza wam robienie bezsensu testu z 4xAA na kartach które wiadomo, że nie dadzą wtedy rady, to co wam szkodzi zrobić to samo w 2560 × 1440 z resztą kart, z tych 5 ile przebije 60 fps?
A czy programy do monitorowania pracy GPU faktycznie wskazują użycie pamięci na poziomie 3GB w przypadku kart 2GB? Jeśli tak to najwyraźniej mamy teksturowanie przez PCIE.
Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie ).
Tylko problem taki, że gra powinna cachować ile się da do pamięci GPU. Czyli nawet jak gra potrzebuje 1GB to GPU-Z może pokazać i 3GB zajęte z tego powodu.
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.
Czyli takie buforowanie?
@Adi-C
Tak mnie 'zastanawia', kto z średniej i dolnej półki będzie w multi brał 4xMSAA
A czy programy do monitorowania pracy GPU faktycznie wskazują użycie pamięci na poziomie 3GB w przypadku kart 2GB? Jeśli tak to najwyraźniej mamy teksturowanie przez PCIE.
Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie ).
Tylko problem taki, że gra powinna cachować ile się da do pamięci GPU. Czyli nawet jak gra potrzebuje 1GB to GPU-Z może pokazać i 3GB zajęte z tego powodu.
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.
A czy programy do monitorowania pracy GPU faktycznie wskazują użycie pamięci na poziomie 3GB w przypadku kart 2GB? Jeśli tak to najwyraźniej mamy teksturowanie przez PCIE.
Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie ).
Jak testowaliście insane na kartach 2gb?Przecież to jest nie grywalne bez 3g vram
Czytaliśmy o tym, między innymi tutaj:
http://www.reddit.com/r/titanfall/comments...nsane_textures/
Jak widać, niektórzy mają, a niektórzy nie mają tego problemu. Nam nie udało się tego zreprodukować. Całą grę 'przeszedłem' jeśli można to tak nazwać na GTX-ie 770 w wersji 2 GB i nie ma żadnych problemów, a już na pewno nie można powiedzieć o tym, że gra się 'wiesza' i tego typu rzeczy
specjalnie szukałem kart z różną ilością pamięci i widać, że tutaj nie ma wpływu zarówno na wydajność jak i jakość...
Gdyby gra automatycznie zmniejszała jakość to karta z mniejszą ilością pamięci byłaby lepsza. Gdyby pamię miała wpływ na wydajność to podobne układy, ale z pamięcią 3GB byłyby lepsze.
Jak testowaliście insane na kartach 2gb?Przecież to jest nie grywalne bez 3g vram
Czytaliśmy o tym, między innymi tutaj:
http://www.reddit.com/r/titanfall/comments...nsane_textures/
Jak widać, niektórzy mają, a niektórzy nie mają tego problemu. Nam nie udało się tego zreprodukować. Całą grę 'przeszedłem' jeśli można to tak nazwać na GTX-ie 770 w wersji 2 GB i nie ma żadnych problemów, a już na pewno nie można powiedzieć o tym, że gra się 'wiesza' i tego typu rzeczy
'Absolutnym minimum do komfortowej rozgrywki sieciowej będzie nowy GeForce GTX 750 lub Radeon R7 260X'
Kazubin @ 2014.03.17 20:09
Do gier typowo multi można by dorzucić test bez wygładzania
Po stokroć to.
Już nawet nie chodzi o bycie multi, ale no serio, msaax4 to przy takich kartach lekka przesada.
Nie lubię narzekać na czyjąś pracę, ale można było wziąć powiedzmy 660/7850 i na jej przykładzie pokazać wpływ noAA/x2/x4 i byłoby mw. wiadomo ile można wydajność podnieść, wyłączając/obniżając AA. Albo high/insane, choć to jest na gamegpu ru.
Do tego ludziska narzekają na stutter przy takich teksturach, podejrzewa się właśnie vram na 'słabszych' (1-2GB) kartach, a wiadomo jak wpływa msaa na vram.
Nie żeby mnie ta gra interesowała, ale pokazywać grę na source która na 7950 ciągnie ledwie 45fps, z dropami do 39, gdzie np. gówniane xone działa w 60fps (fakt że w 1400x790 msaax2), spadając do głównie 50, czasem do 40-45 to trochę nie stawia jej w aż tak bardzo niskich wymaganiach...
Po prostu skaszanili test i tyle.
Generalnie VLIW jest bardziej efektywną archi (nie bijcie mnie), ale nowsze shadery niwelują różnicę, a pewnie przyszłe przeważą na korzyść GCN-a....
Jak dodać do tego GPGPU+Rendering to VLIW już dziś dostaje czkawki.
VLIW to taki Jekyll/Hyde - świetne w niektórych zastosowaniach, gorzej w innych. GCN jest w miarę równomierny wszędzie.
Post #9
Ciekawe bo np. na Anandtech HD6970 ma problemy z HD7850.
Coś przespałem? Amerykanie ustanowili nas 51 stanem?
A moze rodacy z UK wykupili?
Spełnił czy nie? bo chyba jednak tak skoro bawi?
'Swoje wymagania' ma czy niskie wymagania?
Przetestowane 40 kart graficznych - typowe marnowanie czasu, ale procesor jeden w dodatku po OC, a gdzie test procesorów? po co traciliście czas na tyle kart?
a minimalne wymagania?
okej 'dzisiejszy pc udzwignie' a laptopy? a APU?
titan nie poległ ale lab jak zwykle daje bezwartościowe słupki z których w zasadzie niewiele wynika ot poza tym że na ultra extra insane w hiper duper rozdzielczości pogra ktoś kto ma minimum GTX 650 i i7 4.5GHz no zaje'§'§)( sensowny test dla zainteresowanych Tinfallem...
'test kart graficznych' - bardzo praktyczny dla was..to kiedy duży art z 20 grami i 40 kartami? 800 wyników z których jak zwykle niewiele wyniknie?
Test tego nie pokazuje możesz zagrać na 650, które ma 1GB vRAM-u.
Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety dla konsoli wystarczy 512MB vRAM-u i już masz problem z głowy.
Raczej należy rozłączyć słowo bufor od streamingu
Miałem na mysli tylko tyle, że jeśli nie da się czegoś streamować to trzeba buforować. Skoro są w PC-tach zapasy vram-u/ramu to jest buforowanie
W Call of Szarik miałeś podobną sytuację. Gra niby pokazywała użycie pamięci nawet 3GB<, ale nie wpływało to na kolejność GPU, które nie miały 3GB<
W Rome 2 TW masz za to ciekawy mechanizm gdzie możesz wykorzystać jak największą ilość pamięci i gra tak modyfikuje LOD, by maksymalnie wykorzystać pamięć, co ma wpływ na wydajność GPU
jest wiele możliwości tutaj i wyjaśnienia sytuacji, dlaczego karty z małą ilością pamięci radzą sobie, dlaczego GPU-Z może pokazywać większe użycie... Ale tak naprawdę liczy się wydajność.
Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety dla konsoli wystarczy 512MB vRAM-u i już masz problem z głowy.
Raczej należy rozłączyć słowo bufor od streamingu
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.
Czyli takie buforowanie?
@Adi-C
Tak mnie 'zastanawia', kto z średniej i dolnej półki będzie w multi brał 4xMSAA
No tak...
Gdyby w pamięci GPU gra miała mieć tylko to co widzisz na ekranie, a wszystko miałoby być streamowane z HDD przez RAM to by były jaja. Pomijając przepustowość masz tutaj opóźnienia. Tak jak Assasin napisał kontroler PCI-E w CPU coś by dał...
Na szczęście wystarczy troszeczkę pamięci, by nie miało to kompletnie znaczenia. Praktycznie nie masz gry, gdzie opóźnienia PCI-E miałyby jakieś znaczenie, albo przepustowość byłaby niewystarczająca (no może PCI-E 1.0 x16 w najlepszych GPU). Podobnie z RAMem, gdzie praktycznie daje radę to co jest i tylko do iGPU potrzeba pamięci o dużej przepustowości.
Za to x360/PS3 działają na tych '512MB' pamięci co jest majstersztykiem i kompletnym przeciwieństwem PC. Niestety na konsolę w PC wystarczy 512MB vRAM-u i już masz problem z głowy... podobnie dziś 'wystarczy' 6GB pewnie nie będziesz musiał się martwić o vRAM o ile zadowolisz się jakością konsoli...
... ale nie ma zarówno takich gier jak i kart w sensownej cenie. Więc bardziej opłaca się kupić 2GB i czekać, aż pojawi się choć jeden tytuł, który będzie wymagał tej pamięci.
spokojnie można to odpalić na GTX 570 i grać na 60FPS
Znowu te same teksty, jasne każdy gra na very high i 4 x MSAA, może tak wyłączcie AA i kilka opcji, które robią zerową różnicę w obrazie, a zżerają klatki i takie wyniki podajcie. Tak trudno to zrobić?
I uprzedzając wasz wiecznie nietrafiony argument, że 'relacje będą te same', to owe relacje nie mówią ile będzie tych fps, a to chce wiedzieć większość.
Zwłaszcza w grze multi, gdzie nierzadko spadek fps w kluczowym momencie to stracony punkt.
Wyniki które podaliście pokazują konfigurację w której rzadko kto będzie grał, bo liczy się stabilny fps w okolicach 60, a nie 4 x AA.
Więc na gtx 460 nikt raczej nie będzie grał w tylu klatkach, a nawet w kartach co wyciągają te 30 fps, nie będzie się upierał przy tym 4xAA, bo to nie ma sensu.
Więc co komu po tych wynikach, po za tymi co mają najmocniejsze karty.
I jeszcze jedno, piszecie, że nie testowaliście w więcej niż 1080p, bo monitor nie dotarł, kompletna bzdura skoro tylko 5 kart przebija tą granicę, a w 2560 × 1440 zdecydowanie jeszcze wydajność by spadła.
Skoro nie przeszkadza wam robienie bezsensu testu z 4xAA na kartach które wiadomo, że nie dadzą wtedy rady, to co wam szkodzi zrobić to samo w 2560 × 1440 z resztą kart, z tych 5 ile przebije 60 fps?
Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.
Czyli takie buforowanie?
@Adi-C
Tak mnie 'zastanawia', kto z średniej i dolnej półki będzie w multi brał 4xMSAA
Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie
Niewykorzystana pamięć to zmarnowana pamięć. Z drugiej strony Win8.1 ma Tiled Resources, które po prostu może działać.
Gdyby wszystko miałoby streamowane z nie daj Boże dysku twardego, to na PCie miał być mnóstwo wąskich gardeł.
Być może lepiej sobie z tym radzą procesory mające równocześnie zintegrowany kontroler PCIE i kontroler pamięci, takie jak w platformie testowej (choć to już daleko idące teoretyzowanie
Czytaliśmy o tym, między innymi tutaj:
http://www.reddit.com/r/titanfall/comments...nsane_textures/
Jak widać, niektórzy mają, a niektórzy nie mają tego problemu. Nam nie udało się tego zreprodukować. Całą grę 'przeszedłem' jeśli można to tak nazwać na GTX-ie 770 w wersji 2 GB i nie ma żadnych problemów, a już na pewno nie można powiedzieć o tym, że gra się 'wiesza' i tego typu rzeczy
specjalnie szukałem kart z różną ilością pamięci i widać, że tutaj nie ma wpływu zarówno na wydajność jak i jakość...
Gdyby gra automatycznie zmniejszała jakość to karta z mniejszą ilością pamięci byłaby lepsza. Gdyby pamię miała wpływ na wydajność to podobne układy, ale z pamięcią 3GB byłyby lepsze.
Czytaliśmy o tym, między innymi tutaj:
http://www.reddit.com/r/titanfall/comments...nsane_textures/
Jak widać, niektórzy mają, a niektórzy nie mają tego problemu. Nam nie udało się tego zreprodukować. Całą grę 'przeszedłem' jeśli można to tak nazwać na GTX-ie 770 w wersji 2 GB i nie ma żadnych problemów, a już na pewno nie można powiedzieć o tym, że gra się 'wiesza' i tego typu rzeczy
Po stokroć to.
Już nawet nie chodzi o bycie multi, ale no serio, msaax4 to przy takich kartach lekka przesada.
Nie lubię narzekać na czyjąś pracę, ale można było wziąć powiedzmy 660/7850 i na jej przykładzie pokazać wpływ noAA/x2/x4 i byłoby mw. wiadomo ile można wydajność podnieść, wyłączając/obniżając AA. Albo high/insane, choć to jest na gamegpu ru.
Do tego ludziska narzekają na stutter przy takich teksturach, podejrzewa się właśnie vram na 'słabszych' (1-2GB) kartach, a wiadomo jak wpływa msaa na vram.
Nie żeby mnie ta gra interesowała, ale pokazywać grę na source która na 7950 ciągnie ledwie 45fps, z dropami do 39, gdzie np. gówniane xone działa w 60fps (fakt że w 1400x790