komentarze
crunZobacz profil
Poziom ostrzeżenia: 0%
crun2013.10.31, 13:23
http://www.overclock.net/t/1438222/battlef...benchmark/0_100
jak widac, faktycznie jest duza roznica przy wiekszych taktowaniach pamieci

biore sie za podkrecanie moich :)
CzaborZobacz profil
Poziom ostrzeżenia: 0%
Czabor2013.10.31, 13:18
Jednej rzeczy mi brakuje w opisie gry.Mianowicie określenia 64 bit.Czy to nie fantastyczne że ostatni hamulcowy branży, czyli gry,przechodzi na ciemną strone mocy?Witamy w wydajnym świecie=dużo + szybki ram,dużo rdzeni +GPGPU
Krzysiek_NZobacz profil
Poziom ostrzeżenia: 0%
Krzysiek_N2013.10.31, 12:57
Kiedy możemy spodziewać się testów zależności pomiędzy szybkością pamięci RAM a ilością FPS?
sygaworZobacz profil
Poziom ostrzeżenia: 0%
sygawor2013.10.31, 11:29
Więcej informacji i filmów dot. BF4:
Michael86Zobacz profil
Poziom ostrzeżenia: 0%
Michael862013.10.31, 11:19
Wyniki które wam wyszły w sp nie mają nic wspólnego z realną rozgrywką...Focus kiedy się wypowiesz na temat różnic jakie są w waszym teście a tym co zrobił pawel86ck??
U mnie też to chodzi lepiej niż to wynika z waszych testów, a zazwyczaj mi się zgadzało w poprzednich testach gier np w crysis 3.

może Resolution Scale mieliście ustawione na 150%-200%??:)
Eco29Zobacz profil
Poziom ostrzeżenia: 0%
Eco292013.10.31, 10:55
focus @ 2013.10.30 06:15  Post: 698396
Eco29 @ 2013.10.29 23:25  Post: 698347
Wydaje mi się, że bardzo wskazany jest update testu na sterownikach NV 331.65.
Poprawiają błędy i wydajność, są wspomniane w http://pclab.pl/news55330.html
Dla mnie gra była prawie niegrywalna ze względu na błędy graficzne i spadki wydajoności na starszych sterownikach. (i7 2700k@4,5GHz 2xGTX670OC, 8GB 1600ram). Po uaktualnieniu sterowników wszystko idzie jak burza i pozbawione błędów.

Nie rozumiem, czy Wy naprawdę nie czytacie tego artykułu, tylko dosłownie 'na pałę' wrzucacie jakieś uwagi? Skoro sugerujesz test na jakiś sterownikach, to domniemywam, że przejrzałeś platformę testową, a tam jak byk stoi 331.65... Jeszcze Ci plusy ludzie dają...

Artykuł przeczytałem od deski do deski i patrzyłem na sterowniki podane przy konfiguracji testowej. Widocznie było zbyt późno i oczy już zmęczone. Miałem wrażenie, że podana była starsza wersja sterownika. Kajam się i dziękuje za wskazanie mi błędu.
SpeedstarZobacz profil
Poziom ostrzeżenia: 0%
Speedstar2013.10.31, 10:48
Mam pytanie. Ile zużywa VRAM ta gra w ustawieniach 1080p ULTRA wszystko na maxa ?
ghs2013.10.31, 10:42
wake_up @ 2013.10.31 09:38  Post: 698743
ghs @ 2013.10.31 07:47  Post: 698706
(...)


która/e to ''cudowna/e'' funkcja/cje dx11.1 tak przerzuciła/iły obliczenia z cpu na gpu że w przypadku jej/ich braku mocno wykręcony i7 zaczyna się dusić?!

przepisałeś słowa jakiegoś pseudooblatywacza, prawdopodobnie niemające związku ze stanem faktycznym. od jakiegoś czasu modne jest słowo ''narzut'. a narzut to nic innego jak jakieś konkretne funkcje które dodatkowo przelicza cpu. jakich więc konkretnie nie przelicza cpu dla dx11.1 a które przelicza dla dx11.0. DX to API więc funkcje są ogólnie dostępne, to nie to co zamknięte detonatory nvidii że trzeba spekulować co podaje driver do liczenia do cpu.
jak jakiś magik zaczyna ględzić o narzucie (w przypadku DX) to na 99% leje wodę, pozostały 1%: to jakiś oszołom

to raz. dwa: gdyby M$ rzeczywiście udało się tak zoptymalizować DX że zwalniałby połowę zasobów cpu przerzucając obliczenia na gpu BEZ DODATKOWEGO OBCIĄŻENIA DLA KARTY, to uwierz taki DX nie otrzymałby mizernej wersji +0,1 a hucznie by ogłaszano nową erę gier z DX12 i otwierano szampany. zwłaszcza w przypadku takiej marketingowej porażki jaką był win8

bardziej prawdopodobna jest wersja że usiedli panowie z EA i panowie z M$; panowie z M$ powiedzieli ''mamy sporo kasy do wydania na cel lepszego działania bf4 pod win8.1'' i zrobiono to. pytanie tylko na ile legalnymi metodami. oczywiście nie będzie łatwe (o ile możliwe) potwierdzić/wykluczyć ten scenariusz bo panowie z EA i M$ to nie są jakieś tam leszcze których działania może wykryć pan Waldek w garażu metodą chałupniczą. przy takim założeniu DICE z EA jest mało wiarygodnym źródłem

Co racja to racja ;).
Mniej niż pięć minut zajęło mi znalezienie informacji o tym że niższa wydajność pod Windows 7 to kwestia samej gry i że ma być to poprawione w nadchodzących patchach - informacja nieoficjalna, ale wiarygodna imho :P.


to miałoby sens. powiedzmy że taki patch wyjdzie dopiero za 3 miesiące. powiedzmy że M$ zrobił badanie rynku i okazało się że zapaleni gracze multi w BF to opiniotwórcza grupa za którą podąża reszta stada. ci zapaleńcy multi przesiądą się za te 100$ (część pojedzie na piracie) na win8.1 i w ciągu tego kwartału (do teoretycznego patcha) PR win8.1 z czarnego stanie się co najmniej szary z odcieniami bieli :)
wake_upZobacz profil
Poziom ostrzeżenia: 0%
wake_up2013.10.31, 09:38
ghs @ 2013.10.31 07:47  Post: 698706
KazH @ 2013.10.30 11:41  Post: 698507
(...)


DirectX 11.1 zdaniem DICE służy głównie do odciążenia CPU. Czyli przy takim samym użyciu CPU możesz narysować więcej bo biblioteki mają mniejszy narzut. DirectX 11.1 wprowadził nowe funkcje dzięki którym karty graficzne przejmują część operacji które wcześniej robił procesor

'We use DX11.1, there are some optimizations in it (constant buffer offsets, dynamic buffers as SRVs) that we got in to the the API that improves CPU performance in our rendering when one runs with DX11.1' - DICE (EA)

A teraz porównaj ile pracy ma CPU w obu trybch gry. W trybie pojedynczego gracza jesteś zamknięty w ciasnym korytarzu z oskryptowanymi przeciwnikami. CPU ma niewiele do liczenia bo dokładnie wie co ma zrobić który przeciwnik i kiedy. Jak jesteś w jednym pomieszczeniu to CPU nie musi się zajmować tym co jest a pomieszczeniach które są w innym miejscu

W przypadku multiplayera twój procesor CPU musi liczyć całą wielką mapę. Każde pomieszczenie, 64 graczy który wzajemnie do siebie strzelają nawet jeżeli są na drugim końcu mapy. Każdy z nich może aktywować skrypty modyfikujące mapę, powodować zniszczenia. To wszystko twoje CPU musi obliczać, synchronizować, nanosić na mapę jako levolution. W trybue multiplayera masz więc mniej wolnego CPU. I tu pomaga DirectX 11.1 który przenosi część obiczeń na GPU

Jak ktoś będzie miał bardzo szybkie CPU to różnica pomiędzy systemami będzie mniejsza. Jak ktoś będzie miał wolniejsze CPU to przewaga DirectX 11.1 będzie rosła


która/e to ''cudowna/e'' funkcja/cje dx11.1 tak przerzuciła/iły obliczenia z cpu na gpu że w przypadku jej/ich braku mocno wykręcony i7 zaczyna się dusić?!

przepisałeś słowa jakiegoś pseudooblatywacza, prawdopodobnie niemające związku ze stanem faktycznym. od jakiegoś czasu modne jest słowo ''narzut'. a narzut to nic innego jak jakieś konkretne funkcje które dodatkowo przelicza cpu. jakich więc konkretnie nie przelicza cpu dla dx11.1 a które przelicza dla dx11.0. DX to API więc funkcje są ogólnie dostępne, to nie to co zamknięte detonatory nvidii że trzeba spekulować co podaje driver do liczenia do cpu.
jak jakiś magik zaczyna ględzić o narzucie (w przypadku DX) to na 99% leje wodę, pozostały 1%: to jakiś oszołom

to raz. dwa: gdyby M$ rzeczywiście udało się tak zoptymalizować DX że zwalniałby połowę zasobów cpu przerzucając obliczenia na gpu BEZ DODATKOWEGO OBCIĄŻENIA DLA KARTY, to uwierz taki DX nie otrzymałby mizernej wersji +0,1 a hucznie by ogłaszano nową erę gier z DX12 i otwierano szampany. zwłaszcza w przypadku takiej marketingowej porażki jaką był win8

bardziej prawdopodobna jest wersja że usiedli panowie z EA i panowie z M$; panowie z M$ powiedzieli ''mamy sporo kasy do wydania na cel lepszego działania bf4 pod win8.1'' i zrobiono to. pytanie tylko na ile legalnymi metodami. oczywiście nie będzie łatwe (o ile możliwe) potwierdzić/wykluczyć ten scenariusz bo panowie z EA i M$ to nie są jakieś tam leszcze których działania może wykryć pan Waldek w garażu metodą chałupniczą. przy takim założeniu DICE z EA jest mało wiarygodnym źródłem

Co racja to racja ;).
Mniej niż pięć minut zajęło mi znalezienie informacji o tym że niższa wydajność pod Windows 7 to kwestia samej gry i że ma być to poprawione w nadchodzących patchach - informacja nieoficjalna, ale wiarygodna imho :P.
ghs2013.10.31, 07:47
KazH @ 2013.10.30 11:41  Post: 698507
ghs @ 2013.10.30 09:43  Post: 698446
niepokojąca jest ta różnica pomiędzy win7 a win8 w mp. nie jest to raczej zasługa dx11.1 bo w sp też dałoby się zauważyć dysproporcje. nie jest też możliwe aby win8 mniej obciążał procesor (a na pewno nie w takim stopniu) i dzięki temu w mp jest 50% fps więcej. sprawa mocno podejrzana i warta dogłębnego zbadania. ale aby zacząć snuć domysły i podjąć próby analizy potrzebne są testy na mocnych cpu amd i intelu, na słabszych dwurdzeniówkach, na mocnych i słabych gpu z dx11.1 AMD i mocnych i słanych gpu z dx11.0 AMD i NV. przydałoby się też vistę dorzucić.
p.s. @redakcja: można w tym temacie liczyć na oddzielny art czy będzie jakieś uaktualnienie do tego?


DirectX 11.1 zdaniem DICE służy głównie do odciążenia CPU. Czyli przy takim samym użyciu CPU możesz narysować więcej bo biblioteki mają mniejszy narzut. DirectX 11.1 wprowadził nowe funkcje dzięki którym karty graficzne przejmują część operacji które wcześniej robił procesor

'We use DX11.1, there are some optimizations in it (constant buffer offsets, dynamic buffers as SRVs) that we got in to the the API that improves CPU performance in our rendering when one runs with DX11.1' - DICE (EA)

A teraz porównaj ile pracy ma CPU w obu trybch gry. W trybie pojedynczego gracza jesteś zamknięty w ciasnym korytarzu z oskryptowanymi przeciwnikami. CPU ma niewiele do liczenia bo dokładnie wie co ma zrobić który przeciwnik i kiedy. Jak jesteś w jednym pomieszczeniu to CPU nie musi się zajmować tym co jest a pomieszczeniach które są w innym miejscu

W przypadku multiplayera twój procesor CPU musi liczyć całą wielką mapę. Każde pomieszczenie, 64 graczy który wzajemnie do siebie strzelają nawet jeżeli są na drugim końcu mapy. Każdy z nich może aktywować skrypty modyfikujące mapę, powodować zniszczenia. To wszystko twoje CPU musi obliczać, synchronizować, nanosić na mapę jako levolution. W trybue multiplayera masz więc mniej wolnego CPU. I tu pomaga DirectX 11.1 który przenosi część obiczeń na GPU

Jak ktoś będzie miał bardzo szybkie CPU to różnica pomiędzy systemami będzie mniejsza. Jak ktoś będzie miał wolniejsze CPU to przewaga DirectX 11.1 będzie rosła


która/e to ''cudowna/e'' funkcja/cje dx11.1 tak przerzuciła/iły obliczenia z cpu na gpu że w przypadku jej/ich braku mocno wykręcony i7 zaczyna się dusić?!

przepisałeś słowa jakiegoś pseudooblatywacza, prawdopodobnie niemające związku ze stanem faktycznym. od jakiegoś czasu modne jest słowo ''narzut'. a narzut to nic innego jak jakieś konkretne funkcje które dodatkowo przelicza cpu. jakich więc konkretnie nie przelicza cpu dla dx11.1 a które przelicza dla dx11.0. DX to API więc funkcje są ogólnie dostępne, to nie to co zamknięte detonatory nvidii że trzeba spekulować co podaje driver do liczenia do cpu.
jak jakiś magik zaczyna ględzić o narzucie (w przypadku DX) to na 99% leje wodę, pozostały 1%: to jakiś oszołom

to raz. dwa: gdyby M$ rzeczywiście udało się tak zoptymalizować DX że zwalniałby połowę zasobów cpu przerzucając obliczenia na gpu BEZ DODATKOWEGO OBCIĄŻENIA DLA KARTY, to uwierz taki DX nie otrzymałby mizernej wersji +0,1 a hucznie by ogłaszano nową erę gier z DX12 i otwierano szampany. zwłaszcza w przypadku takiej marketingowej porażki jaką był win8

bardziej prawdopodobna jest wersja że usiedli panowie z EA i panowie z M$; panowie z M$ powiedzieli ''mamy sporo kasy do wydania na cel lepszego działania bf4 pod win8.1'' i zrobiono to. pytanie tylko na ile legalnymi metodami. oczywiście nie będzie łatwe (o ile możliwe) potwierdzić/wykluczyć ten scenariusz bo panowie z EA i M$ to nie są jakieś tam leszcze których działania może wykryć pan Waldek w garażu metodą chałupniczą. przy takim założeniu DICE z EA jest mało wiarygodnym źródłem
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2013.10.31, 01:31
halflife2004 @ 2013.10.30 21:57  Post: 698650
pawel86ck @ 2013.10.30 21:55  Post: 698649

hehe, dokładnie, jest to później 'uwalone' do rozdziały monitora, ale mimo wszystko jakość obrazu jest wtedy trochę jednak lepsza, niż jak gdybyś użył 'tylko' natywnej rozdzielczości monitora.


Nie trochę ale znacząco lepsza.

Dam screeny z PClaba
Ultra


Ultra + 200%


a jak chcesz w większej rozdzielczości to masz tutaj
http://pclab.pl/art55037-5.html
Sam sprawdzałem i na początku udało mi się utrzymać 1600p + 150%, ale ostatecznie gram na 1600p + 125% i różnica nawet w takim ustawieniu jest znacząco widoczna, na szczęście każda gra na tym silniku ma mieć taka opcję do ustawienia.

pawel86ck @ 2013.10.30 21:55  Post: 698649


HL2004@ masz racje, w takim jednak Metro LL supersampling ustawiony na max odpowiadał już 4K przy rozdzielczości 1080p, to wiem na pewno, bo Nv zrobiła o tej grze dokładny artykuł, gdzie wyjaśnili tą kwestie. Swoją drogą śmieszna sprawa jest z tym SSAA, ludzie w odruchu ustawiają to sobie w grach, gdyż myślą, że jest to normalny MSAA, a później zdziwienie, czemu fps spadł tak drastycznie :)


Jeśli masz gdzieś linka to daj chętnie poczytam, sam grałem w Metro LL w ustawieniach oczywiście z SSAA, i naprawdę myślałem że jest to lepsza forma AA. Poza tym nie widać aż takiej różnicy na 1600p z SSAA, czy bez, ale jak się dało to grałem z tym. W przypadku BF4 widać to bardzo mocno i na +125/150/175/200 za każdym razem trochę lepiej. Na +200% niestety mam przedział klatek 17-24 w krytycznym momencie, wątpię też czy trzecie GPU podniesie to do zadawalającej płynności, prawdopodobnie trzeba by było zejść z ustawień, a to byłoby zgoła bez sensu.


Wylacz msaa wtedy mozesz uzyc wysokiego rs. Przy downscalingu z 4k watpie aby msaa bylo potrzebne. Pytanie tylko, ktora metoda jest bardziej zasobozerna w stosunku do subiektywnego odczucia poprawy jakosci obrazu dla Ciebie.
DonciZobacz profil
Poziom ostrzeżenia: 33%
Donci2013.10.31, 01:13
pawel86ck @ 2013.10.31 00:59  Post: 698683
Donci@ akurat to co opisujesz, to jest efekt dziwnego działania sterowników Nv, które zmieniają nastawy zakresu RGB w sytuacji, którą opisałeś (tzn. utworzenie rozdzielczości custom).

'EDID' telewizora wysyła karcie graficznej informacje min. na temat tego, jak ta ma przesłać kolory. Sami inżynierzy NV ustawili tak karty, by te słuchały się tej 'prośby' (EDID) telewizora. Problem jest jednak w tym, że dopiero w ostatnim czasie producenci tv zaczęli uwzględniać sprzęt komputerowy. Np. nowe TV sony w trybie 'gra' automatycznie wysyłają żądanie (EDID), aby karta graficzna przesłała pełny zakres RGB. Przy starszych TV niestety 'EDID' prosi najczęściej o zwężenie zakresu RGB, a karta NV słucha się tej prośby grzecznie. Jest jednak pewien 'trik', by karta wysłała pełny zakres RGB przymusem, tyczy się to właśnie utworzenia rozdzielczości 'custom', bo dziwnym zbiegiem okoliczności karta wymusza wtedy fullRGB nie zważając na EDID telewizora. Jak chcesz, to możesz sobie poszukać 'NV_RGBFullRangeToggle', nie będziesz musiał zmieniać rozdzielczości, by mieć lepsze kolory.


to zajebiscie a mozesz jasniej ? :) mam tego dokladnie :) wiekowy juz http://www.alsen.pl/rtv,k24/telewizory-lcd...05h,p18407.html
pawel86ckZobacz profil
Poziom ostrzeżenia: 0%
pawel86ck2013.10.31, 00:59
Donci@ akurat to co opisujesz, to jest efekt dziwnego działania sterowników Nv, które zmieniają nastawy zakresu RGB w sytuacji, którą opisałeś (tzn. utworzenie rozdzielczości custom).

'EDID' telewizora wysyła karcie graficznej informacje min. na temat tego, jak ta ma przesłać kolory. Sami inżynierzy NV ustawili tak karty, by te słuchały się tej 'prośby' (EDID) telewizora. Problem jest jednak w tym, że dopiero w ostatnim czasie producenci tv zaczęli uwzględniać sprzęt komputerowy. Np. nowe TV sony w trybie 'gra' automatycznie wysyłają żądanie (EDID), aby karta graficzna przesłała pełny zakres RGB. Przy starszych TV niestety 'EDID' prosi najczęściej o zwężenie zakresu RGB, a karta NV słucha się tej prośby grzecznie. Jest jednak pewien 'trik', by karta wysłała pełny zakres RGB przymusem, tyczy się to właśnie utworzenia rozdzielczości 'custom', bo dziwnym zbiegiem okoliczności karta wymusza wtedy fullRGB nie zważając na EDID telewizora. Jak chcesz, to możesz sobie poszukać 'NV_RGBFullRangeToggle', nie będziesz musiał zmieniać rozdzielczości, by mieć lepsze kolory.

Swoją drogą, by nie offtopować za bardzo, to przyznać muszę, że Battlefield 4 zyskuje potężnie, po włączeniu skalowania rozdzielczości na 200%. Chodzi o to, że gra nie ma dobrych tekstur samych w sobie, używa natomiast efektów pixelshader do stworzenia iluzji dobrej tekstury. Przy skalowaniu na 200%, te efekty tekstur generowane są w znacznie większej rozdzielczości, a efekt tego widać dobrze po przyjrzeniu w grze właściwej. Szkoda natomiast, że te skalowanie tak zabija płynność, nastawy 200%'go skalowania to już zabawa dla multi GPU.
DonciZobacz profil
Poziom ostrzeżenia: 33%
Donci2013.10.30, 23:53
pawel86ck @ 2013.10.30 23:48  Post: 698671
Donci @ 2013.10.30 23:38  Post: 698669
(...)


Grasz na TV ustawiles rozdzialke full hd czy wymusiles ta rozdzielczosc to znaczy progresive ?

Żadnej rozdzielczości nie zmieniałem, odpaliłem po prostu demko materiału filmowego w 4K na PC, który był podłączony pod tv przewodem HDMI ( rozdzielczość była ustawiona na 1080p w panelu sterowania NV). Polecam pobrać sobie trailer 'Elysium' w 4K i zobaczyć samemu, jak fenomenalnie wygląda downsampling filmu na panelu 1080p.

Ustaw w trybi gry telewizor i utworz sam rozdzialke czyli wymuś np. 1920na 1079 w tedy zobaczysz co naprawde potrafi twoj telewizor bez dopalaczy i ulepszen. Ja tak mam i moiz zdaniem warto lepsze koloryy , miedzy innymi czern
pawel86ckZobacz profil
Poziom ostrzeżenia: 0%
pawel86ck2013.10.30, 23:48
Donci @ 2013.10.30 23:38  Post: 698669
pawel86ck @ 2013.10.30 23:14  Post: 698666
(...)

Swoją drogą powiem tez taką ciekawostkę, bo nawet na materiałach filmowych jest różnica, nie tylko w grach. Mam TV 1080p, sądziłem, że wiem już jak wygląda obraz na takich panelach z BR, ale gdy włączyłem demo 4K to nawet na panelu 1080p zbierałem szczenę z podłogi, ostrość wręcz krystaliczna, później gdy włączyłem jakość 'tylko' BR, to przez pewien czas byłem zdegustowany :)

Mówiąc o grach downsampling jest chyba najlepszym wyborem, odnośnie pozbycia się ząbków, TXAA wygląda przy tym strasznie blado :), bo obraz nie ma tak doskonałej ostrości.


Grasz na TV ustawiles rozdzialke full hd czy wymusiles ta rozdzielczosc to znaczy progresive ?

Żadnej rozdzielczości nie zmieniałem, odpaliłem po prostu demko materiału filmowego w 4K na PC, który był podłączony pod tv przewodem HDMI ( rozdzielczość była ustawiona na 1080p w panelu sterowania NV). Polecam pobrać sobie trailer 'Elysium' w 4K i zobaczyć samemu, jak fenomenalnie wygląda downsampling filmu na panelu 1080p.
DonciZobacz profil
Poziom ostrzeżenia: 33%
Donci2013.10.30, 23:38
pawel86ck @ 2013.10.30 23:14  Post: 698666
halflife2004 @ 2013.10.30 23:10  Post: 698664
(...)


Dziękuje, właśnie przeczytałem, muszę powiedzieć że lekko jestem zaskoczony teraz już wiem czemu są takie różnice w wydajności 4X/2X SSAA.

Swoją drogą powiem tez taką ciekawostkę, bo nawet na materiałach filmowych jest różnica, nie tylko w grach. Mam TV 1080p, sądziłem, że wiem już jak wygląda obraz na takich panelach z BR, ale gdy włączyłem demo 4K to nawet na panelu 1080p zbierałem szczenę z podłogi, ostrość wręcz krystaliczna, później gdy włączyłem jakość 'tylko' BR, to przez pewien czas byłem zdegustowany :)

Mówiąc o grach downsampling jest chyba najlepszym wyborem, odnośnie pozbycia się ząbków, TXAA wygląda przy tym strasznie blado :), bo obraz nie ma tak doskonałej ostrości.


Grasz na TV ustawiles rozdzialke full hd czy wymusiles ta rozdzielczosc to znaczy progresive ?
pawel86ckZobacz profil
Poziom ostrzeżenia: 0%
pawel86ck2013.10.30, 23:14
halflife2004 @ 2013.10.30 23:10  Post: 698664
pawel86ck @ 2013.10.30 22:40  Post: 698658
HL2004@ Proszę bardzo, poniżej ten poradnik

http://www.geforce.com/whats-new/articles/...rformance-guide
BTW downsampling poprawia chyba nawet efekt filtrowania anizotropowego, więc to dodatkowy plus.


Dziękuje, właśnie przeczytałem, muszę powiedzieć że lekko jestem zaskoczony teraz już wiem czemu są takie różnice w wydajności 4X/2X SSAA.

Swoją drogą powiem tez taką ciekawostkę, bo nawet na materiałach filmowych jest różnica, nie tylko w grach. Mam TV 1080p, sądziłem, że wiem już jak wygląda obraz na takich panelach z BR, ale gdy włączyłem demo 4K to nawet na panelu 1080p zbierałem szczenę z podłogi, ostrość wręcz krystaliczna, później gdy włączyłem jakość 'tylko' BR, to przez pewien czas byłem zdegustowany :)

Mówiąc o grach downsampling jest chyba najlepszym wyborem, odnośnie pozbycia się ząbków, TXAA wygląda przy tym strasznie blado :), bo obraz nie ma tak doskonałej ostrości.
halflife2004Zobacz profil
Poziom ostrzeżenia: 0%
halflife20042013.10.30, 23:10
pawel86ck @ 2013.10.30 22:40  Post: 698658
HL2004@ Proszę bardzo, poniżej ten poradnik

http://www.geforce.com/whats-new/articles/...rformance-guide
BTW downsampling poprawia chyba nawet efekt filtrowania anizotropowego, więc to dodatkowy plus.


Dziękuje, właśnie przeczytałem, muszę powiedzieć że lekko jestem zaskoczony teraz już wiem czemu są takie różnice w wydajności 4X/2X SSAA.
pawel86ckZobacz profil
Poziom ostrzeżenia: 0%
pawel86ck2013.10.30, 22:40
HL2004@ Proszę bardzo, poniżej ten poradnik

http://www.geforce.com/whats-new/articles/...rformance-guide
BTW downsampling poprawia chyba nawet efekt filtrowania anizotropowego, więc to dodatkowy plus.
*Konto usunięte*2013.10.30, 22:29
Focus co sądziesz o teście vintage...
Gdzie biłby się dolny segmet. iGPU AMD, GF 550 ti, stary radeon...
Pentium e2160?, Trinity,
vs
2500k+660

Innymi słowy popularne karty, procesory. Na ustawieniach medium/high, rozdzielczości 1680x1050

By pokazać jaka jest różnica między starym, a nowym. Tak by nie było narzekania, że na leciwym kompie mają po 50FPSów, jak patrzą w kamień...
Wiesz porównywanie kart gdy masz 12FPSów to w pewnym sensie żart

Osobna zakładka Vintage.
Będzie to chyba dla was wygodniejsze, bo testowanie przy 12FPSach boli...
Dla nas, bo dany segment, będzie w odpowiedniej kategorii.
Nikt nie ustawi 640tki na high przy <20FPSach, test będzie bardziej wiarygodny.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.