komentarze
NebelZobacz profil
Poziom ostrzeżenia: 0%
Nebel2012.12.14, 19:25
81#1
Poczekajmy na komentarz Cyrixa133, on rozwieje wszystkie wątpliwości
sun2xZobacz profil
Poziom ostrzeżenia: 0%
sun2x2012.12.14, 19:27
24#2
mam radka i totalnie się zgadzam, w niektórych grach bywa problem z mikroprzycięciami i potrafi to strasznie denerwować, na nvidii tego nie miałem, ogólnie karty nv sprawiają wrażenie bardziej zrównoważonych pod względem generowanych fpsów
RelativyZobacz profil
Poziom ostrzeżenia: 0%
Relativy2012.12.14, 19:28
13#3
Miałem tą samą sytuacje testując GT 240, 9800GT i HD3850
Po mimo minimalnych FPS=52 na GT 240 i 54 na 98GT i zaledwie 36 na HD38
To w Mirrors Edge na 2 pierwszych kartach miejscami obraz rwał jak by było 3 FPS
(to już nie mikroprzycięcia, a stop-klatki). Na Radeonie z kolei grało się płynnie.
Więc taki problem istnieje. Więc panowie ameryki nie odkryli. Ja to wiem od 2 lat?
Niech się tylko pokusi ktoś o testy i znalezieni przyczyny, lub ewentualnie porówna na czym problem jest brdziej intensyny a na czym mniej. Bo porównując 2 karty to nie można wysnuć wniosku dotyczącego wszystkich radeonów czy GF. A i redakcja PCLab powinna zmienić tytuł, bo brzmi Onetowo i Fanbojsko.
hantiZobacz profil
Poziom ostrzeżenia: 0%
hanti2012.12.14, 19:28
chyba cos w tym jest ;)
mlody_tarnowZobacz profil
Poziom ostrzeżenia: 0%
mlody_tarnow2012.12.14, 19:28
12#5
To teraz focus będzie miał nowy temat na artykuł ;)
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2012.12.14, 19:30
mlody_tarnow @ 2012.12.14 19:28  Post: 623007
To teraz focus będzie miał nowy temat na artykuł ;)

Raczej o tym dobrze wie, bo była chyba niedawno jakaś rozmowa pod artem na temat mierzenia wydajności grafik i też przewijał się wątek liczenia czasu między klatkami.
Wozny EdzioZobacz profil
Poziom ostrzeżenia: 0%
Wozny Edzio2012.12.14, 19:33
-24#7
Trochę bez sensu, przy 120 czy 240 klatkach takie przycięcia może i są widoczne, ale przecież te karty nie wyciągają tylu klatek w grach na full detalach w rozsądnej rozdzielczości, natomiast jeżeli wyciągają, to większość monitorów tylu tak czy tak nie wyświetli. A przecież do grania na takich detalach kupuje się te karty, nieprawda?

Co nie zmienia faktu, że dla tych nielicznych, którzy mają 120Hz monitory może się to przydać, ale dla 'ludu' to chyba nie stanowi żadnej różnicy, jeżeli się mylę, to mnie poprawcie. Przy powiedzmy tych 60 klatkach takie przycięcia też są możliwe do zauważenia?
Markiz88Zobacz profil
Poziom ostrzeżenia: 0%
Markiz882012.12.14, 19:33
-14#8
swoją drogą nvidia zamieszcza jak zoptymalizować tą grę pod swoje karty
http://www.geforce.com/optimize/guides/fiv...ook-even-better
tomcugZobacz profil
Poziom ostrzeżenia: 0%
tomcug2012.12.14, 19:33
12#9
sevae @ 2012.12.14 19:30  Post: 623008
mlody_tarnow @ 2012.12.14 19:28  Post: 623007
To teraz focus będzie miał nowy temat na artykuł ;)

Raczej o tym dobrze wie, bo była chyba niedawno jakaś rozmowa pod artem na temat mierzenia wydajności grafik i też przewijał się wątek liczenia czasu między klatkami.

Każdy, kto testował jakieś kart graficzne, powinien o tym wiedzieć ;). Pierwszy z brzegu przykład? Wiedźmin 2 - na Radeonie masz więcej FPS, a komfort rozgrywki porównywalny, jak nie gorszy :E.
mlody_tarnowZobacz profil
Poziom ostrzeżenia: 0%
mlody_tarnow2012.12.14, 19:38
13#10
sevae @ 2012.12.14 19:30  Post: 623008
mlody_tarnow @ 2012.12.14 19:28  Post: 623007
To teraz focus będzie miał nowy temat na artykuł ;)

Raczej o tym dobrze wie, bo była chyba niedawno jakaś rozmowa pod artem na temat mierzenia wydajności grafik i też przewijał się wątek liczenia czasu między klatkami.


To może się tym podzielić ze społecznością laba na szerszą skalę ;) Zawsze to dodatkowy art.
sun2xZobacz profil
Poziom ostrzeżenia: 0%
sun2x2012.12.14, 19:43
-12#11
w niektórych grach (nawet na konsoli) stabilne 30fps jest przyjemniejsze w odbiorze niż 35-50 rwące na radeonie
GladiacZobacz profil
Poziom ostrzeżenia: 0%
Gladiac2012.12.14, 19:48
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?
chmielu1258Zobacz profil
Poziom ostrzeżenia: 0%
chmielu12582012.12.14, 19:51
Ja tego u siebie nie zauważam, nie twierdzę ,że problem nie występuje, ale ja go nie widzę u siebie.
SamotnickZobacz profil
Poziom ostrzeżenia: 0%
Samotnick2012.12.14, 19:53
Nareszcie jakiś ciekawy news...
eagleZobacz profil
Poziom ostrzeżenia: 0%
eagle2012.12.14, 19:54
10#15
Gladiac @ 2012.12.14 19:48  Post: 623014
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?

Dla mnie to również bełkot. Za mała liczba ustawień, tytułów.
Poza tym niech żyje vsync.
ZodiacZobacz profil
Poziom ostrzeżenia: 0%
Zodiac2012.12.14, 19:55
-9#16
Nie wiem jak jest na dekstopie aktualnie, ale przesiadłem się z mobilnego Radeona na mobilne 650 od nVidii i róznica jest piorunująca w komforcie grania. Normalnie bez przeszkód gram we wszystko co lubie (Diablo 3, Starcraft 2, WoW) na max detali w 1920x1200 (zewnętrzny monitor). Na radku to było niemozliwe, a granie w WoW to była raczej NIEprzyjemność przez efekt właśnie 'klatkowania'.

Nie wiem czy to stery, czy po prostu róznica technologii, ale jak dla mnie nVidia wygrała w segmencie, gdzie ja kupuje sprzęt ;)
*Konto usunięte*2012.12.14, 19:58
24#17
Cóź Skyrim to Mekka nVidii i Intela, czyli środowisko skrajnie nieprzyjazne kartom AMD. Tak było w dniu premiery Skyrima. tak było w testach architektury GCN i tak było w testach Keplera. Zatem małym odkrywcom można tylko pogratulować doboru gry do udowodnienia postawionej tezy... :lol2:
lesiuxZobacz profil
Poziom ostrzeżenia: 0%
lesiux2012.12.14, 20:02
nie wiem czy vsync ma coś do tego. Ja w far cry 3 mam włączony ale momentami są spadki do ~35 klatek ale animacja nie jest płynna chociaż wg mnie przy tej ilości fps-ów nie powinno być z tym problemów. Ofkors mam 7950.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2012.12.14, 20:10
14#19
Gladiac @ 2012.12.14 19:48  Post: 623014
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?

Nieprawda, jak VSync jest włączony, to w wielu przypadkach wrażenie płynności jest gorsze.
Wolę mieć tearing niż klatki opóźnione względem bieżącej pozycji gracza. Bo karta graficzna generuje klatkę i czeka na VSync żeby ją wyświetlić.
Marzę o monitorze który by działał w sposób asynchroniczny, czyli wyświetlał klatkę jak tylko zostanie ona do niego przesłana (najlepiej światłowodem), a nie ze stałą częstotliwością. Wymagałoby to jednak opracowania nowego standardu, nie wywodzącego się z technologii telewizyjnych.
TrepciaZobacz profil
Poziom ostrzeżenia: 0%
Trepcia2012.12.14, 20:10
21#20
Focus, zrób dobrego arta z setką gier i ustawień. Olej święta i nowy rok, flaszkę Ci za to postawię :D
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.