mam radka i totalnie się zgadzam, w niektórych grach bywa problem z mikroprzycięciami i potrafi to strasznie denerwować, na nvidii tego nie miałem, ogólnie karty nv sprawiają wrażenie bardziej zrównoważonych pod względem generowanych fpsów
Miałem tą samą sytuacje testując GT 240, 9800GT i HD3850
Po mimo minimalnych FPS=52 na GT 240 i 54 na 98GT i zaledwie 36 na HD38
To w Mirrors Edge na 2 pierwszych kartach miejscami obraz rwał jak by było 3 FPS
(to już nie mikroprzycięcia, a stop-klatki). Na Radeonie z kolei grało się płynnie.
Więc taki problem istnieje. Więc panowie ameryki nie odkryli. Ja to wiem od 2 lat?
Niech się tylko pokusi ktoś o testy i znalezieni przyczyny, lub ewentualnie porówna na czym problem jest brdziej intensyny a na czym mniej. Bo porównując 2 karty to nie można wysnuć wniosku dotyczącego wszystkich radeonów czy GF. A i redakcja PCLab powinna zmienić tytuł, bo brzmi Onetowo i Fanbojsko.
Raczej o tym dobrze wie, bo była chyba niedawno jakaś rozmowa pod artem na temat mierzenia wydajności grafik i też przewijał się wątek liczenia czasu między klatkami.
Trochę bez sensu, przy 120 czy 240 klatkach takie przycięcia może i są widoczne, ale przecież te karty nie wyciągają tylu klatek w grach na full detalach w rozsądnej rozdzielczości, natomiast jeżeli wyciągają, to większość monitorów tylu tak czy tak nie wyświetli. A przecież do grania na takich detalach kupuje się te karty, nieprawda?
Co nie zmienia faktu, że dla tych nielicznych, którzy mają 120Hz monitory może się to przydać, ale dla 'ludu' to chyba nie stanowi żadnej różnicy, jeżeli się mylę, to mnie poprawcie. Przy powiedzmy tych 60 klatkach takie przycięcia też są możliwe do zauważenia?
Raczej o tym dobrze wie, bo była chyba niedawno jakaś rozmowa pod artem na temat mierzenia wydajności grafik i też przewijał się wątek liczenia czasu między klatkami.
Każdy, kto testował jakieś kart graficzne, powinien o tym wiedzieć . Pierwszy z brzegu przykład? Wiedźmin 2 - na Radeonie masz więcej FPS, a komfort rozgrywki porównywalny, jak nie gorszy .
Raczej o tym dobrze wie, bo była chyba niedawno jakaś rozmowa pod artem na temat mierzenia wydajności grafik i też przewijał się wątek liczenia czasu między klatkami.
To może się tym podzielić ze społecznością laba na szerszą skalę Zawsze to dodatkowy art.
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?
Dla mnie to również bełkot. Za mała liczba ustawień, tytułów.
Poza tym niech żyje vsync.
Nie wiem jak jest na dekstopie aktualnie, ale przesiadłem się z mobilnego Radeona na mobilne 650 od nVidii i róznica jest piorunująca w komforcie grania. Normalnie bez przeszkód gram we wszystko co lubie (Diablo 3, Starcraft 2, WoW) na max detali w 1920x1200 (zewnętrzny monitor). Na radku to było niemozliwe, a granie w WoW to była raczej NIEprzyjemność przez efekt właśnie 'klatkowania'.
Nie wiem czy to stery, czy po prostu róznica technologii, ale jak dla mnie nVidia wygrała w segmencie, gdzie ja kupuje sprzęt
Cóź Skyrim to Mekka nVidii i Intela, czyli środowisko skrajnie nieprzyjazne kartom AMD. Tak było w dniu premiery Skyrima. tak było w testach architektury GCN i tak było w testach Keplera. Zatem małym odkrywcom można tylko pogratulować doboru gry do udowodnienia postawionej tezy...
nie wiem czy vsync ma coś do tego. Ja w far cry 3 mam włączony ale momentami są spadki do ~35 klatek ale animacja nie jest płynna chociaż wg mnie przy tej ilości fps-ów nie powinno być z tym problemów. Ofkors mam 7950.
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?
Nieprawda, jak VSync jest włączony, to w wielu przypadkach wrażenie płynności jest gorsze.
Wolę mieć tearing niż klatki opóźnione względem bieżącej pozycji gracza. Bo karta graficzna generuje klatkę i czeka na VSync żeby ją wyświetlić.
Marzę o monitorze który by działał w sposób asynchroniczny, czyli wyświetlał klatkę jak tylko zostanie ona do niego przesłana (najlepiej światłowodem), a nie ze stałą częstotliwością. Wymagałoby to jednak opracowania nowego standardu, nie wywodzącego się z technologii telewizyjnych.
Po mimo minimalnych FPS=52 na GT 240 i 54 na 98GT i zaledwie 36 na HD38
To w Mirrors Edge na 2 pierwszych kartach miejscami obraz rwał jak by było 3 FPS
(to już nie mikroprzycięcia, a stop-klatki). Na Radeonie z kolei grało się płynnie.
Więc taki problem istnieje. Więc panowie ameryki nie odkryli. Ja to wiem od 2 lat?
Niech się tylko pokusi ktoś o testy i znalezieni przyczyny, lub ewentualnie porówna na czym problem jest brdziej intensyny a na czym mniej. Bo porównując 2 karty to nie można wysnuć wniosku dotyczącego wszystkich radeonów czy GF. A i redakcja PCLab powinna zmienić tytuł, bo brzmi Onetowo i Fanbojsko.
Raczej o tym dobrze wie, bo była chyba niedawno jakaś rozmowa pod artem na temat mierzenia wydajności grafik i też przewijał się wątek liczenia czasu między klatkami.
Co nie zmienia faktu, że dla tych nielicznych, którzy mają 120Hz monitory może się to przydać, ale dla 'ludu' to chyba nie stanowi żadnej różnicy, jeżeli się mylę, to mnie poprawcie. Przy powiedzmy tych 60 klatkach takie przycięcia też są możliwe do zauważenia?
http://www.geforce.com/optimize/guides/fiv...ook-even-better
Raczej o tym dobrze wie, bo była chyba niedawno jakaś rozmowa pod artem na temat mierzenia wydajności grafik i też przewijał się wątek liczenia czasu między klatkami.
Każdy, kto testował jakieś kart graficzne, powinien o tym wiedzieć
Raczej o tym dobrze wie, bo była chyba niedawno jakaś rozmowa pod artem na temat mierzenia wydajności grafik i też przewijał się wątek liczenia czasu między klatkami.
To może się tym podzielić ze społecznością laba na szerszą skalę
Dla mnie to również bełkot. Za mała liczba ustawień, tytułów.
Poza tym niech żyje vsync.
Nie wiem czy to stery, czy po prostu róznica technologii, ale jak dla mnie nVidia wygrała w segmencie, gdzie ja kupuje sprzęt
Nieprawda, jak VSync jest włączony, to w wielu przypadkach wrażenie płynności jest gorsze.
Wolę mieć tearing niż klatki opóźnione względem bieżącej pozycji gracza. Bo karta graficzna generuje klatkę i czeka na VSync żeby ją wyświetlić.
Marzę o monitorze który by działał w sposób asynchroniczny, czyli wyświetlał klatkę jak tylko zostanie ona do niego przesłana (najlepiej światłowodem), a nie ze stałą częstotliwością. Wymagałoby to jednak opracowania nowego standardu, nie wywodzącego się z technologii telewizyjnych.