Radeon 7970M: co z tego że średnia w BF3 to 45kl skoro zdarzają się spadki do 11kl/s (!) niezależnie od rozdzielczości i ilości detali co skutecznie zabija przyjemność z rozgrywki w multiplayer. AMD wie o tym co najmniej od lipca br. a sterowniki w fazie BETA wypuścili dopiero w pażdzierniku. Faktycznie BETA coś zmienia w DX11 ale są b. niestabilne a pod DX9 poprawa jest nieznaczna. Szajs za grubą kasę.
a jak będzie na radku 7970GHz desktopowym ?
odpowie ktoś ? bo niektóre dzieciaki to tylko hejtować potrafią, jak człowiek się pyta normalnie
Karta graficzna generuje ze zmienną częstotliwością klatki odwzorowujące pozycję przemieszczającego się gracza. Dopasowując je do stałej częstotliwość wyświetlania obrazu (VSync), będziemy musieli niektóre z nich opóźnić, a innych w ogóle nie wyświetlić. Spowoduje to wrażenie szarpania, nieobecne przy wyłączonym VSync.
Tak, ale różnica jest vs Dźiforse, który jednak lepiej działa
Karta graficzna generuje ze zmienną częstotliwością klatki odwzorowujące pozycję przemieszczającego się gracza. Dopasowując je do stałej częstotliwość wyświetlania obrazu (VSync), będziemy musieli niektóre z nich opóźnić, a innych w ogóle nie wyświetlić. Spowoduje to wrażenie szarpania, nieobecne przy wyłączonym VSync.
Radeon 7970M: co z tego że średnia w BF3 to 45kl skoro zdarzają się spadki do 11kl/s (!) niezależnie od rozdzielczości i ilości detali co skutecznie zabija przyjemność z rozgrywki w multiplayer. AMD wie o tym co najmniej od lipca br. a sterowniki w fazie BETA wypuścili dopiero w pażdzierniku. Faktycznie BETA coś zmienia w DX11 ale są b. niestabilne a pod DX9 poprawa jest nieznaczna. Szajs za grubą kasę.
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?
Nieprawda, jak VSync jest włączony, to w wielu przypadkach wrażenie płynności jest gorsze.
Wolę mieć tearing niż klatki opóźnione względem bieżącej pozycji gracza. Bo karta graficzna generuje klatkę i czeka na VSync żeby ją wyświetlić.
Marzę o monitorze który by działał w sposób asynchroniczny, czyli wyświetlał klatkę jak tylko zostanie ona do niego przesłana (najlepiej światłowodem), a nie ze stałą częstotliwością. Wymagałoby to jednak opracowania nowego standardu, nie wywodzącego się z technologii telewizyjnych.
Nie obraź się, bo nie będzie to kąśliwa uwaga, ale Twoje i moje wrażenie płynności się najwyraźniej bardzo od siebie różnią
Wysokiej klasy monitor CRT w niskiej rozdzielczości może wyświetlić więcej niż 120 kl./sek.
Ale z tekstu wynika że to nie monitor wyświetlał 240 kl./s. tylko kamera rejestrowała obraz z taką częstotliwością.
To wszystko zależy od platformy, czyli jaka płyta, proc, ram itd. Potem jakie sterowniki, wreszcie jaka gra, jaka jej wersja. Tak jak napisał chizra - Skyrim lubi Nvidię, a ja gram np. na F1 2012 na Phenomie 955 BE i AMD 6850 w FHD i 4x AA detale High i nie mam żadnych mikroprzycięć. Gra 'robi' cały czas 60 fps, bo na tyle stać mój TV w tej rozdzielczości. A na mikroprzycięcia naprawdę jestem uczulony, bo każda ścigałka, jak wiemy, MUSI iść płynnie.
Czyli na HD7970 GHz Edition byłoby tak samo ? Więc GTX 680 jest lepszy ? Na każdym radku jest ten problem ? Czyli w ogóle należy kupować tylko karty od Nvidii ?
Nie wiem jak jest na dekstopie aktualnie, ale przesiadłem się z mobilnego Radeona na mobilne 650 od nVidii i róznica jest piorunująca w komforcie grania. Normalnie bez przeszkód gram we wszystko co lubie (Diablo 3, Starcraft 2, WoW) na max detali w 1920x1200 (zewnętrzny monitor). Na radku to było niemozliwe, a granie w WoW to była raczej NIEprzyjemność przez efekt właśnie 'klatkowania'.
Nie wiem czy to stery, czy po prostu róznica technologii, ale jak dla mnie nVidia wygrała w segmencie, gdzie ja kupuje sprzęt
Nie wiesz o czym piszesz. Masz mocniejszą kartę i więcej FPS i ci nie 'klatkuje'. Rozmowa jest o czymś innym.
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?
Nieprawda, jak VSync jest włączony, to w wielu przypadkach wrażenie płynności jest gorsze.
Wolę mieć tearing niż klatki opóźnione względem bieżącej pozycji gracza. Bo karta graficzna generuje klatkę i czeka na VSync żeby ją wyświetlić.
Marzę o monitorze który by działał w sposób asynchroniczny, czyli wyświetlał klatkę jak tylko zostanie ona do niego przesłana (najlepiej światłowodem), a nie ze stałą częstotliwością. Wymagałoby to jednak opracowania nowego standardu, nie wywodzącego się z technologii telewizyjnych.
nie wiem czy vsync ma coś do tego. Ja w far cry 3 mam włączony ale momentami są spadki do ~35 klatek ale animacja nie jest płynna chociaż wg mnie przy tej ilości fps-ów nie powinno być z tym problemów. Ofkors mam 7950.
Cóź Skyrim to Mekka nVidii i Intela, czyli środowisko skrajnie nieprzyjazne kartom AMD. Tak było w dniu premiery Skyrima. tak było w testach architektury GCN i tak było w testach Keplera. Zatem małym odkrywcom można tylko pogratulować doboru gry do udowodnienia postawionej tezy...
Nie wiem jak jest na dekstopie aktualnie, ale przesiadłem się z mobilnego Radeona na mobilne 650 od nVidii i róznica jest piorunująca w komforcie grania. Normalnie bez przeszkód gram we wszystko co lubie (Diablo 3, Starcraft 2, WoW) na max detali w 1920x1200 (zewnętrzny monitor). Na radku to było niemozliwe, a granie w WoW to była raczej NIEprzyjemność przez efekt właśnie 'klatkowania'.
Nie wiem czy to stery, czy po prostu róznica technologii, ale jak dla mnie nVidia wygrała w segmencie, gdzie ja kupuje sprzęt
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?
Dla mnie to również bełkot. Za mała liczba ustawień, tytułów.
Poza tym niech żyje vsync.
a jak będzie na radku 7970GHz desktopowym ?
odpowie ktoś ? bo niektóre dzieciaki to tylko hejtować potrafią, jak człowiek się pyta normalnie
Tak, ale różnica jest vs Dźiforse, który jednak lepiej działa
Nieprawda, jak VSync jest włączony, to w wielu przypadkach wrażenie płynności jest gorsze.
Wolę mieć tearing niż klatki opóźnione względem bieżącej pozycji gracza. Bo karta graficzna generuje klatkę i czeka na VSync żeby ją wyświetlić.
Marzę o monitorze który by działał w sposób asynchroniczny, czyli wyświetlał klatkę jak tylko zostanie ona do niego przesłana (najlepiej światłowodem), a nie ze stałą częstotliwością. Wymagałoby to jednak opracowania nowego standardu, nie wywodzącego się z technologii telewizyjnych.
Nie obraź się, bo nie będzie to kąśliwa uwaga, ale Twoje i moje wrażenie płynności się najwyraźniej bardzo od siebie różnią
Ale z tekstu wynika że to nie monitor wyświetlał 240 kl./s. tylko kamera rejestrowała obraz z taką częstotliwością.
... mnie ciekawi najbardziej jak oni badają czas generowania klatki, jak padają to opóźnienie. Fraps daje takie możliwości?
To o czym piszą jest całkowicie możliwe.
Nie wiem czy to stery, czy po prostu róznica technologii, ale jak dla mnie nVidia wygrała w segmencie, gdzie ja kupuje sprzęt
Nie wiesz o czym piszesz. Masz mocniejszą kartę i więcej FPS i ci nie 'klatkuje'. Rozmowa jest o czymś innym.
Nieprawda, jak VSync jest włączony, to w wielu przypadkach wrażenie płynności jest gorsze.
Wolę mieć tearing niż klatki opóźnione względem bieżącej pozycji gracza. Bo karta graficzna generuje klatkę i czeka na VSync żeby ją wyświetlić.
Marzę o monitorze który by działał w sposób asynchroniczny, czyli wyświetlał klatkę jak tylko zostanie ona do niego przesłana (najlepiej światłowodem), a nie ze stałą częstotliwością. Wymagałoby to jednak opracowania nowego standardu, nie wywodzącego się z technologii telewizyjnych.
Nie wiem czy to stery, czy po prostu róznica technologii, ale jak dla mnie nVidia wygrała w segmencie, gdzie ja kupuje sprzęt
Dla mnie to również bełkot. Za mała liczba ustawień, tytułów.
Poza tym niech żyje vsync.