Ja pamiętam taki problem ze starym NFS Most Wanted na XBOX 360. Był to 'launch title' i konkurował z PGR3. Teoretycznie jeśli chodzi o płynność NFS miał sporą przewagę (NFS 60 fps, PGR3 30fps), ale w praktyce NFS miał właśnie 'mikroprzycięcia' które w grze wyścigowej były mega bolesne, szczególnie w czasie pokonywania zakrętów. Oczywiście tam to musiał być problem software'owy bo w żadnej innej grze na 360'ce czegoś takiego nie było.
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?
Nieprawda, jak VSync jest włączony, to w wielu przypadkach wrażenie płynności jest gorsze.
Wolę mieć tearing niż klatki opóźnione względem bieżącej pozycji gracza. Bo karta graficzna generuje klatkę i czeka na VSync żeby ją wyświetlić.
Marzę o monitorze który by działał w sposób asynchroniczny, czyli wyświetlał klatkę jak tylko zostanie ona do niego przesłana (najlepiej światłowodem), a nie ze stałą częstotliwością. Wymagałoby to jednak opracowania nowego standardu, nie wywodzącego się z technologii telewizyjnych.
Dlaczego światłowodem? Żeby było drożej? Żeby jeszcze nieco opóźnienia zwiększyć?
Problem tkwi właśnie w opóźnieniach i widocznych przez nie mikroprzycięciach. Jak wynika z testów, z reguły opóźnienia pomiędzy poszczególnymi klatkami animacji, w przypadku karty GeForce GTX 660 Ti wynoszą 17,3 milisekundy. W przypadku Radeona wynoszą już 25,4 milisekundy. Więcej? Więcej, a więc gorzej. To jednak wciąż nie wszystko, gdyż jak widać na poniższym wykresie, Radeon o wiele częściej osiąga bardzo wysokie wartości - sięgające nawet około 60 milisekund!
Być może dlatego karty Nvidii mają większy narzut na CPU niż AMD.
Kupowanie laptopa tez podobnie wygląda. Nasrane parametrów, a o matrycy producent nic nie pisze. Skrzętnie ukrywa że to szrot w 99% przypadków, albo napisze że ma 300nitów tylko zapomni wspomnieć że przy słabym oświetleniu pokojowym wypali ci oczy, kolory są blade a czerń jest szara, miód.
To takie same robienie w konia klienta jak przy kupnie samochodu. Masz podana moc i pojemność silnika, a wykresu przebiegu mocy/obrotów już nie zobaczysz
Tak jest sterownik napisany , nv już próbowała zwiększyć wydajność na 2core i skończyło się to na obniżeniu wydajności na cpu z większą ilością jajek. Musieliby od podstaw przeprojektować sterownik by poprawić wydajność na 2core , nawet wcześniej było to nierealne tym bardziej teraz , skoro 2core odchodzą na emeryturę. Duża zmiana nastąpiła z serii 195 na 25x.xx , wtedy wydajność dość mocno spadła na 2core i poszli w optymalizację pod więcej jajec. Na nowych platformach intela to właśnie na nv będziesz miał zazwyczaj wyższą wydajność. Stery vista/win7 rozkładają sobie obciążenie na więcej jajec , także mając super wydajne 2core jest nie najlepiej , phenom x6 daje zysk z dodatkowych 2core pomimo , że dana gra nie korzysta z nich , ale ster rozkłada obciążenie i jest kop.
A jaki tam procesor na wykresie jest 2core czy 4core? 310.xx spadło obciążenie cpu niesamowicie w blurze tylko nadal grać się nie da , tam gdzie mają niższe obciążenie cpu to nie nv jest super świetnie tylko amd daje ciała. Liczy się ogólny rozrachunek , a nie poszczególny gry , a jakie mają znaczenie 2-3tytuły z grupy testowanych powiedzmy 30-40gier. Jak ktoś lubi robić manipulację to ją zrobi.
Ale proszę wytłumacz mi czemu relatywnie do Radeonów sytuacja NV odwraca się na procesorach czterordzeniowych, gdzie limiterem gry dalej jest CPU, a nie GPU.
Duże znaczenie ma w tych testach nie tylko karta graficzna ale także wersja systemu operacyjnego czyli wersja DirectX.
Serwis ArsTechnica zrobił identyczny test ale dodatkowo z podziałem na Windows 7 DX11.0 oraz Windows 8 DX11.1 (który w założeniu ma lepiej obsługiwać wielozadaniowość, opóźnienia itp.). Wyniki są bardzo ciekawe. O ile średnia ilość FPS się nie zmienia to bardzo zmienia się płynność. W niektórych grach wygrywa Windows 7 w innych grach wygrywa Windows 8
Wiesz czemu ma węższą szynę? Chcieli zrobić tanią i wydajną kartę , a są na tyle wydajne kości na rynku , że teoretycznie wystarczyło 256bit. Tylko gk104 zaczyna mocno tracić do 7970 w 1600p , także chociaż było przejrzeć testy zanim zaczniesz snuć niestworzone teorie, ba wystarczy wyższe AA i już to widać. Taki jest ster i nic nie poradzisz od początku pojawienia się visty stery był spartaczony i trwa to dziś , na xp problemu nigdy nie było i nigdy nie będzie. A kompresja danych jest tylko z tego co pamiętam na pci-express(wymiana danych) przy szybkości 4x i niżej.
Faktycznie spartaczyli jak tylko się da
A jaki tam procesor na wykresie jest 2core czy 4core? 310.xx spadło obciążenie cpu niesamowicie w blurze tylko nadal grać się nie da , tam gdzie mają niższe obciążenie cpu to nie nv jest super świetnie tylko amd daje ciała. Liczy się ogólny rozrachunek , a nie poszczególny gry , a jakie mają znaczenie 2-3tytuły z grupy testowanych powiedzmy 30-40gier. Jak ktoś lubi robić manipulację to ją zrobi.
[quote name='fosgen' date='2012.12.16 09:23' post='623236'][/quote] Zrzuca do 30fps i spada wykorzystanie gpu , czasami potrafi wejść powyżej 30fps. Wyłączenie vsync lub włączenie adaptive vsync pomaga , tylko to jest ewidentny bug i jest extremalnie frustrujący. Jako , że potrafi wejść co jakiś czas powyżej 30fps to nie jest bug adaptive vsync z połowa odświeżania. Ten błąd zdarza się częściej na fermi tzn w większej ilości gier.[/quote]
Co ty człowieku za głupoty wypisujesz ?? Mam GTX 480 od dwóch lat i absolutnie w żadnej grze nie miałem problemu z płynnością animacji.Kto ci płaci za ten spam ?
[/quote]
Fanboj nigdy nie miał problemów i nigdy nie będzie miał to taka jego natura.
Co do pamięci, to z tego co pamiętam GDDR5 tykają z takim zegarem jakim 'chcą', mogą... były sytuacje, że tak wyżyłowane pamięci tylko ocierały się o częstotliwość podaną w specyfikacji.
A to nie jest czasem tak, że GDDR5 mają tą super wielką przepustowość tylko w jedną stronę? Gdzieś czytałem, że zegar x4 odnosi się w ich przypadku tylko do odczytu z pamięci, podczas zapisu mają przepustowość taką jak GDDR3 o takim samym taktowaniu.
Od razu piszę, że nie jestem do końca pewny tego. ;P
Jak dla mnie testowy komp był czymś zaśmiecony. Ja sam miałem podobne problemy na zaśmieconych lub źle skonfigurowanych kompach z rożnymi wersjami Windows, z różnymi kartami od AMD i nVidia - w jednym przypadku była to jakaś usługa sieciowa, w innym antywirus, czasami 'try icon' jakiegoś durnego programu.
Nie wiadomo jakich sztuczek dokonuje nVidia w swoich sterownikach - byś może przełącza jakieś wajchy w systemie, a może lepiej zarządza pamięcią, tak że antywirus jej nie czesze.
Jak dla mnie robienie tak ważnych i opiniodawczych testów wydajnościowych powinno odbywać na rożnych komputerach, z różnymi wersjami systemu operacyjnego (może także GNU/Linux), z wariantem z wyłączonymi wszystkimi zbędnymi dla testu procesami.
Bez takiego podejścia, test należy traktować z przymrużeniem oka i podejrzewać, że jest sponsorowany.
Dziwne, ja sobie pykam w BF3 na Radeonie 5770 (oczywiście detale nieco obniżone do klasy tej karty) i jakiś 'mikroprzycięć' ani w tej grze ani żadnej innej nie zauważyłem. Dotąd o tych tajemniczym zjawisku mówilo się tylko w konfiguracjach dwuprocesorowych, a widocznie sezon ogórkowy wymaga wymyślania następnych bzdur. Jest kupa komentarzy, oglądalność serwisu rośnie o o to pewnie chodzi.
No nie wiem. Na materiałach filmowych wyraźnie widać, że obie karty 'przycinają' w różnych momentach. 'Są jednak recenzenci, którzy w całości podważają metodę podawania liczby klatek na sekundę.' - to niech ci recenzenci zrobią krok za siebie i nabiorą perspektywy. Zadaniem kart graficznych jest wyświetlanie obrazu dla ludzi. Co ludzi obchodzą jakieś wyszukane parametry? Karta ma wyświetlać właśnie klatki obrazu z odpowiednią wydajnością, a nie mieć 3 procesory strumieniowe więcej od innej karty....
Wartość graniczna to 24 nie 25, właśnie dlatego filmy kinowe przyjęły standard 24 klatek. Niestety nie ma to zastosowania w grach bo tam, moim zdaniem wartość graniczna to 40, poniżej tej wartości gra zaczyna wyraźnie nam pokazywać niepłynną rozgrywkę.
Powtórzę: taki standard przyjęto wyłącznie jako kompromis pomiędzy płynnością a kosztami (pamiętaj, kiedy to było). Nie w każdej scenie zapewnia choćby komfortową płynność.
Mam wrażenie, że NV ma intensywniejszą kompresję danych (co może odbywać się wielordzeniowo) z tego powodu jest większy narzut na CPU. To by tłumaczyło czemu na słabych czterordzeniowcach NV jest lepsze mimo, że CPU stanowi limiter i nie jako stanowi wyjątek od reguły dodatkowego narzutu vs AMD.
To tłumaczyło też czemu GF-y mają węższą szynę.
Dlatego sprawdzili wiele gier, wiele silników i zawsze wychodziło że NV lepsze.
Jakość FPSów ma znaczenie, ale nie tak kolosalne. To nie są mikroprzepięcia rodem z multi-gpu
Wiesz czemu ma węższą szynę? Chcieli zrobić tanią i wydajną kartę , a są na tyle wydajne kości na rynku , że teoretycznie wystarczyło 256bit. Tylko gk104 zaczyna mocno tracić do 7970 w 1600p , także chociaż było przejrzeć testy zanim zaczniesz snuć niestworzone teorie, ba wystarczy wyższe AA i już to widać. Taki jest ster i nic nie poradzisz od początku pojawienia się visty stery był spartaczony i trwa to dziś , na xp problemu nigdy nie było i nigdy nie będzie. A kompresja danych jest tylko z tego co pamiętam na pci-express(wymiana danych) przy szybkości 4x i niżej.
Faktycznie spartaczyli jak tylko się da
Co do pamięci, to z tego co pamiętam GDDR5 tykają z takim zegarem jakim 'chcą', mogą... były sytuacje, że tak wyżyłowane pamięci tylko ocierały się o częstotliwość podaną w specyfikacji.
Nieprawda, jak VSync jest włączony, to w wielu przypadkach wrażenie płynności jest gorsze.
Wolę mieć tearing niż klatki opóźnione względem bieżącej pozycji gracza. Bo karta graficzna generuje klatkę i czeka na VSync żeby ją wyświetlić.
Marzę o monitorze który by działał w sposób asynchroniczny, czyli wyświetlał klatkę jak tylko zostanie ona do niego przesłana (najlepiej światłowodem), a nie ze stałą częstotliwością. Wymagałoby to jednak opracowania nowego standardu, nie wywodzącego się z technologii telewizyjnych.
Dlaczego światłowodem? Żeby było drożej? Żeby jeszcze nieco opóźnienia zwiększyć?
Być może dlatego karty Nvidii mają większy narzut na CPU niż AMD.
Serwis ArsTechnica zrobił identyczny test ale dodatkowo z podziałem na Windows 7
kto zrobil? masz nawet logo
http://techreport.com/review/24022/does-th...le-in-windows-8
jeszcze jeden kamyczek do ogrodka
http://www.pcgameshardware.de/Grafikkarten...-Serie-1040532/
+20% framerate z powietrza sie nie bierze. lucid z ich virtu wiedza cos o tym. teraz mamy amd virtu
Faktycznie spartaczyli jak tylko się da
A jaki tam procesor na wykresie jest 2core czy 4core? 310.xx spadło obciążenie cpu niesamowicie w blurze tylko nadal grać się nie da , tam gdzie mają niższe obciążenie cpu to nie nv jest super świetnie tylko amd daje ciała. Liczy się ogólny rozrachunek , a nie poszczególny gry , a jakie mają znaczenie 2-3tytuły z grupy testowanych powiedzmy 30-40gier. Jak ktoś lubi robić manipulację to ją zrobi.
Ale proszę wytłumacz mi czemu relatywnie do Radeonów sytuacja NV odwraca się na procesorach czterordzeniowych, gdzie limiterem gry dalej jest CPU, a nie GPU.
Serwis ArsTechnica zrobił identyczny test ale dodatkowo z podziałem na Windows 7 DX11.0 oraz Windows 8 DX11.1 (który w założeniu ma lepiej obsługiwać wielozadaniowość, opóźnienia itp.). Wyniki są bardzo ciekawe. O ile średnia ilość FPS się nie zmienia to bardzo zmienia się płynność. W niektórych grach wygrywa Windows 7 w innych grach wygrywa Windows 8
http://arstechnica.com/gadgets/2012/12/doe...e-in-windows-8/
SKYRIM:
http://cdn.arstechnica.net/wp-content/uplo...skyrim-99th.gif
Medial of Honor: Warfighter
http://cdn.arstechnica.net/wp-content/uplo...12/moh-99th.gif
Sleeping dogs:
http://cdn.arstechnica.net/wp-content/uplo...2/dogs-99th.gif
Assasins Creed 3:
http://cdn.arstechnica.net/wp-content/uplo...12/ac3-99th.gif
itd. Czasami wygrywa jeden system, czasami drugi. Trudno ocenić na ile jest to optymalizacja pod DX11.1 lub błędy w sterowanikach. Jednak widać że różnice są czasami spore
Wiesz czemu ma węższą szynę? Chcieli zrobić tanią i wydajną kartę , a są na tyle wydajne kości na rynku , że teoretycznie wystarczyło 256bit. Tylko gk104 zaczyna mocno tracić do 7970 w 1600p , także chociaż było przejrzeć testy zanim zaczniesz snuć niestworzone teorie, ba wystarczy wyższe AA i już to widać. Taki jest ster i nic nie poradzisz od początku pojawienia się visty stery był spartaczony i trwa to dziś , na xp problemu nigdy nie było i nigdy nie będzie. A kompresja danych jest tylko z tego co pamiętam na pci-express(wymiana danych) przy szybkości 4x i niżej.
Faktycznie spartaczyli jak tylko się da
A jaki tam procesor na wykresie jest 2core czy 4core? 310.xx spadło obciążenie cpu niesamowicie w blurze tylko nadal grać się nie da , tam gdzie mają niższe obciążenie cpu to nie nv jest super świetnie tylko amd daje ciała. Liczy się ogólny rozrachunek , a nie poszczególny gry , a jakie mają znaczenie 2-3tytuły z grupy testowanych powiedzmy 30-40gier. Jak ktoś lubi robić manipulację to ją zrobi.
Co ty człowieku za głupoty wypisujesz ?? Mam GTX 480 od dwóch lat i absolutnie w żadnej grze nie miałem problemu z płynnością animacji.Kto ci płaci za ten spam ?
[/quote]
Fanboj nigdy nie miał problemów i nigdy nie będzie miał to taka jego natura.
Co do pamięci, to z tego co pamiętam GDDR5 tykają z takim zegarem jakim 'chcą', mogą... były sytuacje, że tak wyżyłowane pamięci tylko ocierały się o częstotliwość podaną w specyfikacji.
A to nie jest czasem tak, że GDDR5 mają tą super wielką przepustowość tylko w jedną stronę? Gdzieś czytałem, że zegar x4 odnosi się w ich przypadku tylko do odczytu z pamięci, podczas zapisu mają przepustowość taką jak GDDR3 o takim samym taktowaniu.
Od razu piszę, że nie jestem do końca pewny tego. ;P
Nie wiadomo jakich sztuczek dokonuje nVidia w swoich sterownikach - byś może przełącza jakieś wajchy w systemie, a może lepiej zarządza pamięcią, tak że antywirus jej nie czesze.
Jak dla mnie robienie tak ważnych i opiniodawczych testów wydajnościowych powinno odbywać na rożnych komputerach, z różnymi wersjami systemu operacyjnego (może także GNU/Linux), z wariantem z wyłączonymi wszystkimi zbędnymi dla testu procesami.
Bez takiego podejścia, test należy traktować z przymrużeniem oka i podejrzewać, że jest sponsorowany.
Powtórzę: taki standard przyjęto wyłącznie jako kompromis pomiędzy płynnością a kosztami (pamiętaj, kiedy to było). Nie w każdej scenie zapewnia choćby komfortową płynność.
Mam wrażenie, że NV ma intensywniejszą kompresję danych (co może odbywać się wielordzeniowo) z tego powodu jest większy narzut na CPU. To by tłumaczyło czemu na słabych czterordzeniowcach NV jest lepsze mimo, że CPU stanowi limiter i nie jako stanowi wyjątek od reguły dodatkowego narzutu vs AMD.
To tłumaczyło też czemu GF-y mają węższą szynę.
http://pclab.pl/zdjecia/artykuly/chaostheo...4965_1_1920.png
Widać tu dobrze, że CPU stanowi ograniczenie już dla 660 i 7850. Jednak to karty NV mają więcej FPSów.
Dlatego sprawdzili wiele gier, wiele silników i zawsze wychodziło że NV lepsze.
Jakość FPSów ma znaczenie, ale nie tak kolosalne. To nie są mikroprzepięcia rodem z multi-gpu
Wiesz czemu ma węższą szynę? Chcieli zrobić tanią i wydajną kartę , a są na tyle wydajne kości na rynku , że teoretycznie wystarczyło 256bit. Tylko gk104 zaczyna mocno tracić do 7970 w 1600p , także chociaż było przejrzeć testy zanim zaczniesz snuć niestworzone teorie, ba wystarczy wyższe AA i już to widać. Taki jest ster i nic nie poradzisz od początku pojawienia się visty stery był spartaczony i trwa to dziś , na xp problemu nigdy nie było i nigdy nie będzie. A kompresja danych jest tylko z tego co pamiętam na pci-express(wymiana danych) przy szybkości 4x i niżej.
Faktycznie spartaczyli jak tylko się da
Co do pamięci, to z tego co pamiętam GDDR5 tykają z takim zegarem jakim 'chcą', mogą... były sytuacje, że tak wyżyłowane pamięci tylko ocierały się o częstotliwość podaną w specyfikacji.