komentarze
eagleZobacz profil
Poziom ostrzeżenia: 0%
eagle2012.12.14, 21:57
Mnie rwanie w star wars ustało dopiero w 310.70. Prosta gra bez specjalnych wymagań.
leon691Zobacz profil
Poziom ostrzeżenia: 0%
leon6912012.12.14, 22:01
-6#62
Ja mam z kolei tak, ze jeśli ilośc fps spodnie chciaz do 57-55 to juz odczuwam szarpnięcie, zaburzenie płynności. Choćby w najnowszym far cry-u. Nie wiem czy mam aż tak wyczulony zmysł wzroku czy wyjasnienie tego tkwi gdzie indziej. 60fps (włączony v-syn) ok, lekki spadek (patrzac na frapsa) już niefajnie. Przecież nie powinno byc aż takiej róznicy miedzy 60-55-50fps, nie wiem czemu ale drażnia mnie nawet takie male skoki. Uzywam od dawna radeonow 4890/6950/7950, problem istenieje od kiedy pamiętam, na róznych platformach (procesor, plyta). Jesli gra chodzi w max stałych 30fps (często mozna tak ustawić) to cała rozgrywka jest dla mnie w odbiorze muląca, mało dynamiczna - gra sie jakby w kisielu. Na konsolach jest to jakby mniej odczuwalne ale nawet tam gra w gry z niskim fps to katorga, przyklad gta 4. Z kolei 60 fps (forza) to już pełnia szczęscia.
GromitekZobacz profil
Poziom ostrzeżenia: 0%
Gromitek2012.12.14, 22:05
u mnie na hd 7850 w fc3 nie ma żanych mikroprzycięć - więc może to zależy od gry
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2012.12.14, 22:05
-4#64
sevae @ 2012.12.14 21:12  Post: 623049
sideband @ 2012.12.14 21:06  Post: 623047
(...)

Stąd mój komentarz nie raz testowałem stery i na wykresie będzie bez zmian , na monitorze inna bajka. Ten problem dotyczy amd i nv , radziłbym poczytać jak działają nowe gierki na nv(fora zagraniczne) i przez okrutne rwanie obrazu ludziska zmieniają keplery na 79xx , nawet na 5xx. Czemu nikt nie piszę o nieznośnym problemie , który jest od jakiegoś czasu przy włączonym vsync ster z niewiadomej przyczyny zrzuca fps do poziomu 30fps , problem dotyczy keplera i fermi , ale nie dotyczy każdej gry. Nie wspomnę o spartaczonym zarządzaniu energii o którym nic się nie piszę , ale jak na radku się zdarzy to wielkie larum hha , jakie to śmieszne. Dodajmy do tego coraz gorszą stabilność i mniejsze oc ze stera na ster i mamy obraz jakie to stery nv są super.Fala krytyki musi iść w dwie strony , póki co widzę nv jest święta krową.

Przecież tak działa zwykły vsync, jeżeli nie może utrzymać 60fps to robi drop do 30fps to normalne i tak ma to działać. Tylko 30fps i 60fps to wartości które są zsynchronizowane z wyświetlaczem 60Hz.

Zrzuca do 30fps i spada wykorzystanie gpu , czasami potrafi wejść powyżej 30fps. Wyłączenie vsync lub włączenie adaptive vsync pomaga , tylko to jest ewidentny bug i jest extremalnie frustrujący. Jako , że potrafi wejść co jakiś czas powyżej 30fps to nie jest bug adaptive vsync z połowa odświeżania. Ten błąd zdarza się częściej na fermi tzn w większej ilości gier.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2012.12.14, 22:06
leon691 @ 2012.12.14 22:01  Post: 623070
Ja mam z kolei tak, ze jeśli ilośc fps spodnie chciaz do 57-55 to juz odczuwam szarpnięcie, zaburzenie płynności. Choćby w najnowszym far cry-u. Nie wiem czy mam aż tak wyczulony zmysł wzroku czy wyjasnienie tego tkwi gdzie indziej. 60fps (włączony v-syn) ok, lekki spadek (patrzac na frapsa) już niefajnie. Przecież nie powinno byc aż takiej róznicy miedzy 60-55-50fps, nie wiem czemu ale drażnia mnie nawet takie male skoki. Uzywam od dawna radeonow 4890/6950/7950, problem istenieje od kiedy pamiętam, na róznych platformach (procesor, plyta). Jesli gra chodzi w max stałych 30fps (często mozna tak ustawić) to cała rozgrywka jest dla mnie w odbiorze muląca, mało dynamiczna - gra sie jakby w kisielu. Na konsolach jest to jakby mniej odczuwalne ale nawet tam gra w gry z niskim fps to katorga, przyklad gta 4. Z kolei 60 fps (forza) to już pełnia szczęscia.

Chodzi o to, że fraps nie jest dokładny i może tego nie wyłapywać a szarpnięcia właśnie przez włączony vsync mogą sięgać na chwilę aż 30fps. Jeżeli Cię to drażni wyłącz vsync, jeżeli nie będziesz mieć tearingu i jeżeli nie przeszkadzać będzie Ci, że katujesz trochę grafę bo będzie produkować niepotrzebne fps to powinno pomóc.

EDIT:
sideband @ 2012.12.14 22:05  Post: 623072

Zrzuca do 30fps i spada wykorzystanie gpu , czasami potrafi wejść powyżej 30fps. Wyłączenie vsync lub włączenie adaptive vsync pomaga , tylko to jest ewidentny bug i jest extremalnie frustrujący. Jako , że potrafi wejść co jakiś czas powyżej 30fps to nie jest bug adaptive vsync z połowa odświeżania. Ten błąd zdarza się częściej na fermi tzn w większej ilości gier.

Jaki bug, nie rozumiem, tak ma to działać i koniec, jeżeli fps spadnie poniżej 60 to vsync ma zadanie zrobić drop do 30fps bo takie jest założenie tej technologii i tyle. Po to wprowadzili przecież adaptive na GF żeby tego nie było.
nadro-linuxZobacz profil
Poziom ostrzeżenia: 0%
nadro-linux2012.12.14, 22:11
12#66
mocu1987 @ 2012.12.14 20:42  Post: 623039
Z procesorami głównymi AMD jest dokładnie to samo , nie tylko z grafikami. Od dawna dało się zauważyć tendencję 'wygrywania' przez AMD na kartce ale nic poza tym.

To samo, czyli co? Po czym wnioskujesz, że winny jest procesor, sterownik GPU, karta, czy może podkładka pod mysz? Wnioskuję, że nie masz pojęcia o pojęciu, a tylko wypisujesz farmazony, żeby cokolwiek napisać.

Jeśli chodzi o chwilowe spadki płynności to zapewne są one spowodowane wczytywaniem danych do pamięci, np. streaming tekstur. Niestety tego typu rzeczy są zależne bardzo od samego kodu danego produktu, jedna gra może działać lepiej druga gorzej, zwłaszcza w sytuacjach kiedy np w dużej mierze sterownik sam decyduje o zarządzaniu zasobami jak np. z OpenGL w przypadku tekstur. W związku z tym test tego typu oparty o jedną grę jest tyle warty co nic, osoba z TR chyba chciała się po prostu pochwalić zakupem kamerki :P Jeśli chcielibyśmy mieć w miarę normalny test to potrzebny byłby log z jakiegoś softu do debug'owania, gdzie podana by była wartość w ms (tak FPS jako jednostka do mierzenia wydajności kart jest trochę lipna, bo FPS w odróżnieniu od ms nie jest liniowy) i dokładny wykaz klatek. A komentarze, wielu osób mówiące o tym, że faktycznie spotkali się z podobną sytuacją są dla mnie tak samo wiarygodne jak post osoby, którą zacytowałem. Przyzwyczaiłem się że pod każdym news'em pojawiają się zaraz opinie pseudo expertów, stąd też zdecydowanej większości z nich nie traktuję poważnie. Tak naprawdę na tym forum tylko kilka osób pisze z sensem, większość pisze chyba tylko po to, żeby cokolwiek napisać.
MondragorZobacz profil
Poziom ostrzeżenia: 0%
Mondragor2012.12.14, 22:16
Fraps nie wyłapuje mikroprzycięć. Co do faktu mikroprzycięć i Radeona to się niestety zgodzę. Nie do końca bym był pewny jednak powodów. Grając w pierwszą wersję wiedźmina na E8200 i HD6850 miałem fps na poziomie 35-45 i te właśnie denerwujące i unieprzyjemniające grę mikroprzycięcia.Regularnie się powtarzające. Tak jakby widać było granicę jednej a drugiej klatki.
Teraz mam I5 3750k i nowe stery i dalej HD6850, i po odpaleniu Wiedźmina zjawiska nie zaobserwowałem, grało się znacznie przyjemniej a średni fps podniósł się bardzo niewiele... Z drugiej strony powodem też może być fakt zmiany monitora TNT na 24 calowego ipsa od Della..



AeromiśZobacz profil
Poziom ostrzeżenia: 0%
Aeromiś2012.12.14, 22:17
Dziwne że dopiero teraz cos takiego 'odkrywają', bo dla mnie ten temat jest znany od lat, to że program pokazuje 50 fps nie oddaje tego że są mikroprzycięcia. Pamiętam jak na starym kompie grałem w Morrowinda i ów mikroprzycięcia zniknęły po.... zmianie integry na audigy, a powstawały jak tylko jakis NPC otworzył japę:) Oczywiście Bethesda ma jakąś mięte do powstawania takich gier, bo Skyrim faktycznie potrafi dołować, niby 60 fps, a mikroprzycięcia potrafią być bardzo widoczne i wyraźnie przeszkadzać.
Może więc ten większy 'narzut' na CPU u NVIDII jest opłacalny?
*Konto usunięte*2012.12.14, 22:18
-1#69
onetlab jak zwykle szuka sensacji tam gdzie jej nie ma.
Michael86Zobacz profil
Poziom ostrzeżenia: 0%
Michael862012.12.14, 22:21
-4#70
sevae @ 2012.12.14 21:52  Post: 623066
Michael86 @ 2012.12.14 21:50  Post: 623064
(...)


Cyfrowo jest dokładnie to samo, jeśli chodzi o kolory.

Wyjaśnij na jakiej zasadzie, inne 'cyfry' przesyła program/gra na AMD a inne na NV ?

Wszystko ma znaczenie. Architektura, przetworniki, funkcje odpowiedzialne za obraz w sterownikach Jest różnica i widać ją gołym okiem w tym filmiku...
Ja to sprawdziłem i to widzę... wkładam GF obraz jest zupełnie inny, ciemniejszy, mniej ostry, bardziej futurystyczny. Wkładam radka - kolory lepiej stonowane, lepsza głębia... Najbardziej jest to widoczne w 2D i w filmach FULLHD....
*Konto usunięte*2012.12.14, 22:21
Aeromiś @ 2012.12.14 22:17  Post: 623077
Dziwne że dopiero teraz cos takiego 'odkrywają', bo dla mnie ten temat jest znany od lat, to że program pokazuje 50 fps nie oddaje tego że są mikroprzycięcia. Pamiętam jak na starym kompie grałem w Morrowinda i ów mikroprzycięcia zniknęły po.... zmianie integry na audigy, a powstawały jak tylko jakis NPC otworzył japę:) Oczywiście Bethesda ma jakąś mięte do powstawania takich gier, bo Skyrim faktycznie potrafi dołować, niby 60 fps, a mikroprzycięcia potrafią być bardzo widoczne i wyraźnie przeszkadzać.
Może więc ten większy 'narzut' na CPU u NVIDII jest opłacalny?


Mam wrażenie, że NV ma intensywniejszą kompresję danych (co może odbywać się wielordzeniowo) z tego powodu jest większy narzut na CPU. To by tłumaczyło czemu na słabych czterordzeniowcach NV jest lepsze mimo, że CPU stanowi limiter i nie jako stanowi wyjątek od reguły dodatkowego narzutu vs AMD.
To tłumaczyło też czemu GF-y mają węższą szynę.

http://pclab.pl/zdjecia/artykuly/chaostheo...4965_1_1920.png
Widać tu dobrze, że CPU stanowi ograniczenie już dla 660 i 7850. Jednak to karty NV mają więcej FPSów.
nadro-linux @ 2012.12.14 22:11  Post: 623075
mocu1987 @ 2012.12.14 20:42  Post: 623039
Z procesorami głównymi AMD jest dokładnie to samo , nie tylko z grafikami. Od dawna dało się zauważyć tendencję 'wygrywania' przez AMD na kartce ale nic poza tym.

To samo, czyli co? Po czym wnioskujesz, że winny jest procesor, sterownik GPU, karta, czy może podkładka pod mysz? Wnioskuję, że nie masz pojęcia o pojęciu, a tylko wypisujesz farmazony, żeby cokolwiek napisać.

Jeśli chodzi o chwilowe spadki płynności to zapewne są one spowodowane wczytywaniem danych do pamięci, np. streaming tekstur. Niestety tego typu rzeczy są zależne bardzo od samego kodu danego produktu, jedna gra może działać lepiej druga gorzej, zwłaszcza w sytuacjach kiedy np w dużej mierze sterownik sam decyduje o zarządzaniu zasobami jak np. z OpenGL w przypadku tekstur. W związku z tym test tego typu oparty o jedną grę jest tyle warty co nic, osoba z TR chyba chciała się po prostu pochwalić zakupem kamerki :P Jeśli chcielibyśmy mieć w miarę normalny test to potrzebny byłby log z jakiegoś softu do debug'owania, gdzie podana by była wartość w ms (tak FPS jako jednostka do mierzenia wydajności kart jest trochę lipna, bo FPS w odróżnieniu od ms nie jest liniowy) i dokładny wykaz klatek. A komentarze, wielu osób mówiące o tym, że faktycznie spotkali się z podobną sytuacją są dla mnie tak samo wiarygodne jak post osoby, którą zacytowałem. Przyzwyczaiłem się że pod każdym news'em pojawiają się zaraz opinie pseudo expertów, stąd też zdecydowanej większości z nich nie traktuję poważnie. Tak naprawdę na tym forum tylko kilka osób pisze z sensem, większość pisze chyba tylko po to, żeby cokolwiek napisać.

Dlatego sprawdzili wiele gier, wiele silników i zawsze wychodziło że NV lepsze.

Jakość FPSów ma znaczenie, ale nie tak kolosalne. To nie są mikroprzepięcia rodem z multi-gpu
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2012.12.14, 22:28
Mondragor @ 2012.12.14 22:16  Post: 623076
Fraps nie wyłapuje mikroprzycięć. Co do faktu mikroprzycięć i Radeona to się niestety zgodzę. Nie do końca bym był pewny jednak powodów. Grając w pierwszą wersję wiedźmina na E8200 i HD6850 miałem fps na poziomie 35-45 i te właśnie denerwujące i unieprzyjemniające grę mikroprzycięcia.Regularnie się powtarzające. Tak jakby widać było granicę jednej a drugiej klatki.
Teraz mam I5 3750k i nowe stery i dalej HD6850, i po odpaleniu Wiedźmina zjawiska nie zaobserwowałem, grało się znacznie przyjemniej a średni fps podniósł się bardzo niewiele... Z drugiej strony powodem też może być fakt zmiany monitora TNT na 24 calowego ipsa od Della..




Czasy między klatkami a nie ich ilość. Była rozmowa z Focusem z miesiąc temu? przy okazji jakiegoś testu procesorów właśnie, bardzo duże znaczenie ma procesor na czasy między klatkami. Bo właśnie była taka propozycja żeby przy okazji testu procesorów nie robić testów na ilość fps co nie jest tak miarodajne jak czasy między.
ivanosZobacz profil
Poziom ostrzeżenia: 0%
ivanos2012.12.14, 22:32
Relativy @ 2012.12.14 19:28  Post: 623005
Miałem tą samą sytuacje testując GT 240, 9800GT i HD3850
Po mimo minimalnych FPS=52 na GT 240 i 54 na 98GT i zaledwie 36 na HD38
To w Mirrors Edge na 2 pierwszych kartach miejscami obraz rwał jak by było 3 FPS
(to już nie mikroprzycięcia, a stop-klatki). Na Radeonie z kolei grało się płynnie.
Więc taki problem istnieje. Więc panowie ameryki nie odkryli. Ja to wiem od 2 lat?
Niech się tylko pokusi ktoś o testy i znalezieni przyczyny, lub ewentualnie porówna na czym problem jest brdziej intensyny a na czym mniej. Bo porównując 2 karty to nie można wysnuć wniosku dotyczącego wszystkich radeonów czy GF. A i redakcja PCLab powinna zmienić tytuł, bo brzmi Onetowo i Fanbojsko.



Daruj sobie takie wypisywanie bredni i nie odbijaj piłeczki drugą stronę.W tym artykule chodzi o to jak ma się fps z wykresów o faktycznej rozgrywki i nie wiem jakim cudem na HD 3850-70 mogłeś mieć większy freamate aniżeli na dużo wydajniejszej karcie 9800GT ? W swoim czasie miałem 8800GT i grałem w Mirror Edge na max detalach wliczając również efekty PhysX i nie było mowy o jakichkolwiek spadkach wydajności w tej grze.Popatrz sobie najpierw na You Tube zanim cokolwiek bezsensownego napiszesz....
AvitrZobacz profil
Poziom ostrzeżenia: 0%
Avitr2012.12.14, 22:57
mooon @ 2012.12.14 19:54  Post: 623017
Gladiac @ 2012.12.14 19:48  Post: 623014
Nie przekonuje mnie ten materiał - przecież widać tearing i to fest, to co, Vsync wyłączony ? Czy kamerka do kitu ? Jeśli Vsync był wyłączony, to przecież i tak nie ma znaczenia, bo każdy normalny gracz z monitorem/tv LCD ma Vsync WŁĄCZONE, prawda ?

Dla mnie to również bełkot. Za mała liczba ustawień, tytułów.
Poza tym niech żyje vsync.

Vsync jest fajny dopóki nie staniesz przed wyborem 30 fps bez tearingu czy 50 fps z tearingiem (oczywiście tam gdzie nie ma potrójnego buforowania i zostaje tylko podwójne).

sevae @ 2012.12.14 22:28  Post: 623081

Czasy między klatkami a nie ich ilość. Była rozmowa z Focusem z miesiąc temu? przy okazji jakiegoś testu procesorów właśnie, bardzo duże znaczenie ma procesor na czasy między klatkami. Bo właśnie była taka propozycja żeby przy okazji testu procesorów nie robić testów na ilość fps co nie jest tak miarodajne jak czasy między.

Gdyby użyli pomiarów czasu każdej klatki (Fraps oferuje taką mozliwość) pewnie wyszłoby im to samo, ale przy znacznie mniejszym nakładzie pracy.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2012.12.14, 23:09
Avitr @ 2012.12.14 22:57  Post: 623085

Gdyby użyli pomiarów czasu każdej klatki (Fraps oferuje taką mozliwość) pewnie wyszłoby im to samo, ale przy znacznie mniejszym nakładzie pracy.

Fraps nie jest nawet dokładny w podaniu ile było klatek w jednej sekundzie jeżeli są przycięcia. Nawet nie wiem, fraps może podać czasy z jednej sekundy w której było np. 30 klatek, jaki był najdłuższy czas między dwiema klatkami a jaki najkrótszy?
SylkisZobacz profil
Poziom ostrzeżenia: 0%
Sylkis2012.12.14, 23:32
-3#76
Na GF9800GT za to ekran potrafi mi się podzielić na 2-3 poziome pasy na których osobno mi się obraz odświeża, z różną prędkością. Dzieje się to na i Linuksie, jak i Windowsie - w grach, filmach itp. Wcześniej na GF7300 było podobnie. Jeszcze wcześniej na Radkach 9800SE i 9550 czegoś takiego nie było.
No ale mój GF już jest leciwy, więc być może już to naprawili.
AvitrZobacz profil
Poziom ostrzeżenia: 0%
Avitr2012.12.14, 23:33
sevae @ 2012.12.14 23:09  Post: 623086
Avitr @ 2012.12.14 22:57  Post: 623085

Gdyby użyli pomiarów czasu każdej klatki (Fraps oferuje taką mozliwość) pewnie wyszłoby im to samo, ale przy znacznie mniejszym nakładzie pracy.

Fraps nie jest nawet dokładny w podaniu ile było klatek w jednej sekundzie jeżeli są przycięcia. Nawet nie wiem, fraps może podać czasy z jednej sekundy w której było np. 30 klatek, jaki był najdłuższy czas między dwiema klatkami a jaki najkrótszy?

Inaczej. Zajrzyj do settingsów frapsa, można tam włączyć opcję 'Frametime'. Wtedy fraps wyświetla zwykły framerate (uśredniony na pewnym odcinku czasu, a więc nie uwzględniający mikroprzycieć), ale w pliku tekstowym zapisuje czas generowania każdej klatki (i tu mikroprzycięcia odrazu widać). Napisać tylko prosty program sczytujący kolejno te czasy z pliku i można te dane zwizualizować w postaci np. wykresu.
Mr_HydeZobacz profil
Poziom ostrzeżenia: 0%
Mr_Hyde2012.12.14, 23:37
-1#78
Normalka :}. Tak sie optymalizuje gry konsolowe i PC :P. Nie patrzy sie na ilosc klatek (bo to czesto o kant tylka mozna rozbic), a na to jak dlugo gpu, zabiera czasu wyrenderowanie jednej klatki i jak z stabilnoscia tego procesu. To samo tyczy sie cpu z zadaniami na nim liczonymi :]. Jak to juz jest ladnie zalatwione to i Vsync nie powinien tych czasow rozciagac :P.
*Konto usunięte*2012.12.14, 23:44
-2#79
Proponuje aby Focus zrobił test na na nowych zasadach uwzględniając tylko max ilość klatek i min. karta która będzie miała większy rozrzut będzie gorsza. Tyle w temacie.

@Avitr

Nie chce się mądrzyć ale mam wrażenie że fraps trochę zasobów zabiera w trakcie pomiarów bo gdy włacze miernik w BO 1 czy 2 (gra chodzi płynnie) mam około 45-60 klatek a gdy włącze frapsa ten pokasuje w 32-38fps (tyle co miernik w grze).
wojtzuchZobacz profil
Poziom ostrzeżenia: 0%
wojtzuch2012.12.14, 23:52
sevae @ 2012.12.14 21:31  Post: 623055

Zapewnia płynny ruch. Płynność człowiek widzi już od 25fps, różnice w płynności widzi między 25fps a 60fps. Powyżej 60fps nie dostrzega różnicy w płynności, poniżej 25fps zaczyna widzieć slideshow. 60fps jest o wiele bardziej komfortowe niż 30fps ale oba są płynne.


Moim zdaniem 25 kl./s nie zapewnia wcale płynności, ani 'mniejszej', ani 'większej', choć wiele tu zależy od kadru i ruchu kamery. Na przykład w ostatnim filmie Allena jest taka scena w Rzymie, gdy kamera obraca się powoli na rynku o 360 stopni - i wygląda to fatalnie, obraz po prostu skacze (oglądałem w kinie, kopia cyfrowa i nowoczesny projektor DLP). Standard filmowy nie wynikał z fizjologii, był zaledwie kompromisem między płynnością a ówczesnymi kosztami.

sevae @ 2012.12.14 21:12  Post: 623049
Przecież tak działa zwykły vsync, jeżeli nie może utrzymać 60fps to robi drop do 30fps to normalne i tak ma to działać. Tylko 30fps i 60fps to wartości które są zsynchronizowane z wyświetlaczem 60Hz.

Ja w co najmniej jednej grze obserwowałem także wartości pośrednie: 37,5 kl./s oraz 45 kl./s.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.