geniuszu artykuł nie traktuje o 'zacięciach z powodu słabej karty' tylko o (w uproszczeniu) o czasie pomiędzy kolejnymi wyswietlonymi klatkami i o tym co się dzieje gdy ten czas jest zbyt dług, nie jest ro zalezne czy użyjesz radeona za 500 czy 1500zł. A to czy ktoś sie decyduje na AAx8 czy inne upiększacze to juz jego sprawa, nie ma znaczenia jak domyslnie ustawią to sterowniki, każdy w miarę rozgarnięty dopasuje opcje w grze lub sterownikach do wlasnych upodobań.
Ciekawe czy ktoś z redakcji pclab (np Focus) odniesie się do tego newsa. Pewnie temat zostanie przemilczany i olany tak jak było pod artykułem z FX6300....
Ja raczej jestem przeciwny testom minimalnego fps, ten parametr mówi niewiele, a niekiedy wręcz wprowadza w błąd. Czasami bardzo krótki spadek wydajności do np 15 fps nie jest wcale odczuwalny. Innym razem dłuższy spadek wydajności do 35 fps może być problemem, wystarczy by odstępy między klatkami w ciągu sekundy nie były równe.
Ja tak jak pisałem. Dla mnie byłoby to optymalne rozwiązanie. Potrzebny jest tylko obszerny komentarz do takowego pomiaru. To jest jak często takie dropy występowały.
Problemem jest sam drop tak na prawdę dopóki nie przekroczy 'minimalnej wartości płynności gry' tak bym to nazwał. Bo jeżeli drop występuję ale nie spada poniżej minimalnego progu płynności - co jest jednak subiektywne. Grałem ostatnio na laptopie z Core i5 SB i 6550m. Nie pamiętam dokładnie modelu procesora ale miał on ~2,5 Ghz bez trybu turbo. I koleżanka, która grała ze mną nie widziała tego, że gra jest niepłynna. Według mnie do płynności brakowało pełnych taktów z zasilania sieciowego tego radeona - co można włączyć ale to zostawmy, było jak było. Mimo wszystko grało się w miarę sensownie dlatego, że te dropy nie były duże. Gra to Dirt 2.
Chodzi też o to jak duży on jest bo jeżeli z 70 do 35 no to jednak bardziej go odczujemy niż z tego przykładowego 70 do np. 65 bo wtedy możemy go tak na prawdę w ogóle nie zauważyć.
P.S. Focus wszyscy wiedzą, że to czytasz. Zlituj się i zabierz głos w dyskusji. Chętnie poczytałbym opinię eksperta z tego vortalu . Testujesz karty nie od dziś i wiesz bardzo dobrze jakby to było.
@up
Wiesz, że jest weekend, a to jest jakby to ująć praca. Zbliżają się święta...
Vega nawet mógł tego nie przeczytać, bo np. news był ustawiony by pojawić się o tej godzinie, a teraz odpoczywa.
Vega hm. Jego to podziwiam. Widziałem nieraz, że nad ranem newsy dodawał . Chyba, że to Eryk był? . Wiem, że był jakiś news coś około 3 .
Ale przyznaj mi rację, że też byś chciał jednak jego zdanie przeczytać. My sobie pogadamy ale tak na prawdę żaden z nas nie zajmuje się tym tak zawodowo.
Mam do Ciebie sprawę tak w ogóle . Ale to Ci napisze na pw .
Gry mają to do siebie że jedne będą lepiej zoptymalizowane do Radeonów , inne do Geforców , więc nie ma co mówić że 'GF lepszy bo Radeon ma przycięcia w tym tytule'. Tak naprawdę to tylko kilka tytułów ma tak silne preferencje do karty graficznej że jak ktoś chce mieć w tym tytule maksymalne osiągi to powinien mieć kartę od danego producenta. A w praktyce.... sam mam R6850 i czasem lubi 'przyciąć' (FPS spada nisko) w niektórych tytułach przez sekundę czy dwie, teoretycznie 'niedobrze' ale wątpię czy jego konkurent - GF GTX 460 będzie taki idealny. Nie ma co marudzić , jak raz na jakiś czas fps spadnie na parę sekund ale przez resztę czasu jest powyżej 30-35fps na max detalach to nie ma co się czepiać. OK jeśli to dotyczy flagowych kart za które płacimy parę tysięcy złotych bo w końcu za coś płacimy tyle pieniędzy ale za wartego 1200zł R7950? Kiedyś GF 8800 GT kosztował tyle a jakby się przyczepić to znajdą się tytuły w których w danym czasie by (nawet chwilowo) się przyciął.
Dziwne że dopiero teraz cos takiego 'odkrywają', bo dla mnie ten temat jest znany od lat, to że program pokazuje 50 fps nie oddaje tego że są mikroprzycięcia. Pamiętam jak na starym kompie grałem w Morrowinda i ów mikroprzycięcia zniknęły po.... zmianie integry na audigy, a powstawały jak tylko jakis NPC otworzył japę Oczywiście Bethesda ma jakąś mięte do powstawania takich gier, bo Skyrim faktycznie potrafi dołować, niby 60 fps, a mikroprzycięcia potrafią być bardzo widoczne i wyraźnie przeszkadzać.
Może więc ten większy 'narzut' na CPU u NVIDII jest opłacalny?
Mam wrażenie, że NV ma intensywniejszą kompresję danych (co może odbywać się wielordzeniowo) z tego powodu jest większy narzut na CPU. To by tłumaczyło czemu na słabych czterordzeniowcach NV jest lepsze mimo, że CPU stanowi limiter i nie jako stanowi wyjątek od reguły dodatkowego narzutu vs AMD.
To tłumaczyło też czemu GF-y mają węższą szynę.
To samo, czyli co? Po czym wnioskujesz, że winny jest procesor, sterownik GPU, karta, czy może podkładka pod mysz? Wnioskuję, że nie masz pojęcia o pojęciu, a tylko wypisujesz farmazony, żeby cokolwiek napisać.
Jeśli chodzi o chwilowe spadki płynności to zapewne są one spowodowane wczytywaniem danych do pamięci, np. streaming tekstur. Niestety tego typu rzeczy są zależne bardzo od samego kodu danego produktu, jedna gra może działać lepiej druga gorzej, zwłaszcza w sytuacjach kiedy np w dużej mierze sterownik sam decyduje o zarządzaniu zasobami jak np. z OpenGL w przypadku tekstur. W związku z tym test tego typu oparty o jedną grę jest tyle warty co nic, osoba z TR chyba chciała się po prostu pochwalić zakupem kamerki Jeśli chcielibyśmy mieć w miarę normalny test to potrzebny byłby log z jakiegoś softu do debug'owania, gdzie podana by była wartość w ms (tak FPS jako jednostka do mierzenia wydajności kart jest trochę lipna, bo FPS w odróżnieniu od ms nie jest liniowy) i dokładny wykaz klatek. A komentarze, wielu osób mówiące o tym, że faktycznie spotkali się z podobną sytuacją są dla mnie tak samo wiarygodne jak post osoby, którą zacytowałem. Przyzwyczaiłem się że pod każdym news'em pojawiają się zaraz opinie pseudo expertów, stąd też zdecydowanej większości z nich nie traktuję poważnie. Tak naprawdę na tym forum tylko kilka osób pisze z sensem, większość pisze chyba tylko po to, żeby cokolwiek napisać.
Dlatego sprawdzili wiele gier, wiele silników i zawsze wychodziło że NV lepsze.
Jakość FPSów ma znaczenie, ale nie tak kolosalne. To nie są mikroprzepięcia rodem z multi-gpu
Wiesz czemu ma węższą szynę? Chcieli zrobić tanią i wydajną kartę , a są na tyle wydajne kości na rynku , że teoretycznie wystarczyło 256bit. Tylko gk104 zaczyna mocno tracić do 7970 w 1600p , także chociaż było przejrzeć testy zanim zaczniesz snuć niestworzone teorie, ba wystarczy wyższe AA i już to widać. Taki jest ster i nic nie poradzisz od początku pojawienia się visty stery był spartaczony i trwa to dziś , na xp problemu nigdy nie było i nigdy nie będzie. A kompresja danych jest tylko z tego co pamiętam na pci-express(wymiana danych) przy szybkości 4x i niżej.
Nie mam siły o tej porze czytać wszystkich komentarzy ( przeczytałem 3 strony ) ale mogę coś dołożyć do tematu.
Mój konfig i7 3770, HD7970Ghz, DDR3 1600 CL9, SSD intel.
Na najnowszysch sterach 12.11 beta przy max ustawieniach i rozdziałce FullHD w grze Battlefield 3, program fraps pokazuje non stop 58-60FPS niestety płynności nie ma i występują opisane w artykule mikroprzyciecia ! Zmieniłem detale, rozdzielczość .. TO SAMO!.. zmieniłem stery na 12.10 WHQL i płynniej i to sporo ale i teoretycznie mniej FPS o około 10-15! Niestety na 12.10 wyświetla mi artefakty w AssassinsCread3 i lekko tnie więc wróciłem do 12.11 i wszystko poza BF3 działa lepiej (gry na których sprawdzałem: BF3, AC3, BatmanAC, LostPlnaet2, Metro)
Nie mam od dawana żadnego GeForca więc osobiście nie mam porównania ale mogę potwierdzic wystepowanie mikroprzyciec na HD7970Ghz ale tylko na BF3 (z gier które wymieniłem)
Nie mam siły o tej porze czytać wszystkich komentarzy ( przeczytałem 3 strony ) ale mogę coś dołożyć do tematu.
Mój konfig i7 3770, HD7970Ghz, DDR3 1600 CL9, SSD intel.
Na najnowszysch sterach 12.11 beta przy max ustawieniach i rozdziałce FullHD w grze Battlefield 3, program fraps pokazuje non stop 58-60FPS niestety płynności nie ma i występują opisane w artykule mikroprzyciecia ! Zmieniłem detale, rozdzielczość .. TO SAMO!.. zmieniłem stery na 12.10 WHQL i płynniej i to sporo ale i teoretycznie mniej FPS o około 10-15! Niestety na 12.10 wyświetla mi artefakty w AssassinsCread3 i lekko tnie więc wróciłem do 12.11 i wszystko poza BF3 działa lepiej (gry na których sprawdzałem: BF3, AC3, BatmanAC, LostPlnaet2, Metro)
Nie mam od dawana żadnego GeForca więc osobiście nie mam porównania ale mogę potwierdzic wystepowanie mikroprzyciec na HD7970Ghz ale tylko na BF3 (z gier które wymieniłem)
Może problemem jest to, że 25 to wartość graniczna i w różnych warunkach różne efekty się pojawiają. Poza tym w kinach nie ma czasem 24fps? Wszystkie zjawiska obniżające komfort oglądania można wyeliminować dopiero przy 60fps i tyle.
Wartość graniczna to 24 nie 25, właśnie dlatego filmy kinowe przyjęły standard 24 klatek. Niestety nie ma to zastosowania w grach bo tam, moim zdaniem wartość graniczna to 40, poniżej tej wartości gra zaczyna wyraźnie nam pokazywać niepłynną rozgrywkę.
[/quote] Zrzuca do 30fps i spada wykorzystanie gpu , czasami potrafi wejść powyżej 30fps. Wyłączenie vsync lub włączenie adaptive vsync pomaga , tylko to jest ewidentny bug i jest extremalnie frustrujący. Jako , że potrafi wejść co jakiś czas powyżej 30fps to nie jest bug adaptive vsync z połowa odświeżania. Ten błąd zdarza się częściej na fermi tzn w większej ilości gier.[/quote]
Co ty człowieku za głupoty wypisujesz ?? Mam GTX 480 od dwóch lat i absolutnie w żadnej grze nie miałem problemu z płynnością animacji.Kto ci płaci za ten spam ?
Nie mam siły o tej porze czytać wszystkich komentarzy ( przeczytałem 3 strony ) ale mogę coś dołożyć do tematu.
Mój konfig i7 3770, HD7970Ghz, DDR3 1600 CL9, SSD intel.
Na najnowszysch sterach 12.11 beta przy max ustawieniach i rozdziałce FullHD w grze Battlefield 3, program fraps pokazuje non stop 58-60FPS niestety płynności nie ma i występują opisane w artykule mikroprzyciecia ! Zmieniłem detale, rozdzielczość .. TO SAMO!.. zmieniłem stery na 12.10 WHQL i płynniej i to sporo ale i teoretycznie mniej FPS o około 10-15! Niestety na 12.10 wyświetla mi artefakty w AssassinsCread3 i lekko tnie więc wróciłem do 12.11 i wszystko poza BF3 działa lepiej (gry na których sprawdzałem: BF3, AC3, BatmanAC, LostPlnaet2, Metro)
Nie mam od dawana żadnego GeForca więc osobiście nie mam porównania ale mogę potwierdzic wystepowanie mikroprzyciec na HD7970Ghz ale tylko na BF3 (z gier które wymieniłem)
Mam wrażenie, że NV ma intensywniejszą kompresję danych (co może odbywać się wielordzeniowo) z tego powodu jest większy narzut na CPU. To by tłumaczyło czemu na słabych czterordzeniowcach NV jest lepsze mimo, że CPU stanowi limiter i nie jako stanowi wyjątek od reguły dodatkowego narzutu vs AMD.
To tłumaczyło też czemu GF-y mają węższą szynę.
Dlatego sprawdzili wiele gier, wiele silników i zawsze wychodziło że NV lepsze.
Jakość FPSów ma znaczenie, ale nie tak kolosalne. To nie są mikroprzepięcia rodem z multi-gpu
Wiesz czemu ma węższą szynę? Chcieli zrobić tanią i wydajną kartę , a są na tyle wydajne kości na rynku , że teoretycznie wystarczyło 256bit. Tylko gk104 zaczyna mocno tracić do 7970 w 1600p , także chociaż było przejrzeć testy zanim zaczniesz snuć niestworzone teorie, ba wystarczy wyższe AA i już to widać. Taki jest ster i nic nie poradzisz od początku pojawienia się visty stery był spartaczony i trwa to dziś , na xp problemu nigdy nie było i nigdy nie będzie. A kompresja danych jest tylko z tego co pamiętam na pci-express(wymiana danych) przy szybkości 4x i niżej.
Faktycznie spartaczyli jak tylko się da
Co do pamięci, to z tego co pamiętam GDDR5 tykają z takim zegarem jakim 'chcą', mogą... były sytuacje, że tak wyżyłowane pamięci tylko ocierały się o częstotliwość podaną w specyfikacji.
Wartość graniczna to 24 nie 25, właśnie dlatego filmy kinowe przyjęły standard 24 klatek. Niestety nie ma to zastosowania w grach bo tam, moim zdaniem wartość graniczna to 40, poniżej tej wartości gra zaczyna wyraźnie nam pokazywać niepłynną rozgrywkę.
Powtórzę: taki standard przyjęto wyłącznie jako kompromis pomiędzy płynnością a kosztami (pamiętaj, kiedy to było). Nie w każdej scenie zapewnia choćby komfortową płynność.
No nie wiem. Na materiałach filmowych wyraźnie widać, że obie karty 'przycinają' w różnych momentach. 'Są jednak recenzenci, którzy w całości podważają metodę podawania liczby klatek na sekundę.' - to niech ci recenzenci zrobią krok za siebie i nabiorą perspektywy. Zadaniem kart graficznych jest wyświetlanie obrazu dla ludzi. Co ludzi obchodzą jakieś wyszukane parametry? Karta ma wyświetlać właśnie klatki obrazu z odpowiednią wydajnością, a nie mieć 3 procesory strumieniowe więcej od innej karty....
Dziwne, ja sobie pykam w BF3 na Radeonie 5770 (oczywiście detale nieco obniżone do klasy tej karty) i jakiś 'mikroprzycięć' ani w tej grze ani żadnej innej nie zauważyłem. Dotąd o tych tajemniczym zjawisku mówilo się tylko w konfiguracjach dwuprocesorowych, a widocznie sezon ogórkowy wymaga wymyślania następnych bzdur. Jest kupa komentarzy, oglądalność serwisu rośnie o o to pewnie chodzi.
Jak dla mnie testowy komp był czymś zaśmiecony. Ja sam miałem podobne problemy na zaśmieconych lub źle skonfigurowanych kompach z rożnymi wersjami Windows, z różnymi kartami od AMD i nVidia - w jednym przypadku była to jakaś usługa sieciowa, w innym antywirus, czasami 'try icon' jakiegoś durnego programu.
Nie wiadomo jakich sztuczek dokonuje nVidia w swoich sterownikach - byś może przełącza jakieś wajchy w systemie, a może lepiej zarządza pamięcią, tak że antywirus jej nie czesze.
Jak dla mnie robienie tak ważnych i opiniodawczych testów wydajnościowych powinno odbywać na rożnych komputerach, z różnymi wersjami systemu operacyjnego (może także GNU/Linux), z wariantem z wyłączonymi wszystkimi zbędnymi dla testu procesami.
Bez takiego podejścia, test należy traktować z przymrużeniem oka i podejrzewać, że jest sponsorowany.
Co do pamięci, to z tego co pamiętam GDDR5 tykają z takim zegarem jakim 'chcą', mogą... były sytuacje, że tak wyżyłowane pamięci tylko ocierały się o częstotliwość podaną w specyfikacji.
A to nie jest czasem tak, że GDDR5 mają tą super wielką przepustowość tylko w jedną stronę? Gdzieś czytałem, że zegar x4 odnosi się w ich przypadku tylko do odczytu z pamięci, podczas zapisu mają przepustowość taką jak GDDR3 o takim samym taktowaniu.
Od razu piszę, że nie jestem do końca pewny tego. ;P
[quote name='fosgen' date='2012.12.16 09:23' post='623236'][/quote] Zrzuca do 30fps i spada wykorzystanie gpu , czasami potrafi wejść powyżej 30fps. Wyłączenie vsync lub włączenie adaptive vsync pomaga , tylko to jest ewidentny bug i jest extremalnie frustrujący. Jako , że potrafi wejść co jakiś czas powyżej 30fps to nie jest bug adaptive vsync z połowa odświeżania. Ten błąd zdarza się częściej na fermi tzn w większej ilości gier.[/quote]
Co ty człowieku za głupoty wypisujesz ?? Mam GTX 480 od dwóch lat i absolutnie w żadnej grze nie miałem problemu z płynnością animacji.Kto ci płaci za ten spam ?
[/quote]
Fanboj nigdy nie miał problemów i nigdy nie będzie miał to taka jego natura.
umarlem ;D
'niższej pułki'
uhm, jasne, wszystko na ten temat.
Ja tak jak pisałem. Dla mnie byłoby to optymalne rozwiązanie. Potrzebny jest tylko obszerny komentarz do takowego pomiaru. To jest jak często takie dropy występowały.
Problemem jest sam drop tak na prawdę dopóki nie przekroczy 'minimalnej wartości płynności gry' tak bym to nazwał. Bo jeżeli drop występuję ale nie spada poniżej minimalnego progu płynności - co jest jednak subiektywne. Grałem ostatnio na laptopie z Core i5 SB i 6550m. Nie pamiętam dokładnie modelu procesora ale miał on ~2,5 Ghz bez trybu turbo. I koleżanka, która grała ze mną nie widziała tego, że gra jest niepłynna. Według mnie do płynności brakowało pełnych taktów z zasilania sieciowego tego radeona - co można włączyć ale to zostawmy, było jak było. Mimo wszystko grało się w miarę sensownie dlatego, że te dropy nie były duże. Gra to Dirt 2.
Chodzi też o to jak duży on jest bo jeżeli z 70 do 35 no to jednak bardziej go odczujemy niż z tego przykładowego 70 do np. 65 bo wtedy możemy go tak na prawdę w ogóle nie zauważyć.
P.S. Focus wszyscy wiedzą, że to czytasz. Zlituj się i zabierz głos w dyskusji. Chętnie poczytałbym opinię eksperta z tego vortalu
Wiesz, że jest weekend, a to jest jakby to ująć praca. Zbliżają się święta...
Vega nawet mógł tego nie przeczytać, bo np. news był ustawiony by pojawić się o tej godzinie, a teraz odpoczywa.
Wiesz, że jest weekend, a to jest jakby to ująć praca. Zbliżają się święta...
Vega nawet mógł tego nie przeczytać, bo np. news był ustawiony by pojawić się o tej godzinie, a teraz odpoczywa.
Vega hm. Jego to podziwiam. Widziałem nieraz, że nad ranem newsy dodawał
Ale przyznaj mi rację, że też byś chciał jednak jego zdanie przeczytać. My sobie pogadamy ale tak na prawdę żaden z nas nie zajmuje się tym tak zawodowo.
Mam do Ciebie sprawę tak w ogóle
Może więc ten większy 'narzut' na CPU u NVIDII jest opłacalny?
Mam wrażenie, że NV ma intensywniejszą kompresję danych (co może odbywać się wielordzeniowo) z tego powodu jest większy narzut na CPU. To by tłumaczyło czemu na słabych czterordzeniowcach NV jest lepsze mimo, że CPU stanowi limiter i nie jako stanowi wyjątek od reguły dodatkowego narzutu vs AMD.
To tłumaczyło też czemu GF-y mają węższą szynę.
http://pclab.pl/zdjecia/artykuly/chaostheo...4965_1_1920.png
Widać tu dobrze, że CPU stanowi ograniczenie już dla 660 i 7850. Jednak to karty NV mają więcej FPSów.
To samo, czyli co? Po czym wnioskujesz, że winny jest procesor, sterownik GPU, karta, czy może podkładka pod mysz? Wnioskuję, że nie masz pojęcia o pojęciu, a tylko wypisujesz farmazony, żeby cokolwiek napisać.
Jeśli chodzi o chwilowe spadki płynności to zapewne są one spowodowane wczytywaniem danych do pamięci, np. streaming tekstur. Niestety tego typu rzeczy są zależne bardzo od samego kodu danego produktu, jedna gra może działać lepiej druga gorzej, zwłaszcza w sytuacjach kiedy np w dużej mierze sterownik sam decyduje o zarządzaniu zasobami jak np. z OpenGL w przypadku tekstur. W związku z tym test tego typu oparty o jedną grę jest tyle warty co nic, osoba z TR chyba chciała się po prostu pochwalić zakupem kamerki
Dlatego sprawdzili wiele gier, wiele silników i zawsze wychodziło że NV lepsze.
Jakość FPSów ma znaczenie, ale nie tak kolosalne. To nie są mikroprzepięcia rodem z multi-gpu
Wiesz czemu ma węższą szynę? Chcieli zrobić tanią i wydajną kartę , a są na tyle wydajne kości na rynku , że teoretycznie wystarczyło 256bit. Tylko gk104 zaczyna mocno tracić do 7970 w 1600p , także chociaż było przejrzeć testy zanim zaczniesz snuć niestworzone teorie, ba wystarczy wyższe AA i już to widać. Taki jest ster i nic nie poradzisz od początku pojawienia się visty stery był spartaczony i trwa to dziś , na xp problemu nigdy nie było i nigdy nie będzie. A kompresja danych jest tylko z tego co pamiętam na pci-express(wymiana danych) przy szybkości 4x i niżej.
Mój konfig i7 3770, HD7970Ghz, DDR3 1600 CL9, SSD intel.
Na najnowszysch sterach 12.11 beta przy max ustawieniach i rozdziałce FullHD w grze Battlefield 3, program fraps pokazuje non stop 58-60FPS niestety płynności nie ma i występują opisane w artykule mikroprzyciecia ! Zmieniłem detale, rozdzielczość .. TO SAMO!.. zmieniłem stery na 12.10 WHQL i płynniej i to sporo ale i teoretycznie mniej FPS o około 10-15! Niestety na 12.10 wyświetla mi artefakty w AssassinsCread3 i lekko tnie więc wróciłem do 12.11 i wszystko poza BF3 działa lepiej (gry na których sprawdzałem: BF3, AC3, BatmanAC, LostPlnaet2, Metro)
Nie mam od dawana żadnego GeForca więc osobiście nie mam porównania ale mogę potwierdzic wystepowanie mikroprzyciec na HD7970Ghz ale tylko na BF3 (z gier które wymieniłem)
Mój konfig i7 3770, HD7970Ghz, DDR3 1600 CL9, SSD intel.
Na najnowszysch sterach 12.11 beta przy max ustawieniach i rozdziałce FullHD w grze Battlefield 3, program fraps pokazuje non stop 58-60FPS niestety płynności nie ma i występują opisane w artykule mikroprzyciecia ! Zmieniłem detale, rozdzielczość .. TO SAMO!.. zmieniłem stery na 12.10 WHQL i płynniej i to sporo ale i teoretycznie mniej FPS o około 10-15! Niestety na 12.10 wyświetla mi artefakty w AssassinsCread3 i lekko tnie więc wróciłem do 12.11 i wszystko poza BF3 działa lepiej (gry na których sprawdzałem: BF3, AC3, BatmanAC, LostPlnaet2, Metro)
Nie mam od dawana żadnego GeForca więc osobiście nie mam porównania ale mogę potwierdzic wystepowanie mikroprzyciec na HD7970Ghz ale tylko na BF3 (z gier które wymieniłem)
no to dolales benzyny do ognia ^^
Wartość graniczna to 24 nie 25, właśnie dlatego filmy kinowe przyjęły standard 24 klatek. Niestety nie ma to zastosowania w grach bo tam, moim zdaniem wartość graniczna to 40, poniżej tej wartości gra zaczyna wyraźnie nam pokazywać niepłynną rozgrywkę.
Co ty człowieku za głupoty wypisujesz ?? Mam GTX 480 od dwóch lat i absolutnie w żadnej grze nie miałem problemu z płynnością animacji.Kto ci płaci za ten spam ?
Mój konfig i7 3770, HD7970Ghz, DDR3 1600 CL9, SSD intel.
Na najnowszysch sterach 12.11 beta przy max ustawieniach i rozdziałce FullHD w grze Battlefield 3, program fraps pokazuje non stop 58-60FPS niestety płynności nie ma i występują opisane w artykule mikroprzyciecia ! Zmieniłem detale, rozdzielczość .. TO SAMO!.. zmieniłem stery na 12.10 WHQL i płynniej i to sporo ale i teoretycznie mniej FPS o około 10-15! Niestety na 12.10 wyświetla mi artefakty w AssassinsCread3 i lekko tnie więc wróciłem do 12.11 i wszystko poza BF3 działa lepiej (gry na których sprawdzałem: BF3, AC3, BatmanAC, LostPlnaet2, Metro)
Nie mam od dawana żadnego GeForca więc osobiście nie mam porównania ale mogę potwierdzic wystepowanie mikroprzyciec na HD7970Ghz ale tylko na BF3 (z gier które wymieniłem)
no to dolales benzyny do ognia ^^
Istny napalm
Mam wrażenie, że NV ma intensywniejszą kompresję danych (co może odbywać się wielordzeniowo) z tego powodu jest większy narzut na CPU. To by tłumaczyło czemu na słabych czterordzeniowcach NV jest lepsze mimo, że CPU stanowi limiter i nie jako stanowi wyjątek od reguły dodatkowego narzutu vs AMD.
To tłumaczyło też czemu GF-y mają węższą szynę.
http://pclab.pl/zdjecia/artykuly/chaostheo...4965_1_1920.png
Widać tu dobrze, że CPU stanowi ograniczenie już dla 660 i 7850. Jednak to karty NV mają więcej FPSów.
Dlatego sprawdzili wiele gier, wiele silników i zawsze wychodziło że NV lepsze.
Jakość FPSów ma znaczenie, ale nie tak kolosalne. To nie są mikroprzepięcia rodem z multi-gpu
Wiesz czemu ma węższą szynę? Chcieli zrobić tanią i wydajną kartę , a są na tyle wydajne kości na rynku , że teoretycznie wystarczyło 256bit. Tylko gk104 zaczyna mocno tracić do 7970 w 1600p , także chociaż było przejrzeć testy zanim zaczniesz snuć niestworzone teorie, ba wystarczy wyższe AA i już to widać. Taki jest ster i nic nie poradzisz od początku pojawienia się visty stery był spartaczony i trwa to dziś , na xp problemu nigdy nie było i nigdy nie będzie. A kompresja danych jest tylko z tego co pamiętam na pci-express(wymiana danych) przy szybkości 4x i niżej.
Faktycznie spartaczyli jak tylko się da
Co do pamięci, to z tego co pamiętam GDDR5 tykają z takim zegarem jakim 'chcą', mogą... były sytuacje, że tak wyżyłowane pamięci tylko ocierały się o częstotliwość podaną w specyfikacji.
Powtórzę: taki standard przyjęto wyłącznie jako kompromis pomiędzy płynnością a kosztami (pamiętaj, kiedy to było). Nie w każdej scenie zapewnia choćby komfortową płynność.
Nie wiadomo jakich sztuczek dokonuje nVidia w swoich sterownikach - byś może przełącza jakieś wajchy w systemie, a może lepiej zarządza pamięcią, tak że antywirus jej nie czesze.
Jak dla mnie robienie tak ważnych i opiniodawczych testów wydajnościowych powinno odbywać na rożnych komputerach, z różnymi wersjami systemu operacyjnego (może także GNU/Linux), z wariantem z wyłączonymi wszystkimi zbędnymi dla testu procesami.
Bez takiego podejścia, test należy traktować z przymrużeniem oka i podejrzewać, że jest sponsorowany.
Co do pamięci, to z tego co pamiętam GDDR5 tykają z takim zegarem jakim 'chcą', mogą... były sytuacje, że tak wyżyłowane pamięci tylko ocierały się o częstotliwość podaną w specyfikacji.
A to nie jest czasem tak, że GDDR5 mają tą super wielką przepustowość tylko w jedną stronę? Gdzieś czytałem, że zegar x4 odnosi się w ich przypadku tylko do odczytu z pamięci, podczas zapisu mają przepustowość taką jak GDDR3 o takim samym taktowaniu.
Od razu piszę, że nie jestem do końca pewny tego. ;P
Co ty człowieku za głupoty wypisujesz ?? Mam GTX 480 od dwóch lat i absolutnie w żadnej grze nie miałem problemu z płynnością animacji.Kto ci płaci za ten spam ?
[/quote]
Fanboj nigdy nie miał problemów i nigdy nie będzie miał to taka jego natura.