komentarze
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2014.01.26, 16:03
Ten problem dotyczy przede wszystkim użytkowników korzystających z Crossfire.
Ja trzymam dwie karty 58xx w kompie tylko dlatego że mam trzy monitory a w XP-ku jedna karta graficzna może obsługiwać tylko dwa, więc trzeci monitor jest podłączony do pierwszej karty po DVI a do drugiej po analogowym D-Sub (żeby działał w XP).
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2014.01.26, 16:12
No news normalnie jakbym przeczytał teraz że 'Ferrari jest lepsze od Lamborghini'. I co mi po tym, skoro ani mi ten poziom nie jest potrzebny ani mnie na niego nie stać. Mam HD7850, który radzi sobie dobrze 99% przypadków. Jakbym wsadził R9 290X, to napewni nie zaskoczyłoby mnie już totalnie nic.

Osobiście uważam że SLi czy CF, to rozwiązanie dla onanistów sprzętowych, bo prawda jest taka że najwydajniejsze pojedyncze karty czerwonych czy zielonych wystarczą każdemu do wszytkiego. Druga karta? Jak ktoś chce się brędzlować nad kilkoma tys. pkt więcej w 3D Marku, to proszę bardzo, ale ja różnicy pomiędzy 100 a 150 fps raczej nie zobaczę.

Aha, i wbrew temu co niektórzy tu twierdzili, w 'nowożytnych' czasach układy wielokartowe wymyśliła nVidia, nie ATi. Było to w czasach serii Radeonów X 800 i GeForce 6000. Oczywiście również wtedy było to rozwiązanie bezsensowne, bo taki GeForce 6800 Ultra czy Radeon X850 radzily sobie ze wszystkim w ówczesnych czasach.

Żeby nie być gorszym, ATi też na szybko, stworszyła swoje CrossFire. Na poczatku potrzebna była do tego karta typu Master, co oczywiście było gorszym rozwiązaniem od SLi gdzie można było łączyć dwie standardowe karty. Dopiero Radeon X1950Pro pozwalał na łączenie dwóch standardowych kart, bez konieczności kupowania specjalnej karty Master.
WibowitZobacz profil
Poziom ostrzeżenia: 0%
Wibowit2014.01.26, 16:23
nVidia była pierwsza? A nie 3dfx? Przecież pierwotnie SLI oznaczało Scalable Link Interface i było wprowadzone w kartach Voodoo.
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2014.01.26, 16:27
Wibowit @ 2014.01.26 16:23  Post: 719179
nVidia była pierwsza? A nie 3dfx? Przecież pierwotnie SLI oznaczało Scalable Link Interface i było wprowadzone w kartach Voodoo.


Czytaj ze zrozumieniem. W 'nowożytnych czasach', czyli pomijamy początki sprzetowej technologii 3D, bo za taką można uznać erę VooDoo. Już w Voodoo 3 tego nie było, aż do czasów właśnie kart GeForce 6600GT i 6800.
FoperZobacz profil
Poziom ostrzeżenia: 0%
Foper2014.01.26, 16:28
Bruno@Home @ 2014.01.26 12:51  Post: 719140
SunTzu @ 2014.01.26 12:48  Post: 719138
@up
Pokaż mi lepiej test eyefinity :)

Najlepiej progres pokazuje chyba to:
Przed:

Po:


Dobry pomysł nad którym też popracujemy!

No i na Twoim przykładzie doskonale widać jak pracuje frame pacing (on/off) w konfiguracji Crossfire. ;-)

Jeśli mnie pamięć nie myli Frame pacing jest niecały rok, czyli zarówno hd 6990, 5970, 4870x2 i 3870x2 miay gigantyczne problemy a AMD naciągało klientów na taki crap.......
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2014.01.26, 16:32
Wibowit @ 2014.01.26 16:23  Post: 719179
nVidia była pierwsza? A nie 3dfx? Przecież pierwotnie SLI oznaczało Scalable Link Interface i było wprowadzone w kartach Voodoo.

http://pl.wikipedia.org/wiki/SLI
Za czasów 3dfx SLI to był skrót od Scan Line Interleave - Przeplot Skanowania Linii.
Dwie karty Voodoo 2 połączone mostkiem pracowały w trybie przeplatania linii obrazu. Pierwsza karta generowała obraz składający się tylko z linii nieparzystych, druga zaś - z linii parzystych. Tak wygenerowane półobrazy łączone były w jedną klatkę.
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2014.01.26, 16:47
Foper @ 2014.01.26 16:28  Post: 719181
Bruno@Home @ 2014.01.26 12:51  Post: 719140
(...)


Dobry pomysł nad którym też popracujemy!

No i na Twoim przykładzie doskonale widać jak pracuje frame pacing (on/off) w konfiguracji Crossfire. ;-)

Jeśli mnie pamięć nie myli Frame pacing jest niecały rok, czyli zarówno hd 6990, 5970, 4870x2 i 3870x2 miay gigantyczne problemy a AMD naciągało klientów na taki crap.......


Byłeś nabywcą któregoś z nich, byłeś zawiedziony? No właśnie....
Maciek_92Zobacz profil
Poziom ostrzeżenia: 0%
Maciek_922014.01.26, 17:04
Artykuł bardzo mnie zaciekawił.
Jednak z tym się nie zgadzam:
'Warto w tym miejscu przypomnieć, że 24 kl./s nie wystarczą do komfortowej gry(...)'

W FPSach może tak. Ale niektórzy grają np w RTSy . ;)

Pozdrawiam!
FirekageZobacz profil
Poziom ostrzeżenia: 0%
Firekage2014.01.26, 17:04
radek_z @ 2014.01.26 16:47  Post: 719185
Foper @ 2014.01.26 16:28  Post: 719181
(...)

Jeśli mnie pamięć nie myli Frame pacing jest niecały rok, czyli zarówno hd 6990, 5970, 4870x2 i 3870x2 miay gigantyczne problemy a AMD naciągało klientów na taki crap.......


Byłeś nabywcą któregoś z nich, byłeś zawiedziony? No właśnie....



Równie dobrze mogę zapytać: co Ciebie to obchodzi? Z całą pewnością były osoby, które to kupiły, którym to przeszkadzało, a które nic z tym nie mogły zrobić...zaś zapewnienia...cóż, są zapewnieniami. Można non stop na coś czekać...(czekam na coś podobnego od producenta telewizora...nadzieja matką...), a pieniądze wydało się, prawda?
*Konto usunięte*2014.01.26, 17:31
radek_z @ 2014.01.26 16:12  Post: 719177
No news normalnie jakbym przeczytał teraz że 'Ferrari jest lepsze od Lamborghini'. I co mi po tym, skoro ani mi ten poziom nie jest potrzebny ani mnie na niego nie stać. Mam HD7850, który radzi sobie dobrze 99% przypadków. Jakbym wsadził R9 290X, to napewni nie zaskoczyłoby mnie już totalnie nic.

Osobiście uważam że SLi czy CF, to rozwiązanie dla onanistów sprzętowych, bo prawda jest taka że najwydajniejsze pojedyncze karty czerwonych czy zielonych wystarczą każdemu do wszytkiego. Druga karta? Jak ktoś chce się brędzlować nad kilkoma tys. pkt więcej w 3D Marku, to proszę bardzo, ale ja różnicy pomiędzy 100 a 150 fps raczej nie zobaczę.

Aha, i wbrew temu co niektórzy tu twierdzili, w 'nowożytnych' czasach układy wielokartowe wymyśliła nVidia, nie ATi. Było to w czasach serii Radeonów X 800 i GeForce 6000. Oczywiście również wtedy było to rozwiązanie bezsensowne, bo taki GeForce 6800 Ultra czy Radeon X850 radzily sobie ze wszystkim w ówczesnych czasach.

Żeby nie być gorszym, ATi też na szybko, stworszyła swoje CrossFire. Na poczatku potrzebna była do tego karta typu Master, co oczywiście było gorszym rozwiązaniem od SLi gdzie można było łączyć dwie standardowe karty. Dopiero Radeon X1950Pro pozwalał na łączenie dwóch standardowych kart, bez konieczności kupowania specjalnej karty Master.


Dual Graphics, w laptoapch dzięki temu teoretycznie możesz osiągnąć wydajność rzędu GPU znacznie wyższej klasy, przy znanicznie lepszym współczynniku energetycznym.
czasem sli/crossfire pozwala osiągnąć korzystniejsze radio cena/wydajność, zwłaszcza gdy produkt TOP jest znacznie droższy.

Crossfire było obecne zdaję się w segmencie PRO i ATI nie miało tutaj konkurencji np. w symulatorach wojskowych. Technologia jest starsza niż seria x800.

Foper @ 2014.01.26 16:28  Post: 719181
Bruno@Home @ 2014.01.26 12:51  Post: 719140
(...)


Dobry pomysł nad którym też popracujemy!

No i na Twoim przykładzie doskonale widać jak pracuje frame pacing (on/off) w konfiguracji Crossfire. ;-)

Jeśli mnie pamięć nie myli Frame pacing jest niecały rok, czyli zarówno hd 6990, 5970, 4870x2 i 3870x2 miay gigantyczne problemy a AMD naciągało klientów na taki crap.......

... pytanie jakie czasy miały GF-y 8xxx,2xx w tych czasach.
AvitrZobacz profil
Poziom ostrzeżenia: 0%
Avitr2014.01.26, 17:38
SunTzu @ 2014.01.26 08:46  Post: 719103
@up
Przede wszystkim - dlaczego nie można zrobić tego najprostszą metodą, czyli GPU w momencie wysyłania gotowej klatki (czyli ostatniej fazie przed pojawieniem się obrazu na monitorze) nie wysyła informacji zwrotnej do kompa że wygenerował gotową, ostateczną klatkę?

Ograniczenia DXa, nie da się.

Piszę o rozwiązaniu sprzętowym a nie programowym, 'przezroczystym' dla gry. Po prostu GPU jak już opracowałby cała klatkę gotową do wyświetlenia to wysyłałby 'kanałem zwrotnym' informację że klatka gotowa.


Druga sprawa (jeśli powyższe byłoby niemożliwe). Zamiast używać skomplikowanych, drogich narzędzi (mogących jeszcze wprowadzać dodatkowe opóźnienia) możnaby zrobić inaczej.

Nie masz tutaj żadnych opóźnień właśnie. Wszystko co generuje karta jest nagrywane na innym kompie. Każda inna metoda w praktyce może dać większe opóźnienia/

Na stronie 5 pisze że wystarczy że tą kartę Datapath wsadzi się nie do tego gniazda PCI-Express i już są wprowadzane niedokładności pomiaru.


Przed monitorem postawić kamerę rejestrującą obraz z dużą częstotliwością np. 500 razy na sekundę.

To nic nie da. Nie da obiektywnego pomiaru, bo monitor nie wyświetla wszystkich wygenerowanych klatek dokładnie tak jak GPU posyła bez V-Sync-a, a z V-Sync też nie będzie działać, bo GPU nie będzie obciążone w 100%

Ale gracza interesują tylko te klatki które będą wyświetlone przez monitor. A monitor, przy zadanej częstotliwości odświeżania, wyświetla klatki zawsze w tym samym tempie. Więc jest zasadnicza różnica między 60 fps generowanym przez grę, a 60 Hz wyświetlanym przez monitor. Bo 60 fps oznacza tylko że 60 klatek wyrenderowano w ciągu sekundy, ale część została wygenerowana szybciej niż 1/60 sekundy, a część wolniej. A monitorowi wszystko jedno czy framerate jest 6, 16, czy 60 fps, on i tak wyświetla zawsze 60 klatek na sekundę, w stałych odstępach czasu.


SunTzu @ 2014.01.26 10:01  Post: 719108

Relativy @ 2014.01.26 09:59  Post: 719107

Ponieważ nie chodzi tu o obraz wygenerowany czy nawet wysłany na monitor, a o obraz wyświetlany.

Dokładnie, a ja pisałem, że obraz wyświetlany przez monitor nie nadaje się do analizy.

Ale to właśnie obraz wyświetlany na monitorze interesuje gracza.


Bo monitor bez v-synca wyświetli Ci z dużym prawdopodobieństwiem 60 różnych klatek/s, ale nie będą to pełne klatki, ale tearing....

Ale to właśnie one są oglądane przez gracza. I z punktu widzenia płynności nie ma znaczenia czy są tearowane czy nie. Ważne tylko aby jak najszybciej się zmieniały (czyli był jak najwyższy framerate, bo 30 fps wyświetlane na monitorze 60 Hz oznacza że każda klatka jest wyświetlana 2 razy pod rząd).


możesz właczyć v-synca, ale wtedy GPU nie będzie obciążone w 100% i wprowadza losowość, bo niepewność pomiarowa będzie na poziomie 1FPS-a co przy np. 25 FPSów jest dużo.

Ale ten błąd będzie w każdej karcie, więc jeśli porównujemy wiele kart to te błędy będą się nawzajem znosić.

Assassin @ 2014.01.26 10:12  Post: 719109
Relativy @ 2014.01.26 09:59  Post: 719107

Dlatego jeżeli monitor ma 60hz a karta generuje 120fps, to generuje klatkę co 8ms a monitor każdą wyświetla co 16ms, czyli z połową klatek stanie się... no właśnie co?

Nic, po prostu co druga klatka nie jest wyświetlana (wogóle nie idzie na monitor bo karta graficzna generuje na wyjściu sygnał o częstotliwości 60 Hz). W praktyce widać to (był taki test na labie) po tym że nieraz po włączeniu vsync znacznie spada pobór prądu przez komputer - bo nie generuje już on klatek powyżej częstotliwości odświeżania monitora (oczywiście dotyczy to tylko tych przypadków gdy komp jest wystarczająco szybki żeby wygenerować większą ilość fps niż monitor ma Hz).


W tym samym czasie zostanie wyświetlona więcej niż 1 klatka. To jest właśnie źródło zjawiska tearingu. O tym, że na monitorze wyświetlane są więcej niż 1 klatka informują te kolorowe paski po lewej.

Na monitorze zawsze wyświetlana jest jedna klatka (co 1/60 sekundy dla monitora 60 Hz), tyle że przy tearingu złożona ona jest z kawałków kilku różnych klatek.


chaostheory @ 2014.01.26 12:26  Post: 719130
Panowie, bez obrazy, ale widzę, że tu więcej ogarniętych inżynierów niż w Nvidii :E

Wszyscy wiedzą, że nagranego filmu wcale nie trzeba mieć nieskompresowanego, karta do nagrywania za 1400f jest zbędna, bo wystarczy jakieś byle co za kilkaset złotych, a skrypty do analizy każdy z osobna pisze lepiej niż cały zespół zielonych :E

Sami przecież możecie to sprawdzić. Macie przecież gotowe filmy z tych testów. Przeróbcie je teraz poprzez obcięcie wszystkiego poza tymi paskami. Jak już w materiale zostaną same paski to skompresujcie je kodekiem MPEG-4. Potem krótki programik zliczający te paski. I porównanie wyników z FCATem.


Odrobina logiki podpowiada mi jedno: wątpie, żeby w firmie, która potrafi stworzyć od początku do końca rdzeń graficzny, nie było ani jednego człowieka, który nie zaproponowałby tańszego rozwiązania niż prezentowane w artykule - gdyby się dało :)

A od kiedy firmie zależy żeby było taniej? Sam Intel robi wszystko żeby użytkownik wraz z wymianą procesora wymieniał też płytę (dlatego tak często zmienia podstawki). Nvidia tak samo.

jukojukoZobacz profil
Poziom ostrzeżenia: 0%
jukojuko2014.01.26, 17:44
Mnie zaskakuje ile mocy w kartach AMD się marnuje na klatki odrzucone i ominiete. Nie wiem czy to tak ma być, czy może być inaczej ale nikt tego nie ogarnia.
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2014.01.26, 18:20
A ja jednak nie rozumiem jednego. Przez lata ludzie to kupowali i jakiś tam przyrost wydajności widzieli. Mikroprzycięcia też widzieli, ale więcej fps również.

Teraz PC Lab robi testy nową metodą i niby okazuje się że tych realnych fps-ów jest niewiele więcej jak na pojedynczej karcie.

Czyżby aż taka siła sugestii była przez te lata?
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2014.01.26, 18:23
Foper @ 2014.01.26 16:28  Post: 719181
Bruno@Home @ 2014.01.26 12:51  Post: 719140
(...)


Dobry pomysł nad którym też popracujemy!

No i na Twoim przykładzie doskonale widać jak pracuje frame pacing (on/off) w konfiguracji Crossfire. ;-)

Jeśli mnie pamięć nie myli Frame pacing jest niecały rok, czyli zarówno hd 6990, 5970, 4870x2 i 3870x2 miay gigantyczne problemy a AMD naciągało klientów na taki crap.......

Jeśli NV w SLI dysponuje sprzętowym rozwiązaniem wspomagającym układanie klatek to ciekawe, od której generacji kart to stosuje. W praktyce może się okazać, że testując starsze karty NV (gdzie tego hardware'owego frame pacingu nie było) w SLI wyjdzie taki sam problem jak na kartach AMD. Nie jestem fanem teorii spiskowych, ale sądze że nie jest przypadkiem, że dopiero przy Keplerze Nvidia udostępniła takie narzędzie jak FCAT ;).
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2014.01.26, 18:39
Luk4s @ 2014.01.26 18:23  Post: 719220
Foper @ 2014.01.26 16:28  Post: 719181
(...)

Jeśli mnie pamięć nie myli Frame pacing jest niecały rok, czyli zarówno hd 6990, 5970, 4870x2 i 3870x2 miay gigantyczne problemy a AMD naciągało klientów na taki crap.......

Jeśli NV w SLI dysponuje sprzętowym rozwiązaniem wspomagającym układanie klatek to ciekawe, od której generacji kart to stosuje. W praktyce może się okazać, że testując starsze karty NV (gdzie tego hardware'owego frame pacingu nie było) w SLI wyjdzie taki sam problem jak na kartach AMD. Nie jestem fanem teorii spiskowych, ale sądze że nie jest przypadkiem, że dopiero przy Keplerze Nvidia udostępniła takie narzędzie jak FCAT ;).


Też mi to przyszło do głowy. nVidia robi SLi od 10 lat, ATi niewiele mniej i nagle teraz w 2014 roku obudzili się że warto zmienic metodę testowania, na taką która to pokaże całą prawdę. Tyle lat pasowało zielonym mierzenie FRAPSem, a tu nagle FRAPS staje się beee.

Bez żadnych żartów, poproszę testy starszych generacji układów.

No i za co ten minus? Sypią się w komentarzach gromy na ATi/AMD że lata oszukuje ludzi sprzedając im wieloukładowe karty, bo niby wyszło tutaj że daje to mały odczuwalny przyrost wydajności, a u nVidi jest wszystko cacy. No to ja chce poprostu zobaczyć czy u nVidi jest wszystko cacy tak od zawsze, czy może akurat od najnowszej generacji kart.

Prawdę mówiąc ten FCAT, to żadna kosmiczna technologia, czy coś czego nie dało się stosować już wiele lat temu. Ot poprostu komuś nagle się chciało i napisał jakiś nowy soft który stosunie niec inną metodę pomiaru, no i trzeba przy tym nieco więcej sprzętu dedykowanego do wykonywania pomiaru, ot co. Ale równie dobrze NV mogła to napisać już w czasach GF 4XX lub nawet GF 2XX. No i ciekawi mnie poprostu dlaczego nie zrobili tego wtedy, a dopiero teraz.
*Konto usunięte*2014.01.26, 18:55
@up
Nie zmienia to faktu, że AMD w 'dzień' stworzyło update w driverach mimo, że przez 10 lat tego nie zrobili:P
To chyba dobrze?
FoperZobacz profil
Poziom ostrzeżenia: 0%
Foper2014.01.26, 18:59
radek_z @ 2014.01.26 18:20  Post: 719218
A ja jednak nie rozumiem jednego. Przez lata ludzie to kupowali i jakiś tam przyrost wydajności widzieli. Mikroprzycięcia też widzieli, ale więcej fps również.

Teraz PC Lab robi testy nową metodą i niby okazuje się że tych realnych fps-ów jest niewiele więcej jak na pojedynczej karcie.

Czyżby aż taka siła sugestii była przez te lata?

Kiedyś miałem dwa GTX 260 i rewelacji nie było. W wielu grach było dużo lepiej ale też w wielu kulało to miejscami np. podczas szybkiego obracania się. Kolega kupił 4870 X2 i grało mi się na tej karcie wyraźnie gorzej. Niby fps było więcej ale.... Kolega gdy zobaczył jak to wygląda u mnie sprzedał tego Radeona

Problem istniał już wcześniej mój link tylko wielu nie chciał go dostrzegać twierdząc że to wymysł testujących lub posiadaczy.
SunchoZobacz profil
Poziom ostrzeżenia: 0%
Suncho2014.01.26, 19:00
sam sie bolesnie przekonalem jak zle dziala crossfire na przykladzie karty Asusa 7990 , na szczescie sprzedana na ebayu i juz wymieniona na 780 Ti - o niebo lepiej :]
pozdro
miekrzyZobacz profil
Poziom ostrzeżenia: 0%
Członek redakcjimiekrzy2014.01.26, 19:11
radek_z @ 2014.01.26 18:39  Post: 719221
Ot poprostu komuś nagle się chciało.

Ja bym raczej powiedział, że komuś się nagle opłacało ;) Pierwsze artykuły dotyczące mikroprzycięć i (mniej lub bardziej udane) próby pomiaru odstępu między klatkami mają już sześć lat na karku. My próbowaliśmy dotknąć tego tematu w połowie 2008 roku i zgłaszaliśmy problem obu producentom, ale oni uparcie twierdzili, że sobie coś wymyślamy i temat nie istnieje. Rok temu raptem okazało się, że wszyscy wiedzieli, że coś jest nie tak, mikroprzycięcia istnieją, wiadomo skąd się biorą i jest sposób na pozbycie się ich. I wszystko to przypadkiem zbiegło się z FCATem (który, pomimo swojej przydatności, jest typowym narzędziem marketingowym) i z tym, że NVIDIA zaczęła implementować w swoich GPU sprzętowe rozwiązanie tego problemu. Nie trzeba być geniuszem, aby zauważyć, że temat został ruszony dopiero wtedy, gdy komuś zaczęło się to opłacać, a dopóki był niewygodny, to się go zamiatało pod dywan sprzedając kolejne 'kanapki' i prezentując multi-GPU jako obiekt westchnień każdego gracza. Dobrze, że w ogóle coś się ruszyło pod tym względem i w ostatecznym rozrachunku wszyscy gracze na tym skorzystają, ale to smutne, że dzieje się tak późno, a do tej pory obie firmy sprzedawały produkty, o których wiedzieli, że nie mają one szans na prawidłowe działanie.
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2014.01.26, 19:20
CO NAJMNIEJ polowie uzytkownikow CF/SLI to nigdy nie przeszkadzalo i nie będzie przeszkadzać. Punkty w 3d markach naliczane sa prawidłowo, wiec nie ma problemu.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.