Ja bym raczej powiedział, że komuś się nagle opłacało Pierwsze artykuły dotyczące mikroprzycięć i (mniej lub bardziej udane) próby pomiaru odstępu między klatkami mają już sześć lat na karku. My próbowaliśmy dotknąć tego tematu w połowie 2008 roku i zgłaszaliśmy problem obu producentom, ale oni uparcie twierdzili, że sobie coś wymyślamy i temat nie istnieje. Rok temu raptem okazało się, że wszyscy wiedzieli, że coś jest nie tak, mikroprzycięcia istnieją, wiadomo skąd się biorą i jest sposób na pozbycie się ich. I wszystko to przypadkiem zbiegło się z FCATem (który, pomimo swojej przydatności, jest typowym narzędziem marketingowym) i z tym, że NVIDIA zaczęła implementować w swoich GPU sprzętowe rozwiązanie tego problemu. Nie trzeba być geniuszem, aby zauważyć, że temat został ruszony dopiero wtedy, gdy komuś zaczęło się to opłacać, a dopóki był niewygodny, to się go zamiatało pod dywan sprzedając kolejne 'kanapki' i prezentując multi-GPU jako obiekt westchnień każdego gracza. Dobrze, że w ogóle coś się ruszyło pod tym względem i w ostatecznym rozrachunku wszyscy gracze na tym skorzystają, ale to smutne, że dzieje się tak późno, a do tej pory obie firmy sprzedawały produkty, o których wiedzieli, że nie mają one szans na prawidłowe działanie.
Naprawdę zadziwia mnie tylko brak nazwy dla tej techniki w 690 tylko ciche przemycanie....
Normalnie to robią ultra hiper, only way to play...
Jeśli NV w SLI dysponuje sprzętowym rozwiązaniem wspomagającym układanie klatek to ciekawe, od której generacji kart to stosuje. W praktyce może się okazać, że testując starsze karty NV (gdzie tego hardware'owego frame pacingu nie było) w SLI wyjdzie taki sam problem jak na kartach AMD. Nie jestem fanem teorii spiskowych, ale sądze że nie jest przypadkiem, że dopiero przy Keplerze Nvidia udostępniła takie narzędzie jak FCAT .
Też mi to przyszło do głowy. nVidia robi SLi od 10 lat, ATi niewiele mniej i nagle teraz w 2014 roku obudzili się że warto zmienic metodę testowania, na taką która to pokaże całą prawdę. Tyle lat pasowało zielonym mierzenie FRAPSem, a tu nagle FRAPS staje się beee.
Bez żadnych żartów, poproszę testy starszych generacji układów.
No i za co ten minus? Sypią się w komentarzach gromy na ATi/AMD że lata oszukuje ludzi sprzedając im wieloukładowe karty, bo niby wyszło tutaj że daje to mały odczuwalny przyrost wydajności, a u nVidi jest wszystko cacy. No to ja chce poprostu zobaczyć czy u nVidi jest wszystko cacy tak od zawsze, czy może akurat od najnowszej generacji kart.
Prawdę mówiąc ten FCAT, to żadna kosmiczna technologia, czy coś czego nie dało się stosować już wiele lat temu. Ot poprostu komuś nagle się chciało i napisał jakiś nowy soft który stosunie niec inną metodę pomiaru, no i trzeba przy tym nieco więcej sprzętu dedykowanego do wykonywania pomiaru, ot co. Ale równie dobrze NV mogła to napisać już w czasach GF 4XX lub nawet GF 2XX. No i ciekawi mnie poprostu dlaczego nie zrobili tego wtedy, a dopiero teraz.
Na starszej generacji układów było podobnie.
Mi 3-way SLI z 580 tek działało o niebo niebo lepiej niż 5850 CF.
Zresztą na CF 5850 były same problemu , często było gorzej niż na jednej karcie.
Zresztą na 290X i 290 też nie jest dobrze.
Po prostu AMD jest dobre tylko na papierze.
Też mi to przyszło do głowy. nVidia robi SLi od 10 lat, ATi niewiele mniej i nagle teraz w 2014 roku obudzili się że warto zmienic metodę testowania, na taką która to pokaże całą prawdę. Tyle lat pasowało zielonym mierzenie FRAPSem, a tu nagle FRAPS staje się beee.
Bez żadnych żartów, poproszę testy starszych generacji układów.
No i za co ten minus? Sypią się w komentarzach gromy na ATi/AMD że lata oszukuje ludzi sprzedając im wieloukładowe karty, bo niby wyszło tutaj że daje to mały odczuwalny przyrost wydajności, a u nVidi jest wszystko cacy. No to ja chce poprostu zobaczyć czy u nVidi jest wszystko cacy tak od zawsze, czy może akurat od najnowszej generacji kart.
Prawdę mówiąc ten FCAT, to żadna kosmiczna technologia, czy coś czego nie dało się stosować już wiele lat temu. Ot poprostu komuś nagle się chciało i napisał jakiś nowy soft który stosunie niec inną metodę pomiaru, no i trzeba przy tym nieco więcej sprzętu dedykowanego do wykonywania pomiaru, ot co. Ale równie dobrze NV mogła to napisać już w czasach GF 4XX lub nawet GF 2XX. No i ciekawi mnie poprostu dlaczego nie zrobili tego wtedy, a dopiero teraz.
Na starszej generacji układów było podobnie.
Mi 3-way SLI z 580 tek działało o niebo niebo lepiej niż 5850 CF.
Zresztą na CF 5850 były same problemu , często było gorzej niż na jednej karcie.
Zresztą na 290X i 290 też nie jest dobrze.
Po prostu AMD jest dobre tylko na papierze.
To o 290 i 290X piszesz na podstawie własnych doświadczeń czy domysłów?
Osobiście uważam że SLi czy CF, to rozwiązanie dla onanistów sprzętowych, bo prawda jest taka że najwydajniejsze pojedyncze karty czerwonych czy zielonych wystarczą każdemu do wszytkiego. Druga karta? Jak ktoś chce się brędzlować nad kilkoma tys. pkt więcej w 3D Marku, to proszę bardzo, ale ja różnicy pomiędzy 100 a 150 fps raczej nie zobaczę.
Takiś mądry do daj mi pojedynczą kartę co uciągnie 2560x1600 bez kompromisu cięcia detali
Osobiście uważam że SLi czy CF, to rozwiązanie dla onanistów sprzętowych, bo prawda jest taka że najwydajniejsze pojedyncze karty czerwonych czy zielonych wystarczą każdemu do wszytkiego. Druga karta? Jak ktoś chce się brędzlować nad kilkoma tys. pkt więcej w 3D Marku, to proszę bardzo, ale ja różnicy pomiędzy 100 a 150 fps raczej nie zobaczę.
Takiś mądry do daj mi pojedynczą kartę co uciągnie 2560x1600 bez kompromisu cięcia detali
Jak patrzę na ten test: http://pclab.pl/art55886.html
To każda z topowych kart, obojętnie czy od zielonych czy czerwonych radzi sobie w tej rozdzielczości (no, niewiele mniejszej bo 2560x1440). Nawet Crysis 3 daje ponad 30 fps w najtrudniejszym teście.
Nie radzą sobie inaczej nie maił bym dwóch kart
Ac4,BF3,Total War ROME II itd.... Crysis3 z 30fps to mordęga a nie gra.
Musisz nauczyć się rozróżniać słupki przy porównaniu kart co jest w grze bo to co na słupkach w grze jest jeszcze gorzej z 99%.
TR tylko MSAA2x bo o 4X mogę zapomnieć musiał bym mieć jeszcze mocniejsze karty a miejsca są bardziej wymagające niż w tym benchmarku
i 780TI nie zapewnia płynności tak samo
Dla twojej wiadomości od BF3 wymagam 60fps ani 780 ani 780 TI tego nie zapewnia więc pisanie że do marków czy dla onanistów sprzętowych to możesz sobie to w sadzić w cztery litery.
[quote name='Assassin' date='2014.01.26 13:10' post='719144']Chyba jednak 3DFX, choć ATI też wcześnie weszło do tego wozu (Rage Fury MAXX). W każdym razie oczywiście nie miałem na myśli tak archaicznych czasów, ale czasy Radeonów serii HD 3000 - 6000.
[quote]
Moim zdaniem na 3dfx problem nie istniał. NIe wiem czy to zasługa glide czy techniki generowania klatek, istnieje szansa, że skutek moich mniejszych wymagań, chociaż to akurat dziwne, bo to był czas quake 2 a potem 3 (który zmusil mnie do pozbycia się sli i przesiadki na gf256) i pierwszego unreala, turnament i wymagania co do płynności i precyzji były ogromne - to nie bf3 albo arma, gdzie można grać z przyzwoitymi wynikami na 40-50 fps i z input lagiem na tv. O skalowaniu 90-95% też można było zapomnieć na 3dfx, bo było niższe, ale solidny i gołym okiem widoczny wzrost wydajności występował - czyli dokładnie to o co chodziło. Szkoda, że nie da się (nie da się?) tego sprawdzić, w końcu to była alternatywna technologia, dziś wydaje się absurdalna ale można było rozwijać właśnie scanline interleave.
unknown_solider istniał w direct3d w glide nie istniał. To co masz teraz w SLI to nic innego jak co miał 3dfx tylko rozwinięte zostały dodane inne metody renderowania..
Ta technologia miała sens w czasach monitorów kineskopowych.
Jeżeli dwa GPU pracują nad tą samą klatką, tylko w o połowę niższej rozdzielczości pionowej, to nie dochodzi do takich problemów z mikroprzycięciami jak w przypadku AFR (Alternate Frame Rendering).
Uważam że karty graficzne powinny implementować architekturę NUMA, czyli po połączeniu ich ze sobą mostkiem (np. światłowodowym) GPU powinny korzystać ze wspólnej pamięci, podobnie jak CPU w systemach wieloprocesorowych. Dzięki temu kilka GPU mogłoby pracować nad tą samą klatką bez powielania tekstur w pamięci każdej karty i ryzyka artefaktów. System by je wykrywał jako jeden wirtualny GPU o kilkukrotnie większej ilości jednostek obliczeniowych i dostępnej pamięci Video RAM.
Ta technologia miała sens za czasów nisko poziomego API a nie monitorów. Pod 3dfx specjalnie pisało się gry i odwołanie do sterownika. W d3d już tak ciekawie nie było.
W obecnych technikach renderowania to co oferowało 3dfx nie zdało by egzaminu bo masz wielokrotne przejścia renderowania, chyba że wrócimy do nisko poziomego API pod daną architecturę i MS nam na to pozwoli.
Co niektórym się też zapomina jak było z opengl na kartach 3dfx ile zeszło czasu by to dopracować i mini driver w końcu napisać by działał poprawnie w SLI.
Ale monitor CRT działający w trybie Interlaced składał obraz z dwóch półobrazów generowanych przez dwie karty Voodoo 2. Po prostu karty wyświetlały na monitorze CRT półobrazy na przemian, w stosownych odstępach czasowych, tak że półobrazy te różniły się od siebie w wyniku np. przemieszczenia się gracza. Niestety na monitorze LCD działającym w trybie progresywnym, zmieniający się obraz złożony z dwóch różniących się półobrazów będzie miał charakterystyczne 'ząbki', szczególnie widoczne przy panoramowaniu.
Uważam że karty graficzne powinny implementować architekturę NUMA, czyli po połączeniu ich ze sobą mostkiem (np. światłowodowym) GPU powinny korzystać ze wspólnej pamięci, podobnie jak CPU w systemach wieloprocesorowych. Dzięki temu kilka GPU mogłoby pracować nad tą samą klatką bez powielania tekstur w pamięci każdej karty i ryzyka artefaktów. System by je wykrywał jako jeden wirtualny GPU o kilkukrotnie większej ilości jednostek obliczeniowych i dostępnej pamięci Video RAM.
Gdyby to było tak proste to by to już było. Moim zdaniem raczej zawsze komunikacja wewnątrz czipu będzie szybsza niż pomiędzy czipami. Ponadto robienie szerokich i wysoko taktowanych magistral między czipami to spore zwiększenie kosztów i poboru energii.
Wielordzeniowe GPU są w mobilnych SoCach, ale tam to i tak wszystko siedzi na jednym kawałku krzemu i nie trzeba robić szerokich zewnętrznych magistral, ekstra pinów, itd Z tym, że ta wielordzeniowość w tych SoCach to moim zdaniem analogia do tego co jest w dużych GPU - czyli np SMXów w GeForce'ach czy CU w Radeonach.
Dla twojej wiadomości od BF3 wymagam 60fps ani 780 ani 780 TI tego nie zapewnia więc pisanie że do marków czy dla onanistów sprzętowych to możesz sobie to w sadzić w cztery litery.
To Ty se kompa ogarnij jak Ci 780 tego nie zapewnia. U mnie na 780 + I5 4570 FPS na ultrasach nigdy nie spadl poniżej 60. Pozatym jak takiś pro gamer ze wymagasz tyle fps to obniż niepotrzebne detale.
Kolego ty grasz 1920x1080 a nie 2560x1600 . Czytaj do czego się odnosisz zanim coś palniesz.
A po co mam obniżać jak można bez obniżania i mieć nie obniżoną grafikę
Nie ma to nic wspólnego z monitorem. Ostatnie voodo5 5500 miałem na LCD działało normalnie chłopak miał coś pogrzebane
Pytanie, czy na pewno Voodoo 5 korzystało z klasycznego interleavingu a'la Voodoo2, bo coś mi się kojarzy że to była już jakaś bardziej zaawansowana technika podobna do SFR (pewności ani źródeł jednak nie mam).
Ciekawe podejście do multi-GPU pokazała Lucid Hydra. Oczywiście rozwiązanie było zupełnie niedopracowane i w związku z szybkim porzuceniem nosiło nawet znamiona scamu. W niektórych grach opartych na UE3 działało to jednak poprawnie. Być może gdyby zabrała się za to firma mająca niskopoziomowy dostęp do swoich GPU (Nvidia albo AMD), coś by z tego wyszło?..
Nie ma to nic wspólnego z monitorem. Ostatnie voodo5 5500 miałem na LCD działało normalnie chłopak miał coś pogrzebane
Pytanie, czy na pewno Voodoo 5 korzystało z klasycznego interleavingu a'la Voodoo2, bo coś mi się kojarzy że to była już jakaś bardziej zaawansowana technika podobna do SFR (pewności ani źródeł jednak nie mam).
Ciekawe podejście do multi-GPU pokazała Lucid Hydra. Oczywiście rozwiązanie było zupełnie niedopracowane i w związku z szybkim porzuceniem nosiło nawet znamiona scamu. W niektórych grach opartych na UE3 działało to jednak poprawnie. Być może gdyby zabrała się za to firma mająca niskopoziomowy dostęp do swoich GPU (Nvidia albo AMD), coś by z tego wyszło?..
Zapominacie że dziś scenę tworzy się inaczej. Mamy oświetlenie, które ma wpływ na całą scenę, a to oznacza że nie da się części cieni policzyć na jednej karcie, a części na drugiej. Gdyby scena składała się z samych tekstur to kafelki byłyby najlepszym rozwiązaniem.
Test jak najbardziej dobry, ale dlaczego nie wykorzystano tu topowych układów AMD ??
Tutaj widać jak na dłoni, że branie układów Nvidii jest rozsądniejszym wyborem, ale R9 290 i 290x powinny jak najbardziej być zaprezentowane w parzę z gtx 780 i 780 ti.
Ja już wiedziałem, że AMD ma z tym problem bo 280x to klon 7970 z 2011 roku, a teraz mamy już 2014 . Ja myślę, że to była tylko reklama kart zielonych, bo w zagranicznych stronach też już to stosują i tak jak piszecie frame pacing nic nie daje. ALE ZACZĘLIŚCIE TEMAT O XDMA!! To trzeba było go rozwinąć . A wy napisaliście go tak ekscentrycznie, że się nawet o AMD nie chcę myśleć. Zagraniczne strony pokazują, że nowe Radeony z rdzeniami Hawaii radzą sobie znakomicie i najlepiej jest stosować je w Crossfire i przy rozdzielczościach minimum WQHD a tu cytat w grze Hitman Absolution: Check the 50% marker:
GTX 780 SLI does roughly 67 FPS on average in this scene sequence
R9-290X CFX does roughly 75 FPS on average in this scene sequence
Tylko AMD mają dziwne skoki ale akceptowalne. Nie chcę robić tutaj sprzeciwu, ale ten artykuł to tylko reklama, a tłumaczenie, że ta technologia FCAT jest neutralna to obrona przed atakiem użytkowników sprzętu AMD lub fanbojów albo innych (Bez obrazy). Bo Nvidia widać przyłożyło tutaj niezłą dyscyplinę na rozwiązanie tych problemów co AMD się nawet tego nie spodziewało . Ale ważne, że już robią postępy bo musi być równowaga w konkurencji
'W tym miejscu warto nadmienić, że w naszej części Europy nie znajdziecie innej redakcji, która będzie testowała w ten sposób. Zachęcamy zatem do śledzenia kolejnych artykułów, w których zastosujemy nową metodę.'
A czy przeprosiliście za tyle lat serwowanie nam kłamstwa z programu FRAPS?
Ja bym raczej powiedział, że komuś się nagle opłacało
Naprawdę zadziwia mnie tylko brak nazwy dla tej techniki w 690 tylko ciche przemycanie....
Normalnie to robią ultra hiper, only way to play...
Jeśli NV w SLI dysponuje sprzętowym rozwiązaniem wspomagającym układanie klatek to ciekawe, od której generacji kart to stosuje. W praktyce może się okazać, że testując starsze karty NV (gdzie tego hardware'owego frame pacingu nie było) w SLI wyjdzie taki sam problem jak na kartach AMD. Nie jestem fanem teorii spiskowych, ale sądze że nie jest przypadkiem, że dopiero przy Keplerze Nvidia udostępniła takie narzędzie jak FCAT
Też mi to przyszło do głowy. nVidia robi SLi od 10 lat, ATi niewiele mniej i nagle teraz w 2014 roku obudzili się że warto zmienic metodę testowania, na taką która to pokaże całą prawdę. Tyle lat pasowało zielonym mierzenie FRAPSem, a tu nagle FRAPS staje się beee.
Bez żadnych żartów, poproszę testy starszych generacji układów.
No i za co ten minus? Sypią się w komentarzach gromy na ATi/AMD że lata oszukuje ludzi sprzedając im wieloukładowe karty, bo niby wyszło tutaj że daje to mały odczuwalny przyrost wydajności, a u nVidi jest wszystko cacy. No to ja chce poprostu zobaczyć czy u nVidi jest wszystko cacy tak od zawsze, czy może akurat od najnowszej generacji kart.
Prawdę mówiąc ten FCAT, to żadna kosmiczna technologia, czy coś czego nie dało się stosować już wiele lat temu. Ot poprostu komuś nagle się chciało i napisał jakiś nowy soft który stosunie niec inną metodę pomiaru, no i trzeba przy tym nieco więcej sprzętu dedykowanego do wykonywania pomiaru, ot co. Ale równie dobrze NV mogła to napisać już w czasach GF 4XX lub nawet GF 2XX. No i ciekawi mnie poprostu dlaczego nie zrobili tego wtedy, a dopiero teraz.
Na starszej generacji układów było podobnie.
Mi 3-way SLI z 580 tek działało o niebo niebo lepiej niż 5850 CF.
Zresztą na CF 5850 były same problemu , często było gorzej niż na jednej karcie.
Zresztą na 290X i 290 też nie jest dobrze.
Po prostu AMD jest dobre tylko na papierze.
Też mi to przyszło do głowy. nVidia robi SLi od 10 lat, ATi niewiele mniej i nagle teraz w 2014 roku obudzili się że warto zmienic metodę testowania, na taką która to pokaże całą prawdę. Tyle lat pasowało zielonym mierzenie FRAPSem, a tu nagle FRAPS staje się beee.
Bez żadnych żartów, poproszę testy starszych generacji układów.
No i za co ten minus? Sypią się w komentarzach gromy na ATi/AMD że lata oszukuje ludzi sprzedając im wieloukładowe karty, bo niby wyszło tutaj że daje to mały odczuwalny przyrost wydajności, a u nVidi jest wszystko cacy. No to ja chce poprostu zobaczyć czy u nVidi jest wszystko cacy tak od zawsze, czy może akurat od najnowszej generacji kart.
Prawdę mówiąc ten FCAT, to żadna kosmiczna technologia, czy coś czego nie dało się stosować już wiele lat temu. Ot poprostu komuś nagle się chciało i napisał jakiś nowy soft który stosunie niec inną metodę pomiaru, no i trzeba przy tym nieco więcej sprzętu dedykowanego do wykonywania pomiaru, ot co. Ale równie dobrze NV mogła to napisać już w czasach GF 4XX lub nawet GF 2XX. No i ciekawi mnie poprostu dlaczego nie zrobili tego wtedy, a dopiero teraz.
Na starszej generacji układów było podobnie.
Mi 3-way SLI z 580 tek działało o niebo niebo lepiej niż 5850 CF.
Zresztą na CF 5850 były same problemu , często było gorzej niż na jednej karcie.
Zresztą na 290X i 290 też nie jest dobrze.
Po prostu AMD jest dobre tylko na papierze.
To o 290 i 290X piszesz na podstawie własnych doświadczeń czy domysłów?
Osobiście uważam że SLi czy CF, to rozwiązanie dla onanistów sprzętowych, bo prawda jest taka że najwydajniejsze pojedyncze karty czerwonych czy zielonych wystarczą każdemu do wszytkiego. Druga karta? Jak ktoś chce się brędzlować nad kilkoma tys. pkt więcej w 3D Marku, to proszę bardzo, ale ja różnicy pomiędzy 100 a 150 fps raczej nie zobaczę.
Takiś mądry do daj mi pojedynczą kartę co uciągnie 2560x1600 bez kompromisu cięcia detali
Osobiście uważam że SLi czy CF, to rozwiązanie dla onanistów sprzętowych, bo prawda jest taka że najwydajniejsze pojedyncze karty czerwonych czy zielonych wystarczą każdemu do wszytkiego. Druga karta? Jak ktoś chce się brędzlować nad kilkoma tys. pkt więcej w 3D Marku, to proszę bardzo, ale ja różnicy pomiędzy 100 a 150 fps raczej nie zobaczę.
Takiś mądry do daj mi pojedynczą kartę co uciągnie 2560x1600 bez kompromisu cięcia detali
Jak patrzę na ten test: http://pclab.pl/art55886.html
To każda z topowych kart, obojętnie czy od zielonych czy czerwonych radzi sobie w tej rozdzielczości (no, niewiele mniejszej bo 2560x1440). Nawet Crysis 3 daje ponad 30 fps w najtrudniejszym teście.
Ac4,BF3,Total War ROME II itd.... Crysis3 z 30fps to mordęga a nie gra.
Musisz nauczyć się rozróżniać słupki przy porównaniu kart co jest w grze bo to co na słupkach w grze jest jeszcze gorzej z 99%.
TR tylko MSAA2x bo o 4X mogę zapomnieć musiał bym mieć jeszcze mocniejsze karty a miejsca są bardziej wymagające niż w tym benchmarku
i 780TI nie zapewnia płynności tak samo
Dla twojej wiadomości od BF3 wymagam 60fps ani 780 ani 780 TI tego nie zapewnia więc pisanie że do marków czy dla onanistów sprzętowych to możesz sobie to w sadzić w cztery litery.
[quote]
Moim zdaniem na 3dfx problem nie istniał. NIe wiem czy to zasługa glide czy techniki generowania klatek, istnieje szansa, że skutek moich mniejszych wymagań, chociaż to akurat dziwne, bo to był czas quake 2 a potem 3 (który zmusil mnie do pozbycia się sli i przesiadki na gf256) i pierwszego unreala, turnament i wymagania co do płynności i precyzji były ogromne - to nie bf3 albo arma, gdzie można grać z przyzwoitymi wynikami na 40-50 fps i z input lagiem na tv. O skalowaniu 90-95% też można było zapomnieć na 3dfx, bo było niższe, ale solidny i gołym okiem widoczny wzrost wydajności występował - czyli dokładnie to o co chodziło. Szkoda, że nie da się (nie da się?) tego sprawdzić, w końcu to była alternatywna technologia, dziś wydaje się absurdalna ale można było rozwijać właśnie scanline interleave.
unknown_solider istniał w direct3d w glide nie istniał. To co masz teraz w SLI to nic innego jak co miał 3dfx tylko rozwinięte zostały dodane inne metody renderowania..
Jeżeli dwa GPU pracują nad tą samą klatką, tylko w o połowę niższej rozdzielczości pionowej, to nie dochodzi do takich problemów z mikroprzycięciami jak w przypadku AFR (Alternate Frame Rendering).
Uważam że karty graficzne powinny implementować architekturę NUMA, czyli po połączeniu ich ze sobą mostkiem (np. światłowodowym) GPU powinny korzystać ze wspólnej pamięci, podobnie jak CPU w systemach wieloprocesorowych. Dzięki temu kilka GPU mogłoby pracować nad tą samą klatką bez powielania tekstur w pamięci każdej karty i ryzyka artefaktów. System by je wykrywał jako jeden wirtualny GPU o kilkukrotnie większej ilości jednostek obliczeniowych i dostępnej pamięci Video RAM.
W obecnych technikach renderowania to co oferowało 3dfx nie zdało by egzaminu bo masz wielokrotne przejścia renderowania, chyba że wrócimy do nisko poziomego API pod daną architecturę i MS nam na to pozwoli.
Co niektórym się też zapomina jak było z opengl na kartach 3dfx ile zeszło czasu by to dopracować i mini driver w końcu napisać by działał poprawnie w SLI.
Gdyby to było tak proste to by to już było. Moim zdaniem raczej zawsze komunikacja wewnątrz czipu będzie szybsza niż pomiędzy czipami. Ponadto robienie szerokich i wysoko taktowanych magistral między czipami to spore zwiększenie kosztów i poboru energii.
Wielordzeniowe GPU są w mobilnych SoCach, ale tam to i tak wszystko siedzi na jednym kawałku krzemu i nie trzeba robić szerokich zewnętrznych magistral, ekstra pinów, itd Z tym, że ta wielordzeniowość w tych SoCach to moim zdaniem analogia do tego co jest w dużych GPU - czyli np SMXów w GeForce'ach czy CU w Radeonach.
Dla twojej wiadomości od BF3 wymagam 60fps ani 780 ani 780 TI tego nie zapewnia więc pisanie że do marków czy dla onanistów sprzętowych to możesz sobie to w sadzić w cztery litery.
To Ty se kompa ogarnij jak Ci 780 tego nie zapewnia. U mnie na 780 + I5 4570 FPS na ultrasach nigdy nie spadl poniżej 60. Pozatym jak takiś pro gamer ze wymagasz tyle fps to obniż niepotrzebne detale.
A po co mam obniżać jak można bez obniżania i mieć nie obniżoną grafikę
Pytanie, czy na pewno Voodoo 5 korzystało z klasycznego interleavingu a'la Voodoo2, bo coś mi się kojarzy że to była już jakaś bardziej zaawansowana technika podobna do SFR (pewności ani źródeł jednak nie mam).
Ciekawe podejście do multi-GPU pokazała Lucid Hydra. Oczywiście rozwiązanie było zupełnie niedopracowane i w związku z szybkim porzuceniem nosiło nawet znamiona scamu. W niektórych grach opartych na UE3 działało to jednak poprawnie. Być może gdyby zabrała się za to firma mająca niskopoziomowy dostęp do swoich GPU (Nvidia albo AMD), coś by z tego wyszło?..
Pytanie, czy na pewno Voodoo 5 korzystało z klasycznego interleavingu a'la Voodoo2, bo coś mi się kojarzy że to była już jakaś bardziej zaawansowana technika podobna do SFR (pewności ani źródeł jednak nie mam).
Ciekawe podejście do multi-GPU pokazała Lucid Hydra. Oczywiście rozwiązanie było zupełnie niedopracowane i w związku z szybkim porzuceniem nosiło nawet znamiona scamu. W niektórych grach opartych na UE3 działało to jednak poprawnie. Być może gdyby zabrała się za to firma mająca niskopoziomowy dostęp do swoich GPU (Nvidia albo AMD), coś by z tego wyszło?..
Zapominacie że dziś scenę tworzy się inaczej. Mamy oświetlenie, które ma wpływ na całą scenę, a to oznacza że nie da się części cieni policzyć na jednej karcie, a części na drugiej. Gdyby scena składała się z samych tekstur to kafelki byłyby najlepszym rozwiązaniem.
Tutaj widać jak na dłoni, że branie układów Nvidii jest rozsądniejszym wyborem, ale R9 290 i 290x powinny jak najbardziej być zaprezentowane w parzę z gtx 780 i 780 ti.
Ja już wiedziałem, że AMD ma z tym problem bo 280x to klon 7970 z 2011 roku, a teraz mamy już 2014
Check the 50% marker:
GTX 780 SLI does roughly 67 FPS on average in this scene sequence
R9-290X CFX does roughly 75 FPS on average in this scene sequence
Tylko AMD mają dziwne skoki ale akceptowalne. Nie chcę robić tutaj sprzeciwu, ale ten artykuł to tylko reklama, a tłumaczenie, że ta technologia FCAT jest neutralna to obrona przed atakiem użytkowników sprzętu AMD lub fanbojów albo innych
Pozdrawiam Wszystkich
Endruś
'W tym miejscu warto nadmienić, że w naszej części Europy nie znajdziecie innej redakcji, która będzie testowała w ten sposób. Zachęcamy zatem do śledzenia kolejnych artykułów, w których zastosujemy nową metodę.'
A czy przeprosiliście za tyle lat serwowanie nam kłamstwa z programu FRAPS?