komentarze
Opson6667Zobacz profil
Poziom ostrzeżenia: 0%
Opson66672011.04.08, 18:09
-2#22
Fajny test, szkoda że nie nagrałeś Shifta 2 :) Fajnie to działało też :). Wisok kasku na 3 mońkach
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2011.04.08, 18:07
-1#21
Bruno@Home @ 2011.04.08 17:57  Post: 469847
Andree @ 2011.04.08 17:05  Post: 469829
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.


Kompensacja ramek jest dostepna w sterownikach kart AMD, kwestia konfiguracji obrazu.

Nie chodzi mi o ramki monitorów tylko o kąty pod którymi boczne monitory są ustawione względem środkowego. A gdyby tych monitorów było 5 albo 6, ustawionych w półkole, to też karta graficzna by renderowała płaszczyznę?
maniak997Zobacz profil
Poziom ostrzeżenia: 0%
maniak9972011.04.08, 18:02
Osobiście najbardziej podoba mi się płyta gigabyte , wszystkie płyty są bdb ale i tak wolałbym wybrać płyte pod lga 1155.
Bruno@HomeZobacz profil
Poziom ostrzeżenia: 0%
Bruno@Home2011.04.08, 17:57
Andree @ 2011.04.08 17:05  Post: 469829
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.


Kompensacja ramek jest dostepna w sterownikach kart AMD, kwestia konfiguracji obrazu.
Flimi01Zobacz profil
Poziom ostrzeżenia: 0%
Flimi012011.04.08, 17:56
-4#18
Nie rozumiem jak zasilacz o mocy 850W może zasilić 4x6970 skoro w teście wyszło, że żrą 1040W?
cyrix133Zobacz profil
Poziom ostrzeżenia: 0%
cyrix1332011.04.08, 17:51
-16#17
dlatego lepiej wybrac nvidie która jest pozbawiona tego mankamentu
someIZobacz profil
Poziom ostrzeżenia: 0%
someI2011.04.08, 17:37
Andree @ 2011.04.08 17:05  Post: 469829
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.


Niestety problem jest bardziej skomplikowany i związany z tym, że płaszczyzna projekcji jest... płaszczyzną. I zawsze źle będzie się spisywać przy bardzo dużym FOV.
Częściowym rozwiązaniem byłoby, gdyby na każdym monitorze wyświetlany był obraz z osobnej kamery ustawionej pod odpowiednim kątem. Nie jest to trudne, ale mało gier na to pozwala (symulatory lotu). I wydajność leci na łeb.
Albo faktycznie zastąpić płaszczyznę projekcji sferą. Ale obawiam się, że to by wymagało zmian we wszystkim: sterownikach, API i grach.

W każdym razie to jest powód dla którego póki co omijam rozwiązania tego typu.
dupcengier24Zobacz profil
Poziom ostrzeżenia: 0%
dupcengier242011.04.08, 17:37
-1#15
hmm ten Asus Rampage III Black Edition ma Efi bios ???
regist88Zobacz profil
Poziom ostrzeżenia: 0%
regist882011.04.08, 17:37
-3#14
To Zotac Radeony robi?
sensej0sZobacz profil
Poziom ostrzeżenia: 0%
sensej0s2011.04.08, 17:31
Pamietam jak wyszły 8800 gt i do kupienia były właśnie evga. Alez były obawy co to za firma i czy pewna a dziś jeden z wielkich
cyrix133Zobacz profil
Poziom ostrzeżenia: 0%
cyrix1332011.04.08, 17:30
-17#12
do testów lepiej było wziąć 3x gtx580 ...dużo lepiej by to wyszło
GilasZobacz profil
Poziom ostrzeżenia: 0%
Gilas2011.04.08, 17:27
-9#11
Sapphire'a kijem bym nie tknął...
Tylko ASUS, ewentualnie EVGA... AMEN !!!
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2011.04.08, 17:05
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
*Konto usunięte*2011.04.08, 17:00
PatrykXC @ 2011.04.08 16:46  Post: 469824

Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.


Mały błąd w rozumowaniu. Zasilacz 750W o sprawności 50% i ten o sprawności 90% mają dostarczyć dla komputera max. 750W, Natomiast ten o niższej sprawności po prostu będzie ciągnął o wiele więcej z gniazdka.

Dziwi mnie, że w artykule nie objaśniono tego lepiejj.
Bull64Zobacz profil
Poziom ostrzeżenia: 0%
Bull642011.04.08, 16:58
Świetny artykuł :D
Szczena1993Zobacz profil
Poziom ostrzeżenia: 0%
Szczena19932011.04.08, 16:52
A mi się najbardziej podoba napis na radiatorze Gigabyte'a: 'Heat sink. Not a weapon. Cannot be assembled as a firearm.' :D
RelativyZobacz profil
Poziom ostrzeżenia: 0%
Relativy2011.04.08, 16:46
-5#6
Ciekawy test, ale czy to pomyłka, że dla 3 kart graficznych wystarczy 750W ?
Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.
A jak wiemy zasilacz dostarczy nam mniej prądu na poszczególnych liniach.
Poza tym 800W grając w grę to jakby nie patrząc nie mało.
Jestem ciekaw, ile przyjdzie wam do zapłaty za prąd.
Teścik całkiem ciekawy, ale to nie jest sprzęt dla przeciętnego kowalskiego.
Jednak granie na 3 monitorach to fajna sprawa. Ale te ramki to dla mnie katastrofa.
SkymadZobacz profil
Poziom ostrzeżenia: 0%
Skymad2011.04.08, 16:45
Do testów takiego potwora radziłbym zmienić repertuar gier na najbardziej wymagające, np.
- Crysis w dużej rozdzielczości na full detalach
- Metro 2033 ok
- FSX (!) - z na płatnym samolocie, na płatnej scenerii we full detalach nawet i7 potrafi przymulić
- DCS A-10.

Imo najbardziej wymagające, a przez to nadające się do testowania wydajności takiego sprzętu są właśnie symulatory lotnicze, a nie L4D2 które i na E5200 działa świetnie.
grzesiek1871Zobacz profil
Poziom ostrzeżenia: 0%
grzesiek18712011.04.08, 16:42
Cena płyty Sapphire jest o 600 zł mniejsza a nie odstaje od konkurentek, może trochę z dodatkami ale dlaczego nie uzyskała rekomendacji?
DoamdorZobacz profil
Poziom ostrzeżenia: 0%
Doamdor2011.04.08, 16:30
-1#3
Za ten komputer miałbym niezłe używane auto, a za 4000 zł zł można złożyć taki komputer, na którym we wszystko pogramy. ;) A co najważniejsze sprzęt będzie cichy, chłodny i mało pobierał energii. ;)
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.