komentarze
plik1995Zobacz profil
Poziom ostrzeżenia: 0%
plik19952011.04.08, 16:16
Oczywiście każdu mógł zrobić 4x pci express x16 ,oprócz gigabyte...
HΛЯPΛGŌNZobacz profil
Poziom ostrzeżenia: 0%
HΛЯPΛGŌN2011.04.08, 16:17
Płyta Rampage Black Edition to po prostu mega miodzio. A tak poza tym LGA1366 nie jest potrzebne graczom. Opcja z Sandy Bridge będzie wydajniejsza, nawet na dużo tańszej płycie. pakowanie 3 czy 4 kart graficznych jest kompletnie pozbawione sensu. także sprzęciki fajne, ale bardziej na pokaz, niż do domowego użytku.
DoamdorZobacz profil
Poziom ostrzeżenia: 0%
Doamdor2011.04.08, 16:30
-1#3
Za ten komputer miałbym niezłe używane auto, a za 4000 zł zł można złożyć taki komputer, na którym we wszystko pogramy. ;) A co najważniejsze sprzęt będzie cichy, chłodny i mało pobierał energii. ;)
grzesiek1871Zobacz profil
Poziom ostrzeżenia: 0%
grzesiek18712011.04.08, 16:42
Cena płyty Sapphire jest o 600 zł mniejsza a nie odstaje od konkurentek, może trochę z dodatkami ale dlaczego nie uzyskała rekomendacji?
SkymadZobacz profil
Poziom ostrzeżenia: 0%
Skymad2011.04.08, 16:45
Do testów takiego potwora radziłbym zmienić repertuar gier na najbardziej wymagające, np.
- Crysis w dużej rozdzielczości na full detalach
- Metro 2033 ok
- FSX (!) - z na płatnym samolocie, na płatnej scenerii we full detalach nawet i7 potrafi przymulić
- DCS A-10.

Imo najbardziej wymagające, a przez to nadające się do testowania wydajności takiego sprzętu są właśnie symulatory lotnicze, a nie L4D2 które i na E5200 działa świetnie.
RelativyZobacz profil
Poziom ostrzeżenia: 0%
Relativy2011.04.08, 16:46
-5#6
Ciekawy test, ale czy to pomyłka, że dla 3 kart graficznych wystarczy 750W ?
Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.
A jak wiemy zasilacz dostarczy nam mniej prądu na poszczególnych liniach.
Poza tym 800W grając w grę to jakby nie patrząc nie mało.
Jestem ciekaw, ile przyjdzie wam do zapłaty za prąd.
Teścik całkiem ciekawy, ale to nie jest sprzęt dla przeciętnego kowalskiego.
Jednak granie na 3 monitorach to fajna sprawa. Ale te ramki to dla mnie katastrofa.
Szczena1993Zobacz profil
Poziom ostrzeżenia: 0%
Szczena19932011.04.08, 16:52
A mi się najbardziej podoba napis na radiatorze Gigabyte'a: 'Heat sink. Not a weapon. Cannot be assembled as a firearm.' :D
Bull64Zobacz profil
Poziom ostrzeżenia: 0%
Bull642011.04.08, 16:58
Świetny artykuł :D
*Konto usunięte*2011.04.08, 17:00
PatrykXC @ 2011.04.08 16:46  Post: 469824

Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.


Mały błąd w rozumowaniu. Zasilacz 750W o sprawności 50% i ten o sprawności 90% mają dostarczyć dla komputera max. 750W, Natomiast ten o niższej sprawności po prostu będzie ciągnął o wiele więcej z gniazdka.

Dziwi mnie, że w artykule nie objaśniono tego lepiejj.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2011.04.08, 17:05
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
GilasZobacz profil
Poziom ostrzeżenia: 0%
Gilas2011.04.08, 17:27
-9#11
Sapphire'a kijem bym nie tknął...
Tylko ASUS, ewentualnie EVGA... AMEN !!!
cyrix133Zobacz profil
Poziom ostrzeżenia: 0%
cyrix1332011.04.08, 17:30
-17#12
do testów lepiej było wziąć 3x gtx580 ...dużo lepiej by to wyszło
sensej0sZobacz profil
Poziom ostrzeżenia: 0%
sensej0s2011.04.08, 17:31
Pamietam jak wyszły 8800 gt i do kupienia były właśnie evga. Alez były obawy co to za firma i czy pewna a dziś jeden z wielkich
regist88Zobacz profil
Poziom ostrzeżenia: 0%
regist882011.04.08, 17:37
-3#14
To Zotac Radeony robi?
dupcengier24Zobacz profil
Poziom ostrzeżenia: 0%
dupcengier242011.04.08, 17:37
-1#15
hmm ten Asus Rampage III Black Edition ma Efi bios ???
someIZobacz profil
Poziom ostrzeżenia: 0%
someI2011.04.08, 17:37
Andree @ 2011.04.08 17:05  Post: 469829
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.


Niestety problem jest bardziej skomplikowany i związany z tym, że płaszczyzna projekcji jest... płaszczyzną. I zawsze źle będzie się spisywać przy bardzo dużym FOV.
Częściowym rozwiązaniem byłoby, gdyby na każdym monitorze wyświetlany był obraz z osobnej kamery ustawionej pod odpowiednim kątem. Nie jest to trudne, ale mało gier na to pozwala (symulatory lotu). I wydajność leci na łeb.
Albo faktycznie zastąpić płaszczyznę projekcji sferą. Ale obawiam się, że to by wymagało zmian we wszystkim: sterownikach, API i grach.

W każdym razie to jest powód dla którego póki co omijam rozwiązania tego typu.
cyrix133Zobacz profil
Poziom ostrzeżenia: 0%
cyrix1332011.04.08, 17:51
-16#17
dlatego lepiej wybrac nvidie która jest pozbawiona tego mankamentu
Flimi01Zobacz profil
Poziom ostrzeżenia: 0%
Flimi012011.04.08, 17:56
-4#18
Nie rozumiem jak zasilacz o mocy 850W może zasilić 4x6970 skoro w teście wyszło, że żrą 1040W?
Bruno@HomeZobacz profil
Poziom ostrzeżenia: 0%
Bruno@Home2011.04.08, 17:57
Andree @ 2011.04.08 17:05  Post: 469829
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.


Kompensacja ramek jest dostepna w sterownikach kart AMD, kwestia konfiguracji obrazu.
maniak997Zobacz profil
Poziom ostrzeżenia: 0%
maniak9972011.04.08, 18:02
Osobiście najbardziej podoba mi się płyta gigabyte , wszystkie płyty są bdb ale i tak wolałbym wybrać płyte pod lga 1155.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.