Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Kompensacja ramek jest dostepna w sterownikach kart AMD, kwestia konfiguracji obrazu.
Nie chodzi mi o ramki monitorów tylko o kąty pod którymi boczne monitory są ustawione względem środkowego. A gdyby tych monitorów było 5 albo 6, ustawionych w półkole, to też karta graficzna by renderowała płaszczyznę?
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Kompensacja ramek jest dostepna w sterownikach kart AMD, kwestia konfiguracji obrazu.
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Niestety problem jest bardziej skomplikowany i związany z tym, że płaszczyzna projekcji jest... płaszczyzną. I zawsze źle będzie się spisywać przy bardzo dużym FOV.
Częściowym rozwiązaniem byłoby, gdyby na każdym monitorze wyświetlany był obraz z osobnej kamery ustawionej pod odpowiednim kątem. Nie jest to trudne, ale mało gier na to pozwala (symulatory lotu). I wydajność leci na łeb.
Albo faktycznie zastąpić płaszczyznę projekcji sferą. Ale obawiam się, że to by wymagało zmian we wszystkim: sterownikach, API i grach.
W każdym razie to jest powód dla którego póki co omijam rozwiązania tego typu.
Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.
Mały błąd w rozumowaniu. Zasilacz 750W o sprawności 50% i ten o sprawności 90% mają dostarczyć dla komputera max. 750W, Natomiast ten o niższej sprawności po prostu będzie ciągnął o wiele więcej z gniazdka.
Dziwi mnie, że w artykule nie objaśniono tego lepiejj.
Ciekawy test, ale czy to pomyłka, że dla 3 kart graficznych wystarczy 750W ?
Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.
A jak wiemy zasilacz dostarczy nam mniej prądu na poszczególnych liniach.
Poza tym 800W grając w grę to jakby nie patrząc nie mało.
Jestem ciekaw, ile przyjdzie wam do zapłaty za prąd.
Teścik całkiem ciekawy, ale to nie jest sprzęt dla przeciętnego kowalskiego.
Jednak granie na 3 monitorach to fajna sprawa. Ale te ramki to dla mnie katastrofa.
Do testów takiego potwora radziłbym zmienić repertuar gier na najbardziej wymagające, np.
- Crysis w dużej rozdzielczości na full detalach
- Metro 2033 ok
- FSX (!) - z na płatnym samolocie, na płatnej scenerii we full detalach nawet i7 potrafi przymulić
- DCS A-10.
Imo najbardziej wymagające, a przez to nadające się do testowania wydajności takiego sprzętu są właśnie symulatory lotnicze, a nie L4D2 które i na E5200 działa świetnie.
Za ten komputer miałbym niezłe używane auto, a za 4000 zł zł można złożyć taki komputer, na którym we wszystko pogramy. A co najważniejsze sprzęt będzie cichy, chłodny i mało pobierał energii.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Kompensacja ramek jest dostepna w sterownikach kart AMD, kwestia konfiguracji obrazu.
Nie chodzi mi o ramki monitorów tylko o kąty pod którymi boczne monitory są ustawione względem środkowego. A gdyby tych monitorów było 5 albo 6, ustawionych w półkole, to też karta graficzna by renderowała płaszczyznę?
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Kompensacja ramek jest dostepna w sterownikach kart AMD, kwestia konfiguracji obrazu.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Niestety problem jest bardziej skomplikowany i związany z tym, że płaszczyzna projekcji jest... płaszczyzną. I zawsze źle będzie się spisywać przy bardzo dużym FOV.
Częściowym rozwiązaniem byłoby, gdyby na każdym monitorze wyświetlany był obraz z osobnej kamery ustawionej pod odpowiednim kątem. Nie jest to trudne, ale mało gier na to pozwala (symulatory lotu). I wydajność leci na łeb.
Albo faktycznie zastąpić płaszczyznę projekcji sferą. Ale obawiam się, że to by wymagało zmian we wszystkim: sterownikach, API i grach.
W każdym razie to jest powód dla którego póki co omijam rozwiązania tego typu.
Tylko ASUS, ewentualnie EVGA... AMEN !!!
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.
Mały błąd w rozumowaniu. Zasilacz 750W o sprawności 50% i ten o sprawności 90% mają dostarczyć dla komputera max. 750W, Natomiast ten o niższej sprawności po prostu będzie ciągnął o wiele więcej z gniazdka.
Dziwi mnie, że w artykule nie objaśniono tego lepiejj.
Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.
A jak wiemy zasilacz dostarczy nam mniej prądu na poszczególnych liniach.
Poza tym 800W grając w grę to jakby nie patrząc nie mało.
Jestem ciekaw, ile przyjdzie wam do zapłaty za prąd.
Teścik całkiem ciekawy, ale to nie jest sprzęt dla przeciętnego kowalskiego.
Jednak granie na 3 monitorach to fajna sprawa. Ale te ramki to dla mnie katastrofa.
- Crysis w dużej rozdzielczości na full detalach
- Metro 2033 ok
- FSX (!) - z na płatnym samolocie, na płatnej scenerii we full detalach nawet i7 potrafi przymulić
- DCS A-10.
Imo najbardziej wymagające, a przez to nadające się do testowania wydajności takiego sprzętu są właśnie symulatory lotnicze, a nie L4D2 które i na E5200 działa świetnie.