Po tych testach Eyefinity widzę że karta graficzna renderuje obraz dla wszystkich monitorów w jednej płaszczyźnie, podczas gdy fizycznie są one ustawione w półkole, aby skompensować utratę kolorów przy obserwacji ekranów LCD pod kątem.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Kompensacja ramek jest dostepna w sterownikach kart AMD, kwestia konfiguracji obrazu.
Nie chodzi mi o ramki monitorów tylko o kąty pod którymi boczne monitory są ustawione względem środkowego. A gdyby tych monitorów było 5 albo 6, ustawionych w półkole, to też karta graficzna by renderowała płaszczyznę?
A tak w ogóle to czego ten test ma dowodzić?
Główną różnicą między LGA 1366 a LGA 1156 jest ilość linii PCI-E, skutkująca tym że na tej pierwszej platformie jest możliwe SLI/Crossfire na dwóch kartach działających w trybie PCI-E 16x, a na drugiej tylko w trybie PCI-E 8x.
I właśnie najbardziej interesowałby mnie wpływ tego trybu pracy na ogólną wydajność, przy możliwie identycznych pozostałych parametrach obu systemów.
Może by się dało wymusić tryby PCI-E 16x i 8x na LGA 1366 w BIOSie (albo jumperami)?
Kupowanie takiego sprzętu do gier jest jak kupowanie ciągnika siodłowego na dojazdy do pracy i weekendowy wypoczynek. Czy to, że ma 5x większą moc oraz 2x więcej kół niż większość osobówek oznacza, że będzie się nim 'lepiej' albo szybciej dojeżdżało do celu? Sorry, ale kupowanie 12 wątków czy 12GB pamięci DO GIER to oznaka głupoty, marketingowej naiwności oraz zerowego rozeznania.
Z kolei 4 karty graficzne to bardzo miła i pożądana rzecz do grania w potężnych rozdzielczościach wymaganych do EyeFinity.
P.S. Rozważcie zmianę nazwy z 'PCLab' na 'GraczLab', bo od dłuższego czasu wszystko, co poza grami to newsy i artykuł raz na parę tygodni. A tak to tylko gry, karty graficzne do nich, testowanie wszystkiego w grach, etc...
O pomstę woła brak testów takiego potwora w konkretnych zastosowaniach typu rendering czy obróbka wideo.
Bardzo ciekawy art. Zabrakło mi w sumie jednego - odpowiedzi na tytułowe pytanie Jeden przedstawiciel LGA1155 (2600K + 2x HD6970) byłby fajnym uzupełnieniem.
Kupowanie takiego sprzętu do gier jest jak kupowanie ciągnika siodłowego na dojazdy do pracy i weekendowy wypoczynek. Czy to, że ma 5x większą moc oraz 2x więcej kół niż większość osobówek oznacza, że będzie się nim 'lepiej' albo szybciej dojeżdżało do celu? Sorry, ale kupowanie 12 wątków czy 12GB pamięci DO GIER to oznaka głupoty, marketingowej naiwności oraz zerowego rozeznania.
Z kolei 4 karty graficzne to bardzo miła i pożądana rzecz do grania w potężnych rozdzielczościach wymaganych do EyeFinity.
P.S. Rozważcie zmianę nazwy z 'PCLab' na 'GraczLab', bo od dłuższego czasu wszystko, co poza grami to newsy i artykuł raz na parę tygodni. A tak to tylko gry, karty graficzne do nich, testowanie wszystkiego w grach, etc...
O pomstę woła brak testów takiego potwora w konkretnych zastosowaniach typu rendering czy obróbka wideo.
Dobre
Producenci robią te płyty dla graczy, więc w takich zastosowaniach je testujemy.
Tak na marginesie strony z LuxMarkiem nie zauważyłeś?
Kupowanie takiego sprzętu do gier jest jak kupowanie ciągnika siodłowego na dojazdy do pracy i weekendowy wypoczynek. Czy to, że ma 5x większą moc oraz 2x więcej kół niż większość osobówek oznacza, że będzie się nim 'lepiej' albo szybciej dojeżdżało do celu? Sorry, ale kupowanie 12 wątków czy 12GB pamięci DO GIER to oznaka głupoty, marketingowej naiwności oraz zerowego rozeznania.
Z kolei 4 karty graficzne to bardzo miła i pożądana rzecz do grania w potężnych rozdzielczościach wymaganych do EyeFinity.
P.S. Rozważcie zmianę nazwy z 'PCLab' na 'GraczLab', bo od dłuższego czasu wszystko, co poza grami to newsy i artykuł raz na parę tygodni. A tak to tylko gry, karty graficzne do nich, testowanie wszystkiego w grach, etc...
O pomstę woła brak testów takiego potwora w konkretnych zastosowaniach typu rendering czy obróbka wideo.
Dobre
Producenci robią te płyty dla graczy, więc w takich zastosowaniach je testujemy.
Tak na marginesie strony z LuxMarkiem nie zauważyłeś?
Jak Volvo wypuści FH12 'Weekend Edition', różniący się od normalnego FH12 owiewkami, to też zakupisz go z myślą o rodzinnych wyjazdach pod namiot?
Oświadczenie producenta 'to jest sprzęt dla graczy (zobacz cenę, specjalnie podnieśliśmy ją o 30%, żeby było bardziej wiarygodnie!)' nie zaklnie rzeczywistości i nie sprawi, że nagle Metro 2033 zacznie pracować na 12 wątkach, a Crysis 1 zacznie się w 100% skalować na multi GPU
Nazwanie przez producenta sprzętu mianem 'dla graczy' niczego nie zmieni - mobo zostaje mobo, które poza śmiesznym gadżetem w postaci siecio-dźwiękówki, radiatorem z głupimi tekstami, laminatem w kolorze 'pr0' oraz ceną niczym się nie różni od innych dobrych mobo.
Po co power dla Rampage i Assasin? Sapphire nie odbiega poza grą f1, włącza się krócej (o 4%!) pobiera mniej energii i jest tańszy. Prawda, że ma gorszą dźwiękową, ale danie power płytom, które są... gorsze? takie same? a ominięcie sapphire to błąd. Chyba, że power oznacza 'tak nieopłacalne że nie polecam kupić nawet jeśli sr**ie hajsem'.
Zdecydowanie Rampage zawiodło na całej linii. Najcieplejszy, najwolniej się włącza.
Gigabyte, ok power się należy.
Na autora chyba podziałał marketing w postaci całej litanii użytych technologii przez asusa i magia wielkich cyferek w złotówkach. Jakby Sapphire podało cenę w starych złotych i dopisało 'technologie Sapphire- tak nazywa się producent' 'technologia Sapphire Resistors- użycie rezystorów w celu osiągania odpowiedniego wzmocnienia' 'Sapphire overclock- podkręcanie z pralki z odpowiednim oprogramowaniem' to też by dostało power?
@Telvas Bardzo niewielu o ile jakikolwiek klient kupi takie mobo do pracy
To jest sprzęt '4gamers' i normalni ludzie tego nie kupują. Defacto te płyty niczym istotnym (poza ceną i może wyglądem) się nie różnią od innych porządnych płyt (tak jest zreszą z praktycznie całym sprzętem 4gamers). Więc aby obiektywnie je przetestować, należy to zrobić w kontekście MOŻLIWOŚCI płyty, a nie producenckiego zaklinania rzeczywistości 4GAMERS...
Ciekawy test, ale czy to pomyłka, że dla 3 kart graficznych wystarczy 750W ?
Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.
A jak wiemy zasilacz dostarczy nam mniej prądu na poszczególnych liniach.
Poza tym 800W grając w grę to jakby nie patrząc nie mało.
Jestem ciekaw, ile przyjdzie wam do zapłaty za prąd.
Teścik całkiem ciekawy, ale to nie jest sprzęt dla przeciętnego kowalskiego.
Jednak granie na 3 monitorach to fajna sprawa. Ale te ramki to dla mnie katastrofa.
umnie 50' plazma 500w ciagnie i jakos nikt nie nazeka
Nie rozumiem jak zasilacz o mocy 850W może zasilić 4x6970 skoro w teście wyszło, że żrą 1040W?
Bo z gniazdka sieciowego 1040W równa się 832W z zasilacza przy sprawności 80%?
Tylko teoretyczny zasilacz 850W musiałby mieć sprawność około 100%, pracowałby na granicy swoich możliwości i najprawdopodobniej podzieliłby los Fukushimy I...
Bo z gniazdka sieciowego 1040W równa się 832W z zasilacza przy sprawności 80%?
Tylko teoretyczny zasilacz 850W musiałby mieć sprawność około 100%, pracowałby na granicy swoich możliwości i najprawdopodobniej podzieliłby los Fukushimy I...
Nie wiem jak to policzyłeś...
Zasilacz 850W o sprawności 80% pobiera przy maksymalnym obciążeniu 1020W z gniazdka sieciowego i może tak działać długo.
Powoduje to widoczne zniekształcenia obrazu - widać że linie które powinny być proste są łamane przy przejściu między monitorami (np. barierki w Dirt).
Moim zdaniem producenci kart graficznych powinni to uwzględnić i umożliwić skompensowanie tego efektu.
Kompensacja ramek jest dostepna w sterownikach kart AMD, kwestia konfiguracji obrazu.
Nie chodzi mi o ramki monitorów tylko o kąty pod którymi boczne monitory są ustawione względem środkowego. A gdyby tych monitorów było 5 albo 6, ustawionych w półkole, to też karta graficzna by renderowała płaszczyznę?
Główną różnicą między LGA 1366 a LGA 1156 jest ilość linii PCI-E, skutkująca tym że na tej pierwszej platformie jest możliwe SLI/Crossfire na dwóch kartach działających w trybie PCI-E 16x, a na drugiej tylko w trybie PCI-E 8x.
I właśnie najbardziej interesowałby mnie wpływ tego trybu pracy na ogólną wydajność, przy możliwie identycznych pozostałych parametrach obu systemów.
Może by się dało wymusić tryby PCI-E 16x i 8x na LGA 1366 w BIOSie (albo jumperami)?
Z kolei 4 karty graficzne to bardzo miła i pożądana rzecz do grania w potężnych rozdzielczościach wymaganych do EyeFinity.
P.S. Rozważcie zmianę nazwy z 'PCLab' na 'GraczLab', bo od dłuższego czasu wszystko, co poza grami to newsy i artykuł raz na parę tygodni. A tak to tylko gry, karty graficzne do nich, testowanie wszystkiego w grach, etc...
O pomstę woła brak testów takiego potwora w konkretnych zastosowaniach typu rendering czy obróbka wideo.
Z kolei 4 karty graficzne to bardzo miła i pożądana rzecz do grania w potężnych rozdzielczościach wymaganych do EyeFinity.
P.S. Rozważcie zmianę nazwy z 'PCLab' na 'GraczLab', bo od dłuższego czasu wszystko, co poza grami to newsy i artykuł raz na parę tygodni. A tak to tylko gry, karty graficzne do nich, testowanie wszystkiego w grach, etc...
O pomstę woła brak testów takiego potwora w konkretnych zastosowaniach typu rendering czy obróbka wideo.
Dobre
Producenci robią te płyty dla graczy, więc w takich zastosowaniach je testujemy.
Tak na marginesie strony z LuxMarkiem nie zauważyłeś?
Bo z gniazdka sieciowego 1040W równa się 832W z zasilacza przy sprawności 80%?
Zabrakło czasu na opanowanie metodologii pomiarów w tej grze
Z kolei 4 karty graficzne to bardzo miła i pożądana rzecz do grania w potężnych rozdzielczościach wymaganych do EyeFinity.
P.S. Rozważcie zmianę nazwy z 'PCLab' na 'GraczLab', bo od dłuższego czasu wszystko, co poza grami to newsy i artykuł raz na parę tygodni. A tak to tylko gry, karty graficzne do nich, testowanie wszystkiego w grach, etc...
O pomstę woła brak testów takiego potwora w konkretnych zastosowaniach typu rendering czy obróbka wideo.
Dobre
Producenci robią te płyty dla graczy, więc w takich zastosowaniach je testujemy.
Tak na marginesie strony z LuxMarkiem nie zauważyłeś?
Jak Volvo wypuści FH12 'Weekend Edition', różniący się od normalnego FH12 owiewkami, to też zakupisz go z myślą o rodzinnych wyjazdach pod namiot?
Oświadczenie producenta 'to jest sprzęt dla graczy (zobacz cenę, specjalnie podnieśliśmy ją o 30%, żeby było bardziej wiarygodnie!)' nie zaklnie rzeczywistości i nie sprawi, że nagle Metro 2033 zacznie pracować na 12 wątkach, a Crysis 1 zacznie się w 100% skalować na multi GPU
Nazwanie przez producenta sprzętu mianem 'dla graczy' niczego nie zmieni - mobo zostaje mobo, które poza śmiesznym gadżetem w postaci siecio-dźwiękówki, radiatorem z głupimi tekstami, laminatem w kolorze 'pr0' oraz ceną niczym się nie różni od innych dobrych mobo.
Zdecydowanie Rampage zawiodło na całej linii. Najcieplejszy, najwolniej się włącza.
Gigabyte, ok power się należy.
Na autora chyba podziałał marketing w postaci całej litanii użytych technologii przez asusa i magia wielkich cyferek w złotówkach. Jakby Sapphire podało cenę w starych złotych i dopisało 'technologie Sapphire- tak nazywa się producent' 'technologia Sapphire Resistors- użycie rezystorów w celu osiągania odpowiedniego wzmocnienia' 'Sapphire overclock- podkręcanie z pralki z odpowiednim oprogramowaniem' to też by dostało power?
To jest sprzęt '4gamers' i normalni ludzie tego nie kupują. Defacto te płyty niczym istotnym (poza ceną i może wyglądem) się nie różnią od innych porządnych płyt (tak jest zreszą z praktycznie całym sprzętem 4gamers). Więc aby obiektywnie je przetestować, należy to zrobić w kontekście MOŻLIWOŚCI płyty, a nie producenckiego zaklinania rzeczywistości 4GAMERS...
Pobór prądu jest 840W (tak wiem z gniazdka). Ale to przy sprawności 80% to jest 690W.
A jak wiemy zasilacz dostarczy nam mniej prądu na poszczególnych liniach.
Poza tym 800W grając w grę to jakby nie patrząc nie mało.
Jestem ciekaw, ile przyjdzie wam do zapłaty za prąd.
Teścik całkiem ciekawy, ale to nie jest sprzęt dla przeciętnego kowalskiego.
Jednak granie na 3 monitorach to fajna sprawa. Ale te ramki to dla mnie katastrofa.
umnie 50' plazma 500w ciagnie i jakos nikt nie nazeka
Bo z gniazdka sieciowego 1040W równa się 832W z zasilacza przy sprawności 80%?
Tylko teoretyczny zasilacz 850W musiałby mieć sprawność około 100%, pracowałby na granicy swoich możliwości i najprawdopodobniej podzieliłby los Fukushimy I...
Bo z gniazdka sieciowego 1040W równa się 832W z zasilacza przy sprawności 80%?
Tylko teoretyczny zasilacz 850W musiałby mieć sprawność około 100%, pracowałby na granicy swoich możliwości i najprawdopodobniej podzieliłby los Fukushimy I...
Nie wiem jak to policzyłeś...
Zasilacz 850W o sprawności 80% pobiera przy maksymalnym obciążeniu 1020W z gniazdka sieciowego i może tak działać długo.
Brakuje mi 10 rdzeniowych CPU intela. No to jest aktualnie TOP i ciekawe czy to mobo to obsługuje.