halflife wyjaśnij w jakim celu procesory serwerowe czy do workstation miałyby miec mozliwości OC?
tam sie to nikomu nie przydaje
to ma działać stabilnie 24/7/365 od wyjecia z pudełka a przedwszystkim w przypadku serwerów spełniać założenia BTU
za mała wydajność?dołozy sie drugi procesor
to są zadania gdzie nie mozna sobie pozwolić by komputer nagle złapał zwiechę
AE - tutaj bez przejrzenia ustawień nie pomogę, a i pewnie są tu więksi spece niż ja. Natomiast w pracy codziennie dotykam konfiguracji wieloprocesorowych. W jednym z projektów miałem styczność z maszynami do AE i zawsze - załączenie multiprocessingu dawało wyraźnego kopa.
Natomiast ilość RAM - dzięki za odpowiedź. Ilość ramu nie jest taka ważna (oczywiście pod warunkiem, że jest wystarczająca), ale obsadzenie wszystkich kanałów takimi samymi kośćmi już tak.
Ramu ile było w płycie?
Znalazłem tylko informację, jaki był, ale nie ile (a skoro procesor ma 4 kanały pamięci, to fajnie by było je wykorzystać - szczególnie w renderingu)
RAM-u wsadziliśmy 16 GB 4x 4GB. Testy są jednak tak ustawione, że starcza 8 - mam na myśli przede wszystkim aplikacje typu Photoshop.
mick @ 2013.01.23 21:29
P.S.
focus - albo nie masz racji z After Effects, albo stosujecie jakieś super mega dziwne ustawienia (Nikt nie wymaga od redaktora pclab bycia omnibusem, natomiast fajnie by było, jakby redaktor dopuścił możliwość, że się myli)
Ostatni akapit na pierwszej stronie
Co do AE - co ja mam z tym zrobić? Zrobiłem przecież wszystko tak jak zaleca producent oprogramowania (ten filmik był dla mnie tylko potwierdzeniem naszych ustawień). Celowo sprawdzaliśmy tą opcję, gdyż pierwotnie zakładaliśmy nie tylko RAM Preview w Adobe After Effects, ale też finalny rendering. Końcowo uznaliśmy jednak, że rendering zrobimy w Premiere Pro, gdyż to właśnie w tym programie robi się obróbkę filmu, zaś w AE tylko efekty, które później się importuje do filmu w PP. Rzecz jasna rendering w AE jest wielowątkowy.
Ramu ile było w płycie?
Znalazłem tylko informację, jaki był, ale nie ile (a skoro procesor ma 4 kanały pamięci, to fajnie by było je wykorzystać - szczególnie w renderingu)
P.S.
focus - albo nie masz racji z After Effects, albo stosujecie jakieś super mega dziwne ustawienia (Nikt nie wymaga od redaktora pclab bycia omnibusem, natomiast fajnie by było, jakby redaktor dopuścił możliwość, że się myli)
Gry nie są zoptymalizowane dla tego że nikt nie kupuje takich procesorów, nikt nie kupuje takich CPU bo gry nie są zoptymalizowane.
I na tym koniec dyskusji dotyczącej giercowania na takich bestiach.
Ktoś już wcześniej to napisał - procesory 4-rdzeniowe na rynku są już 7. rok, a mimo to większość gier i tak nie potrafi wykorzystać znacząco więcej niż 2 rdzeni.
Skoro konsole ograniczają gry pecetowe graficznie to i pod względem CPU też. Ale tegoroczne gry mają już wykorzystywać dużo rdzeni, więc ten test wykonany za kilka miesięcy z użyciem np. Crysis 3 powinien dać inne wyniki.
Chazz @ 2013.01.23 20:40
unknown_solider @ 2013.01.23 08:44
To nie jest i nigdy nie bylo tak, ze ktos pisze gre obslugujaca 4 rdzenie na 2 lata przed premiera quadow itd.
Akurat czasem zdarzały się takie sytuacje. Gra Homeworld z 1999 roku wykorzystuje do 3 wątków, a wtedy, jeśli mnie pamięć nie myli, procesory dwurdzeniowe do pecetów jeszcze nie istniały, natomiast HT Intel wprowadził bodajże dopiero w 2002.
To nie jest i nigdy nie bylo tak, ze ktos pisze gre obslugujaca 4 rdzenie na 2 lata przed premiera quadow itd.
Akurat czasem zdarzały się takie sytuacje. Gra Homeworld z 1999 roku wykorzystuje do 3 wątków, a wtedy, jeśli mnie pamięć nie myli, procesory dwurdzeniowe do pecetów jeszcze nie istniały, natomiast HT Intel wprowadził bodajże dopiero w 2002.
kiedyś jak wchodziły wielordzeniowe procesory i wielowątkowe aplikacje sądziłem ze skoro jest wielowątkowa to nie wazne jak wiele jest rdzeni i tak wykorzysta wszystkie
a potem okazało sie to wielka lipą bo aplikacje są tworzone dla konkretnej maksymalnej ilości obsługiwanych rdzeni.....
--->gregory003 jakie wykresy do porównania ?. No ludzie weźcie mnie nie osłabiajcie może jeszcze więcej minusów, to że ktoś uważa, że Evga Classified SR-X to płyta typowo dla zastosowań serwerowych wcale nie znaczy, że nie można wstawić w nią 2x xeony dołożyć 4 grafiki lub 2x dwurdzeniowe i zrobić to tylko po to aby wygrać w markach (od taka zabawa!) Poza tym od dawna mam procesor 6 rdzeniowy dokładnie to od 2010 roku, kiedy tylko pojawił się 980x, nie zmieniałem, bo nie chciałem dla kosmetycznej różnicy ok. 15% stawiać windowsa (nawet upgrate zrobiłem z W7->W8), bo nadal czekam na 8 rdzeni do użytku domowego (wtedy będzie to miało jakiś sens większy), nie mniej jakbym chciał się bawić w ściganie się w OC profesjonalne to bym wstawił SR-X i dwa xeony oraz oczywiście zrobił bym na nich OC. Co na Xeonach nie można grać w gry (dobre) ? Wiecie co zanim postawicie minusa to pomyślnie jak mało wiecie o komputerach i jak wam poprawi to humor to wasza wola dajcie minus nic mi do tego nie mniej Xenon na 2011 jakby miał OC puszczony na 5GHz rozwaliłby 3970x w każdej grze, albo byłby równolegle dobry, ale nie mam potrzeby was przekonywać. Pozdrawiam.
EDIT: no niestety nie wiedziałem, że xenony pod 2011 są zablokowane no cóż, dziwny ruch Intela czekamy więc na odblokowane Xenony i wtedy spokojnie możemy zrobić z tego maszynę do bicia marków.
Dzisiejszy test rzuca pewne światło na powody, dla których Intel nie zdecydował się wprowadzić ośmiordzeniowego procesora do swojej desktopowej oferty. Dzisiejsze konsumenckie oprogramowanie nie umie optymalnie wykorzystać tak wielu rdzeni/wątków, przez co ich liczba nie jest w stanie zrównoważyć wolniejszego taktowania.
Amen. Wpisywać za każdym razem narzekaczom na to 'dla czego nie ma więcej rdzeni?'. Dla mnie te wnioski są oczywiste, ale taki test dodatkowo je potwierdza.
4 wysoko taktowane rdzenie + IGP to optymalne rozwiązanie na chwilę obecną dla większości użytkowników.
A całe LGA 2011 to taka pokazówka technologiczna Intela kierowana tam, gdzie z tych dodatkowych rdzeni robi się użytek.
Xeony mają swoje miejsce, ale nie są to zastosowania domowe.
Zamiast 6, czy 8 rdzeni w Haswellu czy Broadwellu bardziej chciałbym upowszechnienia 4 rdzeni jako standardu, a więc, aby 4 rdzenie zagościły także w ULV.
Pierwszy krok został już ku temu zrobiony wraz z Ivy Bridge i wprowadzeniem mobilnych Core i7 z TDP 35W, gdzie z takim TDP wcześniej były tylko dual core, więc może w 14nm Intelowi uda się wcisnąć 4 rdzenie przy TDP 17W, choć pewnie proste to nie będzie.
upadłem jak zobaczyłem ten test, dla kogo wy go zrobiliście, dla jakiś lewusów ? Wiadomo, że tylko programy które wykorzystują wiele rdzeni będą działać lepiej, a co by było jakbyście go ustawili na 5GHz i porównali z 3970X ? no co ? Wiadomo, że w każdym programie gdzie nie ma wykorzystania rdzeni do np. renderingu wygra większe taktowanie. Ja myślę, że zdecydowanie uzyskałbym w każdym benchmarku większy wynik jakby ustawił go na 5GHz względem 3970 który też byłby na 5GHz ! 16 stron i testów aby udowodnić że taktowanie ma znaczenie żarty się widzę pclaba trzymają
szmon @ 2013.01.23 17:38
Testowanie xeona w grach... tylko Wy mogliście wpaść na taki pomysł. Wniosek po obejrzeniu tabelek z testami nasuwa się jeden - xeony to szrot. Kto w ogóle chciałby kupować 2-3x droższy procek zapewniający tą samą (jak nie gorszą) wydajność. Paranoja ~.~``
Ale właśnie o to chodziło. Przeczytaliście artykuł, czy tylko przejrzeliście wykresy z porównaniami?
Wielu ludzi narzeka, że u Intela na platformie konsumenckiej LGA155x można dostać maks. czterordzeniowce i nie dostępnych ma sześcio-/ośmiordzeniowców. Więc to artykuł własnie dla takich narzekaczy w stylu ''No i po co Kowalskiemu te rdzenie''.
Testowanie xeona w grach... tylko Wy mogliście wpaść na taki pomysł. Wniosek po obejrzeniu tabelek z testami nasuwa się jeden - xeony to szrot. Kto w ogóle chciałby kupować 2-3x droższy procek zapewniający tą samą (jak nie gorszą) wydajność. Paranoja ~.~``
Widzę, że kolega nie czytał nawet pierwszej strony artykułu
Testowanie xeona w grach... tylko Wy mogliście wpaść na taki pomysł. Wniosek po obejrzeniu tabelek z testami nasuwa się jeden - xeony to szrot. Kto w ogóle chciałby kupować 2-3x droższy procek zapewniający tą samą (jak nie gorszą) wydajność. Paranoja ~.~``
upadłem jak zobaczyłem ten test, dla kogo wy go zrobiliście, dla jakiś lewusów ? Wiadomo, że tylko programy które wykorzystują wiele rdzeni będą działać lepiej, a co by było jakbyście go ustawili na 5GHz i porównali z 3970X ? no co ? Wiadomo, że w każdym programie gdzie nie ma wykorzystania rdzeni do np. renderingu wygra większe taktowanie. Ja myślę, że zdecydowanie uzyskałbym w każdym benchmarku większy wynik jakby ustawił go na 5GHz względem 3970 który też byłby na 5GHz ! 16 stron i testów aby udowodnić że taktowanie ma znaczenie żarty się widzę pclaba trzymają
tam sie to nikomu nie przydaje
to ma działać stabilnie 24/7/365 od wyjecia z pudełka a przedwszystkim w przypadku serwerów spełniać założenia BTU
za mała wydajność?dołozy sie drugi procesor
to są zadania gdzie nie mozna sobie pozwolić by komputer nagle złapał zwiechę
Natomiast ilość RAM - dzięki za odpowiedź. Ilość ramu nie jest taka ważna (oczywiście pod warunkiem, że jest wystarczająca), ale obsadzenie wszystkich kanałów takimi samymi kośćmi już tak.
Znalazłem tylko informację, jaki był, ale nie ile (a skoro procesor ma 4 kanały pamięci, to fajnie by było je wykorzystać - szczególnie w renderingu)
RAM-u wsadziliśmy 16 GB 4x 4GB. Testy są jednak tak ustawione, że starcza 8 - mam na myśli przede wszystkim aplikacje typu Photoshop.
focus - albo nie masz racji z After Effects, albo stosujecie jakieś super mega dziwne ustawienia (Nikt nie wymaga od redaktora pclab bycia omnibusem, natomiast fajnie by było, jakby redaktor dopuścił możliwość, że się myli)
Ostatni akapit na pierwszej stronie
Co do AE - co ja mam z tym zrobić? Zrobiłem przecież wszystko tak jak zaleca producent oprogramowania (ten filmik był dla mnie tylko potwierdzeniem naszych ustawień). Celowo sprawdzaliśmy tą opcję, gdyż pierwotnie zakładaliśmy nie tylko RAM Preview w Adobe After Effects, ale też finalny rendering. Końcowo uznaliśmy jednak, że rendering zrobimy w Premiere Pro, gdyż to właśnie w tym programie robi się obróbkę filmu, zaś w AE tylko efekty, które później się importuje do filmu w PP. Rzecz jasna rendering w AE jest wielowątkowy.
Znalazłem tylko informację, jaki był, ale nie ile (a skoro procesor ma 4 kanały pamięci, to fajnie by było je wykorzystać - szczególnie w renderingu)
P.S.
focus - albo nie masz racji z After Effects, albo stosujecie jakieś super mega dziwne ustawienia (Nikt nie wymaga od redaktora pclab bycia omnibusem, natomiast fajnie by było, jakby redaktor dopuścił możliwość, że się myli)
I na tym koniec dyskusji dotyczącej giercowania na takich bestiach.
Ktoś już wcześniej to napisał - procesory 4-rdzeniowe na rynku są już 7. rok, a mimo to większość gier i tak nie potrafi wykorzystać znacząco więcej niż 2 rdzeni.
Skoro konsole ograniczają gry pecetowe graficznie to i pod względem CPU też. Ale tegoroczne gry mają już wykorzystywać dużo rdzeni, więc ten test wykonany za kilka miesięcy z użyciem np. Crysis 3 powinien dać inne wyniki.
Akurat czasem zdarzały się takie sytuacje. Gra Homeworld z 1999 roku wykorzystuje do 3 wątków, a wtedy, jeśli mnie pamięć nie myli, procesory dwurdzeniowe do pecetów jeszcze nie istniały, natomiast HT Intel wprowadził bodajże dopiero w 2002.
Ale były już płyty dwuprocesorowe.
Akurat czasem zdarzały się takie sytuacje. Gra Homeworld z 1999 roku wykorzystuje do 3 wątków, a wtedy, jeśli mnie pamięć nie myli, procesory dwurdzeniowe do pecetów jeszcze nie istniały, natomiast HT Intel wprowadził bodajże dopiero w 2002.
Nooo
Weź od razu cztery. Bo jeszcze podrożeją, jak się ludzie na to rzucą.
Weź sobie tego za 7 tyś. Wystarczy żeby być pro
Nooo
Weź od razu cztery. Bo jeszcze podrożeją, jak się ludzie na to rzucą.
Nooo
a potem okazało sie to wielka lipą bo aplikacje są tworzone dla konkretnej maksymalnej ilości obsługiwanych rdzeni.....
i to jest nieco lipa
EDIT: no niestety nie wiedziałem, że xenony pod 2011 są zablokowane no cóż, dziwny ruch Intela
Dzisiejszy test rzuca pewne światło na powody, dla których Intel nie zdecydował się wprowadzić ośmiordzeniowego procesora do swojej desktopowej oferty. Dzisiejsze konsumenckie oprogramowanie nie umie optymalnie wykorzystać tak wielu rdzeni/wątków, przez co ich liczba nie jest w stanie zrównoważyć wolniejszego taktowania.
Amen. Wpisywać za każdym razem narzekaczom na to 'dla czego nie ma więcej rdzeni?'. Dla mnie te wnioski są oczywiste, ale taki test dodatkowo je potwierdza.
4 wysoko taktowane rdzenie + IGP to optymalne rozwiązanie na chwilę obecną dla większości użytkowników.
A całe LGA 2011 to taka pokazówka technologiczna Intela kierowana tam, gdzie z tych dodatkowych rdzeni robi się użytek.
Xeony mają swoje miejsce, ale nie są to zastosowania domowe.
Zamiast 6, czy 8 rdzeni w Haswellu czy Broadwellu bardziej chciałbym upowszechnienia 4 rdzeni jako standardu, a więc, aby 4 rdzenie zagościły także w ULV.
Pierwszy krok został już ku temu zrobiony wraz z Ivy Bridge i wprowadzeniem mobilnych Core i7 z TDP 35W, gdzie z takim TDP wcześniej były tylko dual core, więc może w 14nm Intelowi uda się wcisnąć 4 rdzenie przy TDP 17W, choć pewnie proste to nie będzie.
Ale właśnie o to chodziło. Przeczytaliście artykuł, czy tylko przejrzeliście wykresy z porównaniami?
Wielu ludzi narzeka, że u Intela na platformie konsumenckiej LGA155x można dostać maks. czterordzeniowce i nie dostępnych ma sześcio-/ośmiordzeniowców. Więc to artykuł własnie dla takich narzekaczy w stylu ''No i po co Kowalskiemu te rdzenie''.
Widzę, że kolega nie czytał nawet pierwszej strony artykułu