Zawsze w takich testach przychodzi mi na myśl Cell. Niby przepotężne trudno się programuje 7 rdzeni, koszta, w ogóle kosmos. Problem w tym że ja w grach ekskluzywnych widzę jak te rdzenie pracują, na pc ze świecą szukać takich aplikacji i gier.
I to jest właśnie przecieranie szlaków, dziś się trudno projektuje kod na 6 rdzeni ale przyjdzie nowa generacja wielo-rdzeniowa i silnik już będą gotowe na starcie....
Dlatego śmieszą mnie ceny Intela i fakt tego ze dziś nikomu się nie chce robić kodu na takie procki bo... bo Intel ma takie ceny że 6 rdzeni ma na świecie może 1/1000 promila komputerów.
Dodatkowo Intel trzyma się pewnej zasady: produkt droższy powinien być niemal zawsze szybszy od tańszego. Innymi słowy, najwyższy model Core i3 powinien być z reguły wolniejszy od najsłabszego Core i5 z tej samej generacji.
Szczerze mówiąc nie zdawałem sobie z tego sprawy, że tak jest. Taka polityka bardzo mi się podoba.
swietny test
hmm takie przemyslenie... wiem ze to zupelnie inna platforma, ale zastanawia mnie w takim razie sens pakowania 4 rdzeniu w topowych smartfonach/tabletach i 8-rdzeniowych procesorow, jakie zapowiadano dla telefonu Samsung Galaxy S4. czyzby latwiej byloby w takim procesorze sterowac on/off konkretnej liczby rdzeni anizeli poslugiwanie sie dynamiczna zmiana taktowania ich wszystkich...
Ten procesor nie jest ośmiordzeniowy, ale cztero-, bo w tej samej chwili może pracować równocześnie tylko cztery rdzenie. A do smarfonów pcha się czterordzeniowce, bo nisko taktowany czterordzeniowy ARM Cortax A-9 pobiera mniej energii, niż ten sam procesor z dwoma rdzeniami, ale o znacznie wyższej częstotliwości. Ta architektura (Cortex A-9) jest po prostu tak zaprojektowana (poboru mocy zwiększa się szybciej przy zmianach częstotliwości niż przy dublowaniu rdzeni*), że nie opłaca się zwiększać wydajności poprzez znaczne podnoszenie częstotliwości - łatwiej dokładać rdzenie, choć nie zawsze daje to wzrost wydajności.
* To dotyczy właściwie wszystkich procesorów, ale projektowanego z myślą o niskich częstotliwościach pracy i niskim poborze mocy Corexa dotyka szczególnie.
za przeproszeniem 'dupy nie urywa' - na szczęscie całkiem energooszczędny a do tego widać że soft coś słabo sobie radzi - może trzeba było zrobić testy równoczesnej pracy aplikacji?
bo to głównie do tego są takie procesory
Bo podniesienie IPC albo zegarów zawsze daje efekt, do tego efekt proporcjonalny. Czyli IPC + 5% -> wydajność + ~5%; zegary + 10% -> wydajność + ~10%. i tak się dzieje ZAWSZE, niezależnie od programu.
Niestety w przypadku dokładania kolejnych rdzeni tak różowo nie jest. Dołożenie do czterordzeniowca dwóch kolejnych rdzeni może dać zwiększenie wydajności o nawet ~50%, albo i nic nie dać. Zależnie od zastosowanych w programie algorytmów. Dlatego bardziej opłacalne i bezpieczniejsze jest podnoszenie IPC i zegarów, niż dodawać kolejne rdzenie.
Dlatego też moim zdaniem AMD popełniła błąd wypuszczając na platformę konsumencką czteromodułowego, ośmiowątkowego FX'a, zamiast postarać się stworzyć sześciowątkowego, trójmodułowego pozwalającego na pracę z wyższymi zegarami.
swietny test
hmm takie przemyslenie... wiem ze to zupelnie inna platforma, ale zastanawia mnie w takim razie sens pakowania 4 rdzeniu w topowych smartfonach/tabletach i 8-rdzeniowych procesorow, jakie zapowiadano dla telefonu Samsung Galaxy S4. czyzby latwiej byloby w takim procesorze sterowac on/off konkretnej liczby rdzeni anizeli poslugiwanie sie dynamiczna zmiana taktowania ich wszystkich...
Gdyby intel na mainstream wprowadzil 2-3 lata procesory 6/8 rdzeniowe, aplikacje moglyby wygladac nieco inaczej. Ostatnio zapomina sie, ze oprogramowanie jest pisane w taki sposob aby dzialalo optymlnie na sprzecie jaki jest dostepny na rynku i powstaje dopiero wtedy kiedy dostepny jest sprzet. To nie jest i nigdy nie bylo tak, ze ktos pisze gre obslugujaca 4 rdzenie na 2 lata przed premiera quadow itd.
AMD 2-rdzeniowe CPU wprowadziło w 2005 roku. Intel ze swoim HT, możliwośc obsługi 2 wątków jeszcze trochę wcześniej. A jeszcze w latach 2009-2010 bardzo dużo aplikacji i gier działało jednowątkowo. Soft potrzebuje pół dekady aby zauwazyc że w sprzecie coś się zmieniło....niestety.
Amen, pisałem i piszę o tym od paru miesięcy, niestety z zerową reakcja pclab.
Jedyne co dostałem to minusy od 'myślących inaczej'
Nie wystarczył nawet film z prezentacji 'jak to działa'
Znowu zaczynasz? Ty sprawdziłeś to na swoim FX-ie i swoim projekcie i uznałeś, że 'tak musi być zawsze i w każdej konfiguracji'. Nie, tak nie jest.
Zerowa reakcja to była z Twojej strony na każdą moją RZECZOWĄ odpowiedź w tej kwestii. Za każdym razem, gdy napisałem, że ten 'myk' działa tylko w określonych przypadkach nie odpisywałeś nic.
To nie jest 'myk' wszystko masz w bardzo dokładnym faq na stronie adobe. Trzeba tylko poszukać. Jak możesz przeczytać działa to nie tylko na moim byłym fx-e ale również u kolegi na xeonach i na moim obecnym i7.
Dziwne nie działa tylko Wam. Zbywanie tematu nic nie da. Skoro chcecie dyskutować z faktami to piszcie do Adobe. Rendering w tym przypadku zawsze będzie szybszy. Poza tym kolega z góry tekstu który jak można się domyśleć pracuje zawodowo na AF zapewne posłużył by radą co macie nie tak ustawione. Nie każdy jest specem od wszystkiego i nikt nie wymaga od Redakcji aby mieć wiedzę na temat każdego programu jaki używacie do testów.
Może gwoli wyjaśnienia te magiczne ustawienie które u Was nie działa polega na liczeniu każdej z ramek na oddzielnym core. Jak wiadomo nie każdy efekt liczy się w AF na wszystkich wątkach.
Jeżeli jednak program równocześnie będzie przeliczał każdą ramkę na pojedynczym watku, to traci znaczenie ilo wątkowe są efekty.
Nie wiem czy to takie trudne do zrozumienia. Jeżeli na rdzeń przydzielisz zbyt mało pamięci - zalecane 2gb to możesz mieć różne historie. Ale jak wspomniałem google, fora AF, sama strona Adobe. Tam wszystko jest.
Ktoś już wcześniej to napisał - procesory 4-rdzeniowe na rynku są już 7. rok, a mimo to większość gier i tak nie potrafi wykorzystać znacząco więcej niż 2 rdzeni.
Nic bardziej mylnego. Co to za produkty?
Jeśli firma krzak robi coś to nie oczekuj od tego polotu i wykorzystania porządnie sprzętu.
Z założenia ma to działać i przynosić dochód.
Brakuje porównania do FX-8150. Pobór prądu podobny, wydajność w grach pewnie trochę wyższa w przypadku Xenona ale już w zastosowaniach profesjonalnych taki FX mimo iż 8x tańszy miałby jakieś szanse
Porównaj sobie wyniki z tego testu do testu procesorów - są one kompatybilne.
Pracuję na dwu Xeonach X5570, w sumie 16 wątków, i dobre ustawienie tych parametrów (przydzielenie rdzeni i pamięci w Multiprocessingu) potrafi skrócić rendering kilkukrotnie. W razie potrzeby służę radą i pomocą
Jestem bardzo zainteresowany testami różnych procesorów w zastosowaniach profesjonalnych, szczególnie w After Effect.
Amen, pisałem i piszę o tym od paru miesięcy, niestety z zerową reakcja pclab.
Jedyne co dostałem to minusy od 'myślących inaczej'
Nie wystarczył nawet film z prezentacji 'jak to działa'
Znowu zaczynasz? Ty sprawdziłeś to na swoim FX-ie i swoim projekcie i uznałeś, że 'tak musi być zawsze i w każdej konfiguracji'. Nie, tak nie jest.
Zerowa reakcja to była z Twojej strony na każdą moją RZECZOWĄ odpowiedź w tej kwestii. Za każdym razem, gdy napisałem, że ten 'myk' działa tylko w określonych przypadkach nie odpisywałeś nic.
Brakuje porównania do FX-8150. Pobór prądu podobny, wydajność w grach pewnie trochę wyższa w przypadku Xenona ale już w zastosowaniach profesjonalnych taki FX mimo iż 8x tańszy miałby jakieś szanse
Zaobserwowaliśmy, że włączenie tej opcji daje wzrost wydajności jedynie w przypadku procesorów FX-8000. Już nawet na FX-ach 6000 było wolniej po włączeniu tej opcji, podobnie jak na 6-rdzeniowych Core i7. Dlatego też na FX-ach 8000 jest to włączone, zaś na pozostałych wyłączone (ustawienie domyślne).
Pracuję na dwu Xeonach X5570, w sumie 16 wątków, i dobre ustawienie tych parametrów (przydzielenie rdzeni i pamięci w Multiprocessingu) potrafi skrócić rendering kilkukrotnie. W razie potrzeby służę radą i pomocą
Jestem bardzo zainteresowany testami różnych procesorów w zastosowaniach profesjonalnych, szczególnie w After Effect.
Amen, pisałem i piszę o tym od paru miesięcy, niestety z zerową reakcja pclab.
Jedyne co dostałem to minusy od 'myślących inaczej'
Nie wystarczył nawet film z prezentacji 'jak to działa'
Ten procek jest typowym produktem na zamówienie Apple i Della. Są one montowane w Macach Pro i Dellach z serii Precision, gdzie siedzą na dwuprocesorowej płycie. Jak to sie mówi, nasz klient nasz pan
Nie tumanie w fApplowskich Makach Pro nie wsadzisz nic na LGA2011.
Obecny MacPro to stary rupieć.
Gry nie są zoptymalizowane dla tego że nikt nie kupuje takich procesorów, nikt nie kupuje takich CPU bo gry nie są zoptymalizowane.
I na tym koniec dyskusji dotyczącej giercowania na takich bestiach.
Ktoś już wcześniej to napisał - procesory 4-rdzeniowe na rynku są już 7. rok, a mimo to większość gier i tak nie potrafi wykorzystać znacząco więcej niż 2 rdzeni.
I to jest właśnie przecieranie szlaków, dziś się trudno projektuje kod na 6 rdzeni ale przyjdzie nowa generacja wielo-rdzeniowa i silnik już będą gotowe na starcie....
Dlatego śmieszą mnie ceny Intela i fakt tego ze dziś nikomu się nie chce robić kodu na takie procki bo... bo Intel ma takie ceny że 6 rdzeni ma na świecie może 1/1000 promila komputerów.
Szczerze mówiąc nie zdawałem sobie z tego sprawy, że tak jest. Taka polityka bardzo mi się podoba.
hmm takie przemyslenie... wiem ze to zupelnie inna platforma, ale zastanawia mnie w takim razie sens pakowania 4 rdzeniu w topowych smartfonach/tabletach i 8-rdzeniowych procesorow, jakie zapowiadano dla telefonu Samsung Galaxy S4. czyzby latwiej byloby w takim procesorze sterowac on/off konkretnej liczby rdzeni anizeli poslugiwanie sie dynamiczna zmiana taktowania ich wszystkich...
Ten procesor nie jest ośmiordzeniowy, ale cztero-, bo w tej samej chwili może pracować równocześnie tylko cztery rdzenie. A do smarfonów pcha się czterordzeniowce, bo nisko taktowany czterordzeniowy ARM Cortax A-9 pobiera mniej energii, niż ten sam procesor z dwoma rdzeniami, ale o znacznie wyższej częstotliwości. Ta architektura (Cortex A-9) jest po prostu tak zaprojektowana (poboru mocy zwiększa się szybciej przy zmianach częstotliwości niż przy dublowaniu rdzeni*), że nie opłaca się zwiększać wydajności poprzez znaczne podnoszenie częstotliwości - łatwiej dokładać rdzenie, choć nie zawsze daje to wzrost wydajności.
* To dotyczy właściwie wszystkich procesorów, ale projektowanego z myślą o niskich częstotliwościach pracy i niskim poborze mocy Corexa dotyka szczególnie.
bo to głównie do tego są takie procesory
Niestety w przypadku dokładania kolejnych rdzeni tak różowo nie jest. Dołożenie do czterordzeniowca dwóch kolejnych rdzeni może dać zwiększenie wydajności o nawet ~50%, albo i nic nie dać. Zależnie od zastosowanych w programie algorytmów. Dlatego bardziej opłacalne i bezpieczniejsze jest podnoszenie IPC i zegarów, niż dodawać kolejne rdzenie.
Dlatego też moim zdaniem AMD popełniła błąd wypuszczając na platformę konsumencką czteromodułowego, ośmiowątkowego FX'a, zamiast postarać się stworzyć sześciowątkowego, trójmodułowego pozwalającego na pracę z wyższymi zegarami.
hmm takie przemyslenie... wiem ze to zupelnie inna platforma, ale zastanawia mnie w takim razie sens pakowania 4 rdzeniu w topowych smartfonach/tabletach i 8-rdzeniowych procesorow, jakie zapowiadano dla telefonu Samsung Galaxy S4. czyzby latwiej byloby w takim procesorze sterowac on/off konkretnej liczby rdzeni anizeli poslugiwanie sie dynamiczna zmiana taktowania ich wszystkich...
AMD 2-rdzeniowe CPU wprowadziło w 2005 roku. Intel ze swoim HT, możliwośc obsługi 2 wątków jeszcze trochę wcześniej. A jeszcze w latach 2009-2010 bardzo dużo aplikacji i gier działało jednowątkowo. Soft potrzebuje pół dekady aby zauwazyc że w sprzecie coś się zmieniło....niestety.
Amen, pisałem i piszę o tym od paru miesięcy, niestety z zerową reakcja pclab.
Jedyne co dostałem to minusy od 'myślących inaczej'
Nie wystarczył nawet film z prezentacji 'jak to działa'
Znowu zaczynasz? Ty sprawdziłeś to na swoim FX-ie i swoim projekcie i uznałeś, że 'tak musi być zawsze i w każdej konfiguracji'. Nie, tak nie jest.
Zerowa reakcja to była z Twojej strony na każdą moją RZECZOWĄ odpowiedź w tej kwestii. Za każdym razem, gdy napisałem, że ten 'myk' działa tylko w określonych przypadkach nie odpisywałeś nic.
To nie jest 'myk' wszystko masz w bardzo dokładnym faq na stronie adobe. Trzeba tylko poszukać. Jak możesz przeczytać działa to nie tylko na moim byłym fx-e ale również u kolegi na xeonach i na moim obecnym i7.
Dziwne nie działa tylko Wam. Zbywanie tematu nic nie da. Skoro chcecie dyskutować z faktami to piszcie do Adobe. Rendering w tym przypadku zawsze będzie szybszy. Poza tym kolega z góry tekstu który jak można się domyśleć pracuje zawodowo na AF zapewne posłużył by radą co macie nie tak ustawione. Nie każdy jest specem od wszystkiego i nikt nie wymaga od Redakcji aby mieć wiedzę na temat każdego programu jaki używacie do testów.
Może gwoli wyjaśnienia te magiczne ustawienie które u Was nie działa polega na liczeniu każdej z ramek na oddzielnym core. Jak wiadomo nie każdy efekt liczy się w AF na wszystkich wątkach.
Jeżeli jednak program równocześnie będzie przeliczał każdą ramkę na pojedynczym watku, to traci znaczenie ilo wątkowe są efekty.
Nie wiem czy to takie trudne do zrozumienia. Jeżeli na rdzeń przydzielisz zbyt mało pamięci - zalecane 2gb to możesz mieć różne historie. Ale jak wspomniałem google, fora AF, sama strona Adobe. Tam wszystko jest.
Zresztą tutaj macie film Adobe w tym temacie.
http://tv.adobe.com/watch/digital-video-cs...mance/?go=12437
Nic bardziej mylnego. Co to za produkty?
Jeśli firma krzak robi coś to nie oczekuj od tego polotu i wykorzystania porządnie sprzętu.
Z założenia ma to działać i przynosić dochód.
Porównaj sobie wyniki z tego testu do testu procesorów - są one kompatybilne.
Pracuję na dwu Xeonach X5570, w sumie 16 wątków, i dobre ustawienie tych parametrów (przydzielenie rdzeni i pamięci w Multiprocessingu) potrafi skrócić rendering kilkukrotnie. W razie potrzeby służę radą i pomocą
Jestem bardzo zainteresowany testami różnych procesorów w zastosowaniach profesjonalnych, szczególnie w After Effect.
Amen, pisałem i piszę o tym od paru miesięcy, niestety z zerową reakcja pclab.
Jedyne co dostałem to minusy od 'myślących inaczej'
Nie wystarczył nawet film z prezentacji 'jak to działa'
Znowu zaczynasz? Ty sprawdziłeś to na swoim FX-ie i swoim projekcie i uznałeś, że 'tak musi być zawsze i w każdej konfiguracji'. Nie, tak nie jest.
Zerowa reakcja to była z Twojej strony na każdą moją RZECZOWĄ odpowiedź w tej kwestii. Za każdym razem, gdy napisałem, że ten 'myk' działa tylko w określonych przypadkach nie odpisywałeś nic.
Zaobserwowaliśmy, że włączenie tej opcji daje wzrost wydajności jedynie w przypadku procesorów FX-8000. Już nawet na FX-ach 6000 było wolniej po włączeniu tej opcji, podobnie jak na 6-rdzeniowych Core i7. Dlatego też na FX-ach 8000 jest to włączone, zaś na pozostałych wyłączone (ustawienie domyślne).
Pracuję na dwu Xeonach X5570, w sumie 16 wątków, i dobre ustawienie tych parametrów (przydzielenie rdzeni i pamięci w Multiprocessingu) potrafi skrócić rendering kilkukrotnie. W razie potrzeby służę radą i pomocą
Jestem bardzo zainteresowany testami różnych procesorów w zastosowaniach profesjonalnych, szczególnie w After Effect.
Amen, pisałem i piszę o tym od paru miesięcy, niestety z zerową reakcja pclab.
Jedyne co dostałem to minusy od 'myślących inaczej'
Nie wystarczył nawet film z prezentacji 'jak to działa'
Nie tumanie w fApplowskich Makach Pro nie wsadzisz nic na LGA2011.
Obecny MacPro to stary rupieć.
I na tym koniec dyskusji dotyczącej giercowania na takich bestiach.
Ktoś już wcześniej to napisał - procesory 4-rdzeniowe na rynku są już 7. rok, a mimo to większość gier i tak nie potrafi wykorzystać znacząco więcej niż 2 rdzeni.
I na tym koniec dyskusji dotyczącej giercowania na takich bestiach.