komentarze
rcichoZobacz profil
Poziom ostrzeżenia: 0%
rcicho2012.08.11, 10:37
Materiał bardzo ciekawy ale test maksymalnego żużycia energii to jakaś kpina totalna chyba tylko aby dokopać AMD. Mam u siebie skromny komputer złożony z i3 2100, karty graficznej Geforce GTS450 (znacznie energooszczedniejsza niz HD7950) dwóch dysków i napedu DVD i w czasie rozgrywki w Crysis2 mam ponad 190W zużycia prądu. W idle po 10 minutach od właczenia 54W. Wszystko mierzone miernikiem zuzycia energii (nowy i sprawny), nic nie kręcone, bios na default. To jest niemozliwe abyście na takim zestawie jak w testach było 112W na i5 2400 w teście na najwieksze żużycie energii!!!!
Zobaczcie sami test tej samej karty graficznej czyli HIS Radeon HD 7950 IceQ Turbo która przy podkreconym i7 2600k ciągnie (cały zestaw) ponad 290W:
pluszakZobacz profil
Poziom ostrzeżenia: 0%
pluszak2012.08.10, 18:38
Niestety 8 rdzeni musi mieć papu he he
And777rewZobacz profil
Poziom ostrzeżenia: 0%
And777rew2012.08.10, 15:46
@autor testu

Przy OC FX'a na 4,7GHz pod obciążeniem jaka była temperatura procesora? Przy jakiej temperaturze otoczenia?

Było to sprawdzane?
*Konto usunięte*2012.08.10, 14:32
@up
Thunderbird już był lepszy, potem AMD długo było przed Intelem. Mimo wszystko intel miał prym z procesie technologicznym. Trochę nadrabiali tym, ale...
... i tak procesory Intel-a były lepsze w aplikacjach. Photoshop/3ds, naprawdę wyniki były skrajnie słabe versus AMD.

Pamiętaj, że Intel wtedy robił wyścig na MHz. Cokolwiek by AMD nie zrobiło Intel wypuszczał +100MHz sekundę później i znowu był lepszy. To tak jakby AMD teraz wypuszczało.... no, ale nie może bo był pożar.

Zresztą w Phenomach II było to samo. AMD miało procesory top ustalone, ale potem wypuszczało tonę procesorów z szybszym zegarem, by być bardziej konkurencyjnym. Black edidtion stało się standardem i w zasadzie prawie wszystkie PII były odblokowane.

--------------
Śmieszna sprawa. Gdy AMD było na TOPie było w gruncie rzeczy dziwne. P4 niby cieniasy, a jednak były zastosowania dość popularne gdzie AMD odpadało. Dziś gdy Intel jest na top-ie AMD bez dwóch zdań poległo.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2012.08.10, 14:29
Pentium 4 (zwłaszcza Northwood z HT) był wydajniejszy od Athlona XP, tyle że nie opłacał się finansowo. Za to Athlon 64 to był nokaut Intela, zwłaszcza w grach. Wtedy to fanboye Intela przekonywali, że koszty prądu są niskie i nie samymi grami człowiek żyje ;)
czolgista778Zobacz profil
Poziom ostrzeżenia: 0%
czolgista7782012.08.10, 14:24
W tamtych latach AMD faktycznie dawało po tyłko Intelowi, Athlon XP > Pentium 4 i potem Athlon 64/x2 > Pentium D.
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2012.08.10, 14:05
Trochę serce się kraje jak się na to patrzy. Pamiętam czasy, gdy Intel montował jakieś przeszczepy w stylu Pentium D (2 kawałki krzemu komunikujące się ze sobą przez NB udające procesor dwurdzeniowy) który w swoim najszybszym wydaniu (D840 3,2 GHz) ledwo doganiał najwolniejszego X2 3800+. Kolejne rewizje podnosiły tylko, wcześniej wydawałoby się, nieprzekraczelne granice emisj ciepła, podczas gdy AMD wdrożyło C'n'Q.

W czym jak w czym, ale w grach AMD długo było na równi lub daleko z przodu. Teraz to...ech, szkoda gadać.
czolgista778Zobacz profil
Poziom ostrzeżenia: 0%
czolgista7782012.08.10, 13:10
adamos @ 2012.08.10 12:45  Post: 591026
Już miałem chwalić procesor AMD a tutaj tabelka z poborem mocy popsuła wszystko. Pod obciążeniem podkręcony egzemplarz pobiera około 2 razy więcej niż Core i5? To ja tam wolałbym tą kwotę ok. 200zł dołożyć i mieć procesor intela, nawet jakby był gorszy wydajnościowo od FX-8120, a trzeba podkreślić, że nie jest!

Co ty gadasz? Spójrz jeszcze raz na wyniki. i5 2400 robi go jak chce...
adamosZobacz profil
Poziom ostrzeżenia: 0%
adamos2012.08.10, 12:45
Już miałem chwalić procesor AMD a tutaj tabelka z poborem mocy popsuła wszystko. Pod obciążeniem podkręcony egzemplarz pobiera około 2 razy więcej niż Core i5? To ja tam wolałbym tą kwotę ok. 200zł dołożyć i mieć procesor intela, nawet jakby był gorszy wydajnościowo od FX-8120, a trzeba podkreślić, że nie jest!
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2012.08.10, 12:23
No to jeszcze inaczej. W przypadku Nehalema LGA1366, który nie miał zintegrowanego kontrolera PCIE, QPI było wykorzystywane do komunikacji między CPU a NB. W przepadku Clarkdale'a, który był multi-chip-module, QPI służyło do komunikacji między znajdującymi się na tej samej płytce kawałkami krzemu: rdzeniami CPU i kontrolerem pamięci/PCIE/grafiki. W przypadku Lynnfielda QPI to była wewnętrzna magistrala komunikacyjna w ramach tego samego kawałka krzemu. SNB i IB mają już ring busa. Na pewno też za pomocą QPI komunikują się też procesory SNB-E w systemach multi-CPU.
tomcugZobacz profil
Poziom ostrzeżenia: 0%
tomcug2012.08.10, 11:32
SunTzu @ 2012.08.10 09:57  Post: 590980
Assassin @ 2012.08.09 23:29  Post: 590933
DMI odpowiada za komunikację procka z chipsetem. QPI za komunikację między CPU a IMC/IGP. Clarkdale to multi-chip module.

Nie całkiem. QPI nie ma SB/IB... jest dopiero w SB-E

To żeś się popisał :E. Clarkdale to przecież jeszcze Nehalem, żadne Sandy Bridge :hmm:.
*Konto usunięte*2012.08.10, 09:57
Assassin @ 2012.08.09 23:29  Post: 590933
DMI odpowiada za komunikację procka z chipsetem. QPI za komunikację między CPU a IMC/IGP. Clarkdale to multi-chip module.

Nie całkiem. QPI nie ma SB/IB... jest dopiero w SB-E
eagleZobacz profil
Poziom ostrzeżenia: 0%
eagle2012.08.10, 08:12
lolek.olo @ 2012.08.10 07:53  Post: 590968
Czyli bez zaskoczenia.
Po oc cena zbliżona (przyzwoite chłodzenie + mocniejszy zasilacz pochłonie to co zaoszczędzimy na CPU od AMD).
Do wielowątkowych zastosowań lepszy AMD, do gier i 1 wątkowych zastosowań lepszy Intel.
Pobór prądu Buldożera zadziwia, ale w desktopach nie jest to decydujący czynnik.

Najważniejsze, że wciąż mamy wybór.

Przesadzasz, lepsze chłodzenie i zasilasz czy obudowa to inwestycja na nie tylko na jedną generację procesora.
Poza tym większość która podkręca procesory już coś ma.
Ja po i7 odziedziczyłem mugena 2 i firmowy zasilacz.
Nic nie musiałem kupować,
lolek.oloZobacz profil
Poziom ostrzeżenia: 0%
lolek.olo2012.08.10, 07:53
Czyli bez zaskoczenia.
Po oc cena zbliżona (przyzwoite chłodzenie + mocniejszy zasilacz pochłonie to co zaoszczędzimy na CPU od AMD).
Do wielowątkowych zastosowań lepszy AMD, do gier i 1 wątkowych zastosowań lepszy Intel.
Pobór prądu Buldożera zadziwia, ale w desktopach nie jest to decydujący czynnik.

Najważniejsze, że wciąż mamy wybór.
And777rewZobacz profil
Poziom ostrzeżenia: 0%
And777rew2012.08.10, 07:09
overcloked @ 2012.08.10 00:47  Post: 590939
360w?! grafika jeszcze 400w i najlepiej zaopatrzyć się w 1000w zasilacz chociaż i jemu zaraz by się zapas skończył -_-


To się nazywa analfabetyzm funkcjonalny.

Przeczytaj ze zrozumieniem pierwsze zdanie na tej stronie: http://pclab.pl/art50465-14.html
*Konto usunięte*2012.08.10, 03:14
Telvas:


Aplikacje? Poziom lekko poniżej X4. Podejrzewam, że FX niby 4 rdzeniowy dostaje baty.
Gry? Kopanie leżącego.

Jak widać Core i3 jest wyceniony BARDZO odpowiednio.
bumcykcykZobacz profil
Poziom ostrzeżenia: 0%
bumcykcyk2012.08.10, 01:41
Telvas

1. Skoro najtańszy i3 jest o 100 zł (25% !) droższy, to ma prawo być te parę procent szybszy
(...)
Najtańsze Core i3 to coś koło 450 zł.
Jakby nie liczyć, wychodzi co najmniej 90 zł na NIEKORZYŚĆ Intela.


Telvas

Jeśli iść droga rachunków za prąd oraz faktu, że rodzice kupują komputer oraz że ma być on tylko do gier, to ten komputer w ogóle nie powinien być kupiony. Bo po co marnować nań kasę i jeszcze za prąd płacić :)


Telvas

Kurde co wy tak z tym poborem prądu. Jeśli taki on dla was ważny to wywalcie swój komputer, kupcie kalkulator. A o grach to w ogóle nie ma mowy, bo przecież GPU ciągnie tyyyyle prądu!
Kompa się kupuje pod konkretne zastosowania, a nie zawsze tylko pod gry i oszczędność prądu (btw, ciekawe ile prądu ciągną wasze grafy ciągnące Crysisa w FHD...).


Proszę Cię rozwiąż sobie poniższe zadanko:

Powiedzmy, że możesz kupić dwa procesory o IDENTYCZNEJ wydajności w każdym możliwym zastosowaniu:
Proc #1 za 500zł, z nim komp idle bedzie żarł ze ściany średnio 60W // a podczas 'grania w gry' - 240W
Proc #2 za 400zł, jak wyżej tylko: 100W // 350W
Reszta kompa identyczna tu i tu.

Założenia lajtowe: grasz 2h dziennie + 6h dziennie 'przeglądania neta/gg/lub po prostu komp zostaje włączony bo się nie chce go wyłączać ;) itp'.
Przyjmij 1kWh = 60gr

Pytanie: po jakim czasie zwróci Ci się kupno droższego o 100zł procesora?

Cyferki są wymyślone (chociaż bardzo realne) tak aby wyszedł w miarę równy, prosty wynik.

A teraz: gdy ktoś gra np. 6h dziennie....? Albo więcej? Nie oszukujmy się, takich przypadków jest bardzo dużo, szczególnie w erze MMORPGów, gdzie zostawiasz kompa z grą i idziesz spać...

---------
Gdybyś nie umiał znaleźć odp to pytaj śmiało, bo - bez obrazy - ale jak mówisz o suszarkach do włosów, odkurzaczach, tosterach itp. vs komp, i ile to prądu żre - to tak na prawdę nie zdajesz sobie sprawy o jak dużych kwotach mówimy, oraz przede wszystkim: że są miejsca, gdzie można a) bez prawie jakiegokolwiek(!!!) poświęcenia zaoszczędzić dość znaczną kasę, a także są miejsca, że b) się nie da wcale zaoszczędzić i kropka. [chyba najczęstsza sytuacja to a/b), gdzie trzeba zainwestować X kasy na początku, aby po Y czasie się zwróciło... temat rzeka]
Suszarka/toster/odkurzacz: jakiego byś urządzenia nie kupił z dostępnych na rynku, to zawsze mniej więcej wyjdzie Cię na to samo. Jak chcesz wysuszyć włosy, to zawsze zajmie ci to X czasu i Y kWh. Im mniejsze grzanie tym taniej, ale dłużej. Coś za coś. Oraz najważniejsze: to są urządzenia żrące bardzo dużo W w krótkim czasie = stosunkowo mało kWh zużytych w ogólnym rozrachunku budżetu domowego. Można je spokojnie olać, albo raczej pogodzić się z tym, że tosty muszą być zrobione, a mieszkanie odkurzone i że kosztuje to X/XX zeta/mieś. I jakiego byś sprzętu nie kupił to będzie Cię to tyle kosztować.

A tu MASZ WYBÓR.

I tylko od ciebie zależy, czy sobie policzysz (co zajmuje z 15sek), czy ci się to coś opłaca czy nie.
Jak ktoś: odpala kompa, gra-w-gre 1h, i wyłącza kompa - to przysłowiowy już Buldożer jest prawdopodobnie bardzo dobrą opcją. Albo jak ktoś mieszka w akademiku i płaci z góry ryczałtem itp. itd.
Ale to nie jest 'normalna' sytuacja.

I nawet jak jesteś powyższym przypadkiem, to nie neguj kompletnie zużycia prUndu i nie traktuj tego jako 'obronę AMD', tak jak to zrobiłeś, bo >większość< i tak nie należy do tej grupy, chociaż pewnie znaczna część nie zdaje sobie z tego sprawy.

Są grupy jw. - zadowolone bo nie płacą, ktoś inny powie że i tak wymienia procki co max 0.5roku - spoko, gratuluję hobby; inny powie, że nie zważa na zużycie prądu, bo ma tryliardy kasy [btw: czemu nie kupiłeś od razu droższego/szybszego procka...?]. Albo taki, że mu dany program, którego używa na AMD chodzi 2 x szybciej, niż na porównywalnym Intelu. Zawsze się znajdzie ŚWIADOMY zadowolony użyszkodnik. Ale to są WYJĄTKI.
Jak jesteś świadomym WYJĄTKIEM, to napisz 3 zdania na ten temat.
Bo daaawno nie widziałem nic takiego, ani tu ani u koń-kurencji.

Telvas

P.S. Gdyby to Intel dawał więcej wydajności za mniej kasy, to (...)


Gdyby...? Co to znaczy 'gdyby'? Od czasów athlonów XP, generalnie Intel DAJE więcej ŚREDNIEJ wydajności za MNIEJ kasy.
OCZYWIŚCIE nie w każdym roku, nie zawsze w każdym segmencie (szczególnie w TOP, gdzie płaci się x3 za +50% powera powiedzmy itp.), nie w każdym zastosowaniu. Można by przywołać liczne wyjątki, obalające tą tezę, ale to są właśnie WYJĄTKI.
I z roku na rok tych wyjątków jest niestety coraz mniej.

Na tzw. 'zachodzie' od dawna patrzy się na poszczególne modele z danych rodzin procesorów pod kątem: 1) moc/cena, oraz: 2) performance-per-watt (też są liczne wyjątki...), czyli de facto wracamy do pkt. 1).
W PL >wszyscy< (portale) olewają pkt. 2, istnieje wyłącznie pkt.1, no co najwyżej w podsumowaniu w plusach czy minusach się znajdzie 1 zdanie, że żre dużo/mało papu.. Tyle.

A firmy NIE MAJĄ fizycznych ograniczeń*, aby wypuścić na rynek bardzo tani, bardzo wydajny procesor, czyli bardzo dobry stosunek moc/cena. Nazwę rzeczy po imieniu: AMD prawdopodobnie mogło by jutro wypuścić procesor, 2 razy szybszy niż najszybszy obecnie procesor Intela w każdym zastosowaniu i kosztującego marne 100 dolców dajmy na to, tylko że wtedy taki procesor by musiał żreć XXXX watów... I pod tymi czterema X-ami 1. cyfra prawdopodobnie nie zaczynała by się od '1' ani od '2'....
* - wiadomo: w jaką płytę to wsadzić, jak zasilić i jak odebrać ciepło.... Nierealnie w domowym użytkowaniu, ALE wyprodukować by się dało.

Ale AMD właśnie coś takiego wypuściło, tylko że w dużo mniejszej skali.
W performance-per-watt AMD obrywa coraz bardziej i bardziej.
A jakby ktoś nie wiedział, to w Polsce cena 1kWh od 06.2008 do 12.2011 (3.5 roku) wzrosła o ~45% (W-wa RWE). Opłaty stałe bardzo podobnie. A jeszcze wisi nad nami uwolnienie cen energii, wtedy to już będzie jazda bez trzymanki, która przez optymistów nazywana jest 'zdrową konkurencją'... Ale jak to mówią: taniej - to już było.

I w sumie dobrze, że AMD wypuściło te buldożery. Oparzyli się (dosłownie :E ) cholernie mocno, tak jak nie tak dawno temu Nvidia.
Wnioski już wyciągnęli na 101%, pytanie tylko co są w stanie z tym zrobić.
Nvidia wybrnęła dobrze, teraz wypada kibicować AMD. Chociaż i tak Nvidia była w zdeeeecydowanie lepszej sytuacji, nie było momentu aby cokolwiek jej groziło.
A nad działem procków w AMD zawisną wielkie czarne chmury, jak następna seria będzie porównywalna do ostatniej.
Go go go amd, dajcie mi powód, aby następnego procka kupić od was! ;)

overclokedZobacz profil
Poziom ostrzeżenia: 0%
overcloked2012.08.10, 00:47
360w?! grafika jeszcze 400w i najlepiej zaopatrzyć się w 1000w zasilacz chociaż i jemu zaraz by się zapas skończył -_-
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2012.08.09, 23:29
DMI odpowiada za komunikację procka z chipsetem. QPI za komunikację między CPU a IMC/IGP. Clarkdale to multi-chip module.
*Konto usunięte*2012.08.09, 23:09
Jak mnie pamięć nie myli to nie ma QPI w tym socketcie. Jest tylko w 2011. Tu jest DMI?, który odpowiada za połączenie z mostkiem, który marginalne znaczenie.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.