komentarze
*Konto usunięte*2012.04.29, 22:32
Tylko Atom to nie jest najlepsza architektura Intela? Natomiast IB jest.Co tu dużo do myślenia. Może ugryźmy temat inaczej. Może buldek jest skierowany na jakiś konkretny rynek? Może jest skierowany dla pewnej grupy odbiorców. Tylko on nie jest energooszczędny, nie jest wydajniejszy w jakim kolwiek zadaniu. Jedyny jego plus jest to, że jest....
... Ale wciąż nie jest od 1100T czyli swojego poprzednika. 1100T to jednak lepszy procesor pod względem wydajności.

Szkop w tym, że nie ma AES. Gdyby miał kupiłbym bez wahania. Tak, więc FX to ciekawy krok niestety nie do przodu....

Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD. Zrobili 512bitową kartę. W dodatku było gorące. Ale samo GPU było bardzo małe i tanie w produkcji. Tak, więc była nadzieja, bo konkurencja miała dużo wydajniejsze, ale tez dużo większe GPU.

Teraz porównajmy to z buldkiem, który jest większy od IB, ma więcej tranzystorów, większy pobór energii, wysokie temperatury, a przy tym wszystkim mniej wydajny. Który z elementów daje tutaj przyszłość?

Jak dla mnie przyszłość to Llano gdzie mamy GPU, które daje nadzieję.
SreponkZobacz profil
Poziom ostrzeżenia: 0%
Sreponk2012.04.29, 22:33
Przecież natleży zestawić ze sobą konkurentów cenowych.
Przy premierze i7, teraz i5
SreponkZobacz profil
Poziom ostrzeżenia: 0%
Sreponk2012.04.29, 22:33
.
*Konto usunięte*2012.04.29, 22:42
Sreponk @ 2012.04.29 22:33  Post: 567976
Przecież natleży zestawić ze sobą konkurentów cenowych.
Przy premierze i7, teraz i5

Można i nie trzeba. Można też porównać procesory o tym samym poborze energii (który zaoferuje większą wydajność/wat). Jak chcesz brać pod uwagę cenę to w takim razie na dzień dobry trzeba zapomnieć o buldku bo PhenomII jest lepszy.
rainyZobacz profil
Poziom ostrzeżenia: 0%
rainy2012.04.29, 23:12
SunTzu @ 2012.04.29 22:32  Post: 567975

Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD.


Kolego, zawodzi Cię cokolwiek pamięć.
R600 to był jeszcze autorski projekt ATI, więc nie można za niego obciążać AMD, tylko dlatego, że ukazał się, gdy firma z Kanady była już jego cześcią składową.

Inna sprawa, że chyba jesteś malkontentem - CGN również Ci się nie podoba, choć to udana architektura.

Co do Bulldozera, to niestety należy traktować go jak produkt beta - interesująca ale niedopracowana architektura w niedopracowanym procesie technologicznym.

Btw, nie oczekuj cudów - CPU w nawet najbardziej doszlifowanych 32nm, będzie miał wyższy pobór mocy niż procesor konkurenta w 22nm.
GacorZobacz profil
Poziom ostrzeżenia: 0%
Gacor2012.04.30, 03:07
krzysiek8511 @ 2012.04.29 21:17  Post: 567973
Gacor @ 2012.04.29 18:15  Post: 567966
Patrzę i nie wierzę że są jeszcze fanboje licytujące się jakie to AMD nie jest dobre... Ale żal!


Po przeczytaniu tego posta zrozumielem ze jesteś fanbojem Intela lub amebą(jak nie wiesz co to ameba, to wygogluj).

Ja jak miałem 11 lat mówiłem 'żal', ale z tego wyrosłem, a ty chyba masz te 11 lat w dół. :)


Nie trzeba być fanbojem Intela, żeby stwierdzić że AMD jest do bani ostatnimi cvzasy. Naprawdę nie trzeba
*Konto usunięte*2012.04.30, 06:11
rainy @ 2012.04.29 23:12  Post: 567984
SunTzu @ 2012.04.29 22:32  Post: 567975

Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD.


Kolego, zawodzi Cię cokolwiek pamięć.
R600 to był jeszcze autorski projekt ATI, więc nie można za niego obciążać AMD, tylko dlatego, że ukazał się, gdy firma z Kanady była już jego cześcią składową.

Inna sprawa, że chyba jesteś malkontentem - CGN również Ci się nie podoba, choć to udana architektura.

Co do Bulldozera, to niestety należy traktować go jak produkt beta - interesująca ale niedopracowana architektura w niedopracowanym procesie technologicznym.

Btw, nie oczekuj cudów - CPU w nawet najbardziej doszlifowanych 32nm, będzie miał wyższy pobór mocy niż procesor konkurenta w 22nm.

Różnica żadna ATI czy AMD. Ważny sens, a mi chodziło o to, że GPU było udane, a karta uwalona.
GCN udane zależy pod jakim względem. Bo AMD odprd... by zrobić coś takiego. Wydajność w OCL wzrosła do nieprawdopodobnego poziomu, ale jakim kosztem. Spójrz na konkurencję czyli NV, której nowe GPU to nic innego niż pójście w kierunku architektury HD2/3/4/5/6->VLIW. Ogromne uproszczenie względem GF5. Nie narzekam w stosunku do GF79xx, bo to moim zdaniem najlepsze dostępne GPU. Natomiast narzekam w stosunku do niższych półek gdzie HD77xx mogłoby spokojnie pobić 6870.

Po drugie... są cuda. Bo lepszym procesorze możesz obniżyć zegar. Obniżając zegar i napięcia spokojnie można obniżyć TDP. Gdyby 3GHz AMD pobiło IB@4,2GHz...
... Tak jest możliwe, że procesor w gorszym procesie będzie miał lepesze TDP. Po pierwsze Phenom II, po drugie Nehalem. Ciągną mniej energii i zapewniają lepszą wydajność.
eagleZobacz profil
Poziom ostrzeżenia: 0%
eagle2012.04.30, 06:55
Tak się składa że mam służbowego lapka na i5 z 3mb kaszy oraz 2/4 T.
Lapek jest zaszyfrowany, oraz potraktowany nortonem.
Ciągłe zacinki i mulenie systemu ni jak się mają do wyników w pi czy innym 'profi' benchmarku.
Podobny sprzęt, ale z większą kaszą nie ma już takich myków.
Ja od dawna nie wierzę w to co jest napisane w słupkach, ni jak się to ma do rzeczywistego komfortu pracy.
Podobna sytuacja jest z pentium i amd też 2 rdzenie ale z 6mb kaszy na stacjonarkach. Kupa app działających w tle powoduje przymulanie stacji na intelach i pentium. Na AMD pracuje się dużo bardziej komfortowo.
Podobnie kiedyś było na podkręconych celkach i sempronach które w markach i testach wypadały nie wiele gorzej od p2, p3 i athlona a praca na nich była nie do zniesienia pod win z masą otwartych app.
Ja od czasu celka nigdy nie kupiłem i nie kupię wykastrowanych procków.
Praca na i3 z porównaniem do starego core2 z 6 gb kaszy również daje wiele do myślenia.
Papencjusz_27Zobacz profil
Poziom ostrzeżenia: 0%
Papencjusz_272012.04.30, 08:08
Gdyby AMD wypuściło BLDZ 5 lat temu to by była istna rewolucja natomiast nie w tych czasach :E Prawda jest taka że nawet mój kolega z pracy (największy fanboy AMD jakiego znałem z moich znajomych) kilka dni temu kupił Intela Pentium G840 :E AMD traci coraz więcej swoich fanboi :E Drugi kolega z pracy kupił MSI GTX680 a miał kupować HD7970 - jednak wstrzymał się z zakupem aż pojawi się GTX680, przeanalizował testy, widział jak te karty obie się spisują na żywo (pracujemy w sklepie komputerowym) i sam powiedział że GF trzyma o wiele stabilniejsze FPS w grach zaś Radeon notuje mega spadki FPS w grach:E I to nie tylko ja zauważyłem ale większość osób... Nagle na Radeonie masz załóżmy 80 FPS by za moment było na ekranie 50 FPS, zaś na GF spadki o wiele mniejsze i mając 80 FPS spada do 70 FPS.
SreponkZobacz profil
Poziom ostrzeżenia: 0%
Sreponk2012.04.30, 08:17
Papencjusz zauważasz spadek do 50 fps? To raz, a dwa 7970 jest duuuuużo tańszy niż 680
Papencjusz_27Zobacz profil
Poziom ostrzeżenia: 0%
Papencjusz_272012.04.30, 08:20
Sreponk @ 2012.04.30 08:17  Post: 567998
Papencjusz zauważasz spadek do 50 fps? To raz, a dwa 7970 jest duuuuużo tańszy niż 680


Podczas gry sieciowej w BF3 wierz mi na słowo zauważyłbyś ten mega spadek wydajności ponieważ tam do mega płynnej gry musisz mieć non stop 60 FPS :-) Wczoraj rozmawiałem z kolegą co ma MSI GTX680 i jest tak zadowolony z zakupu jak nie wiem, po pierwsze w BF3 w 1920x1080 na detalach ultra ma 80-90FPS, po drugie karta na 50% obrotów ma w BF3 raptem 60 stopni (na obrotach AUTO) ma 70 stopni oraz po trzecie kręci się jak szalona - bez podnoszenia napięcia na rdzeniu uzyskał 1210 MHz!!
SreponkZobacz profil
Poziom ostrzeżenia: 0%
Sreponk2012.04.30, 08:56
Przy grze sieciowej możliwe, że widać ten spadek, nie wiem nie gram po sieci.
fajny RafałekZobacz profil
Poziom ostrzeżenia: 0%
fajny Rafałek2012.04.30, 10:26
Tylko Atom to nie jest najlepsza architektura Intela? Natomiast IB jest.Co tu dużo do myślenia. Może ugryźmy temat inaczej. Może buldek jest skierowany na jakiś konkretny rynek? Może jest skierowany dla pewnej grupy odbiorców. Tylko on nie jest energooszczędny, nie jest wydajniejszy w jakim kolwiek zadaniu. Jedyny jego plus jest to, że jest....
... Ale wciąż nie jest od 1100T czyli swojego poprzednika. 1100T to jednak lepszy procesor pod względem wydajności.

Szkop w tym, że nie ma AES. Gdyby miał kupiłbym bez wahania. Tak, więc FX to ciekawy krok niestety nie do przodu....

Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD. Zrobili 512bitową kartę. W dodatku było gorące. Ale samo GPU było bardzo małe i tanie w produkcji. Tak, więc była nadzieja, bo konkurencja miała dużo wydajniejsze, ale tez dużo większe GPU.

Teraz porównajmy to z buldkiem, który jest większy od IB, ma więcej tranzystorów, większy pobór energii, wysokie temperatury, a przy tym wszystkim mniej wydajny. Który z elementów daje tutaj przyszłość?

Jak dla mnie przyszłość to Llano gdzie mamy GPU, które daje nadzieję.


Nie ma złych produktów (no może dopóki nie wybuchają :E), są tylko nieodpowiednie ceny. Idealny przykład w tej kwestii to GTXy 480 i 470. Przy premierze stanowił rozczarowanie, ale później, gdy weszły 5xx, okazało się, że można go kupić tanio (z drugiej ręki) - 180 stopni zmiany w podejściu. Są osoby na labie, które wychwalają te karty pod niebiosa, można wręcz powiedzieć, że to taki kult.

Natomiast narzekam w stosunku do niższych półek gdzie HD77xx mogłoby spokojnie pobić 6870.


A taki był cel?
*Konto usunięte*2012.04.30, 11:15
ciekawostka-plotka (ale bardzo prawdopodobna)

spadek cen ponoć spowodowany jest bardzo dobrym uzyskiem w 32nm a dzieki temu amd chce prowadzic z intelem wijne cenową

duze prawdopodobieństwo że trinity bedzie tańsze niż llano w dniu premiery
Kraft135Zobacz profil
Poziom ostrzeżenia: 0%
Kraft1352012.04.30, 11:41
Papencjusz_27 @ 2012.04.30 08:20  Post: 567999
Podczas gry sieciowej w BF3 wierz mi na słowo zauważyłbyś ten mega spadek wydajności ponieważ tam do mega płynnej gry musisz mieć non stop 60 FPS :-) Wczoraj rozmawiałem z kolegą co ma MSI GTX680 i jest tak zadowolony z zakupu jak nie wiem, po pierwsze w BF3 w 1920x1080 na detalach ultra ma 80-90FPS, po drugie karta na 50% obrotów ma w BF3 raptem 60 stopni (na obrotach AUTO) ma 70 stopni oraz po trzecie kręci się jak szalona - bez podnoszenia napięcia na rdzeniu uzyskał 1210 MHz!!


Bajki chłopie opowiadasz. Pokaż mi grę, w której Radek ma tak drastyczne spadki względem NV. W BF3? Bzdury wyssane z brudnego palucha. W cenie 680-tki kupujesz niereferenta 7970, z lepszym chłodzeniem i znacznie lepszą jakością wykonania. Obie karty kręcą się bardzo dobrze, więc grzech im taktów nie podbić - te 1150 na rdzeniu luzem w obu przypadkach. I w takich warunkach obie karty spisują się w grach bardzo podobnie. Raz wygrywa Radek, raz 680, natomiast im większa rozdzielczość, im większe detale oraz im więcej monitorów tym przewaga Radosława rośnie, a chyba nie kupuje się hajendu żeby pykać w hd ready. Bije też dżiforsa w GPGPU na łeb. Sądząc po twoich wypowiedziach niedługo opuścisz gimnazjum. Gdzieś tam w średniej szkole każą ci na infie coś wyrenderować, i podczas gdy inni kumple uwiną się z Radkiem w trzy migi i wyskoczą na browara, ty będziesz dalej ślęczał przy robocie z 680-tką ;)
*Konto usunięte*2012.04.30, 11:58
Papencjusz_27 @ 2012.04.30 08:20  Post: 567999
Sreponk @ 2012.04.30 08:17  Post: 567998
Papencjusz zauważasz spadek do 50 fps? To raz, a dwa 7970 jest duuuuużo tańszy niż 680


Podczas gry sieciowej w BF3 wierz mi na słowo zauważyłbyś ten mega spadek wydajności ponieważ tam do mega płynnej gry musisz mieć non stop 60 FPS :-) Wczoraj rozmawiałem z kolegą co ma MSI GTX680 i jest tak zadowolony z zakupu jak nie wiem, po pierwsze w BF3 w 1920x1080 na detalach ultra ma 80-90FPS, po drugie karta na 50% obrotów ma w BF3 raptem 60 stopni (na obrotach AUTO) ma 70 stopni oraz po trzecie kręci się jak szalona - bez podnoszenia napięcia na rdzeniu uzyskał 1210 MHz!!


z tego co pamiętam aby podbić 680 wyżej niż 1150mhz trzeba też podbić napięcie za to radek idzie wyżej bez podbicia
krzysiek8511Zobacz profil
Poziom ostrzeżenia: 0%
krzysiek85112012.04.30, 12:03
Gacor @ 2012.04.30 03:07  Post: 567993
krzysiek8511 @ 2012.04.29 21:17  Post: 567973
(...)


Po przeczytaniu tego posta zrozumielem ze jesteś fanbojem Intela lub amebą(jak nie wiesz co to ameba, to wygogluj).

Ja jak miałem 11 lat mówiłem 'żal', ale z tego wyrosłem, a ty chyba masz te 11 lat w dół. :)


Nie trzeba być fanbojem Intela, żeby stwierdzić że AMD jest do bani ostatnimi cvzasy. Naprawdę nie trzeba


Niektóre procesory AMD w swojej cenie nie maja konkurentów, dlatego do pewnych zastosowań te są lepsze, a intele w innych.
SreponkZobacz profil
Poziom ostrzeżenia: 0%
Sreponk2012.04.30, 12:10
Referent 680 - 2000+
Niereferent Gigabyte 7970 - 1850
W tym wypadku lepiej brać Radeona. Wyżej się podkręci, będzie ciszej i chłodniej, a przy podkręconych kartach wydajność w FHD bardzo podobna
*Konto usunięte*2012.04.30, 13:25
mlodybe @ 2012.04.30 11:15  Post: 568040
ciekawostka-plotka (ale bardzo prawdopodobna)

spadek cen ponoć spowodowany jest bardzo dobrym uzyskiem w 32nm a dzieki temu amd chce prowadzic z intelem wijne cenową

duze prawdopodobieństwo że trinity bedzie tańsze niż llano w dniu premiery

Dziwnym trafem w momencie gdy wchodzi IB po niższych cenach niż SB...
*Konto usunięte*2012.04.30, 13:57
SunTzu @ 2012.04.30 13:25  Post: 568075
mlodybe @ 2012.04.30 11:15  Post: 568040
ciekawostka-plotka (ale bardzo prawdopodobna)

spadek cen ponoć spowodowany jest bardzo dobrym uzyskiem w 32nm a dzieki temu amd chce prowadzic z intelem wijne cenową

duze prawdopodobieństwo że trinity bedzie tańsze niż llano w dniu premiery

Dziwnym trafem w momencie gdy wchodzi IB po niższych cenach niż SB...


bardziej chodzi o to że AMD mimo dobregu uzysku zarobiło sporo wiecej dzieki wysokiej marży
fakt wyjście IB ma ogromny wplyw ale gdyby nie mieli z czego obniżać to by nie obniżali cen aż tak

w tym co napisałem odnosiłem sie bardziej do cen trinity które mam zamiar kupić
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.