Tylko Atom to nie jest najlepsza architektura Intela? Natomiast IB jest.Co tu dużo do myślenia. Może ugryźmy temat inaczej. Może buldek jest skierowany na jakiś konkretny rynek? Może jest skierowany dla pewnej grupy odbiorców. Tylko on nie jest energooszczędny, nie jest wydajniejszy w jakim kolwiek zadaniu. Jedyny jego plus jest to, że jest....
... Ale wciąż nie jest od 1100T czyli swojego poprzednika. 1100T to jednak lepszy procesor pod względem wydajności.
Szkop w tym, że nie ma AES. Gdyby miał kupiłbym bez wahania. Tak, więc FX to ciekawy krok niestety nie do przodu....
Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD. Zrobili 512bitową kartę. W dodatku było gorące. Ale samo GPU było bardzo małe i tanie w produkcji. Tak, więc była nadzieja, bo konkurencja miała dużo wydajniejsze, ale tez dużo większe GPU.
Teraz porównajmy to z buldkiem, który jest większy od IB, ma więcej tranzystorów, większy pobór energii, wysokie temperatury, a przy tym wszystkim mniej wydajny. Który z elementów daje tutaj przyszłość?
Jak dla mnie przyszłość to Llano gdzie mamy GPU, które daje nadzieję.
Przecież natleży zestawić ze sobą konkurentów cenowych.
Przy premierze i7, teraz i5
Można i nie trzeba. Można też porównać procesory o tym samym poborze energii (który zaoferuje większą wydajność/wat). Jak chcesz brać pod uwagę cenę to w takim razie na dzień dobry trzeba zapomnieć o buldku bo PhenomII jest lepszy.
Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD.
Kolego, zawodzi Cię cokolwiek pamięć.
R600 to był jeszcze autorski projekt ATI, więc nie można za niego obciążać AMD, tylko dlatego, że ukazał się, gdy firma z Kanady była już jego cześcią składową.
Inna sprawa, że chyba jesteś malkontentem - CGN również Ci się nie podoba, choć to udana architektura.
Co do Bulldozera, to niestety należy traktować go jak produkt beta - interesująca ale niedopracowana architektura w niedopracowanym procesie technologicznym.
Btw, nie oczekuj cudów - CPU w nawet najbardziej doszlifowanych 32nm, będzie miał wyższy pobór mocy niż procesor konkurenta w 22nm.
Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD.
Kolego, zawodzi Cię cokolwiek pamięć.
R600 to był jeszcze autorski projekt ATI, więc nie można za niego obciążać AMD, tylko dlatego, że ukazał się, gdy firma z Kanady była już jego cześcią składową.
Inna sprawa, że chyba jesteś malkontentem - CGN również Ci się nie podoba, choć to udana architektura.
Co do Bulldozera, to niestety należy traktować go jak produkt beta - interesująca ale niedopracowana architektura w niedopracowanym procesie technologicznym.
Btw, nie oczekuj cudów - CPU w nawet najbardziej doszlifowanych 32nm, będzie miał wyższy pobór mocy niż procesor konkurenta w 22nm.
Różnica żadna ATI czy AMD. Ważny sens, a mi chodziło o to, że GPU było udane, a karta uwalona.
GCN udane zależy pod jakim względem. Bo AMD odprd... by zrobić coś takiego. Wydajność w OCL wzrosła do nieprawdopodobnego poziomu, ale jakim kosztem. Spójrz na konkurencję czyli NV, której nowe GPU to nic innego niż pójście w kierunku architektury HD2/3/4/5/6->VLIW. Ogromne uproszczenie względem GF5. Nie narzekam w stosunku do GF79xx, bo to moim zdaniem najlepsze dostępne GPU. Natomiast narzekam w stosunku do niższych półek gdzie HD77xx mogłoby spokojnie pobić 6870.
Po drugie... są cuda. Bo lepszym procesorze możesz obniżyć zegar. Obniżając zegar i napięcia spokojnie można obniżyć TDP. Gdyby 3GHz AMD pobiło IB@4,2GHz...
... Tak jest możliwe, że procesor w gorszym procesie będzie miał lepesze TDP. Po pierwsze Phenom II, po drugie Nehalem. Ciągną mniej energii i zapewniają lepszą wydajność.
Tak się składa że mam służbowego lapka na i5 z 3mb kaszy oraz 2/4 T.
Lapek jest zaszyfrowany, oraz potraktowany nortonem.
Ciągłe zacinki i mulenie systemu ni jak się mają do wyników w pi czy innym 'profi' benchmarku.
Podobny sprzęt, ale z większą kaszą nie ma już takich myków.
Ja od dawna nie wierzę w to co jest napisane w słupkach, ni jak się to ma do rzeczywistego komfortu pracy.
Podobna sytuacja jest z pentium i amd też 2 rdzenie ale z 6mb kaszy na stacjonarkach. Kupa app działających w tle powoduje przymulanie stacji na intelach i pentium. Na AMD pracuje się dużo bardziej komfortowo.
Podobnie kiedyś było na podkręconych celkach i sempronach które w markach i testach wypadały nie wiele gorzej od p2, p3 i athlona a praca na nich była nie do zniesienia pod win z masą otwartych app.
Ja od czasu celka nigdy nie kupiłem i nie kupię wykastrowanych procków.
Praca na i3 z porównaniem do starego core2 z 6 gb kaszy również daje wiele do myślenia.
Gdyby AMD wypuściło BLDZ 5 lat temu to by była istna rewolucja natomiast nie w tych czasach Prawda jest taka że nawet mój kolega z pracy (największy fanboy AMD jakiego znałem z moich znajomych) kilka dni temu kupił Intela Pentium G840 AMD traci coraz więcej swoich fanboi Drugi kolega z pracy kupił MSI GTX680 a miał kupować HD7970 - jednak wstrzymał się z zakupem aż pojawi się GTX680, przeanalizował testy, widział jak te karty obie się spisują na żywo (pracujemy w sklepie komputerowym) i sam powiedział że GF trzyma o wiele stabilniejsze FPS w grach zaś Radeon notuje mega spadki FPS w grach I to nie tylko ja zauważyłem ale większość osób... Nagle na Radeonie masz załóżmy 80 FPS by za moment było na ekranie 50 FPS, zaś na GF spadki o wiele mniejsze i mając 80 FPS spada do 70 FPS.
Papencjusz zauważasz spadek do 50 fps? To raz, a dwa 7970 jest duuuuużo tańszy niż 680
Podczas gry sieciowej w BF3 wierz mi na słowo zauważyłbyś ten mega spadek wydajności ponieważ tam do mega płynnej gry musisz mieć non stop 60 FPS Wczoraj rozmawiałem z kolegą co ma MSI GTX680 i jest tak zadowolony z zakupu jak nie wiem, po pierwsze w BF3 w 1920x1080 na detalach ultra ma 80-90FPS, po drugie karta na 50% obrotów ma w BF3 raptem 60 stopni (na obrotach AUTO) ma 70 stopni oraz po trzecie kręci się jak szalona - bez podnoszenia napięcia na rdzeniu uzyskał 1210 MHz!!
Tylko Atom to nie jest najlepsza architektura Intela? Natomiast IB jest.Co tu dużo do myślenia. Może ugryźmy temat inaczej. Może buldek jest skierowany na jakiś konkretny rynek? Może jest skierowany dla pewnej grupy odbiorców. Tylko on nie jest energooszczędny, nie jest wydajniejszy w jakim kolwiek zadaniu. Jedyny jego plus jest to, że jest....
... Ale wciąż nie jest od 1100T czyli swojego poprzednika. 1100T to jednak lepszy procesor pod względem wydajności.
Szkop w tym, że nie ma AES. Gdyby miał kupiłbym bez wahania. Tak, więc FX to ciekawy krok niestety nie do przodu....
Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD. Zrobili 512bitową kartę. W dodatku było gorące. Ale samo GPU było bardzo małe i tanie w produkcji. Tak, więc była nadzieja, bo konkurencja miała dużo wydajniejsze, ale tez dużo większe GPU.
Teraz porównajmy to z buldkiem, który jest większy od IB, ma więcej tranzystorów, większy pobór energii, wysokie temperatury, a przy tym wszystkim mniej wydajny. Który z elementów daje tutaj przyszłość?
Jak dla mnie przyszłość to Llano gdzie mamy GPU, które daje nadzieję.
Nie ma złych produktów (no może dopóki nie wybuchają ), są tylko nieodpowiednie ceny. Idealny przykład w tej kwestii to GTXy 480 i 470. Przy premierze stanowił rozczarowanie, ale później, gdy weszły 5xx, okazało się, że można go kupić tanio (z drugiej ręki) - 180 stopni zmiany w podejściu. Są osoby na labie, które wychwalają te karty pod niebiosa, można wręcz powiedzieć, że to taki kult.
Natomiast narzekam w stosunku do niższych półek gdzie HD77xx mogłoby spokojnie pobić 6870.
Podczas gry sieciowej w BF3 wierz mi na słowo zauważyłbyś ten mega spadek wydajności ponieważ tam do mega płynnej gry musisz mieć non stop 60 FPS Wczoraj rozmawiałem z kolegą co ma MSI GTX680 i jest tak zadowolony z zakupu jak nie wiem, po pierwsze w BF3 w 1920x1080 na detalach ultra ma 80-90FPS, po drugie karta na 50% obrotów ma w BF3 raptem 60 stopni (na obrotach AUTO) ma 70 stopni oraz po trzecie kręci się jak szalona - bez podnoszenia napięcia na rdzeniu uzyskał 1210 MHz!!
Bajki chłopie opowiadasz. Pokaż mi grę, w której Radek ma tak drastyczne spadki względem NV. W BF3? Bzdury wyssane z brudnego palucha. W cenie 680-tki kupujesz niereferenta 7970, z lepszym chłodzeniem i znacznie lepszą jakością wykonania. Obie karty kręcą się bardzo dobrze, więc grzech im taktów nie podbić - te 1150 na rdzeniu luzem w obu przypadkach. I w takich warunkach obie karty spisują się w grach bardzo podobnie. Raz wygrywa Radek, raz 680, natomiast im większa rozdzielczość, im większe detale oraz im więcej monitorów tym przewaga Radosława rośnie, a chyba nie kupuje się hajendu żeby pykać w hd ready. Bije też dżiforsa w GPGPU na łeb. Sądząc po twoich wypowiedziach niedługo opuścisz gimnazjum. Gdzieś tam w średniej szkole każą ci na infie coś wyrenderować, i podczas gdy inni kumple uwiną się z Radkiem w trzy migi i wyskoczą na browara, ty będziesz dalej ślęczał przy robocie z 680-tką
Papencjusz zauważasz spadek do 50 fps? To raz, a dwa 7970 jest duuuuużo tańszy niż 680
Podczas gry sieciowej w BF3 wierz mi na słowo zauważyłbyś ten mega spadek wydajności ponieważ tam do mega płynnej gry musisz mieć non stop 60 FPS Wczoraj rozmawiałem z kolegą co ma MSI GTX680 i jest tak zadowolony z zakupu jak nie wiem, po pierwsze w BF3 w 1920x1080 na detalach ultra ma 80-90FPS, po drugie karta na 50% obrotów ma w BF3 raptem 60 stopni (na obrotach AUTO) ma 70 stopni oraz po trzecie kręci się jak szalona - bez podnoszenia napięcia na rdzeniu uzyskał 1210 MHz!!
z tego co pamiętam aby podbić 680 wyżej niż 1150mhz trzeba też podbić napięcie za to radek idzie wyżej bez podbicia
Referent 680 - 2000+
Niereferent Gigabyte 7970 - 1850
W tym wypadku lepiej brać Radeona. Wyżej się podkręci, będzie ciszej i chłodniej, a przy podkręconych kartach wydajność w FHD bardzo podobna
spadek cen ponoć spowodowany jest bardzo dobrym uzyskiem w 32nm a dzieki temu amd chce prowadzic z intelem wijne cenową
duze prawdopodobieństwo że trinity bedzie tańsze niż llano w dniu premiery
Dziwnym trafem w momencie gdy wchodzi IB po niższych cenach niż SB...
bardziej chodzi o to że AMD mimo dobregu uzysku zarobiło sporo wiecej dzieki wysokiej marży
fakt wyjście IB ma ogromny wplyw ale gdyby nie mieli z czego obniżać to by nie obniżali cen aż tak
w tym co napisałem odnosiłem sie bardziej do cen trinity które mam zamiar kupić
... Ale wciąż nie jest od 1100T czyli swojego poprzednika. 1100T to jednak lepszy procesor pod względem wydajności.
Szkop w tym, że nie ma AES. Gdyby miał kupiłbym bez wahania. Tak, więc FX to ciekawy krok niestety nie do przodu....
Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD. Zrobili 512bitową kartę. W dodatku było gorące. Ale samo GPU było bardzo małe i tanie w produkcji. Tak, więc była nadzieja, bo konkurencja miała dużo wydajniejsze, ale tez dużo większe GPU.
Teraz porównajmy to z buldkiem, który jest większy od IB, ma więcej tranzystorów, większy pobór energii, wysokie temperatury, a przy tym wszystkim mniej wydajny. Który z elementów daje tutaj przyszłość?
Jak dla mnie przyszłość to Llano gdzie mamy GPU, które daje nadzieję.
Przy premierze i7, teraz i5
Przy premierze i7, teraz i5
Można i nie trzeba. Można też porównać procesory o tym samym poborze energii (który zaoferuje większą wydajność/wat). Jak chcesz brać pod uwagę cenę to w takim razie na dzień dobry trzeba zapomnieć o buldku bo PhenomII jest lepszy.
Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD.
Kolego, zawodzi Cię cokolwiek pamięć.
R600 to był jeszcze autorski projekt ATI, więc nie można za niego obciążać AMD, tylko dlatego, że ukazał się, gdy firma z Kanady była już jego cześcią składową.
Inna sprawa, że chyba jesteś malkontentem - CGN również Ci się nie podoba, choć to udana architektura.
Co do Bulldozera, to niestety należy traktować go jak produkt beta - interesująca ale niedopracowana architektura w niedopracowanym procesie technologicznym.
Btw, nie oczekuj cudów - CPU w nawet najbardziej doszlifowanych 32nm, będzie miał wyższy pobór mocy niż procesor konkurenta w 22nm.
Po przeczytaniu tego posta zrozumielem ze jesteś fanbojem Intela lub amebą(jak nie wiesz co to ameba, to wygogluj).
Ja jak miałem 11 lat mówiłem 'żal', ale z tego wyrosłem, a ty chyba masz te 11 lat w dół.
Nie trzeba być fanbojem Intela, żeby stwierdzić że AMD jest do bani ostatnimi cvzasy. Naprawdę nie trzeba
Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD.
Kolego, zawodzi Cię cokolwiek pamięć.
R600 to był jeszcze autorski projekt ATI, więc nie można za niego obciążać AMD, tylko dlatego, że ukazał się, gdy firma z Kanady była już jego cześcią składową.
Inna sprawa, że chyba jesteś malkontentem - CGN również Ci się nie podoba, choć to udana architektura.
Co do Bulldozera, to niestety należy traktować go jak produkt beta - interesująca ale niedopracowana architektura w niedopracowanym procesie technologicznym.
Btw, nie oczekuj cudów - CPU w nawet najbardziej doszlifowanych 32nm, będzie miał wyższy pobór mocy niż procesor konkurenta w 22nm.
Różnica żadna ATI czy AMD. Ważny sens, a mi chodziło o to, że GPU było udane, a karta uwalona.
GCN udane zależy pod jakim względem. Bo AMD odprd... by zrobić coś takiego. Wydajność w OCL wzrosła do nieprawdopodobnego poziomu, ale jakim kosztem. Spójrz na konkurencję czyli NV, której nowe GPU to nic innego niż pójście w kierunku architektury HD2/3/4/5/6->VLIW. Ogromne uproszczenie względem GF5. Nie narzekam w stosunku do GF79xx, bo to moim zdaniem najlepsze dostępne GPU. Natomiast narzekam w stosunku do niższych półek gdzie HD77xx mogłoby spokojnie pobić 6870.
Po drugie... są cuda. Bo lepszym procesorze możesz obniżyć zegar. Obniżając zegar i napięcia spokojnie można obniżyć TDP. Gdyby 3GHz AMD pobiło IB@4,2GHz...
... Tak jest możliwe, że procesor w gorszym procesie będzie miał lepesze TDP. Po pierwsze Phenom II, po drugie Nehalem. Ciągną mniej energii i zapewniają lepszą wydajność.
Lapek jest zaszyfrowany, oraz potraktowany nortonem.
Ciągłe zacinki i mulenie systemu ni jak się mają do wyników w pi czy innym 'profi' benchmarku.
Podobny sprzęt, ale z większą kaszą nie ma już takich myków.
Ja od dawna nie wierzę w to co jest napisane w słupkach, ni jak się to ma do rzeczywistego komfortu pracy.
Podobna sytuacja jest z pentium i amd też 2 rdzenie ale z 6mb kaszy na stacjonarkach. Kupa app działających w tle powoduje przymulanie stacji na intelach i pentium. Na AMD pracuje się dużo bardziej komfortowo.
Podobnie kiedyś było na podkręconych celkach i sempronach które w markach i testach wypadały nie wiele gorzej od p2, p3 i athlona a praca na nich była nie do zniesienia pod win z masą otwartych app.
Ja od czasu celka nigdy nie kupiłem i nie kupię wykastrowanych procków.
Praca na i3 z porównaniem do starego core2 z 6 gb kaszy również daje wiele do myślenia.
Podczas gry sieciowej w BF3 wierz mi na słowo zauważyłbyś ten mega spadek wydajności ponieważ tam do mega płynnej gry musisz mieć non stop 60 FPS
... Ale wciąż nie jest od 1100T czyli swojego poprzednika. 1100T to jednak lepszy procesor pod względem wydajności.
Szkop w tym, że nie ma AES. Gdyby miał kupiłbym bez wahania. Tak, więc FX to ciekawy krok niestety nie do przodu....
Był przykład HD2900, który miałby być porażką. Przypomnijcie sobie to GPU, które zostało uwalone na własne życzenie AMD. Zrobili 512bitową kartę. W dodatku było gorące. Ale samo GPU było bardzo małe i tanie w produkcji. Tak, więc była nadzieja, bo konkurencja miała dużo wydajniejsze, ale tez dużo większe GPU.
Teraz porównajmy to z buldkiem, który jest większy od IB, ma więcej tranzystorów, większy pobór energii, wysokie temperatury, a przy tym wszystkim mniej wydajny. Który z elementów daje tutaj przyszłość?
Jak dla mnie przyszłość to Llano gdzie mamy GPU, które daje nadzieję.
Nie ma złych produktów (no może dopóki nie wybuchają
A taki był cel?
spadek cen ponoć spowodowany jest bardzo dobrym uzyskiem w 32nm a dzieki temu amd chce prowadzic z intelem wijne cenową
duze prawdopodobieństwo że trinity bedzie tańsze niż llano w dniu premiery
Bajki chłopie opowiadasz. Pokaż mi grę, w której Radek ma tak drastyczne spadki względem NV. W BF3? Bzdury wyssane z brudnego palucha. W cenie 680-tki kupujesz niereferenta 7970, z lepszym chłodzeniem i znacznie lepszą jakością wykonania. Obie karty kręcą się bardzo dobrze, więc grzech im taktów nie podbić - te 1150 na rdzeniu luzem w obu przypadkach. I w takich warunkach obie karty spisują się w grach bardzo podobnie. Raz wygrywa Radek, raz 680, natomiast im większa rozdzielczość, im większe detale oraz im więcej monitorów tym przewaga Radosława rośnie, a chyba nie kupuje się hajendu żeby pykać w hd ready. Bije też dżiforsa w GPGPU na łeb. Sądząc po twoich wypowiedziach niedługo opuścisz gimnazjum. Gdzieś tam w średniej szkole każą ci na infie coś wyrenderować, i podczas gdy inni kumple uwiną się z Radkiem w trzy migi i wyskoczą na browara, ty będziesz dalej ślęczał przy robocie z 680-tką
Podczas gry sieciowej w BF3 wierz mi na słowo zauważyłbyś ten mega spadek wydajności ponieważ tam do mega płynnej gry musisz mieć non stop 60 FPS
z tego co pamiętam aby podbić 680 wyżej niż 1150mhz trzeba też podbić napięcie za to radek idzie wyżej bez podbicia
Po przeczytaniu tego posta zrozumielem ze jesteś fanbojem Intela lub amebą(jak nie wiesz co to ameba, to wygogluj).
Ja jak miałem 11 lat mówiłem 'żal', ale z tego wyrosłem, a ty chyba masz te 11 lat w dół.
Nie trzeba być fanbojem Intela, żeby stwierdzić że AMD jest do bani ostatnimi cvzasy. Naprawdę nie trzeba
Niektóre procesory AMD w swojej cenie nie maja konkurentów, dlatego do pewnych zastosowań te są lepsze, a intele w innych.
Niereferent Gigabyte 7970 - 1850
W tym wypadku lepiej brać Radeona. Wyżej się podkręci, będzie ciszej i chłodniej, a przy podkręconych kartach wydajność w FHD bardzo podobna
spadek cen ponoć spowodowany jest bardzo dobrym uzyskiem w 32nm a dzieki temu amd chce prowadzic z intelem wijne cenową
duze prawdopodobieństwo że trinity bedzie tańsze niż llano w dniu premiery
Dziwnym trafem w momencie gdy wchodzi IB po niższych cenach niż SB...
spadek cen ponoć spowodowany jest bardzo dobrym uzyskiem w 32nm a dzieki temu amd chce prowadzic z intelem wijne cenową
duze prawdopodobieństwo że trinity bedzie tańsze niż llano w dniu premiery
Dziwnym trafem w momencie gdy wchodzi IB po niższych cenach niż SB...
bardziej chodzi o to że AMD mimo dobregu uzysku zarobiło sporo wiecej dzieki wysokiej marży
fakt wyjście IB ma ogromny wplyw ale gdyby nie mieli z czego obniżać to by nie obniżali cen aż tak
w tym co napisałem odnosiłem sie bardziej do cen trinity które mam zamiar kupić