komentarze
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.02.09, 15:07
CortexM3 @ 2013.02.09 14:31  Post: 635568

Czy AMD sie odbije ? Może jak w nowych konsolach wyląduja ich APU i programiści zaczną pod nie optymalizować kod, to przynajmniej gry przyśpieszą na ich procach :).
Z drugiej strony ciekawa strategia. Po co marnować miliardy na wyścig technologiczny z Intelem, skoro czarną robotę mogą zrobić programiści piszący gry, i za połowę tych kosztów można dogonić rywala.


To są pobożne życzenia z nikłą szansą na spełnienie.

Nawet jeżeli w obu konsolach wylądują i CPU i GPU AMD to i jeżeli AMD nie poprawi wydajności swoich CPU dla PC i tak przegra w grach na PC z Intelem, nawet w tych grach które będą również w wersji na konsole na sprzęcie AMD.

Podawałem już różne przykłady jak np. Hitman Blood Money którego next genowa wersja była robiona z myślą o X360 (GPU ATI) podczas gdy na kartach ATI na PC działał bardzo słabo (błędy w grafice i relatywnie niska wydajność względem NV).

Poza tym konfiguracja konsoli jest stała, a sprzęt na PC zmienia się co roku.

CPU i GPU dla PC za ~2 lata prawdopodobnie nie będą miały już wiele wspólnego z tym co siedzi w nowych konsolach cokolwiek by to nie było.

Więc tym bardziej trudno będzie oczekiwać, że fakt użycia sprzętu AMD w konsoli będzie mieć jakiekolwiek przełożenie na wydajność w grach sprzętu AMD który pojawi się w przyszłości.

Zwłaszcza, że wiele wskazuje na to, że konfiguracje konsol nowej generacji będą bardzo przeciętne, bo mamy kryzys ekonomiczny i firmom nie opłaca się ładować ogromnych pieniędzy w wydajny hardware do którego potem jeszcze muszą dopłacać.

Zresztą będzie można się o tym przekonać już niebawem. Wiedźmin 3 będzie na PC oraz na next genach. Mogę się założyc, że w miejscach gdzie CPU ma coś do powiedzenia (tzn limitowanych wydajnością CPU a nie GPU) będzie chodził lepiej na PC z CPU Intela (z segmentu tego co Core i7 3770K) niż na PC z CPU AMD.
MichudrumZobacz profil
Poziom ostrzeżenia: 0%
Michudrum2013.02.09, 15:36
-13#162
Grave @ 2013.02.09 15:07  Post: 635575
CortexM3 @ 2013.02.09 14:31  Post: 635568

Czy AMD sie odbije ? Może jak w nowych konsolach wyląduja ich APU i programiści zaczną pod nie optymalizować kod, to przynajmniej gry przyśpieszą na ich procach :).
Z drugiej strony ciekawa strategia. Po co marnować miliardy na wyścig technologiczny z Intelem, skoro czarną robotę mogą zrobić programiści piszący gry, i za połowę tych kosztów można dogonić rywala.


To są pobożne życzenia z nikłą szansą na spełnienie.

Nawet jeżeli w obu konsolach wylądują i CPU i GPU AMD to i jeżeli AMD nie poprawi wydajności swoich CPU dla PC i tak przegra w grach na PC z Intelem, nawet w tych grach które będą również w wersji na konsole na sprzęcie AMD.

Podawałem już różne przykłady jak np. Hitman Blood Money którego next genowa wersja była robiona z myślą o X360 (GPU ATI) podczas gdy na kartach ATI na PC działał bardzo słabo (błędy w grafice i relatywnie niska wydajność względem NV).

Poza tym konfiguracja konsoli jest stała, a sprzęt na PC zmienia się co roku.

CPU i GPU dla PC za ~2 lata prawdopodobnie nie będą miały już wiele wspólnego z tym co siedzi w nowych konsolach cokolwiek by to nie było.

Więc tym bardziej trudno będzie oczekiwać, że fakt użycia sprzętu AMD w konsoli będzie mieć jakiekolwiek przełożenie na wydajność w grach sprzętu AMD który pojawi się w przyszłości.

Zwłaszcza, że wiele wskazuje na to, że konfiguracje konsol nowej generacji będą bardzo przeciętne, bo mamy kryzys ekonomiczny i firmom nie opłaca się ładować ogromnych pieniędzy w wydajny hardware do którego potem jeszcze muszą dopłacać.

Zresztą będzie można się o tym przekonać już niebawem. Wiedźmin 3 będzie na PC oraz na next genach. Mogę się założyc, że w miejscach gdzie CPU ma coś do powiedzenia (tzn limitowanych wydajnością CPU a nie GPU) będzie chodził lepiej na PC z CPU Intela (z segmentu tego co Core i7 3770K) niż na PC z CPU AMD.


Błagam. Zmień dealera i przestać pisać takie bzdury.
MarKol4Zobacz profil
Poziom ostrzeżenia: 0%
MarKol42013.02.09, 17:45
mooon @ 2013.02.09 08:16  Post: 635512
jkbrenna @ 2013.02.09 07:35  Post: 635511
(...)


Poniewaz juz Grave powiedzial ,ze pod windowsem lepiej miec jedno rdzeniowy 6 ghz CPU niz ten sam dwurdzeniowy 3ghz ( to tez jestem pewny), bardzo chetnie bym od tych co jakies pojecie o tym maja, jak ta sprawa wyglada z Ubuntu i Androidem na ARM, bo dyskusje w firmoie mielismy , ze wgl mnie lepiej 1,6 Ghz jeden rdzen, niz 2 rdzenie 1 Ghz ale to nie moge sporawdzic, w przy Androidzie RAM olbrzymia role robi...

Grave napisał nie jedną bzdurę. Gdyby chłopak kiedyś coś popisał to dowiedział by się ile czasu zajmuje przełączanie między wątkami na jednym rdzeniu.
Twierdzenie że 2 rdzenie są wolniejsze od jednego 2 x szybciej taktowanego ma sens jedynie przy 1 wątkowej aplikacji.
Akurat windows taką nie jest. Ale to eleborat na kilka stron google nie boli

Troche nie tak. Chcac zrownoleglic jakies dzialania watki musza sie synchronizowac (problem, gdzie zrownoleglenie jest trywialne jak w grafice czy kodowaniu w ogole nalezy odrzucic) co juz samo w sobie jest kosztowne.
Wtedy mozna algorytm zapisac na 1 watek tak, ze ten 6GHz bedzie szybszy niz dwa po 3GHz.
Ogolnie jest tak, ze jak chcesz minimalizowac czas przetwarzania to lepiej miec jeden szybszy a jesli zalezy ci na responsywnosci (czasie reakcji jakiegos systemu) to ten czas moze sie skracac przy wiekszej liczbie rdzeni.
Dlatego mocny rdzen to podstawa. Zreszta, jak dysponujemy jednym mocnym to mozna go powielic. Gorzej jak jest on slaby i wszystko na co mozna liczyc to powielanie.
*Konto usunięte*2013.02.09, 17:45
-11#164
Michudrum @ 2013.02.09 15:36  Post: 635580
Grave @ 2013.02.09 15:07  Post: 635575
(...)


To są pobożne życzenia z nikłą szansą na spełnienie.

Nawet jeżeli w obu konsolach wylądują i CPU i GPU AMD to i jeżeli AMD nie poprawi wydajności swoich CPU dla PC i tak przegra w grach na PC z Intelem, nawet w tych grach które będą również w wersji na konsole na sprzęcie AMD.

Podawałem już różne przykłady jak np. Hitman Blood Money którego next genowa wersja była robiona z myślą o X360 (GPU ATI) podczas gdy na kartach ATI na PC działał bardzo słabo (błędy w grafice i relatywnie niska wydajność względem NV).

Poza tym konfiguracja konsoli jest stała, a sprzęt na PC zmienia się co roku.

CPU i GPU dla PC za ~2 lata prawdopodobnie nie będą miały już wiele wspólnego z tym co siedzi w nowych konsolach cokolwiek by to nie było.

Więc tym bardziej trudno będzie oczekiwać, że fakt użycia sprzętu AMD w konsoli będzie mieć jakiekolwiek przełożenie na wydajność w grach sprzętu AMD który pojawi się w przyszłości.

Zwłaszcza, że wiele wskazuje na to, że konfiguracje konsol nowej generacji będą bardzo przeciętne, bo mamy kryzys ekonomiczny i firmom nie opłaca się ładować ogromnych pieniędzy w wydajny hardware do którego potem jeszcze muszą dopłacać.

Zresztą będzie można się o tym przekonać już niebawem. Wiedźmin 3 będzie na PC oraz na next genach. Mogę się założyc, że w miejscach gdzie CPU ma coś do powiedzenia (tzn limitowanych wydajnością CPU a nie GPU) będzie chodził lepiej na PC z CPU Intela (z segmentu tego co Core i7 3770K) niż na PC z CPU AMD.


Błagam. Zmień dealera i przestać pisać takie bzdury.


Odpuść sobie udowadniania trollowi swojej racji bo najpierw sprowadzi cie do swojego poziomu a potem dobije doświadczeniem.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842013.02.09, 17:57
@imiennick
Historia procków AMD wg mnie, z konkluzjami.
Dawno temu AMD kopiowało CPU Intela do K5 włącznie


Zacnie nieprawdziwe. AMD od intela dostało kompletną dokumentację jak wytwarzać ich procesory 8086, 8088, 80286 - zgodnie z umową zawartą z intelem dzięki naciskom IBM, który to musial mieć przynajmniej 2 dostawców procków dla swoich produktów. AMD co prawda wcześniej udało się zrobić procek kompatybilny z i8080 poprzez inżynierię wsteczną (a nie kopiowanie!) - może to zaważyło na decyzji IBM. Problem w tym, że po 286 intel uznał, że umowa nie obowiązuje nowszych produktów, przegrał, ale bodajże 386 był ostatnim rzeczywistym 100% klonem architektury intela. W przypadku Am486 kontra i486 nie były to zupełnie jednakowe architektury, a architektury zgodne na poziomie mikrokodu (czyli am486 nie był kalką, a rzeczywiście tworem AMD majacym zachować zgodność z intelem, ale nie na poziomie samej architektury!) Zarówno w przypadku 386 jak i 486 AMD udostępniało wyżej taktowane jednostki niż intel. K5 bazowało na rdzeniu AM29k więc jakim cudem miałaby to być kopia intela to nie mam pojęcia. Żeby było śmieszniej właśnie dlatego K5 miażdżyło w obliczeniach stałoliczbowych (nie stałoprzecinkowych - to coś zupełnie innego - integer vs fixed point) procesory intela. Tak, poważną wadą było FPU, w końcu to nie było typowe x87 i tłumaczenie na inny rdzeń sprawiało problemy. K6 właśnie nie było ich projektem, a jedynie rezultatem przejęcia NexGena :P Nadal FPU ssało, ale przynajmniej był MMX, a później (w K6-2 i K6-III) także 3DNow! niejednokrotnie dający niezłego boosta (przykładem niech będą późniejsze sterowniki 3dfx i nvidii!)
I nie, AMD nie popełniło teraz błędu zwiększając wydajność stałoliczbową - ta akurat na wątek zasadniczo nie uległa poprawie, natomiast to co uległo to wykorzystanie frontendu procka, dekoderów, FPU właśnie. Poprawiono najbardziej widocznie efektywność, wydajność znacznie mniej. Problem w tym, że arch. K8 nie okazała się równie podatną na ulepszenia co Core 2. Jeśli zobaczysz jak zmieniała się architektura intela przez ostatnie 7 lat to zauważysz, że nadal podstawowe bloki funkcjonalne są dokładnie w ten sam sposób zrobione. 3simple+1 complex decoder, jednostki wykonawcze na tych samych portach dispatchera. Poprawki z generacji na generację celują w likwidację wąskich gardeł, a nie przemeblowanie wnętrza proca. I całkiem dobrze to wychodzi. Ale jest też inna strona medalu. Wydajność FPU x87 wcale też mocno nie rośnie jak można by się zdawać. Producenci softu stosują rozszerzenia intela gdyż optymalizują kod używając wytycznych intela, narzędzi intela. Ile optymalizacja pod konkretną architekturę potrafi zdziałać wiedzą tylko ci, co coś czasem skrobną w jakimś IDE. Nie, nie usprawiedliwiam AMD, ale akurat Vishera nie wypada blado w większości wypadków dlatego, że jest beznadziejna, a dlatego, że nie jest prawidłowo supportowana.
jkbrennaZobacz profil
Poziom ostrzeżenia: 0%
jkbrenna2013.02.09, 18:04
MarKol4 @ 2013.02.09 17:45  Post: 635589
mooon @ 2013.02.09 08:16  Post: 635512
(...)

Grave napisał nie jedną bzdurę. Gdyby chłopak kiedyś coś popisał to dowiedział by się ile czasu zajmuje przełączanie między wątkami na jednym rdzeniu.
Twierdzenie że 2 rdzenie są wolniejsze od jednego 2 x szybciej taktowanego ma sens jedynie przy 1 wątkowej aplikacji.
Akurat windows taką nie jest. Ale to eleborat na kilka stron google nie boli

Troche nie tak. Chcac zrownoleglic jakies dzialania watki musza sie synchronizowac (problem, gdzie zrownoleglenie jest trywialne jak w grafice czy kodowaniu w ogole nalezy odrzucic) co juz samo w sobie jest kosztowne.
Wtedy mozna algorytm zapisac na 1 watek tak, ze ten 6GHz bedzie szybszy niz dwa po 3GHz.
Ogolnie jest tak, ze jak chcesz minimalizowac czas przetwarzania to lepiej miec jeden szybszy a jesli zalezy ci na responsywnosci (czasie reakcji jakiegos systemu) to ten czas moze sie skracac przy wiekszej liczbie rdzeni.
Dlatego mocny rdzen to podstawa. Zreszta, jak dysponujemy jednym mocnym to mozna go powielic. Gorzej jak jest on slaby i wszystko na co mozna liczyc to powielanie.


W koncu sensowna odpowiedz, czyli mozna powiedziec, ze wymagajace mocy gry, wiedzac,ze gracze conajmniej 4 rdzeniowymi CPU dysponuja, mozna juz gre takl napisac, aby ona 4 rdzenie optymalnie wykorzystala( tak samo specjalistyczne programy jak np CAD 3D, rendering itd), bardziej universalne programy raczej sa dla jednego rdzenia napisane i w tym przypadku lepiej miec silny i szybki rdzen...i tutaj Intel olbrzymia przewade na AMD ma...bo jak sie w koszykowce mowi, wysokiego gracza mozna zawsze szybszym zrobic , ale niski nigdy nie urosnie...

A jak jest w przypadku Androida, bo tam OEM wie doskonale na jakim urzadzaniu i do jakich uzyktownikow trafi...pozatym Android bedac w stosunku do Windowsa 10 razy krorszy, mozna go chyba latwiej dostosowac..

Jeszcze jedna rzecz jest Windows Mobile, z tym to chyba cyrk, bo juz z 7.5 nie mozna na 8 przejsc..

Promilus1984 - raczej AMD sie niechcaca od rynku oderwalo...i zamiast AMD64 dalej szybko rozwijac, wpadli w przygode z ATI i tutaj jest ten pies pogrzebany, bo jezeli nowy HD5000 od Intella, 2 krotnie szybszy jest od HD4000, to takze APU beda mialy za trwarda kosc do zgryzienia ,aby pozwolic AMD cos zarobic...a co mozliwosci Temasha, to mam olbrzymie watpliwosci. bo tam sie zawsze 4 rdzeniowy Temash z dwu rdzeniowym Hondo poròwnuje...Temash musi wejsc do Smartphonow , albo nic warty nie bedzie...


Popieram tez tego pana ,ktory sie co do wykresow wypowiedzial, uzywanie wykresow ciaglych uzywajac dane od poprzednich niezalezne, czyli zadne y=f(x), swiadczy o calkowitej ignorancji tego , ktory te wykresy narysowal..
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842013.02.09, 19:22
i zamiast AMD64 dalej szybko rozwijac, wpadli w przygode z AT

To swoją drogą, ale podejrzewam, że obecnie jednak więcej zarabiają na opteronach i GPU niż na CPU dla desktopów.
Co do APU vs Intel - nie ma obaw. FPS to na szczęście nie wszystko. Intel nadal ma dużo problemów w grach DX, o OGL nie wspominając. Transkodowane materiały przez QuickSync wyglądają gorzej niż na samym CPU, gorzej niż przy akceleracji CUDA i gorzej niż przy VCE, szybkość nie nadrobi utraty jakości. Prawda jest smutna - jak ktoś chce maksymalnie dobrą jakość zachować to niestety tylko CPU.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.02.09, 19:36
Promilus1984 @ 2013.02.09 19:22  Post: 635611
i zamiast AMD64 dalej szybko rozwijac, wpadli w przygode z AT

To swoją drogą, ale podejrzewam, że obecnie jednak więcej zarabiają na opteronach i GPU niż na CPU dla desktopów.
Co do APU vs Intel - nie ma obaw. FPS to na szczęście nie wszystko. Intel nadal ma dużo problemów w grach DX, o OGL nie wspominając. Transkodowane materiały przez QuickSync wyglądają gorzej niż na samym CPU, gorzej niż przy akceleracji CUDA i gorzej niż przy VCE, szybkość nie nadrobi utraty jakości. Prawda jest smutna - jak ktoś chce maksymalnie dobrą jakość zachować to niestety tylko CPU.


Wg techreport (test Trinity) Quicksync Intela i VCE AMD oferują podobną jakość, przy czym QS jest 2x szybszy, za to VCE generuje ~2x mniejsze pliki.


Both VCE and QuickSync appear to halve transcoding times... except the latter looks to be considerably faster. We didn't see much of a difference in output image quality between the two


http://techreport.com/review/22932/amd-a10...-apu-reviewed/8
jkbrennaZobacz profil
Poziom ostrzeżenia: 0%
jkbrenna2013.02.09, 19:40
Promilus1984 @ 2013.02.09 19:22  Post: 635611
i zamiast AMD64 dalej szybko rozwijac, wpadli w przygode z AT

To swoją drogą, ale podejrzewam, że obecnie jednak więcej zarabiają na opteronach i GPU niż na CPU dla desktopów.
Co do APU vs Intel - nie ma obaw. FPS to na szczęście nie wszystko. Intel nadal ma dużo problemów w grach DX, o OGL nie wspominając. Transkodowane materiały przez QuickSync wyglądają gorzej niż na samym CPU, gorzej niż przy akceleracji CUDA i gorzej niż przy VCE, szybkość nie nadrobi utraty jakości. Prawda jest smutna - jak ktoś chce maksymalnie dobrą jakość zachować to niestety tylko CPU.


Chciales napisac ,ze mniej traca, bo o zarabianiu to chyba na kalende greke poczekamy...

Mam nadzieje ze ich interes w konsolach ( jezeli to prawda jest) cos im przyniesie, a szczegolnie pozwoli doswiadczenie, w ich APU z zarobkiem wykorzystac...
22A2013.02.09, 20:06
@Promilus1984

Nie chce mnie się po raz kolejny powtarzać, ale 75-80% zysków AMD wypracowywało z CPU. Teraz sprzedaż CPU się załamała i sytuacja finansowa AMD jest tragiczna. Gdyby GPU przynosiły im zyski to nie notowaliby gigantycznych strat finansowych, bo ich GPU się dobrze sprzedawają, ale zysku nie przynoszą.
*Konto usunięte*2013.02.09, 20:33
@up
Rentowność GPU jest marna, ale zarabiają. Normalna firma w takiej sytuacji przechodzi restrukturyzacje. Pozbywa się nierentownych udziałów. Logicznym wyborem byłoby sprzedać dział CPU, kupować rdzenie od ARM i integrować w nich radeony.
Dział GPU przynosi dochody rzędu 30mln rocznie to pokaźny zastrzyk gotówki.

NV zarabia na tegrze już bodaj 20mln.

Lepiej zarabiać 50mln na SoC+rynek GPU, niż tracić co roku.
muffin118Zobacz profil
Poziom ostrzeżenia: 0%
muffin1182013.02.09, 20:49
Ale ja nadal nie wiem dlaczego glupi ludzie (bo jak ich inaczej nazwac) kupuja w wiekszosci do budzetowych zestawow intele jak pod reka maja amd Phenomy II i athlony 6x1/7x0. W nowych grach (a do takich sie kupuje nawet budzetowy komputer) sa lepsze a do tego pozwalaja na lepszy multitasking. Jakby zrobili kampanie w stylu '4 rdzenie w cenie 2 konkurencji' to by spokojnie sprzedali duzo cpu, bo ludzie sie nabieraja na takie chwyty poza tym wiekszosc by zrobila dobrze bo w koncu taki athlon x4 po lekkim zwiekszeniu zegara ma naprawde dobra wydajnosc.
*Konto usunięte*2013.02.09, 21:21
muffin118 @ 2013.02.09 20:49  Post: 635624
Ale ja nadal nie wiem dlaczego glupi ludzie (bo jak ich inaczej nazwac) kupuja w wiekszosci do budzetowych zestawow intele jak pod reka maja amd Phenomy II i athlony 6x1/7x0. W nowych grach (a do takich sie kupuje nawet budzetowy komputer) sa lepsze a do tego pozwalaja na lepszy multitasking. Jakby zrobili kampanie w stylu '4 rdzenie w cenie 2 konkurencji' to by spokojnie sprzedali duzo cpu, bo ludzie sie nabieraja na takie chwyty poza tym wiekszosc by zrobila dobrze bo w koncu taki athlon x4 po lekkim zwiekszeniu zegara ma naprawde dobra wydajnosc.

Ponieważ prawie wszyscy gracze nie potrzebuje aż takiego multitaskingu.

Idąc Twoim tokiem logiki następna generacja AMD powinna mieć 1m/4c czyli wydajność 4 modułowego układu mogłaby się znacznie większyć, a skrajnej sytuacji zostać taka sama jak teraz/zmniejszyć gdy zły soft/OS/AMD coś uwali.

Co z tego, że masz 16 pseudordzeniowy procesor gdy Intel ma wydajniejszy wątek nawet o 50%. Dlatego ludzie kupują procesory Intel-a, ale tylko pewne procesory Intel-a.
Ponieważ w grach/programach ich moc jest o parę dziesiąt % większa.

Intel ma swoje perełki w ofercie, ale ma też dziury mniej opłacalne przez brak OC i niski zegar. Najgorsze jest to, że niższa cena procesora AMD nie rekompensuje większego zużycia energii, a to klucz.

Większe zużycie energii oznacza lepsze chłodzenie o <100zl, lepszy zasilacz, lepsza płyta główna. 3570k schłodzi schładzacz za parę dziesiąt zł i będzie niesłyszalny, bo wentylator kręcić będzie tylko w stresie, na niskich obrotach.

W przypadku FX-8320 tańszego musisz wydać na chłodzenie 150-200zł, wentylator za 50zł, zasilacz 50-100zł. Płyta główna 50-100zł droższa. I w lecie klima też by się przydała. Do tego UPS-a musisz kupić 2x droższego (opcjonalnie). Na prąd przy sporadycznym użytkowaniu wydasz koło 30zł rocznie więcej.
Ale jak pisałem FX jest dobry w obliczeniach rozproszonych, czyli nie kupujesz takiego procesora by marnował się w grach. Gdy jest używany non stop zdecydowanie cena AMD staje się absurdalna

W takim rozrachunku cena za i7 nie jest dla mnie absurdalna. Tak znakomita energoefektywność sprawia, że komputer jest przyjaźniejszy.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842013.02.09, 21:27
@Grave - nikt nie pokazał w tamtym artykule obrazków, ale takie są np. tutaj
http://techreport.com/review/23324/a-look-...oding-on-the-pc
Jak widać ten sam portal. A sprawa wygląda następująco - zależnie od filmu i od programu - transkodowanie na GPU wygląda gorzej, przy czym uśredniając jakość w różnych scenach i programach - najlepiej jest CPU only, później CPU+OpenCL (wspomaganie obliczeń shaderami), potem jest przepaść i dopiero VCE, QS, NVENC.
Jak uważasz inaczej to radzę zainwestować w okulary :)
muffin118Zobacz profil
Poziom ostrzeżenia: 0%
muffin1182013.02.09, 21:53
@SunTzu - nie mówie o BD/Visherze...
Tylko o tanich trinity, które pobierają tyle prądu co i5, a w idlu mniej od i3, albo o athlona na fm1 które też pobierają mniej więcej tyle samo. Tylko Phenom pobiera znacznie więcej.
A tu jest coś na zaprzeczenie racji, jako, że niby lepiej 2 rdzeniowego Gxxx
http://forum.pclab.pl/topic/852874-Proceso...10/page__st__40
W połowie str. jest 2 rdzeniowy G860 (3-3,1 ghz) i 1,6 - 1,8 ghz sb - wygrywa znacznie 4 rdzeniowy sb, a przy zegarze 3 - 3,2 ghz llano i phenom spokojnie dorównują jak nie przeganiają sb przy 2 ghz.
*Konto usunięte*2013.02.09, 22:28
Bierz pod uwagę, że praktycznie AMD nic mocniejszego od tego Phenom-a/Athlona II nie ma do dyspozycji. To jest ta dziura o której pisałem.
Ale jak sam wiesz trinity to mały regres w CPU na korzyść dużego boost-a w GPU.

muffin118Zobacz profil
Poziom ostrzeżenia: 0%
muffin1182013.02.09, 22:35
Ale widzisz, że między 41 a 66 fps jest dosyć duża róźnica tak samo między 37 a 49 fps.
Do tego dodaj to, że większość ludzi nie wymienia komputera (podzespołów również) przez min. 2-3 lata a potem można kupić już w większości przypadków całkowicie nową platformę. Taki Athlon 631 lekko popędzony na 3 - 3,2 ghz (co można zrobić nawet na box'ie) jest w nowych grach lepszy do tego, na pewno będzie jeszcze zwiększał róźnice między Gxxx a do tego responsywność systemu i aplikacji jest lepsza, czyli komfort korzystania z systemu.

Tak btw. - dziękuję komuś kto mnie ciągle minusuje tylko szkoda, że nie chce powiedzieć z jakiego powodu
jackowoZobacz profil
Poziom ostrzeżenia: 0%
jackowo2013.02.09, 22:42
muffin118 @ 2013.02.09 22:35  Post: 635634
Ale widzisz, że między 41 a 66 fps jest dosyć duża róźnica tak samo między 37 a 49 fps.
Do tego dodaj to, że większość ludzi nie wymienia komputera (podzespołów również) przez min. 2-3 lata a potem można kupić już w większości przypadków całkowicie nową platformę. Taki Athlon 631 lekko popędzony na 3 - 3,2 ghz (co można zrobić nawet na box'ie) jest w nowych grach lepszy do tego, na pewno będzie jeszcze zwiększał róźnice między Gxxx a do tego responsywność systemu i aplikacji jest lepsza, czyli komfort korzystania z systemu.

Tak btw. - dziękuję komuś kto mnie ciągle minusuje tylko szkoda, że nie chce powiedzieć z jakiego powodu

Tą samą demagogię słyszałem już kilka lat temu, jak AMD wprowadziło swoje 4-rdzeniowe Phenomy - miało być lepiej w nowych aplikacjach i grach, ale nie było. I co z tego wyszło? Teraz te same argumenty...

Co do responsywności systemu - ktoś chyba nie wie od czego to zależy...
*Konto usunięte*2013.02.09, 22:51
muffin118 @ 2013.02.09 22:35  Post: 635634
Ale widzisz, że między 41 a 66 fps jest dosyć duża róźnica tak samo między 37 a 49 fps.
Do tego dodaj to, że większość ludzi nie wymienia komputera (podzespołów również) przez min. 2-3 lata a potem można kupić już w większości przypadków całkowicie nową platformę. Taki Athlon 631 lekko popędzony na 3 - 3,2 ghz (co można zrobić nawet na box'ie) jest w nowych grach lepszy do tego, na pewno będzie jeszcze zwiększał róźnice między Gxxx a do tego responsywność systemu i aplikacji jest lepsza, czyli komfort korzystania z systemu.

Tak btw. - dziękuję komuś kto mnie ciągle minusuje tylko szkoda, że nie chce powiedzieć z jakiego powodu


Nie rozumiesz o co chodzi....
Zobacz na segment <150zł
Tak... Intel ma dziurę w segmencie 200zł-600zł?. Porównujesz najmniej optymalną sytuację dla Intela czyli najmocniejszy/najmniej opłacalny pentium vs najbardziej opłacalny procesor AMD.

Pamiętaj jednak kupując Core2Quad lat to było nie rok, nie dwa, nie trzy, a bodaj 4-5 lat koło.... Masz procesor generalnie równiejszy od tego co ma dziś AMD.
muffin118Zobacz profil
Poziom ostrzeżenia: 0%
muffin1182013.02.09, 23:01
Procesor o wydajności równej lub większej od Q6600 za 219 zł - dla mnie czego chcieć więcej ? Jest nowy, z 3 letnią gwarancją, mniej pobiera energii a nie jak trupy q6600 są sprzedawane za 240-300 zł albo E8400 za 200 + zł :D
A za 355 zł masz Phenoma II X6, które może teraz nie bryluje (chociaż i tak wg mnie bije FX'y swoją relacją ceny/możliwości oferując praktycznie wydajność Vishery wysoko podkręconej). Jedyne co można mu zarzucić to dosyć wysoki pobór energii (chociaż dalej mniejszy od FX8xxx).

@jackowo - jest lepiej... tylko trzeba umieć testować. Już nawet to, że coś masz w tle, AV, cokolwiek - zżera zasoby i nawet jak gra wykorzysta 2-3 wątki to coś zapcha system z 2 wątkowcem/rdzeniowcem. I głównie dlatego wolałbym 4 rdzeniowca. Po prostu lepszy komfort. Taki steam albo orgin lub pożerać zasoby, albo Battlelog i wtedy 2 rdzenie to już za mało, a niestety takie platformy do grania teraz dominują na PC. I nawet jak nie wiadomo jak dobry by był 2 rdzeniowiec, nie możność rozdzielania zadań na inne wątki daję dużo przewagę 4 rdzeniowcą/wątkowca. Dlatego też i3 jest tutaj w testach lepszy o 10% od G2120, a tak naprawdę róźnice dochodzą do 35%.
Przecież każdy ma jakiś program w tle. Jeśli ktoś testuje na czystym systemie bez usług i programów to potem mogą wychodzić takie rzeczy, ale nie na normalnym systemie.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.