No tak spieprzonego testu na pclab jeszcze nie widziałem, brak informacji jakiej karty graficznej użyliście po wyłączeniu wbudowanej i jakiej konfiguracji użyliście do np. kompresji plików: z wyłączonym czy włączonym wbudowanym układem graficznym.
Rozumiem że to drugie po edycji już napisanego tekstu, ale jest to wystarczająco zniechęcające żebym przestał czytać dalej.
Informacja o użytej karcie graficznej jest - w platformie testowej. Nie rozumiem za to pytania dotyczącego kompresji plików. Są dokładnie nazwane strony z testem samego APU (początkowe strony), jak też nazwane są podstrony, na których testowana jest część CPU (czyli z decydowaną kartą graficzną). Co jest zatem niejasne?
No tak spieprzonego testu na pclab jeszcze nie widziałem, brak informacji jakiej karty graficznej użyliście po wyłączeniu wbudowanej i jakiej konfiguracji użyliście do np. kompresji plików: z wyłączonym czy włączonym wbudowanym układem graficznym.
Rozumiem że to drugie po edycji już napisanego tekstu, ale jest to wystarczająco zniechęcające żebym przestał czytać dalej.
A co się zmieniło w rdzeniach A64 od FX-51 do A64 X2 6400+, co miałoby sprawić, że wydajność na 1MHz by wzrosła
Tak, zacznijmy od kontrolera pamięci DDR2 800-1066MHz o ponad 2x większej przepustowości niż ten DDR, do tego dochodzi szybszy cache (szybszy nie tylko ze względu na większe taktowanie rdzenia ale na parę cykli które udało się tu i ówdzie uzyskać), a do kolekcji obsługa AMD-V czy SSE3
Z drugiej strony jak już się tak zapędzasz to czemu nie od razu z grubej rury np. 'a czymże jest Haswell jak Pentiumem PRO
Nie nie nie. Jeśli Conroe ma 3 proste dekodery i 1 złożony a do tego ALU na 3 portach i tak samo ma nehalem, westmere, sandy, ivy i haswell, a yonah, dothan, banias mają 1 complex i 2 simple decoder i alu/fpu na 2 portach (a także arch. w pełni 32bit - bez wsparcia EM64T) to nie ma co pisać, że jest to bazowanie na tym samym 'dizajnie'. Tak samo K8 było tylko delikatną podstawą do K10, ale pod względem architektury widać od razu wiele różnic. Coraz to nowe generacje Core nie różni w ogóle ilość możliwych do wykonania instrukcji na cykl, różni je ilość rzeczywiście wykonywanych instrukcji na cykl - a te zmiany wynikają z otoczki execution engine i front endu (np. więcej rejestrów, szersze datapath, lepszy prefetcher, cache L0 do krótkich szybko wykonujących się pętli itp. itd.) a nie samych zmian architektury. To tylko kolejne szlify diamentu. AMD zapomniało jak się szlifuje więc muszą kopać za swoimi nowymi diamentami. A już byli blisko i znowu zostali w lesie. Krok w przód, 3 w tył.
Oh jej, to wolfdale i conroe nie różniło także nic oprócz cache, sse4 i procesu Ale chyba nie jesteś aż takim ignorantem żeby napisać, że mhz w mhz jest to samo
A co się zmieniło w rdzeniach A64 od FX-51 do A64 X2 6400+, co miałoby sprawić, że wydajność na 1MHz by wzrosła? Nawet zestaw obsługiwanych instrukcji jest identyczny.
Wzrost wydajności na takt nastąpił dopiero przy wprowadzeniu K8L/K10 czyli Phenoma.
Promilus1984 @ 2013.06.08 16:25
Bo czymże jest Nehalem jeśli nie Core 2 z dodatkowym poziomem cache, lepszymi stanami energetycznymi, wbudowanym kontrolerem pamięci (3 kanałowym w i7!!) i QPI (i7)? A czym jest Sandy bridge jeśli nie nehalemem z ucode cache (L0), avx i kolejnymi poprawkami prefetchera?
W obu wymienionych przypadkach zmian jest więcej. Oczywiście masz rację że punktem wyjścia dla nowej architektury jest poprzednia, ale zmian jest dużo zarówno w Sandy Bridge jak i (zwłaszcza) w Nehalemie.
Z drugiej strony jak już się tak zapędzasz to czemu nie od razu z grubej rury np. 'a czymże jest Haswell jak Pentiumem PRO z.... (tu dłuuuga lista zmian)'
Wszystkie CPU X86 pozostają ... CPU X86 (odkrywcze) więc 'ideowo' tu się NIC nie zmieni, bo podstawa jest ta sama.
Prawdziwie nowa architektura musiałaby być niezgodna z X86.
Programy które podałeś z tego co pamiętam były w dużej mierze zależne od zegara dlatego różnice są minimalne. Zresztą ostatnio nawet czytałem arta w którym redaktor w tych zastosowaniach chwalił Athlony XP i zaznaczał że tu 64 stały w miejscu (w systemie 32bit-owym. W grach to już inna bajka...
Zmieniał się proces, taktowanie i liczba rdzeni, ale architektura pozostała taka sama
Oh jej, to wolfdale i conroe nie różniło także nic oprócz cache, sse4 i procesu Ale chyba nie jesteś aż takim ignorantem żeby napisać, że mhz w mhz jest to samo
Postęp Core2Duo + 4 lata jest
Postęp P4 +4 lata jest mniejszy niż K8 + 4 lata, hueh. (tak, wiem że z 1.4 na 3.8GHz wyskoczyli, ale Willamette i Northwood miało REE, a prescoty i gallatiny nie!). Nie wiem co to za wyliczanki i czego mają dowodzić, bo moim zdaniem niczego. Swoją drogą jeśli za 'top' uznać okres kiedy 1MHz AMD był lepszy niż 1MHz Intela to nie zaczęło się to z całą pewnością od FX-51, a jeśli chodzi o okres kiedy procki AMD nie miały wydajnościowego konkurenta od Intela to również nie można by zaliczyć do tego FX-51, chyba że zawęzimy ostro liczbę aplikacji testowych
Tymczasem jeżeli teza o tym, że Intel bez nacisku konkurencji powinien stanąć w miejscu jest prawdziwa
Ja takiej tezy nie wysunąłem. Kto stoi w miejscu ten się cofa. Natomiast żadnych konkretnych wzrostów wydajności, jakie nie pojawiałyby się wcześniej nie zauważyłem. Dalej - mikroarchitektura Core 2 nie uległa większym 'ideowym' zmianom od początku jej powstania. Nadal mamy 5 portów, odpowiednio z ALU, FPU, SIMD (po kilka jednostek na porcie), jednostki store/load na osobnych portach, dekoder 3x simple +1x complex x86. To się cały czas nie zmienia. Mają dobry punkt wyjścia i nie ma co eksperymentować skoro to co mają jest zasadniczo dobre. To co dodają to rzeczy zasadniczo drobne w porównaniu ze zmianami u AMD, ale gwarantujące ciągły wzrost wydajności, a w każdym razie nie pozwalające na jej spadek. Bo czymże jest Nehalem jeśli nie Core 2 z dodatkowym poziomem cache, lepszymi stanami energetycznymi, wbudowanym kontrolerem pamięci (3 kanałowym w i7!!) i QPI (i7)? A czym jest Sandy bridge jeśli nie nehalemem z ucode cache (L0), avx i kolejnymi poprawkami prefetchera? A czymże jest ivy bridge jeśli nie sandy bridge z kolejnymi poprawkami prefetchera i podsystemu pamięci. Itp. Itd. FMAC zamiast FMUL/FADD/FSTORE w Phenomach II, AES, AVX, FMA i ulepszone dekodery i miałbyś rzeczywisty wzrost wydajności z architektury żywo bazującej na K8, ale nie... jajogłowi i marketingowcy stwierdzi 'trzeba czegoś nowego'... no i wszystko poszło się paść. Teraz znowu zaczynają dopieszczać architekturę, ale wszystko przynajmniej kilka lat za późno.
Na 1 jądrze 1 podstawce i 1 pamięci nie ma się spodziewać czegokolwiek innego. Ale chyba nie wmówisz mi, że nie było różnicy między San Diego i Venice, między Manchesterem a Toledo, Windsorem a Brisbane (tutaj uwaga - mniejsze zużycie okupione wydajnością).
Zmieniał się proces, taktowanie i liczba rdzeni, ale architektura pozostała taka sama. Brisbane był wolniejszy z powodu wydłużonego czasu dostępu do cache.
Promilus1984 @ 2013.06.08 15:49
Przez cały okres rynkowego życia Athlonów 64 czyli przez 4 lata wydajność na takt pozostała na poziomie FX-51, udało się podbić taktowanie o 45% (do 3,2GHz w Athlonie 6400+) i zwiększyć 2x liczbę rdzeni (z 1 do 2)
Jak to na studiach się mawiało... it is = bullshit.
To konkretnie:
1. Pierwszy topowy CPU na architekturze 'Hammer' to FX-51 taktowany zegarem 2,2GHz
2. Ostatni najmocniejszy z Athlonów 64 to Athlon 64 X2 6400+ taktowany zegarem 3,2GHz
3,2/2.2 = 1,(45). Liczba rdzeni wzrosła 2x, taktowanie o 45% czyli dokładnie tak jak napisałem.
Promilus1984 @ 2013.06.08 15:49
Tymczasem Intel bez nacisku AMD sam z siebie zrobił postęp nawet większy niż AMD wtedy gdy AMD było na topie
Nieprawda.
Chodzi mi o porównanie 2 okresów - kiedy AMD było na topie (od premiery FX-51 do premiery Conroe), oraz tego kiedy Intel wprowadził Conroe czyli od kiedy Intel wyszedł na prowadzenie i już tego prowadzenia nie oddał do dzisiaj.
Postęp Core2Duo + 4 lata jest większy niż postęp FX-51 + 4 lata. Tymczasem jeżeli teza o tym, że Intel bez nacisku konkurencji powinien stanąć w miejscu jest prawdziwa to Haswell powinien mieć rdzenie praktycznie nietknięte od czasu Conroe w liczbie sztuk 8 wykonane w 22nm i wykręcone fabrycznie na max ile się da przy TDP 220W Co by oznaczało 'nicnierobienie' przez 7 lat poza zmianą procesu dodawaniem rdzeni i żyłowaniem taktowania.
@Grave - hueh, dobra, teraz pytanie za 100pkt - ile wyników jest takich a nie innych bo skompilowane na icc programy nie wykrywały możliwości użycia SSE2 na K8? A ile jest wyników takich a nie innych, bo żaden z programów nie wykorzystywał W OGÓLE x86-64? No właśnie.
Jak dobrze poszukać jakiś programów dopalanych przez AVX lub FMA to też mamy wzrosty bardzo duże
AVX kilka komercyjnych programów na krzyż, XOP, FMA? Żadnych komercyjnych programów, kilka open source ze specjalnymi buildami. Zastój, zastój i jeszcze raz zastój. AVX256 nic nie zmienia, przyszłe AVX512 też nic nie zmieni bo nikomu się nie chce kombinować.
. Więc wydajność na takt stała w miejscu
Na 1 jądrze 1 podstawce i 1 pamięci nie ma się spodziewać czegokolwiek innego. Ale chyba nie wmówisz mi, że nie było różnicy między San Diego i Venice, między Manchesterem a Toledo, Windsorem a Brisbane (tutaj uwaga - mniejsze zużycie okupione wydajnością).
Ale AMD - luuuz. Tutaj wszystko było cac
Nie bardzo rozumiem o co Tobie chodzi. Ja swoją opinię wyraziłem zdaje się dość jasno.
Przez cały okres rynkowego życia Athlonów 64 czyli przez 4 lata wydajność na takt pozostała na poziomie FX-51, udało się podbić taktowanie o 45% (do 3,2GHz w Athlonie 6400+) i zwiększyć 2x liczbę rdzeni (z 1 do 2)
Jak to na studiach się mawiało... it is = bullshit.
A teraz Intel od premiery swojej rewolucji czyli Conroe przez 4 lata zwiększył liczbę rdzeni 3x (z 2 do 6) (Westmere)
Westmere to Nehalem i do tego jego druga edycja, to i K10 w wersji drugiej (czyli jak to nazywają K10.5) ma 6 rdzeni = ten sam wzrost liczby rdzeni względem clawhammera.
I ja słyszę, że za czasów A64 to był postęp
Bo był. Ostatecznie aplikacje na 1.6GHz K8 działały porównywalnie szybko do 2GHz K7 co oznaczało jednocześnie przynajmniej 2.8-3GHz P4. Teraz jest dokładnie to samo tylko w drugą stronę. 1.6GHz Intela to przynajmniej 2-2.4GHz AMD
I mnie się to osobiście nie podoba, natomiast wtedy intele I TAK sprzedawały się lepiej mimo, że drożej, a teraz każdy narzeka na AMD. Nie ma to jak wiecznie oczekiwać od jednej firmy lepszego za mniej, a później się dziwić, że coś finansowo nie wychodzą na plus.
Tymczasem Intel bez nacisku AMD sam z siebie zrobił postęp nawet większy niż AMD wtedy gdy AMD było na topie
Nieprawda. Poszerzmy nieco zakres czasowy i zobaczmy kto ile zyskał wydajności względem... Pentium, K6? Żeby widzieć pełen obraz nie możesz się tak ograniczać. Jak to w hamerykańskich filmach gadają 'you've got to see big picture'. AMD ma gorszą ofertę dla żądających bezwzględnej wydajności i energoszczędności. Natomiast uwzględniając pozostałe czynniki nie wypada aż tak źle by każdy się plecami odwracał. Niedawno mój zakłąd pracy kupował kompy mające działać jako maszyny wirtualne. Mały zakład więc bez sensu inwestować w maszyny serwerowe. Zwykły FX ośmiordzeniowy z wszystkimi technologiami VM bez ograniczeń i jazda. Działa, spełnia swoją funkcję i nie sprawia problemów. Jedyne co tam jest to na remote desktop visio i parę innych appsów których ze względów licencyjnych nie ma co na kilkadziesiąt urządzeń instalować. Kierować to się trzeba zdrowym rozsądkiem, a nie zamiłowaniem do jedynego słusznego loga, czy to nokia, czy sony, czy intel czy amd, czy gf czy radeon.
Tylko nie da się w kółko zwiększać 2x liczby rdzeni
Nie da to się w kółko zwiększać wydajności rdzenia. Jeśli uważasz, że 3GHz Haswell będzie w trybie software renderer Quake wydajniejszy o 50% względem Conroe 3GHz to chyba jesteś naiwny. Intel analizuje aplikacje pod kątem tego jakie konstrukcje rozkazów maszynowych najczęściej się pojawiają, jakie instrukcje należy zoptymalizować - to nie jest tak, że każda generacja oferuje bezwzględny kilku-kilkunasto procentowy wzrost wydajności niezależnie od aplikacji. I z tego należy sobie zdawać sprawę. A właśnie prędzej intel/amd da 2x więcej rdzeni niż 50% więcej powera per core!
@Grave -
Lightwave - szybciej, maya - szybcie, science mark szybciej, business wetstone - szybciej, mpeg2 encoding szybciej, autcad szybciej... no tak to bywa, nie ma to jak wybierać tylko te aplikacje, które pasują do udowodnienia własnej tezy
Ale zobacz ile jest wyników 10% szybciej... Jasne, że bywa i szybciej, ale czy obecnie tak też nie jest? Jak dobrze poszukać jakiś programów dopalanych przez AVX lub FMA to też mamy wzrosty bardzo duże.
I jeszcze trzeba brać poprawkę na to, że po wydaniu tego FX-51 AMD przez kolejne parę lat nie robiło nic tylko podbijało mnożnik o 1 oczko w górę co ok pół roku (podobnie jak Intel). Więc wydajność na takt stała w miejscu.
Jakby Intel tak teraz zrobił i wypuścił Ivy Bridge taktowanego 200MHz szybszym zegarem to byłby zarzuty, że Intel kotleta wypuszcza i że przecież każdy może sobie o te 200MHz sam podkręcić....
Ale AMD - luuuz (FX-51 2,2GHz -> FX-53 2,4GHz -> FX-55 2,6GHz -> FX-57 2,8GHz). Tutaj wszystko było cacy.
Spory wzrost wydajności był dopiero przy przesiadce z 1 na 2 rdzenie. A tak to 200MHz więcej, 200MHz więcej etc
Przez cały okres rynkowego życia Athlonów 64 czyli przez 4 lata wydajność na takt pozostała na poziomie FX-51, udało się podbić taktowanie o 45% (do 3,2GHz w Athlonie 6400+) i zwiększyć 2x liczbę rdzeni (z 1 do 2).
A teraz Intel od premiery swojej rewolucji czyli Conroe przez 4 lata zwiększył liczbę rdzeni 3x (z 2 do 6) (Westmere), zwiększył taktowanie bazowe o 14% (3,33GHz), Turbo o 24% (3,6GHz) i przy tym jeszcze wydajność na takt poszła w górę o 30% (nie licząc aplikacji dopalonych przez nowe instrukcje i IGP).
I ja słyszę, że za czasów A64 to był postęp, a potem to już dno. Tymczasem Intel bez nacisku AMD sam z siebie zrobił postęp nawet większy niż AMD wtedy gdy AMD było na topie.
Tylko nie da się w kółko zwiększać 2x liczby rdzeni czy podbijać taktowania. Dlatego Intel stawia na poprawki architektury i wydajności na takt.
@Grave -
Lightwave - szybciej, maya - szybcie, science mark szybciej, business wetstone - szybciej, mpeg2 encoding szybciej, autcad szybciej... no tak to bywa, nie ma to jak wybierać tylko te aplikacje, które pasują do udowodnienia własnej tezy
Od zluzszego czasu widac zastoj na rynku PC spowodowany brakiem konkurencji.
Na wielkie przyrosty wydajności nie ma co liczyć, bo one były osiągane niemal wyłącznie podbijaniem taktowania i dodawaniem rdzeni.
Same poprawki w architekturze zazwyczaj dawały 10-15% nie więcej. Więc jeżeli idzie o wydajność na takt to wręcz obecnie jest większy postęp niż był bo Intel co roku dorzuca 5-10% na takt.
A czy kiedyś wydajność poprzez poprawki architektury rosła więcej? Może warto nieco 'odczarować' historię.
Weźmy taki Athlon FX-51 - topowy CPU AMD nowej generacji w porównaniu z poprzednikiem - Athlonem XP 3200+. Oba CPU są taktowane tym samym zegarem, więc można prześledzić wzrost wydajności na takt poprzez ulepszenia architektury....
W Lame - praktycznie 0% poprawy
W kodowaniu w WME - ok 11% lepsza wydajność
W Photoshopie 15% lepiej
W renderingu (3DSM) - 10% lepiej.
I to są wyniki 'słynnego' Athlona FX-51 - najszybszego premierowego CPU najlepszej generacji AMD w historii za czasów kiedy podobno był ogromny postęp, a AMD było 'lata świetlne' przez Intelem.... Przy czym FX był znacznie droższy od topowego Athlona XP, więc jeszcze cena poszła w górę przy okazji.
A jak teraz Intel poprawia wydajność na takt o 5% przy 'tick' i 10-15% przy 'tock' z roku na rok i oferuje nowy procesor w cenie poprzednika to narzekania, że to praktycznie tyle co nic, że procesor do bani....
Czyli jest tak jak oczekiwano - jest parę do parenastu procent szybciej, a przy tym nieco oszczędniej w kwestii poboru energii. Za to niestety jest też wyraźnie drożej co nieco rozczarowuje. Oczekiwałem że nowe APU będa w cenie poniżej 500 zł za najwydajniejszy model.
PS Na pierwszej stronie w tabelce z parametrami układów jest błąd - iGPU w A10-5800K ma 800MHz a nie 844.
JA powiem swoje trzy grosze. Zadnej rewolucji nie ma, przyrostow wydajnosci brak, procki AMD nie maja startu do wydajnych prockow Intela, przez co brak prawdziwej konkurencji. Niektorzy pisza, ze taki procek AMD nawet w low-endzie jest do niczego, bo do gier lepiej kupic pentiuma z zewnetrzna grafa, a tam gdzie liczy sie CPu to albo i3, albo phenom. Z drugiej strony ten APU mozna powiedziec, ze jest do wszystkiego, czyli bardziej uniwersalny. Zauwazcie, ze w niektorych testach prowadza intele, w nitkorych phenomy, bo jednak dwa rdzenie czesto nie dorownuja 4/6 AMD, mimo ze phenom ma duzo slabszy watek. Ale tam gdzie liczy sie pojedynczy watek, richland nie odstaje mocno od intela, a tam gdzie liczy sie ilosc rdzeni, nie odstaje mocno od phenomow. Oczywiscie mowa o tej kategorii cenowej, bo mzona kupic i5 z dedykowana grafika i pozamiata kazde zestawienie z tego testu. Ale w cenie tych okolo 600 PLN ciezko chyba o rowniejszy procesor. Bo jak chcemy miec za ta cene wydajniej w grach trzeba poswieci moc CPU, bo w obliczniach Pentium jednak odstaje od Richlanda. Jak chcemy miec mocne obliczenia wieoowatkowe i kupimy Phenoma, to zostaje nam dosyc slaby pojedynczy watek, tutaj jednak Richland pokonuje Phenomy. Jak kupimy i3, to braknie na dedykowana karte i w gry sobie nawet gorsze nie pogramy. Wiec z jednej strony do niczego, a z drugiej najrowniejszy w calej gamie zastosowan. Oczywiscie cena mogla by byc zawsze nizsza. No coz szkoda ze AMD nie ma mozliwosci powalczyc naprawde z Intelem. Od zluzszego czasu widac zastoj na rynku PC spowodowany brakiem konkurencji.
tez uwazam ze cena nie jest fajna. 450zl byloby super. z drugiej strony za ta cene mam pentiuma 220 z hd7750. widac ewidentnie ze taki zestaw bierze wiecej energii oraz ze jest duzo wolniejszy w codziennym uzytkowaniu. za to w grach duzo szybszy. cos za cos. wada testu jest to ze sie testuje low endowe prrocesory w grach w polaczeniu z highendowa karta graficzna . po co to? trzeba bylo porownac od a do z 4 zestawy czyli pentiuma 2020 z hd7750 i te atlony z 6670 w grach i domowych biurowych zasotsowaniach, poborach mocy i wysunac wniosek co jest najlepszym rozwiazaniem. a tak obraz sytuacji rynkowej sie troche rozmywa. bo ktos kto ma do wydania 600zl na karte graficzna i procek moze wysunac dziwne wnioski z testow. jasne ze na hd7970 i3 jest szybki. jasne ze jest wydajny ale juz jak schodzimy do pulapu 600zl to ten i3 bedzie nie mial juz zewnetrznej grafiki wiec o co kaman i te testy? duzo stron o niczym i szczerze te wszystkie z grami na szybkiej zewnetrznej grafie przelecialem jako cieakwostke by sprawdzic jak tam architekrura sie buldka sprawdza. tak wiem nie sprawdza sie ale to juz na fxach bylo wiadomo i tam mialo sens porownywac z zewnetrznymi grafami. tutaj sensu tego nie widze.
Jak ten procesor spadnie do ~450zł, to będzie miał rację bytu na rynku.
Teraz to tylko i wyłącznie ciekawostka techniczna.
Z tego punktu widzenia, to całkiem ładnie udało się AMD poprawić wydajność (bazowa jak i O/C) i sprawność energetyczną(a to przecież wciąż to samo jądro). Różnica podobna do tej Ivy Bridge vs. Haswell (tu z kolei lepiej zegar w zegar, ale problemy z OC).
Same zalety tylko ta cena 30-40% za wysoka. Muszą coś zrobić bo Intel przejmuje pałeczkę w kategorii wydajność/cena, a to coś co za czasów mojego Athona XP 2500 (rdzeń Barton) było nie do pomyślenia
Powoli zastanawiam się nad zmianą całej platformy, ale jak mam wybrać Intela to mogę jeszcze się wstrzymać z 2 - 3 lata, aż AMD weźmie się solidnie do roboty
Co rozumiesz przez 'AMD weźmie się solidnie do roboty'? Przecież oni mają 20x mniejsze zyski od Intela - nie da się przy takich dysproporcjach stworzyć realnej konkurencji.
Zresztą popatrz choćby teraz na ostatnie premiery - klasyka wręcz. AMD prezentuje Richlanda i Kabini, Intel - Haswella.
Już w momencie premiery Haswella masz wręcz wysyp newsów o nowych laptopach z nowym CPU Intela. I to nie jakiegoś taniego szajsu tylko naprawdę ładne, porządne dobrze skonfigurowane laptopy.
A AMD prezentuje Richlanda i Kabini i mamy parę modeli na krzyż....
Rozumiem że to drugie po edycji już napisanego tekstu, ale jest to wystarczająco zniechęcające żebym przestał czytać dalej.
Informacja o użytej karcie graficznej jest - w platformie testowej. Nie rozumiem za to pytania dotyczącego kompresji plików. Są dokładnie nazwane strony z testem samego APU (początkowe strony), jak też nazwane są podstrony, na których testowana jest część CPU (czyli z decydowaną kartą graficzną). Co jest zatem niejasne?
Rozumiem że to drugie po edycji już napisanego tekstu, ale jest to wystarczająco zniechęcające żebym przestał czytać dalej.
Zawsze ten Twój ból dupy. Zaczynasz być moim ulubieńcem, którego można punktować przy każdej wypowiedzi.
Masz rację, spore niedopowiedzenie z mojej strony.
Miało być 'Intel wypuszcza gówno w porównaniu do poprzednich generacji'.
A jak dupa Cię boli to już Twoja sprawa z kim śpisz.
Zawsze ten Twój ból dupy. Zaczynasz być moim ulubieńcem, którego można punktować przy każdej wypowiedzi.
Intel wypuszcza gówno (Haswell - co jasno wynika z testów) wypowiedzi Grave przełączają się jak w kompilatorach na pochwałę Intela.
AMD wypuszcza cokolwiek choćby nie wiem jak udanego - Grave przełącza się na jad jak w kompilatorach na jak najwolniejsze instrukcje.
I tyle w temacie.
Tak, zacznijmy od kontrolera pamięci DDR2 800-1066MHz o ponad 2x większej przepustowości niż ten DDR, do tego dochodzi szybszy cache (szybszy nie tylko ze względu na większe taktowanie rdzenia ale na parę cykli które udało się tu i ówdzie uzyskać), a do kolekcji obsługa AMD-V czy SSE3
Nie nie nie. Jeśli Conroe ma 3 proste dekodery i 1 złożony a do tego ALU na 3 portach i tak samo ma nehalem, westmere, sandy, ivy i haswell, a yonah, dothan, banias mają 1 complex i 2 simple decoder i alu/fpu na 2 portach (a także arch. w pełni 32bit - bez wsparcia EM64T) to nie ma co pisać, że jest to bazowanie na tym samym 'dizajnie'. Tak samo K8 było tylko delikatną podstawą do K10, ale pod względem architektury widać od razu wiele różnic. Coraz to nowe generacje Core nie różni w ogóle ilość możliwych do wykonania instrukcji na cykl, różni je ilość rzeczywiście wykonywanych instrukcji na cykl - a te zmiany wynikają z otoczki execution engine i front endu (np. więcej rejestrów, szersze datapath, lepszy prefetcher, cache L0 do krótkich szybko wykonujących się pętli itp. itd.) a nie samych zmian architektury. To tylko kolejne szlify diamentu. AMD zapomniało jak się szlifuje więc muszą kopać za swoimi nowymi diamentami. A już byli blisko i znowu zostali w lesie. Krok w przód, 3 w tył.
Oh jej, to wolfdale i conroe nie różniło także nic oprócz cache, sse4 i procesu
A co się zmieniło w rdzeniach A64 od FX-51 do A64 X2 6400+, co miałoby sprawić, że wydajność na 1MHz by wzrosła? Nawet zestaw obsługiwanych instrukcji jest identyczny.
Wzrost wydajności na takt nastąpił dopiero przy wprowadzeniu K8L/K10 czyli Phenoma.
Bo czymże jest Nehalem jeśli nie Core 2 z dodatkowym poziomem cache, lepszymi stanami energetycznymi, wbudowanym kontrolerem pamięci (3 kanałowym w i7!!) i QPI (i7)? A czym jest Sandy bridge jeśli nie nehalemem z ucode cache (L0), avx i kolejnymi poprawkami prefetchera?
W obu wymienionych przypadkach zmian jest więcej. Oczywiście masz rację że punktem wyjścia dla nowej architektury jest poprzednia, ale zmian jest dużo zarówno w Sandy Bridge jak i (zwłaszcza) w Nehalemie.
Z drugiej strony jak już się tak zapędzasz to czemu nie od razu z grubej rury np. 'a czymże jest Haswell jak Pentiumem PRO z.... (tu dłuuuga lista zmian)'
Wszystkie CPU X86 pozostają ... CPU X86 (odkrywcze
Prawdziwie nowa architektura musiałaby być niezgodna z X86.
Programy które podałeś z tego co pamiętam były w dużej mierze zależne od zegara dlatego różnice są minimalne. Zresztą ostatnio nawet czytałem arta w którym redaktor w tych zastosowaniach chwalił Athlony XP i zaznaczał że tu 64 stały w miejscu (w systemie 32bit-owym. W grach to już inna bajka...
Zmieniał się proces, taktowanie i liczba rdzeni, ale architektura pozostała taka sama
Oh jej, to wolfdale i conroe nie różniło także nic oprócz cache, sse4 i procesu
Postęp P4 +4 lata jest mniejszy niż K8 + 4 lata, hueh. (tak, wiem że z 1.4 na 3.8GHz wyskoczyli, ale Willamette i Northwood miało REE, a prescoty i gallatiny nie!). Nie wiem co to za wyliczanki i czego mają dowodzić, bo moim zdaniem niczego. Swoją drogą jeśli za 'top' uznać okres kiedy 1MHz AMD był lepszy niż 1MHz Intela to nie zaczęło się to z całą pewnością od FX-51, a jeśli chodzi o okres kiedy procki AMD nie miały wydajnościowego konkurenta od Intela to również nie można by zaliczyć do tego FX-51, chyba że zawęzimy ostro liczbę aplikacji testowych
Na 1 jądrze 1 podstawce i 1 pamięci nie ma się spodziewać czegokolwiek innego. Ale chyba nie wmówisz mi, że nie było różnicy między San Diego i Venice, między Manchesterem a Toledo, Windsorem a Brisbane (tutaj uwaga - mniejsze zużycie okupione wydajnością).
Zmieniał się proces, taktowanie i liczba rdzeni, ale architektura pozostała taka sama. Brisbane był wolniejszy z powodu wydłużonego czasu dostępu do cache.
Jak to na studiach się mawiało... it is = bullshit.
To konkretnie:
1. Pierwszy topowy CPU na architekturze 'Hammer' to FX-51 taktowany zegarem 2,2GHz
2. Ostatni najmocniejszy z Athlonów 64 to Athlon 64 X2 6400+ taktowany zegarem 3,2GHz
3,2/2.2 = 1,(45). Liczba rdzeni wzrosła 2x, taktowanie o 45% czyli dokładnie tak jak napisałem.
Nieprawda.
Chodzi mi o porównanie 2 okresów - kiedy AMD było na topie (od premiery FX-51 do premiery Conroe), oraz tego kiedy Intel wprowadził Conroe czyli od kiedy Intel wyszedł na prowadzenie i już tego prowadzenia nie oddał do dzisiaj.
Postęp Core2Duo + 4 lata jest większy niż postęp FX-51 + 4 lata. Tymczasem jeżeli teza o tym, że Intel bez nacisku konkurencji powinien stanąć w miejscu jest prawdziwa to Haswell powinien mieć rdzenie praktycznie nietknięte od czasu Conroe w liczbie sztuk 8 wykonane w 22nm i wykręcone fabrycznie na max ile się da przy TDP 220W
AVX kilka komercyjnych programów na krzyż, XOP, FMA? Żadnych komercyjnych programów, kilka open source ze specjalnymi buildami. Zastój, zastój i jeszcze raz zastój. AVX256 nic nie zmienia, przyszłe AVX512 też nic nie zmieni bo nikomu się nie chce kombinować.
Na 1 jądrze 1 podstawce i 1 pamięci nie ma się spodziewać czegokolwiek innego. Ale chyba nie wmówisz mi, że nie było różnicy między San Diego i Venice, między Manchesterem a Toledo, Windsorem a Brisbane (tutaj uwaga - mniejsze zużycie okupione wydajnością).
Nie bardzo rozumiem o co Tobie chodzi. Ja swoją opinię wyraziłem zdaje się dość jasno.
Jak to na studiach się mawiało... it is = bullshit.
Westmere to Nehalem i do tego jego druga edycja, to i K10 w wersji drugiej (czyli jak to nazywają K10.5) ma 6 rdzeni = ten sam wzrost liczby rdzeni względem clawhammera.
Bo był. Ostatecznie aplikacje na 1.6GHz K8 działały porównywalnie szybko do 2GHz K7 co oznaczało jednocześnie przynajmniej 2.8-3GHz P4. Teraz jest dokładnie to samo tylko w drugą stronę. 1.6GHz Intela to przynajmniej 2-2.4GHz AMD
I mnie się to osobiście nie podoba, natomiast wtedy intele I TAK sprzedawały się lepiej mimo, że drożej, a teraz każdy narzeka na AMD. Nie ma to jak wiecznie oczekiwać od jednej firmy lepszego za mniej, a później się dziwić, że coś finansowo nie wychodzą na plus.
Nieprawda. Poszerzmy nieco zakres czasowy i zobaczmy kto ile zyskał wydajności względem... Pentium, K6? Żeby widzieć pełen obraz nie możesz się tak ograniczać. Jak to w hamerykańskich filmach gadają 'you've got to see big picture'. AMD ma gorszą ofertę dla żądających bezwzględnej wydajności i energoszczędności. Natomiast uwzględniając pozostałe czynniki nie wypada aż tak źle by każdy się plecami odwracał. Niedawno mój zakłąd pracy kupował kompy mające działać jako maszyny wirtualne. Mały zakład więc bez sensu inwestować w maszyny serwerowe. Zwykły FX ośmiordzeniowy z wszystkimi technologiami VM bez ograniczeń i jazda. Działa, spełnia swoją funkcję i nie sprawia problemów. Jedyne co tam jest to na remote desktop visio i parę innych appsów których ze względów licencyjnych nie ma co na kilkadziesiąt urządzeń instalować. Kierować to się trzeba zdrowym rozsądkiem, a nie zamiłowaniem do jedynego słusznego loga, czy to nokia, czy sony, czy intel czy amd, czy gf czy radeon.
Nie da to się w kółko zwiększać wydajności rdzenia. Jeśli uważasz, że 3GHz Haswell będzie w trybie software renderer Quake wydajniejszy o 50% względem Conroe 3GHz to chyba jesteś naiwny. Intel analizuje aplikacje pod kątem tego jakie konstrukcje rozkazów maszynowych najczęściej się pojawiają, jakie instrukcje należy zoptymalizować - to nie jest tak, że każda generacja oferuje bezwzględny kilku-kilkunasto procentowy wzrost wydajności niezależnie od aplikacji. I z tego należy sobie zdawać sprawę. A właśnie prędzej intel/amd da 2x więcej rdzeni niż 50% więcej powera per core!
Lightwave - szybciej, maya - szybcie, science mark szybciej, business wetstone - szybciej, mpeg2 encoding szybciej, autcad szybciej... no tak to bywa, nie ma to jak wybierać tylko te aplikacje, które pasują do udowodnienia własnej tezy
Ale zobacz ile jest wyników 10% szybciej... Jasne, że bywa i szybciej, ale czy obecnie tak też nie jest? Jak dobrze poszukać jakiś programów dopalanych przez AVX lub FMA to też mamy wzrosty bardzo duże.
I jeszcze trzeba brać poprawkę na to, że po wydaniu tego FX-51 AMD przez kolejne parę lat nie robiło nic tylko podbijało mnożnik o 1 oczko w górę co ok pół roku (podobnie jak Intel). Więc wydajność na takt stała w miejscu.
Jakby Intel tak teraz zrobił i wypuścił Ivy Bridge taktowanego 200MHz szybszym zegarem to byłby zarzuty, że Intel kotleta wypuszcza i że przecież każdy może sobie o te 200MHz sam podkręcić....
Ale AMD - luuuz (FX-51 2,2GHz -> FX-53 2,4GHz -> FX-55 2,6GHz -> FX-57 2,8GHz). Tutaj wszystko było cacy.
Spory wzrost wydajności był dopiero przy przesiadce z 1 na 2 rdzenie. A tak to 200MHz więcej, 200MHz więcej etc
Przez cały okres rynkowego życia Athlonów 64 czyli przez 4 lata wydajność na takt pozostała na poziomie FX-51, udało się podbić taktowanie o 45% (do 3,2GHz w Athlonie 6400+) i zwiększyć 2x liczbę rdzeni (z 1 do 2).
A teraz Intel od premiery swojej rewolucji czyli Conroe przez 4 lata zwiększył liczbę rdzeni 3x (z 2 do 6) (Westmere), zwiększył taktowanie bazowe o 14% (3,33GHz), Turbo o 24% (3,6GHz) i przy tym jeszcze wydajność na takt poszła w górę o 30% (nie licząc aplikacji dopalonych przez nowe instrukcje i IGP).
I ja słyszę, że za czasów A64 to był postęp, a potem to już dno. Tymczasem Intel bez nacisku AMD sam z siebie zrobił postęp nawet większy niż AMD wtedy gdy AMD było na topie.
Tylko nie da się w kółko zwiększać 2x liczby rdzeni czy podbijać taktowania. Dlatego Intel stawia na poprawki architektury i wydajności na takt.
Lightwave - szybciej, maya - szybcie, science mark szybciej, business wetstone - szybciej, mpeg2 encoding szybciej, autcad szybciej... no tak to bywa, nie ma to jak wybierać tylko te aplikacje, które pasują do udowodnienia własnej tezy
Na wielkie przyrosty wydajności nie ma co liczyć, bo one były osiągane niemal wyłącznie podbijaniem taktowania i dodawaniem rdzeni.
Same poprawki w architekturze zazwyczaj dawały 10-15% nie więcej. Więc jeżeli idzie o wydajność na takt to wręcz obecnie jest większy postęp niż był bo Intel co roku dorzuca 5-10% na takt.
A czy kiedyś wydajność poprzez poprawki architektury rosła więcej? Może warto nieco 'odczarować' historię.
Weźmy taki Athlon FX-51 - topowy CPU AMD nowej generacji w porównaniu z poprzednikiem - Athlonem XP 3200+. Oba CPU są taktowane tym samym zegarem, więc można prześledzić wzrost wydajności na takt poprzez ulepszenia architektury....
W Lame - praktycznie 0% poprawy
W kodowaniu w WME - ok 11% lepsza wydajność
W Photoshopie 15% lepiej
W renderingu (3DSM) - 10% lepiej.
I to są wyniki 'słynnego' Athlona FX-51 - najszybszego premierowego CPU najlepszej generacji AMD w historii za czasów kiedy podobno był ogromny postęp, a AMD było 'lata świetlne' przez Intelem.... Przy czym FX był znacznie droższy od topowego Athlona XP, więc jeszcze cena poszła w górę przy okazji.
A jak teraz Intel poprawia wydajność na takt o 5% przy 'tick' i 10-15% przy 'tock' z roku na rok i oferuje nowy procesor w cenie poprzednika to narzekania, że to praktycznie tyle co nic, że procesor do bani....
PS Na pierwszej stronie w tabelce z parametrami układów jest błąd - iGPU w A10-5800K ma 800MHz a nie 844.
Teraz to tylko i wyłącznie ciekawostka techniczna.
Z tego punktu widzenia, to całkiem ładnie udało się AMD poprawić wydajność (bazowa jak i O/C) i sprawność energetyczną(a to przecież wciąż to samo jądro). Różnica podobna do tej Ivy Bridge vs. Haswell (tu z kolei lepiej zegar w zegar, ale problemy z OC).
Powoli zastanawiam się nad zmianą całej platformy, ale jak mam wybrać Intela to mogę jeszcze się wstrzymać z 2 - 3 lata, aż AMD weźmie się solidnie do roboty
Co rozumiesz przez 'AMD weźmie się solidnie do roboty'? Przecież oni mają 20x mniejsze zyski od Intela - nie da się przy takich dysproporcjach stworzyć realnej konkurencji.
Zresztą popatrz choćby teraz na ostatnie premiery - klasyka wręcz. AMD prezentuje Richlanda i Kabini, Intel - Haswella.
Już w momencie premiery Haswella masz wręcz wysyp newsów o nowych laptopach z nowym CPU Intela. I to nie jakiegoś taniego szajsu tylko naprawdę ładne, porządne dobrze skonfigurowane laptopy.
A AMD prezentuje Richlanda i Kabini i mamy parę modeli na krzyż....