@rpdshr
Architektura procesora ważna rzecz (dla entuzjastów), tak samo proces produkcyjny i inne bajery, mnie to wszystko interesuje hobbystycznie...
i to wszystko powinno być uwzględnione w recenzji, bo to czytelników PCLAB intersuje.
ale...
końcowa decyzja o kupnie jest podyktowana proporcją koszt/efekt, koniec kropka.
Jak najbardziej się zgadzam. Mało tego. Dla mnie podstawowym kryterium będzie cena, więc głównym wyznacznikiem cena/wydajność. Dlatego też nie zgadzam się np. Gravem, że trzeba koniecznie porównywać FX z Xeonami, a APU z i5, czy i7. Towar jest tak dobry, na ile został wyceniony przez twórcę, bo high-end high-endowi nierówny. No i tak jak napisał wyżej HΛЯPΛGŌN - nieważne co siedzi w środku, ważne co z tego wychodzi....
(Mam nadzieję, ze nie wywołam ty wilka z lasu )
Twoja argumentacja jest z rodzaju gdyby bramka była wyższa o metr to padłby gol.
Ale niestety nie jest, więc piłka poleciała w trybuny...
Gdyby AMD miało proces Intela i fabryki Intela, gdyby AMD miało eDRAM który ma Intel, gdyby AMD miało równie mocne CPU co Intel, gdyby AMD miało tyle kasy co Intel etc etc Gdyby miało to wszystko czego nie ma, a co ma Intel, a przy tym miało też to co ma samo a czego Intel nie ma, to... AMD byłoby monopolistą.
Ale tak nie jest...
Sorry ale to już jest dość absurdalna argumentacja - w tym konkretnym przypadku mówimy tylko o eDRAM-ie.
Wystarczy zresztą spojrzeć na linki z mojego poprzedniego posta, aby przekonać się jak duża różnica wydajności dzieli HD 5100 od HD 5200 - cała zaś różnica sprowadza się do tych 128 MB L4 oraz o 100 MHz wyższego Turbo (1200 vs 1300).
Bez sensu zrobiliście te testy. Trzeba było wszystkie procki ustawić na 3.3 Ghz, wyłączyć turbo i wtedy testować. Teraz to jest miszmasz, bo nie wiadomo ile rdzeni i z jaką szybkością działało w danym teście, a rozrzut w szybkościach jest spory.
Czynnikiem determinującym jest przede wszystkim cena. Klienta interesuje wydajność w stosunku do ceny, a nie do ilości rdzeni.
@rpdshr
Architektura procesora ważna rzecz (dla entuzjastów), tak samo proces produkcyjny i inne bajery, mnie to wszystko interesuje hobbystycznie...
i to wszystko powinno być uwzględnione w recenzji, bo to czytelników PCLAB intersuje.
ale...
końcowa decyzja o kupnie jest podyktowana proporcją koszt/efekt, koniec kropka.
A jak sądzisz, co może powiedzieć? Trudno wymyślić, co?
edit:
@up - to też ładnie dzięki porównaniu zegar w zegar widać jak ewoluuje architektura danego producenta, czyż nie? A w przypadku różnych architektur - via Core vs. K15 można sobie podywagować np. kto lepiej podszedł do sprawy. Takie porównanie byłoby tym lepsze, im więcej danych byśmy znali, np. odnośnie ilości tranzystorów na blok INT / Fetch / FPU etc. etc. etc.
Wiadomo że zegar w zegar AMD przegra bo ich architektura ma inne założenie. Intel stawia na pojedyńczy watek zaś AMD wielordzeniowość kosztem mocnego watku...
Jak to porównać?? Jeśli porównujemy CPU starsza generacje do nowszej tego samego producenta to jest to oka. Porównanie tego typu do konkurencji to głupota.
W jednym się zgadzamy - porównywanie zegar w zegar tej samej architektury jest jak najbardziej pożądane, bo widać dzięki temu co dały modyfikacje pierwowzoru. Jak AMD / Intel coś doda do rdzenia, podniesie zegar i zrobi jakieś inne cuda-wianki, to zrobi się z tego np. 5% większa wydajność - ok, tylko co za to odpowiada? Porównanie 'zwz' da nam jako-takie pojęcie na ile większa wydajność wynika z zegara, a ile z nowych 'ficzerów' w rdzeniu. To są oczywiste oczywistości.
Problem faktycznie pojawia się przy różnych architekturach - nastawionych na co innego. Jednak, tak jak pisałem wcześniej - dobrze wiedzieć np. na ile budżet energetyczny został dobrze wykorzystany, tylko znowu jest mały problem... Intel ma 22nm, AMD 28nm. Gdyby jeszcze obydwoje mieli zrównane procesy technologiczne, to przy tym samym zegarze możnaby pozastanawiać się komu lepiej wyszedł pomysł na rdzeń - jego wielkość / zegary / ilość tranzystorów etc. etc.. Jednak zaznaczam - czysto teoretycznie, czy wręcz akademicko w tym przypadku.
Faktycznie, większość testów powinna być przeprowadzona na fabrycznych ustawieniach procesorów, z włączonym turbo bo tak się je kupuje i tak większość ludzi z nich korzysta.
Ale część testów powinna być przeprowadzona zegar w zegar z wyłączonym turbo, podam przykład autentyczny i znaczący.
Za górami za lasami, dawno dawno temu były sobie procesory Athlon i P4.
Człowiek patrzył sobie na testy procesorów ustawionych na 2ghz i widział, że wydajność jest większa od 30% do 50% na korzyść Athlona, (średnio 40%)
Potem człowiek robił obliczenia, mnożył 2ghz razy 140% i wychodziło mu że musi kupić P4 2.8ghz żeby dorównać Athlonowi 2ghz.
Następnie człowiek patrzył na cenę Athlona 2ghz, a potem cenę P4 2.8 i mu się gęba wykrzywiała w geście obrzydzenia, patrzył znów na Athlona i gęba mu się uśmiechała jakoś tak samoistnie.
Następnie człowiek brał złotówki i kupował Athlona 2ghz.
Właśnie taki jest sens testów zegar w zegar, można z nich dokładnie obliczyć granicę opłacalności.
Nie zmienia to faktu, iż trudno taki element traktować jako mało istotny/bez znaczenia.
A czy ktoś to traktuje jako coś mało istotnego?
Twoja argumentacja jest z rodzaju gdyby bramka była wyższa o metr to padłby gol.
Ale niestety nie jest, więc piłka poleciała w trybuny...
Gdyby AMD miało proces Intela i fabryki Intela, gdyby AMD miało eDRAM który ma Intel, gdyby AMD miało równie mocne CPU co Intel, gdyby AMD miało tyle kasy co Intel etc etc Gdyby miało to wszystko czego nie ma, a co ma Intel, a przy tym miało też to co ma samo a czego Intel nie ma, to... AMD byłoby monopolistą.
Pomijając już kwestie pobierania energi bo tu jest dobrze, to antyczny można napisać p2 955 jest często lepszy co jest dla mnie śmieszne.
Zintegrowana APU nadal nie zachwyca bo nie może zachwycać na ddr3, cenowo póki co dość drogo(piszę o APU) czyli kolejny raz nic ciekawego.
I nawet pisze to w sensie przejścia z phemona 2 sensu niestety brak. Mogli by wydać poprawione fx-y na tym procesie.
Jedyną nadzieją dla kaveri jest technologia w której iGPU pomaga procesorowi obliczać fizykę a GPU robi swoje. Być może dzięki temu nawet dwu-jajowiec dawał by rade w np BF4, problem w tym że na gry z obsługą Mantle jeszcze sobie poczekamy.
Wiadomo że zegar w zegar AMD przegra bo ich architektura ma inne założenie. Intel stawia na pojedyńczy watek zaś AMD wielordzeniowość kosztem mocnego watku...
Jak to porównać?? Jeśli porównujemy CPU starsza generacje do nowszej tego samego producenta to jest to oka. Porównanie tego typu do konkurencji to głupota.
Ich założenia wzięły w łeb, nic z tego co założyli nie obronili i nie widać już przyszłości. Ten moduł co to dzieli i zrównolegla instrukcje dla 2 wątków jest wolny i za dużo zajmuje miejsca i tranzystorów.
Kałveri ma 2,4 miliarda tranzystorów i niewiele to daje, czerwona kartka dla tej architektury cpu.
AMD oszczędza na coolingu box, ciekawe czy ich laptopy wyjdą z dobrym czasem na baterii, bo coś krucho to widze.
gdyby nie dział kart graficznych amd dawno byłoby w dupie, kto to w ogóle kupuje, zamiast ewolucji, non stop amd daje na wstecznym biegu, przecież te rdzenie wolniejsze od phenoma 965 którego miałem za czasów intel 920 i już wtedy phenom z nim przegrywał, amd jest kilka generacji za intelem a do zakupu tych procków nic nie zachęca, nawet cena
Wiadomo że zegar w zegar AMD przegra bo ich architektura ma inne założenie. Intel stawia na pojedyńczy watek zaś AMD wielordzeniowość kosztem mocnego watku...
Jak to porównać?? Jeśli porównujemy CPU starsza generacje do nowszej tego samego producenta to jest to oka. Porównanie tego typu do konkurencji to głupota.
Ich założenia wzięły w łeb, nic z tego co założyli nie obronili i nie widać już przyszłości. Ten moduł co to dzieli i zrównolegla instrukcje dla 2 wątków jest wolny i za dużo zajmuje miejsca i tranzystorów.
Kałveri ma 2,4 miliarda tranzystorów i niewiele to daje, czerwona kartka dla tej architektury cpu.
AMD oszczędza na coolingu box, ciekawe czy ich laptopy wyjdą z dobrym czasem na baterii, bo coś krucho to widze.
5 lat by 4ghz było szybsze od 3,4ghz. Rzeczywiście sukces
Jeśli już komentujesz taktowania to dlaczego ignorujesz TDP procesorów?
AMD A8-7600 65/45 Wat TDP (+ wbudowana mocna karta graficzna dx 11,2, HSA, TrueAudio)
AMD Phenom II 965 - 125 Wat TDP - tylko CPU
Teraz jak sądzisz jakie taktowanie oraz jaką wydajność osiągnęłaby nowa architektura AMD Kaveri pobierając tyle samo energii co starszy AMD Phenom II? Oczywiście o cache L3 już nie wspominam, bo chodzi tylko o zwyczajny 'budżet energetyczny' i założenia inżynieryjne projektu.
PS. Mam nadzieje, ze moj post zostanie przeczytany ze zrozumieniem przed ocena.
Mi na przykłąd potrzebna jest MOC. Chętnie kupiłbym coś taktowanego 4 ghz z 12 modułami. Może jeść 200W w stresie, nie przeszkadzało by mi to. Niestety jeśli o moc chodzi pozostaje nadal tylko Intel...
Ewidentnie dobierałeś przykłady w których ogranicznikiem było cpu, nie gpu. Jeśli chcesz komuś udowadniać błąd w stwierdzeniu o wydajności GPU, to właśnie testy w wysokich rozdzielczościach powinny cię interesować..
Gdyby tak było, na wykresach nie powinno być różnic między HD4600 (4770K) a HD5200 (4770R) - w końcu procesor jest ten sam.
HD5200 ma DWA razy więcej jednostek wykonawczych od hd4600 (40 vs 20)! Różnica między tymi układami nie sprowadza się tylko do eDramu...
A jak sądzisz, co może powiedzieć? Trudno wymyślić, co?
edit:
@up - to też ładnie dzięki porównaniu zegar w zegar widać jak ewoluuje architektura danego producenta, czyż nie? A w przypadku różnych architektur - via Core vs. K15 można sobie podywagować np. kto lepiej podszedł do sprawy. Takie porównanie byłoby tym lepsze, im więcej danych byśmy znali, np. odnośnie ilości tranzystorów na blok INT / Fetch / FPU etc. etc. etc.
Wiadomo że zegar w zegar AMD przegra bo ich architektura ma inne założenie. Intel stawia na pojedyńczy watek zaś AMD wielordzeniowość kosztem mocnego watku...
Jak to porównać?? Jeśli porównujemy CPU starsza generacje do nowszej tego samego producenta to jest to oka. Porównanie tego typu do konkurencji to głupota.
Ewidentnie dobierałeś przykłady w których ogranicznikiem było cpu, nie gpu. Jeśli chcesz komuś udowadniać błąd w stwierdzeniu o wydajności GPU, to właśnie testy w wysokich rozdzielczościach powinny cię interesować..
Gdyby tak było, na wykresach nie powinno być różnic między HD4600 (4770K) a HD5200 (4770R) - w końcu procesor jest ten sam. W praktyce różnice są jednak ogromne. Być może samo AMD jest ograniczane przez CPU, choć równie dobrze winowajcą może być przepustowość pamięci.
To, że AMD ma większą moc samego GPU (w oderwaniu od podsystemu pamięci), jest sprawą oczywistą. Kluczowe znaczenie ma jednak końcowa wydajność całej konfiguracji na grywalnych ustawieniach. IMHO Anadtech przetestował za mało gier, żeby wyciągnąć jakieś generalne wnioski.
Architektura procesora ważna rzecz (dla entuzjastów), tak samo proces produkcyjny i inne bajery, mnie to wszystko interesuje hobbystycznie...
i to wszystko powinno być uwzględnione w recenzji, bo to czytelników PCLAB intersuje.
ale...
końcowa decyzja o kupnie jest podyktowana proporcją koszt/efekt, koniec kropka.
Jak najbardziej się zgadzam. Mało tego. Dla mnie podstawowym kryterium będzie cena, więc głównym wyznacznikiem cena/wydajność. Dlatego też nie zgadzam się np. Gravem, że trzeba koniecznie porównywać FX z Xeonami, a APU z i5, czy i7. Towar jest tak dobry, na ile został wyceniony przez twórcę, bo high-end high-endowi nierówny. No i tak jak napisał wyżej HΛЯPΛGŌN - nieważne co siedzi w środku, ważne co z tego wychodzi....
(Mam nadzieję, ze nie wywołam ty wilka z lasu
A czy ktoś to traktuje jako coś mało istotnego?
Twoja argumentacja jest z rodzaju gdyby bramka była wyższa o metr to padłby gol.
Ale niestety nie jest, więc piłka poleciała w trybuny...
Gdyby AMD miało proces Intela i fabryki Intela, gdyby AMD miało eDRAM który ma Intel, gdyby AMD miało równie mocne CPU co Intel, gdyby AMD miało tyle kasy co Intel etc etc Gdyby miało to wszystko czego nie ma, a co ma Intel, a przy tym miało też to co ma samo a czego Intel nie ma, to... AMD byłoby monopolistą.
Ale tak nie jest...
Sorry ale to już jest dość absurdalna argumentacja - w tym konkretnym przypadku mówimy tylko o eDRAM-ie.
Wystarczy zresztą spojrzeć na linki z mojego poprzedniego posta, aby przekonać się jak duża różnica wydajności dzieli HD 5100 od HD 5200 - cała zaś różnica sprowadza się do tych 128 MB L4 oraz o 100 MHz wyższego Turbo (1200 vs 1300).
Czynnikiem determinującym jest przede wszystkim cena. Klienta interesuje wydajność w stosunku do ceny, a nie do ilości rdzeni.
Architektura procesora ważna rzecz (dla entuzjastów), tak samo proces produkcyjny i inne bajery, mnie to wszystko interesuje hobbystycznie...
i to wszystko powinno być uwzględnione w recenzji, bo to czytelników PCLAB intersuje.
ale...
końcowa decyzja o kupnie jest podyktowana proporcją koszt/efekt, koniec kropka.
A jak sądzisz, co może powiedzieć? Trudno wymyślić, co?
edit:
@up - to też ładnie dzięki porównaniu zegar w zegar widać jak ewoluuje architektura danego producenta, czyż nie? A w przypadku różnych architektur - via Core vs. K15 można sobie podywagować np. kto lepiej podszedł do sprawy. Takie porównanie byłoby tym lepsze, im więcej danych byśmy znali, np. odnośnie ilości tranzystorów na blok INT / Fetch / FPU etc. etc. etc.
Wiadomo że zegar w zegar AMD przegra bo ich architektura ma inne założenie. Intel stawia na pojedyńczy watek zaś AMD wielordzeniowość kosztem mocnego watku...
Jak to porównać?? Jeśli porównujemy CPU starsza generacje do nowszej tego samego producenta to jest to oka. Porównanie tego typu do konkurencji to głupota.
W jednym się zgadzamy - porównywanie zegar w zegar tej samej architektury jest jak najbardziej pożądane, bo widać dzięki temu co dały modyfikacje pierwowzoru. Jak AMD / Intel coś doda do rdzenia, podniesie zegar i zrobi jakieś inne cuda-wianki, to zrobi się z tego np. 5% większa wydajność - ok, tylko co za to odpowiada? Porównanie 'zwz' da nam jako-takie pojęcie na ile większa wydajność wynika z zegara, a ile z nowych 'ficzerów' w rdzeniu. To są oczywiste oczywistości.
Problem faktycznie pojawia się przy różnych architekturach - nastawionych na co innego. Jednak, tak jak pisałem wcześniej - dobrze wiedzieć np. na ile budżet energetyczny został dobrze wykorzystany, tylko znowu jest mały problem... Intel ma 22nm, AMD 28nm. Gdyby jeszcze obydwoje mieli zrównane procesy technologiczne, to przy tym samym zegarze możnaby pozastanawiać się komu lepiej wyszedł pomysł na rdzeń - jego wielkość / zegary / ilość tranzystorów etc. etc.. Jednak zaznaczam - czysto teoretycznie, czy wręcz akademicko w tym przypadku.
Faktycznie, większość testów powinna być przeprowadzona na fabrycznych ustawieniach procesorów, z włączonym turbo bo tak się je kupuje i tak większość ludzi z nich korzysta.
Ale część testów powinna być przeprowadzona zegar w zegar z wyłączonym turbo, podam przykład autentyczny i znaczący.
Za górami za lasami, dawno dawno temu były sobie procesory Athlon i P4.
Człowiek patrzył sobie na testy procesorów ustawionych na 2ghz i widział, że wydajność jest większa od 30% do 50% na korzyść Athlona, (średnio 40%)
Potem człowiek robił obliczenia, mnożył 2ghz razy 140% i wychodziło mu że musi kupić P4 2.8ghz żeby dorównać Athlonowi 2ghz.
Następnie człowiek patrzył na cenę Athlona 2ghz, a potem cenę P4 2.8 i mu się gęba wykrzywiała w geście obrzydzenia, patrzył znów na Athlona i gęba mu się uśmiechała jakoś tak samoistnie.
Następnie człowiek brał złotówki i kupował Athlona 2ghz.
Właśnie taki jest sens testów zegar w zegar, można z nich dokładnie obliczyć granicę opłacalności.
Nie zmienia to faktu, iż trudno taki element traktować jako mało istotny/bez znaczenia.
A czy ktoś to traktuje jako coś mało istotnego?
Twoja argumentacja jest z rodzaju gdyby bramka była wyższa o metr to padłby gol.
Ale niestety nie jest, więc piłka poleciała w trybuny...
Gdyby AMD miało proces Intela i fabryki Intela, gdyby AMD miało eDRAM który ma Intel, gdyby AMD miało równie mocne CPU co Intel, gdyby AMD miało tyle kasy co Intel etc etc Gdyby miało to wszystko czego nie ma, a co ma Intel, a przy tym miało też to co ma samo a czego Intel nie ma, to... AMD byłoby monopolistą.
Ale tak nie jest...
Zintegrowana APU nadal nie zachwyca bo nie może zachwycać na ddr3, cenowo póki co dość drogo(piszę o APU) czyli kolejny raz nic ciekawego.
I nawet pisze to w sensie przejścia z phemona 2 sensu niestety brak. Mogli by wydać poprawione fx-y na tym procesie.
Wiadomo że zegar w zegar AMD przegra bo ich architektura ma inne założenie. Intel stawia na pojedyńczy watek zaś AMD wielordzeniowość kosztem mocnego watku...
Jak to porównać?? Jeśli porównujemy CPU starsza generacje do nowszej tego samego producenta to jest to oka. Porównanie tego typu do konkurencji to głupota.
Ich założenia wzięły w łeb, nic z tego co założyli nie obronili i nie widać już przyszłości. Ten moduł co to dzieli i zrównolegla instrukcje dla 2 wątków jest wolny i za dużo zajmuje miejsca i tranzystorów.
Kałveri ma 2,4 miliarda tranzystorów i niewiele to daje, czerwona kartka dla tej architektury cpu.
AMD oszczędza na coolingu box, ciekawe czy ich laptopy wyjdą z dobrym czasem na baterii, bo coś krucho to widze.
A nie łatwiej było by
Wiadomo że zegar w zegar AMD przegra bo ich architektura ma inne założenie. Intel stawia na pojedyńczy watek zaś AMD wielordzeniowość kosztem mocnego watku...
Jak to porównać?? Jeśli porównujemy CPU starsza generacje do nowszej tego samego producenta to jest to oka. Porównanie tego typu do konkurencji to głupota.
Ich założenia wzięły w łeb, nic z tego co założyli nie obronili i nie widać już przyszłości. Ten moduł co to dzieli i zrównolegla instrukcje dla 2 wątków jest wolny i za dużo zajmuje miejsca i tranzystorów.
Kałveri ma 2,4 miliarda tranzystorów i niewiele to daje, czerwona kartka dla tej architektury cpu.
AMD oszczędza na coolingu box, ciekawe czy ich laptopy wyjdą z dobrym czasem na baterii, bo coś krucho to widze.
5 lat by 4ghz było szybsze od 3,4ghz. Rzeczywiście sukces
Jeśli już komentujesz taktowania to dlaczego ignorujesz TDP procesorów?
AMD A8-7600 65/45 Wat TDP (+ wbudowana mocna karta graficzna dx 11,2, HSA, TrueAudio)
AMD Phenom II 965 - 125 Wat TDP - tylko CPU
Teraz jak sądzisz jakie taktowanie oraz jaką wydajność osiągnęłaby nowa architektura AMD Kaveri pobierając tyle samo energii co starszy AMD Phenom II? Oczywiście o cache L3 już nie wspominam, bo chodzi tylko o zwyczajny 'budżet energetyczny' i założenia inżynieryjne projektu.
PS. Mam nadzieje, ze moj post zostanie przeczytany ze zrozumieniem przed ocena.
Mi na przykłąd potrzebna jest MOC. Chętnie kupiłbym coś taktowanego 4 ghz z 12 modułami. Może jeść 200W w stresie, nie przeszkadzało by mi to. Niestety jeśli o moc chodzi pozostaje nadal tylko Intel...
Intel jest tańszy, szybszy, mniej prądożerny.
W x-komie podzespoły są ogólnie drogie
http://www.pcprojekt.pl/?/p__katalog_produ..._BOX_Radeon_R7/
Ewidentnie dobierałeś przykłady w których ogranicznikiem było cpu, nie gpu. Jeśli chcesz komuś udowadniać błąd w stwierdzeniu o wydajności GPU, to właśnie testy w wysokich rozdzielczościach powinny cię interesować..
Gdyby tak było, na wykresach nie powinno być różnic między HD4600 (4770K) a HD5200 (4770R) - w końcu procesor jest ten sam.
HD5200 ma DWA razy więcej jednostek wykonawczych od hd4600 (40 vs 20)! Różnica między tymi układami nie sprowadza się tylko do eDramu...
Ale nie dysponuje.
Owszem nie ma i mieć nie będzie.
Nie zmienia to faktu, iż trudno taki element traktować jako mało istotny/bez znaczenia.
Wystarczy zresztą popatrzeć na wyniki - Iris Pro (HD 5200) vs HD 5100 (brak eDRAM-u):
http://www.notebookcheck.net/Intel-Iris-Pr...00.90965.0.html
http://www.notebookcheck.net/Intel-Iris-Gr...00.91977.0.html
a co ci powie takie porownanie??
A jak sądzisz, co może powiedzieć? Trudno wymyślić, co?
edit:
@up - to też ładnie dzięki porównaniu zegar w zegar widać jak ewoluuje architektura danego producenta, czyż nie? A w przypadku różnych architektur - via Core vs. K15 można sobie podywagować np. kto lepiej podszedł do sprawy. Takie porównanie byłoby tym lepsze, im więcej danych byśmy znali, np. odnośnie ilości tranzystorów na blok INT / Fetch / FPU etc. etc. etc.
Wiadomo że zegar w zegar AMD przegra bo ich architektura ma inne założenie. Intel stawia na pojedyńczy watek zaś AMD wielordzeniowość kosztem mocnego watku...
Jak to porównać?? Jeśli porównujemy CPU starsza generacje do nowszej tego samego producenta to jest to oka. Porównanie tego typu do konkurencji to głupota.
Intel jest tańszy, szybszy, mniej prądożerny.
Ewidentnie dobierałeś przykłady w których ogranicznikiem było cpu, nie gpu. Jeśli chcesz komuś udowadniać błąd w stwierdzeniu o wydajności GPU, to właśnie testy w wysokich rozdzielczościach powinny cię interesować..
Gdyby tak było, na wykresach nie powinno być różnic między HD4600 (4770K) a HD5200 (4770R) - w końcu procesor jest ten sam. W praktyce różnice są jednak ogromne. Być może samo AMD jest ograniczane przez CPU, choć równie dobrze winowajcą może być przepustowość pamięci.
To, że AMD ma większą moc samego GPU (w oderwaniu od podsystemu pamięci), jest sprawą oczywistą. Kluczowe znaczenie ma jednak końcowa wydajność całej konfiguracji na grywalnych ustawieniach. IMHO Anadtech przetestował za mało gier, żeby wyciągnąć jakieś generalne wnioski.