Same zalety tylko ta cena 30-40% za wysoka. Muszą coś zrobić bo Intel przejmuje pałeczkę w kategorii wydajność/cena, a to coś co za czasów mojego Athona XP 2500 (rdzeń Barton) było nie do pomyślenia
Powoli zastanawiam się nad zmianą całej platformy, ale jak mam wybrać Intela to mogę jeszcze się wstrzymać z 2 - 3 lata, aż AMD weźmie się solidnie do roboty
Co do ceny, to faktycznie jest drogo, ale też nie tak strasznie jak niektórzy sugerują. W cenie układu mamy CPU o wartości ok. 300 zł i GPU o wartości ok. 200 zł (wydajnościowo może nawet 250 zł, ale trzeba uwzględnić brak własnej pamięci). Reszta to podatek od nowości i od 'elitarności' (najszybsze APU nie licząc BGA Intela, odblokowany mnożnik).
Porównania cenowe do Core i3 Intela nie do końca trafione ze względu na znacznie wyższą wydajność części GPU. Tak samo jak nieuzasadnione są np. porównania Core i3 do FX-6300, który grafiki w ogóle nie ma (i tak na marginesie nie zawsze jest szybszy od i3).
Za 250zł to ty nie masz GPU, a kartę graficzną z własną pamięcią, która kosztuje, z własnym układem dźwięku....
I znacznie mocniejszym GPU bo 6570.
Wybor projektowy(odpowiedni proces, dostosowanie zakresu pracy dla architektury), a architektura niskich energii to jedyna, ktora obecnie przezywa trwaly rozwoj, wzrost sprzedazy. Dlatego Intel i AMD ponownie przywrocily do zycia architektury low-power, bo te z wyzszych energii dotykaja wazkich problemow technologii rozwoju tranzystorow. Jesli sprawdza sie przewidywania analitykow, to era duzych rdzeni mikroprocesorow powoli sie konczy, podobnie jak wczesniej era wektorowych. Wyznacznikiem zawsze pozostaje ekonomia w branzy i upodobania rynku.
Acha...
Poczekaj na SR....
... Nie trzeba być analitykiem by zauważyć, że procesor w mniejszym procesie będzie zajmować mniej miejsca. Ale nie pisz bajek, że na bazie jaguara powstaną nowe procesory w najwyższych segmentach.
Narazie nie, ale powstaja juz w serwerach i sa w nowych generacjach gamingu konsol, te uklady maja przyszlosc bo sa konkurencja od teraz, a kto ma sile i czas czekac na BD konkurencyjnego.
Co do ceny, to faktycznie jest drogo, ale też nie tak strasznie jak niektórzy sugerują. W cenie układu mamy CPU o wartości ok. 300 zł i GPU o wartości ok. 200 zł (wydajnościowo może nawet 250 zł, ale trzeba uwzględnić brak własnej pamięci). Reszta to podatek od nowości i od 'elitarności' (najszybsze APU nie licząc BGA Intela, odblokowany mnożnik).
Porównania cenowe do Core i3 Intela nie do końca trafione ze względu na znacznie wyższą wydajność części GPU. Tak samo jak nieuzasadnione są np. porównania Core i3 do FX-6300, który grafiki w ogóle nie ma (i tak na marginesie nie zawsze jest szybszy od i3).
Do ITX chyba lepiej zainwestować w Haswell-a, mimo wszystko. APU AMD ? HM.. może i będzie ciekawe, ale jak wyjada nowe odmiany w 28nm. Ogólnie warto czekac, na nowe APU, i poczekać co pokarze takie I3 na Haswellu ? A dla kogo APU ? Dla ludzi którzy nie wymagają od komputera nie wiadomo czego.
AMD A10 4100GHZ za 580zł dostaje wpiernicz od INTEL i3-3220 3300MHZ za 450zł i pobiera o 30% więcej prądu.
Jak możma w ogóle myśleć nad takim badziewiem?
Oczywiście nie za tą cene, ale ja bynajmniej po tych testach 'wpiernicz' nie widzę... . Wydajność części CPU sumarycznie jest bliska i3, a wydajność GPU dużo lepsza.
Nie prawda. Każdy procesor ma optymalny zakres pracy. Rdzień jaguara jest znacznie mniej wydajny od rdzenia (moduł) vishery . By osiągnąć poziom mobilnego Richlanda jaguar musiałby mieć zegar rzędu 4GHz...
Tłumaczymy Ci, że zegarów nie można ciągnąć w nieskończoność i poziom Vishery jest nie do osiągnięcia.
Co z poborem energii. Jaguar ciągnie mało energii w 1,6GHz, ale przy 4GHz mógłby ciągnąć krotnie więcej. Pobierałby może 150W vs Richland 35W+chipset.
--------
Inny przykład pomyśl masz procesor dwurdzeniowy i czterordzeniowy. Piszesz, że dwurdzeniowy lepiej skaluje się z energią...
dwu rdzeniowy 2GHz pobiera 17W, a 2,5GHz czterordzeniowy pobiera 65W. Dwurdzeniowy procesor by osiągnąć wydajność czterordzeniowego musiałby być taktowany 5,2GHz, a to oznacza Azot!
Tak to co piszesz ma sens. 16 rdzeniowy Jaguar miałby może większą wydajność od Vishery (zakładam gorsze skalowanie się układu)....
Ale jaka wydajność by była aplikacji 1-4 wątkowych (większość)
Wybor projektowy(odpowiedni proces, dostosowanie zakresu pracy dla architektury), a architektura niskich energii to jedyna, ktora obecnie przezywa trwaly rozwoj, wzrost sprzedazy. Dlatego Intel i AMD ponownie przywrocily do zycia architektury low-power, bo te z wyzszych energii dotykaja wazkich problemow technologii rozwoju tranzystorow. Jesli sprawdza sie przewidywania analitykow, to era duzych rdzeni mikroprocesorow powoli sie konczy, podobnie jak wczesniej era wektorowych. Wyznacznikiem zawsze pozostaje ekonomia w branzy i upodobania rynku.
Acha...
Poczekaj na SR....
... Nie trzeba być analitykiem by zauważyć, że procesor w mniejszym procesie będzie zajmować mniej miejsca. Ale nie pisz bajek, że na bazie jaguara powstaną nowe procesory w najwyższych segmentach.
Ale jaja. Stary Phenom 965 po OC nadal wydajniejszy od A10 przy 4.7GHz !
jedynie iGPU jest całkiem wydajne więc tu plus.
Zobacz sobie testy przed OC i po OC.
Phenom II 965 ma zegar zarowno na stocku o 700 MHz mniejszy, jak i po OC - 700 MHz mniejszy od APU. A wydajnosc prawie taka sama. Tam gdzie liczy sie szyfrowanie AES - Phenom strasznie wypada, ale ogolnie rzecz biorac to nie byla taka zla architektura.
Dobre procki AMD to wspomniany wczesniej Phenom II na Denebie, Athlon XP na Bartonie lub Thoroughbredzie.
W czasach Pentium III - K6III tez dawala rade.
Moim zdaniem GPU w procesorach o ile musza juz je wsadzac na sile, powinno byc maksymalnie na tylke wydajne, aby bez problemu mozna bylo wykonywac proste prace biurowe czy ewntualnie obejzec film w HD. Kto normalny kupuje sam proces bez karty graficznej do gier czy pracy w profesjonalnym srodowisku graficznym?
Powoli zastanawiam się nad zmianą całej platformy, ale jak mam wybrać Intela to mogę jeszcze się wstrzymać z 2 - 3 lata, aż AMD weźmie się solidnie do roboty
Porównania cenowe do Core i3 Intela nie do końca trafione ze względu na znacznie wyższą wydajność części GPU. Tak samo jak nieuzasadnione są np. porównania Core i3 do FX-6300, który grafiki w ogóle nie ma (i tak na marginesie nie zawsze jest szybszy od i3).
Za 250zł to ty nie masz GPU, a kartę graficzną z własną pamięcią, która kosztuje, z własnym układem dźwięku....
I znacznie mocniejszym GPU bo 6570.
Wybor projektowy(odpowiedni proces, dostosowanie zakresu pracy dla architektury), a architektura niskich energii to jedyna, ktora obecnie przezywa trwaly rozwoj, wzrost sprzedazy. Dlatego Intel i AMD ponownie przywrocily do zycia architektury low-power, bo te z wyzszych energii dotykaja wazkich problemow technologii rozwoju tranzystorow. Jesli sprawdza sie przewidywania analitykow, to era duzych rdzeni mikroprocesorow powoli sie konczy, podobnie jak wczesniej era wektorowych. Wyznacznikiem zawsze pozostaje ekonomia w branzy i upodobania rynku.
Acha...
Poczekaj na SR....
... Nie trzeba być analitykiem by zauważyć, że procesor w mniejszym procesie będzie zajmować mniej miejsca. Ale nie pisz bajek, że na bazie jaguara powstaną nowe procesory w najwyższych segmentach.
Narazie nie, ale powstaja juz w serwerach i sa w nowych generacjach gamingu konsol, te uklady maja przyszlosc bo sa konkurencja od teraz, a kto ma sile i czas czekac na BD konkurencyjnego.
Porównania cenowe do Core i3 Intela nie do końca trafione ze względu na znacznie wyższą wydajność części GPU. Tak samo jak nieuzasadnione są np. porównania Core i3 do FX-6300, który grafiki w ogóle nie ma (i tak na marginesie nie zawsze jest szybszy od i3).
sazeer masz racje bo AMD nas oszukuje. Robi OC procka i w magiczny sposób jednocześnie zmniejsza zapotrzebowanie na prąd.
Zresztą nie zmienia to faktu powinieneś dostać bana za multikonto.
sazeer masz racje bo AMD nas oszukuje. Robi OC procka i w magiczny sposób jednocześnie zmniejsza zapotrzebowanie na prąd.
Zresztą nie zmienia to faktu powinieneś dostać bana za multikonto.
sazeer masz racje bo AMD nas oszukuje. Robi OC procka i w magiczny sposób jednocześnie zmniejsza zapotrzebowanie na prąd.
Zresztą nie zmienia to faktu powinieneś dostać bana za multikonto.
Kolejna zmiana platformy ?
różnie jest - mozna strzelac że w okolicach i3 z lepszą kartą graficzną
tylko te tdp...
a szkoda bo nadawałby się do małych komputerów
aha ile ma MHz w spoczynku?i jaka oferuje wtedy wydajność?taki sam test by się przydał dla intela
Jak możma w ogóle myśleć nad takim badziewiem?
Oczywiście nie za tą cene, ale ja bynajmniej po tych testach 'wpiernicz' nie widzę...
Nie prawda. Każdy procesor ma optymalny zakres pracy. Rdzień jaguara jest znacznie mniej wydajny od rdzenia (moduł) vishery . By osiągnąć poziom mobilnego Richlanda jaguar musiałby mieć zegar rzędu 4GHz...
Tłumaczymy Ci, że zegarów nie można ciągnąć w nieskończoność i poziom Vishery jest nie do osiągnięcia.
Co z poborem energii. Jaguar ciągnie mało energii w 1,6GHz, ale przy 4GHz mógłby ciągnąć krotnie więcej. Pobierałby może 150W vs Richland 35W+chipset.
--------
Inny przykład pomyśl masz procesor dwurdzeniowy i czterordzeniowy. Piszesz, że dwurdzeniowy lepiej skaluje się z energią...
dwu rdzeniowy 2GHz pobiera 17W, a 2,5GHz czterordzeniowy pobiera 65W. Dwurdzeniowy procesor by osiągnąć wydajność czterordzeniowego musiałby być taktowany 5,2GHz, a to oznacza Azot!
Tak to co piszesz ma sens. 16 rdzeniowy Jaguar miałby może większą wydajność od Vishery (zakładam gorsze skalowanie się układu)....
Ale jaka wydajność by była aplikacji 1-4 wątkowych (większość)
Wybor projektowy(odpowiedni proces, dostosowanie zakresu pracy dla architektury), a architektura niskich energii to jedyna, ktora obecnie przezywa trwaly rozwoj, wzrost sprzedazy. Dlatego Intel i AMD ponownie przywrocily do zycia architektury low-power, bo te z wyzszych energii dotykaja wazkich problemow technologii rozwoju tranzystorow. Jesli sprawdza sie przewidywania analitykow, to era duzych rdzeni mikroprocesorow powoli sie konczy, podobnie jak wczesniej era wektorowych. Wyznacznikiem zawsze pozostaje ekonomia w branzy i upodobania rynku.
Acha...
Poczekaj na SR....
... Nie trzeba być analitykiem by zauważyć, że procesor w mniejszym procesie będzie zajmować mniej miejsca. Ale nie pisz bajek, że na bazie jaguara powstaną nowe procesory w najwyższych segmentach.
nikt, dlatego APU AMD nie ma racji bytu.
jedynie iGPU jest całkiem wydajne więc tu plus.
Zobacz sobie testy przed OC i po OC.
Phenom II 965 ma zegar zarowno na stocku o 700 MHz mniejszy, jak i po OC - 700 MHz mniejszy od APU. A wydajnosc prawie taka sama. Tam gdzie liczy sie szyfrowanie AES - Phenom strasznie wypada, ale ogolnie rzecz biorac to nie byla taka zla architektura.
Dobre procki AMD to wspomniany wczesniej Phenom II na Denebie, Athlon XP na Bartonie lub Thoroughbredzie.
W czasach Pentium III - K6III tez dawala rade.
jedynie iGPU jest całkiem wydajne więc tu plus.