komentarze
*Konto usunięte*2012.09.27, 21:11
tomcug @ 2012.09.27 21:04  Post: 604086
mlodybe @ 2012.09.27 20:59  Post: 604080
(...)


Czy ty czytasz ze zrozumieniem.

W linku którym podałem masz porównanie i3 SB i fx-4100.

A10 w dzisiejszym arcie jest porównany do i3 IB który jest o 5% wydajniejszy od I3 SB o tym samym taktowaniu.

A ty wyskakujesz z testem FX-8120 ... Ogarnij sie

Facet, jesteś po prostu niemożliwy i niereformowalny. To, co wkleiłeś jako pierwsze to test CPU w grach (w dodatku gorszy od tego, który zalinkowałem), a to drugie to już test GPU zintegrowanych w A10 oraz i3. Sam się lepiej ogarnij.


masz jak wuł test a10 + hd6670 z którego można mniej wiecej okreslić wydajnosc CPU (shogun i starcraft które lubia mocne CPU) gdzie nie odbiega od I3.

Porównanie fx-8120 do a10 jest troche nie na miejscu.
idesofmayZobacz profil
Poziom ostrzeżenia: 0%
idesofmay2012.09.27, 21:16
Wydajność nie odbiega od I3 bo karta ogranicza (prawdopodobnie). Nie wiem który procesor byłby szybszy, ale żeby to sprawdzić potrzebna byłaby jakaś dużo mocniejsza karta, tak dla pewności.
eagleZobacz profil
Poziom ostrzeżenia: 0%
eagle2012.09.27, 21:17
Do oceny samego cpu bym się wstrzymał. gpu intela można sobie wsadzić w pewną część ciała, natomiast i3 się nie podkręca. Nie liczę na cuda, ale trinity przy zegarkach 4.5 nie będzie wcale takie mocno słabsze od nie kręconego i3.
Tak czy siak intel mógł by sobie darować wkładanie na siłę chociaż do desktopowych i3 tych 'grafik' i zwyczajnie obniżyć cenę procesora.
Stefan999Zobacz profil
Poziom ostrzeżenia: 0%
Stefan9992012.09.27, 21:22
HD4000 jest sporo słabsze od igp w trinity, ale na przeżycie jest duzo lepsze niz stare integry, a na razie nie znamy wydajności CPU, ale raczej od i3 3225 szybszy nie będzie, nawet po oc.
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2012.09.27, 21:26
Claw @ 2012.09.27 10:44  Post: 603786
Nie myśłałem, że dożyję czasów, kiedy znowu będzie można pograć w miare sensowne gry na zintegrowanej karcie graficznej!

focus @ 2012.09.27 10:43  Post: 603783
Hamaczi @ 2012.09.27 10:40  Post: 603781
Hmmm, u waszej konkurencji jest już znacznie bardziej rozbudowana publikacja o APU A10-5800K więc tam można zobaczyć z czym APU smakuje.

Jesteśmy w trakcie testów pozostałych konfiguracji. Za chwilę dorzucimy kolejne wyniki z Pentiumem, zaś w dalszej kolejności będzie Llano oraz Athlon II X4.



Po co? I tak wyniki beda takie same, jesli nie to tylko swiadczy zle o miejscach testowych. Takie testy z roznymi CPU maja sens ale przeprowadzane... jako test CPU i to nie z 6670 ale czyms lepszym.

Na rozwazania Pentium G + karta vs APU, przyjdzie jeszcze czas. Teraz to bicie piany - skoro cena nie zostala ogloszona.

unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2012.09.27, 21:29
mooon @ 2012.09.27 21:17  Post: 604093

Tak czy siak intel mógł by sobie darować wkładanie na siłę chociaż do desktopowych i3 tych 'grafik' i zwyczajnie obniżyć cenę procesora.


Pewnie koszt wyprodukowania to kilkanascie dolarow, a z powodow wizerunkowych lepiej moze nawet stracic dolary niz udzial w rynku. Ciagle jeszcze z powodu niskiego udzialu w rynku, sa problemy z optymalizacja i dzialaniem gier, nawet tych prymitywnych na Intelu.
Stefan999Zobacz profil
Poziom ostrzeżenia: 0%
Stefan9992012.09.27, 21:43
Używanie hd4000 do grania na stałe w desktopie całkiem przyjemne nie będzie, chociaż z tego co słyszałem w laptopach nie jest źle, a to ten sam układ. W dodatku i3 ma pełną integre czyli quicksync.
gregory003Zobacz profil
Poziom ostrzeżenia: 0%
gregory0032012.09.27, 22:09
Tak czytam te wykresy, oglądam dł. słupków, porównuję wydajność A10, A10+6670 z i3 i Pentiumem, i... g@#$& mi to daje skoro nie mam odniesienia do cen. Bo tani A10 (<= 400 zł) jest ok., A10 w cenie ok. 450 zł przegrywa w kategorii cena/wydajność z Pentiumem i dedykiem 6670 (230 zł). A10 i w takiej sytuacji mógłby ratować potencjał OC, ale o tym sza - nie wolno pisać przed premierą. AMD sprytnie i nieczysto pograło z tymi nowymi zasadami testów przedpremierowych - pokazują one APU z jak najlepszej strony, ale faktycznie nic nie mówią o produkcie. Gdyby podobnie zagrał monopolista-Intel nie zostawiono by na nim suchej nitki.
STARTX_PLZobacz profil
Poziom ostrzeżenia: 0%
STARTX_PL2012.09.27, 22:20
Proszę o sprecyzowanie czy APU+HD6670 działa w trybie crossfire.
Pitol321Zobacz profil
Poziom ostrzeżenia: 0%
Pitol3212012.09.27, 22:33
STARTX_PL @ 2012.09.27 22:20  Post: 604110
...APU+HD6670 działa w trybie crossfire.


Działa, działa, ale jak to z hybridcrossfire, nie jest za kolorowo i testy te prawdopodobnie dołączą później:


focus @ 2012.09.27 12:21  Post: 603852
SunTzu @ 2012.09.27 12:19  Post: 603851
Czemu nie ma Hybrid Crossfire?

Będzie, ale naprawdę nie chcesz tego zobaczyć.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.09.27, 22:51
mooon @ 2012.09.27 21:17  Post: 604093
Do oceny samego cpu bym się wstrzymał. gpu intela można sobie wsadzić w pewną część ciała, natomiast i3 się nie podkręca. Nie liczę na cuda, ale trinity przy zegarkach 4.5 nie będzie wcale takie mocno słabsze od nie kręconego i3.
Tak czy siak intel mógł by sobie darować wkładanie na siłę chociaż do desktopowych i3 tych 'grafik' i zwyczajnie obniżyć cenę procesora.


Tak z ciekawości zapytam, skoro uważasz, że HD4000 można sobie wsadzić w d... to czy IGP z mobilnych Trinity ULV (bardzo podobna wydajność do HD4000) też uważasz, że można sobie wsadzić w to samo miejsce i w końcu, czy IGP w wychwalanym Brazosie - znacznie wolniejsze od HD4000 też można sobie wsadzić?

Wiem, że podałem różne segmenty, ale jak to już było podane istnieje tendencja do równania IGP Intela z błotem podczas gdy integra AMD jaka by nie była w założeniu jest świetna.

Więc skoro HD4000 uważasz za g... to konsekwentnie za dokładnie takie samo G powinieneś uznać najsłabsze mobilne trinity oraz brazosa na podstawie ilości fps. Tak jest?
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2012.09.27, 23:30
mlodybe @ 2012.09.27 20:48  Post: 604069
unknown_solider @ 2012.09.27 20:29  Post: 604055
(...)


Obudzcie sie. Widzieliscie testy bulldozera? topowy produkt w czesci gier osiaga wydajnosc Pentiuma G za 200 zl, w innych dogania dziadka Phenoma. Jaka poprawe wydajnosci zapowiedzialo AMD? Do okolo 10-15%. Odniescie to do podrasowanych taktowanan. Czyzby AMD zanizalo wydajnosc swoich nowosci na przedpremierowych slajdach? Jesli tak to bylby to pierwszy producent stosujacy taka praktyke. A co da poprawa wydajnosci o 10-15% uwzgledniajac wysoki zegar na stock, skoro do poziomu konkurencyjnosci z Intelem brakuje 30-50% a CPU najpierw bedzie drogi a potem ma konkurowac z lga1150? I to wszystko w przypadku 4 modulowego topowego CPU, a nie 2 modulowca, ktory miewa problemy z osiagnieciem wydajnosci Athlona 2 jeszcze jakby tego bylo malo po obcieciu L3.


Teraz jeszcze raz przejżyj testy w grach i zobacz że A10 nie odstaje od i3 co wcześniej nie było takie oczywiste...

http://pclab.pl/art48623-12.html
AMD cos poprawiło - ale tego dowiemy sie dopiero po premierze i testach CPU.

Zegary :P
mr.xxxZobacz profil
Poziom ostrzeżenia: 0%
mr.xxx2012.09.27, 23:53
mlodybe @ 2012.09.27 21:01  Post: 604084
AMD cos poprawiło - ale tego dowiemy sie dopiero po premierze i testach CPU.


Jakiej premierze? jakiej dowiemy? czym ty zyjesz? zfingowanymi, niepelnymi testawmi grafiki z mistycznego GPU? wydajnosc tego apu a10 jest juz znana , nawet testy po OC byly , poszukaj na www.google.cn czyli chinskim google gdzie procek juz byl przemaglowany wzdłuż i wszerz......... ale nie - wolisz podsycac atmosfere typu: integrowane PGU jest wspaniałe to i CPU bedzie wspaniałe.......

tymczasem sie obudź............
mr.xxxZobacz profil
Poziom ostrzeżenia: 0%
mr.xxx2012.09.27, 23:57
Pioy @ 2012.09.27 18:16  Post: 604017
Może któryś rzucić linkiem? Ew. na priv?


HetmanZobacz profil
Poziom ostrzeżenia: 0%
Hetman2012.09.28, 00:26
Recenzja na żywo? WRESZCIE!!!:D Chyba po dziesięciu latach od ostatniej...
Kraft135Zobacz profil
Poziom ostrzeżenia: 0%
Kraft1352012.09.28, 00:40
'Pentium G2120 kosztuje około 360 zł. Trzeba do tego doliczyć cenę karty graficznej (w tym przypadku Radeona HD 6670)'

Widzę, że redakcja podchwytuje retorykę fanbojów Intela typu Grave. To tak jakby za alternatywę smartphone'a podawać nettopa z zestawem do VoIP. Wydajniejsze? A jakże! Pogadać się da? Pewniacha. A teraz wsadź mi tego pentiaka i radka do zgrabnej budy mini-ITX albo systemu all-in-one... Niestety, ale za miniaturyzację się płaci grubą kasiorę. Ja się nie dziwię, że AMD zlewa ten wortal, jeśli redki nie są w stanie pojąć tak elementarnych spraw.
nadro-linuxZobacz profil
Poziom ostrzeżenia: 0%
nadro-linux2012.09.28, 01:07
Jeśli chodzi o rynek gier to weźcie pod uwagę, że architektura modułowa nie została stworzona z myślą o obecnych grach. Pojedynczy moduł zawiera 2 'rdzenie', ale FPU jest tylko jedno, a ta jednostka ma na dzień dzisiejszy bardzo duże znaczenie w przypadku gier. Tak więc jeśli patrzymy na Bulldozer'a i Piledriver'a przez pryzmat gier to możemy śmiało uogólnić, że 1 moduł = 1 rdzeń, a wydajność pojedynczego rdzenia odbiega wydajnościowo od pojedynczego rdzenia Intel'a. Czy jednak jest to naprawdę tak duży problem jak niektórzy piszą? Wg mnie nie, gdyż w większości wymagających graficznie tytułów i tak wąskim gardłem jest karta graficzna. Na dodatek już w najbliższym czasie większość zadań CPU w grach przejmie GPU (GPGPU). Procek będzie miał do wykonania tylko najprostsze zadania, typu obsługa skryptów/logiki oraz dźwięku, a do tych zadań wydajność FX'ów i koncepcja modułów jest w pełni wystarczająca. Zauważcie, że w przypadku programów użytkowych, w których FPU nie ma aż takiego znaczenia nowe procki AMD w zasadzie nie ustępują Intelowi (raz wygrywają, raz przegrywają). Myślę, że już wraz z nową generacją konsol GPGPU zacznie być szeroko używane w przypadku gier. Reasumując, z perspektywy gracza można odnieść wrażenie, iż architektura modułowa pojawiła się trochę za szybko, jednak za 2-3 lata wg mnie to rozwiązanie pokaże swój potencjał. W przypadku gier przyszłość to GPU, rola CPU będzie ograniczona do minimum (przynajmniej takie są obecne trendy rynku, w oparciu o powstające technologie).
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2012.09.28, 02:53
mr.xxx @ 2012.09.27 23:53  Post: 604129
mlodybe @ 2012.09.27 21:01  Post: 604084
AMD cos poprawiło - ale tego dowiemy sie dopiero po premierze i testach CPU.


Jakiej premierze? jakiej dowiemy? czym ty zyjesz? zfingowanymi, niepelnymi testawmi grafiki z mistycznego GPU? wydajnosc tego apu a10 jest juz znana , nawet testy po OC byly , poszukaj na www.google.cn czyli chinskim google gdzie procek juz byl przemaglowany wzdłuż i wszerz......... ale nie - wolisz podsycac atmosfere typu: integrowane PGU jest wspaniałe to i CPU bedzie wspaniałe.......

tymczasem sie obudź............


Nie no daj spokoj. Odchodzac od rozwazan dla kogo to produkt to A10 5800k jakis tam poziom trzyma, przy odpowiedniej cenie byloby ok, ale nigdy w zyciu na poziomie i3 + 6670, czyli przy cenie 600 zl ten produkt staje sie totalnie bezsensowny, za 500 zl trafi do waskiej grupy ludzi.
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2012.09.28, 02:56
nadro-linux @ 2012.09.28 01:07  Post: 604138
Jeśli chodzi o rynek gier to weźcie pod uwagę, że architektura modułowa nie została stworzona z myślą o obecnych grach. Pojedynczy moduł zawiera 2 'rdzenie', ale FPU jest tylko jedno, a ta jednostka ma na dzień dzisiejszy bardzo duże znaczenie w przypadku gier.


Skoro nie zostala stworzona do gier, to dlaczego zastosowana ja w APU? Szczerze probuje sie doszukac zalet k15 z dwoma modulami w stosunku do starego liano, ale poza wyzszym zegarem ich nie widze. Zegar mozna bylo poprawic w liano, w koncu 2.6-2.9 ghz przy 32nm to nie jest szczyt mozliwosci technologicznych.
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2012.09.28, 03:01
Grave @ 2012.09.27 22:51  Post: 604118

Więc skoro HD4000 uważasz za g... to konsekwentnie za dokładnie takie samo G powinieneś uznać najsłabsze mobilne trinity oraz brazosa na podstawie ilości fps. Tak jest?


Jesli chodzi o i-gpu to rozwazania maja charakter typu; 'czy na tym sobie pogram czy nie', a jesli sobie nie pogram to interesuje mnie wsparcie gpu przy uzytkowaniu komputera/laptopa/netbooka w inny sposob. To w sumie jest prosty dylemat. Skoro hd3000 w zupelnosci wystarcza mi w laptopie, to rozwoj i-gpu w kolejnych generacjach kosztem czesci cpu do mnie zdecydowanie nie przemawia, mysle ze sporo osob ma podobne podejscie.
Zaloguj się, by móc komentować