komentarze
EclipseZobacz profil
Poziom ostrzeżenia: 0%
Eclipse2011.01.18, 08:03
-21#1
Sorry ale zeby porownywac Liano do 4 letniego chipsetu Intela oraz do procesora co za chwile dostanie status EOL, trzeba miec naprawde ostro poryte w glowie. To tylko pokazuje bezradnosc i slabosc AMD. Zadnej rewolucji wydajnosciowej nie bedzie ot sklejenie dwoch chipow do kupy. Quad core tak samo niczym nie zaskoczy bo moze powalczyc jedynie z 2 rdzeniami z HT. Rzeczywistosc brutlanie zweryfikowala zapowiedzi AMD.
Pr3datorZobacz profil
Poziom ostrzeżenia: 0%
Pr3dator2011.01.18, 08:14
Eclipse powaznie? moze zaczekaj z kamienowaniem do momentu premiery.
chizraZobacz profil
Poziom ostrzeżenia: 0%
chizra2011.01.18, 08:19
Czyli Propus/Regor + GPU + Turbo, na nowej podstawce, i dopiero w lipcu... To poszaleli, nie ma co.
ff12011.01.18, 08:51
,,Redaktorzy tureckiego serwisu internetowego Donanim Haber'- a czy wy wiecie kim oni sa ? ...ja też nie -dlatego im nie wierzę:)
McMenelZobacz profil
Poziom ostrzeżenia: 0%
McMenel2011.01.18, 09:04
Eclipse @ 2011.01.18 08:03  Post: 448224
Sorry ale zeby porownywac Liano do 4 letniego chipsetu Intela oraz do procesora co za chwile dostanie status EOL, trzeba miec naprawde ostro poryte w glowie. To tylko pokazuje bezradnosc i slabosc AMD. Zadnej rewolucji wydajnosciowej nie bedzie ot sklejenie dwoch chipow do kupy. Quad core tak samo niczym nie zaskoczy bo moze powalczyc jedynie z 2 rdzeniami z HT. Rzeczywistosc brutlanie zweryfikowala zapowiedzi AMD.

Wszystko zależy od ceny bo obecna oferta Intela to masakra. I3 to 400 zł plus płyta która tania nie jest. Jeżeli cena za procesor z wydajnym układem graficznym wyniesie te 350-400 z to będzie naprawdę dobrze bo I3 demonem wydajności nie jest. Jedynie nieco lepiej od E8600 który też swoje kosztuje. A nie mówię już o GPU które jest słabe.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2011.01.18, 09:08
Eclipse @ 2011.01.18 08:03  Post: 448224
Sorry ale zeby porownywac Liano do 4 letniego chipsetu Intela oraz do procesora co za chwile dostanie status EOL, trzeba miec naprawde ostro poryte w glowie. To tylko pokazuje bezradnosc i slabosc AMD. Zadnej rewolucji wydajnosciowej nie bedzie ot sklejenie dwoch chipow do kupy. Quad core tak samo niczym nie zaskoczy bo moze powalczyc jedynie z 2 rdzeniami z HT. Rzeczywistosc brutlanie zweryfikowala zapowiedzi AMD.
a przeprasza - czy intel ma coś taniego i nowego? No właśnie - i na tym można zakończyć temat porównania.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2011.01.18, 09:10
netbooki ->bobcat
slim, s'ub'notebooki-> Llano (jakoś inaczej nazywałą się wersja mobilna)

---> Wydaje się, że jeżeli AMD dopieści tutaj CPU to mamy porządną ofertę.

AMD zaczyna podbicjać rynek notebooków od dołu. Świetnie, bo to jest przyszłość, a raczej teraźniejszość.

W PC natomiast jestem ciekaw tylko po co komu Llano, jak bobcat z 2,5GHz w zupełności by wystarczył. Taka platforma budżetowa/biurowa. Zresztą sam nie wiem. Wszystko zależy od ceny. Oby znalazła uznanie, bo największy rynek w zeszłym roku to wciąż Core2Duo. Czyli jest o co walczyć w najniższych segmentach.


Obawy AMD powinny wzbudzić plany Intela na ten rok, czyli wycofanie s775 i zastąpienie go s1156. O ile AMD było dużo lepsze to wciąż na wczoraj, bo w tym roku Intel dla budżetówki ma zupełnie co innego.
gofer87Zobacz profil
Poziom ostrzeżenia: 0%
gofer872011.01.18, 09:37
-3#8
Słabo to widzę, nowa seria i wolniejsza od starej?? No niby ma wbudowaną kartę graficzną ale to dalej prawie jak integra.
dobry_chlopak666Zobacz profil
Poziom ostrzeżenia: 0%
dobry_chlopak6662011.01.18, 09:38
pożyjemy zobaczymy
XGwizdekXZobacz profil
Poziom ostrzeżenia: 0%
XGwizdekX2011.01.18, 09:39
Eclipse @ 2011.01.18 08:03  Post: 448224
Sorry ale zeby porownywac Liano do 4 letniego chipsetu Intela oraz do procesora co za chwile dostanie status EOL, trzeba miec naprawde ostro poryte w glowie. To tylko pokazuje bezradnosc i slabosc AMD. Zadnej rewolucji wydajnosciowej nie bedzie ot sklejenie dwoch chipow do kupy. Quad core tak samo niczym nie zaskoczy bo moze powalczyc jedynie z 2 rdzeniami z HT. Rzeczywistosc brutlanie zweryfikowala zapowiedzi AMD.


Nawet nie czytałeś tego newsa, to po co się wypowiadasz...?
Gdybyś przeczytał przedostatni akapit wiedziałbyś o co tu chodzi, ale nie... Lepiej poczytaj wyrywkowo dwa akapity i resztę 'dopisać' samemu w głowie... -_-'

Jeżeli ten układ, no w sumie dwa układy będą tak wydajne jak zapowiadają, to szykuje się ładna gratka dla przyszłych kupców komputerów stacjonarnych i przenośnych. :)
Raphael1Zobacz profil
Poziom ostrzeżenia: 0%
Raphael12011.01.18, 09:41
Czyli Low-Mid-End Radeony przeprowadziły się z karty PCI-E do CPU/APU w gnieździe procesora. Szybka pamięć DDR3 rekomendowana dla podniesienia wydajności natywnie wplecionego Radeona, biorąc pod uwagę że mamy tu 80SP/400SPu - mam nadzieję że kontroler dobrze sobie poradzi z szybkimi kostkami DRAM. Jedne z szybszych obecnie DDR3 (2,5 GHz Dual Channel) oferują przepustowość na poziomie około 20 GB/s; dla porównania GDDR3 na 128-bitowej szynie myka 28 GB/s (HD5570). Czekam na testy ;)
zVisiorZobacz profil
Poziom ostrzeżenia: 0%
zVisior2011.01.18, 10:34
Jeśli cena będzie niska to ktoś to może kupić. Osobiście nigdy nie kupiłem procka droższego niż 400 złotych a tu może być grafika i procek w tej cenie.

*Redaktorzy tureckiego serwisu Donner Kebap*
Jarq87Zobacz profil
Poziom ostrzeżenia: 0%
Jarq872011.01.18, 10:41
gofer87 @ 2011.01.18 09:37  Post: 448242
Słabo to widzę, nowa seria i wolniejsza od starej?? No niby ma wbudowaną kartę graficzną ale to dalej prawie jak integra.

Heh, proszę troche pomyśleć zanim się coś powie :P...
Llano od począdku miało być platformą dla max średnio wydajnych komputerów i już od dawna wiadomo było, że będą to rdzenie pokroju Athlona II X2/X4 + GPU na poziomie Radeonów 55xx/56xx, więc nie jest to rzadkne zaskoczenie.

Tym w co celuje AMD jest multimedialność i walczyć będą ceną oraz wydajnością CPU/GPU (APU) na WAT. Jak pewnie łatwo się domyśleć najwięcej zyskają tu laptopy (podobnie zresztą jak jest z platformą SB Intela), bo w jednym niewielkim, tanim i nie pobierającym dużych ilości energii układzie dostaniemy wystarczająco wydajny procesor do w zasadzie każdych zastosowań i rozsądny układ graficzny, ktory najpewniej zostawi daleko w tyle jakiekolwiek dostępne na rynku rozwiązania zintegrowane, a także większą część low-endowych dyskretnych kart grafiki dla komputerów przenośnych...

Spójrz na to z tej strony, teraz za taki (AII 250 X2) procesor musisz zapłacić koło 200zł a grafike (Radeon 5570-5670) od 250 do ponad400zł przy czym ich maxymalne zapotrzebowanie na energie to łacznie jakieś 100-120W (od nieco ponad 40W (HD 5570) do 60W (HD 5670) + 65W (X2 250)).
Nowa platforma będzie pobierać w takim wariancie przypuszczalnie 65W i kosztować jak myslę nie więcej niż teraz sama karta graficzna - a to jest już dobry deal!

W notebookach może być jeszcze ciekawiej, bo choć wydajność pewnie będzie nieco niższa, to AMD wreszcie będzie mogło relatywnie długo pracować na baterii i oferować przy tym wydajność (w multimediach i domowych zastosowaniach) zdecydowanie wyższą niż konkurencja (w tym samym przedziale cenowym).

(PS. Przepraszam za błędy...)
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2011.01.18, 11:41
@up
hmm...

... Tylko boję, że to wciąż za słabe GPU... o wiele za słabe. Chyba, że AMD zastosuje tutaj turbo jak u Intela. Jeżeli odłączymy lapka od zasilania to mamy minmalne zużycie baterii.

Mówimy tutaj by grać w gry na rozdziałce natywnej w ustawieniach medium/low.

Wyjdzie w praniu. Jednak na mój gust jest to dobry kierunek. Może wreszcie producenci gier skupią się na jednej platformie i będzie to PC by każda gra chodziła na takim APU.

Bo teraz jeden założy sobie jako mimalne wymagania CPU i7, a GPU 3850 inny natomiast założy sobie, że gra będzie działała na CPU Athlon II i GPU 4870... Teraz wszyscy będą mieli jeden punkt odniesienia... gra ma działać na APU:)
KubaswielgusZobacz profil
Poziom ostrzeżenia: 0%
Kubaswielgus2011.01.18, 11:55
Ciekawe czy ta grafika w APU będzie się podkręcała równie dobrze co pozostałe integry AMD np. HD4225 można przyspieszyć o 65%.
raximusZobacz profil
Poziom ostrzeżenia: 0%
raximus2011.01.18, 12:16
Dla mnie to trochę dziwne i nielogiczne. Wiemy, że 2-rdzeniowe Lliano to Athlony II x2 przeniesione w 32nm + nowe turbo + pare zmian, więc dlaczego miałoby być mniej wydajne niż Athlon II x2?
Ralf_BoXZobacz profil
Poziom ostrzeżenia: 0%
Ralf_BoX2011.01.18, 12:59
Najważniejsze zeby rdzenie można było odblokowywać!!
TeriuszZobacz profil
Poziom ostrzeżenia: 0%
Teriusz2011.01.18, 14:15
CPU i GPU w jednym czyli APU będzie wymagać tylko jednego chłodzenia i to właśnie jest najwspanialsze. Jak na taki układ walnie się porządny cooler i dobrze podkręci to mamy świetny produkt. Pamiętam jak niedawno prawie wszyscy kupowali intelowskie Pentiumy Dual Core E2xxx tylko dla tego, że się świetnie podkręcały przy w miarę niskiej cenie.
AlartZobacz profil
Poziom ostrzeżenia: 0%
Alart2011.01.18, 15:08
Eclipse @ 2011.01.18 08:03  Post: 448224
Sorry ale zeby porownywac Liano do 4 letniego chipsetu Intela oraz do procesora co za chwile dostanie status EOL, trzeba miec naprawde ostro poryte w glowie. To tylko pokazuje bezradnosc i slabosc AMD. Zadnej rewolucji wydajnosciowej nie bedzie ot sklejenie dwoch chipow do kupy. Quad core tak samo niczym nie zaskoczy bo moze powalczyc jedynie z 2 rdzeniami z HT. Rzeczywistosc brutlanie zweryfikowala zapowiedzi AMD.


Pewnie że tak. niewiele się zmieniło i ludzie powoli zauważają, że nikt nie potrzebuje super wydajnych podzespołów. Jeśli coś ma być tańsze, cichsze i na poziomie wydajności 6500 to szykuje się przebój dla osób, którym spaliły się asrocki z socketem 775 i taganem.
Oczywiście bardziej wymagających to nie zachwyca, ale przez konsole nie wychodzą bardziej wymagające gry i aktualnie GTX 580 i 2600k to sprzęt dla kolekcjonerów.
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2011.01.18, 15:59
raximus @ 2011.01.18 12:16  Post: 448294
Dla mnie to trochę dziwne i nielogiczne. Wiemy, że 2-rdzeniowe Lliano to Athlony II x2 przeniesione w 32nm + nowe turbo + pare zmian, więc dlaczego miałoby być mniej wydajne niż Athlon II x2?

z jednego kontrolera pamieci korzystać bedzie CPU i GPU.
Zaloguj się, by móc komentować