komentarze
matxxxZobacz profil
Poziom ostrzeżenia: 0%
matxxx2012.03.29, 05:10
-14#1
Czyżby nvidia popełniła tem sam błąd co AMD z swoimi buldkami ?
radeg81Zobacz profil
Poziom ostrzeżenia: 0%
radeg812012.03.29, 05:13
-10#2
A do którego generator w komplecie?
zenon244Zobacz profil
Poziom ostrzeżenia: 0%
zenon2442012.03.29, 06:36
matxxx @ 2012.03.29 05:10  Post: 558631
Czyżby nvidia popełniła tem sam błąd co AMD z swoimi buldkami ?

NV nie zaprojektowała (mikro)architektury, więc jakoś ciężko mówić o podobieństwie do Buldożerów, wątpliwe też by miał to być układ mający dawać jak największą wydajność wielowątkową nawet kosztem wydajności jednego rdzenia... Tegra 3 miała być najszybsza na rynku w momencie premiery - i taka jest - tyle, że trochę się pośpieszyli... stare rdzenie i 40 nm, trudno będzie im walczyć wydajnością gdy pojawi się konkurencja.

Companion Core to ciekawa rzecz, ale chyba lepszym rozwiązaniem będą dodatkowe rdzenie Cortex A7.

Wszystko byłoby ok, gdyby producenci rzucili się na Tegrę 3, ale chyba tak nie jest. No ale będzie mogła konkurować dostępnością na rynku.

Z Kal-El+ (czyli zapewne Tegrą 3 w 28 nm i z wyższymi zegarami) będzie pewnie jeszcze gorzej...
godzio606Zobacz profil
Poziom ostrzeżenia: 0%
godzio6062012.03.29, 06:42
Cyrix, gdzie jesteś?
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2012.03.29, 07:24
No właśnie zupełnie inne mamy podejście Qualcomm-a vs NV. Qualcomm tworzy własną architekturę, która jest dużo wydajniejsza od cortex A9. To coś pomiędzy A15/A9.

NV natomiast wręcz przeciwnie-> postanowiło odchudzić Cortex A9 by pobierał mniej energii. Przecież Tegra 3 to ten sam proces technologiczny co Tegra 2. Częstotliwość wzrosła znacznie, mamy lepszy transkoder, lepsze GPU, a cały układ pobiera mniej energii. Siłą rzeczy ten SoC powinien ciągnąć z 30% więcej energii w stresie. Ciągnie mniej od tegry 2.

Pytanie ile pobierałby S4 w 40nm, nie jest wykluczone, że więcej. Qualcomm klepie od grudnia S4, a przynajmniej próbuje. Tak, więc zamiast skupić się na energooszczędności poszli w wydajność i niższy proces technologiczny.
mikilysZobacz profil
Poziom ostrzeżenia: 0%
mikilys2012.03.29, 07:43
Niestety prawda jest taka, że architektura ma dużo do powiedzenia w przypadku ARMów. Dlatego obawiam się, że Tegra3 mimo sowich 4 rdzeni (jak i Vita) będą siedziały na rózni z dwurdzeniową konkurencją na nowszej architekturze.
=-Mav-=Zobacz profil
Poziom ostrzeżenia: 0%
=-Mav-=2012.03.29, 08:06
Wszystko łanie pięknie, ale najważniejszy i tak będzie czas działania na baterii. Na szczęście na pełne testy długo już chyba czekać nie będzie trzeba.
otoconZobacz profil
Poziom ostrzeżenia: 0%
otocon2012.03.29, 08:15
Aha tyle że te benchmarki obsługują max 2 rdzenie..... świetne pomiary :E
SheriffZobacz profil
Poziom ostrzeżenia: 0%
Sheriff2012.03.29, 09:42
-4#9
otocon @ 2012.03.29 08:15  Post: 558651
Aha tyle że te benchmarki obsługują max 2 rdzenie..... świetne pomiary :E


Która zatem aplikacja pisana na Androida posiada natywne wsparcie dla 4 rdzeni? Osobiście takiej nie znam...
Agnus78Zobacz profil
Poziom ostrzeżenia: 0%
Agnus782012.03.29, 09:42
otocon @ 2012.03.29 08:15  Post: 558651
Aha tyle że te benchmarki obsługują max 2 rdzenie..... świetne pomiary :E

Jeśli benchmarki(!) obsługują tylko dwa rdzenie, to co mowić o aplikacjach. Projektowanie więc układu 4 rdzeniowego w obecnej sytuacji mija się z celem.
Ale jak napisano wyżej - najważniejsza jest energooszczędność.
SheriffZobacz profil
Poziom ostrzeżenia: 0%
Sheriff2012.03.29, 09:46
Galaxy S2 1.2 GHz robi 4200 PK w tej samej wersji Quadranta. Dajmy Exynoswi 1.5 GHz i zrówna się lub pobije wynik Kraita. Cortexy A15 zjedzą S4 na śniadanie.

A nawet 4800:
http://www.youtube.com/watch?v=TeqSz-mIaug
Exynos na ICS-ie dostaje mega kopa.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.03.29, 11:43
mikilys @ 2012.03.29 07:43  Post: 558646
Niestety prawda jest taka, że architektura ma dużo do powiedzenia w przypadku ARMów. Dlatego obawiam się, że Tegra3 mimo sowich 4 rdzeni (jak i Vita) będą siedziały na rózni z dwurdzeniową konkurencją na nowszej architekturze.


Ale Nvidia też nie zamierza stać w miejscu. Tegra 3 miała premierę w listopadzie 2011 - pół roku przed tym Snapdragonem S4.

Na ten rok przewidziana jest premiera 4 rdzeniowej Tegry w procesie 28nm, opartej na rdzeniach Cortex A15.

Ale zgodzę się w pełni z Agnus 78, że moc obliczeniowa w telefonach ma drugorzędne znaczenie, najważniejsze jest to ile telefon będzie działał na baterii.

Do wydajnej pracy mobilnej są laptopy wyższej klasy, z większym ekranem. Telefon ma służyć przede wszystkim do dzwonienia, SMS/MMS, ewentualnie do netu/filmów. Względnie dobry aparat też się przydaje, ale to tyle. Czyli podstawowe zastosowania multimedialne.

Natomiast robienie z telefonu na siłę odpowiednika PC-ta uważam za bezsensowne, tak jak i ten cały wyścig na Gigaherce i rdzenie w telefonach.

Cała ta moc idzie głównie w gry przy czym obecnie smartphone'y praktycznie nie mają przycisków, więc do sterowania w grach się kompletnie nie nadają.

Dlatego ja osobiście wybierając telefon kieruję się jakością wyświetlacza, dobrą baterią, jakością połączeń, wygodą trzymania w ręku i ogólną wygodą obsługi.

Natomiast ostatnim co w moim odczuciu jest istotne to to czy mam 2 czy 4 rdzenie, 1.5GHz czy 10GHz i ile polygonów obrabia GPU w grach w które i tak nie da się grać.

Ważne jest żeby telefon szybko reagował na polecenia, szybko się włączał, ale czy zostanie to osiągnięte z pomocą 1 rdzeniowego, 2 rdzeniowego, czy 4 rdzeniowego CPU to mnie jako użytkownika zupełnie nie interesuje.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2012.03.29, 12:39
Taa, może i A15 zje na śniadanie S4... może nie. Jednak przypominam, że S4 jest już klepane od grudnia i wciąż nie ma u operatorów/sklepach tych zabawek.

Jeżeli premiera Tegry 3+/4 czy Samsunga Exynos oparty o A15 będzie w Q3 to premiera urządzeń przy dużym wysiłku ze wszystkich stron może będzie w grudniu, może nie.

Samsung Galaxy S III, ma być oparty jeszcze na Cortex A9, czyli prawdopodobnie do marca przyszłego roku nie będzie A15 od samsunga.
SNC2012.03.29, 12:44
-2#14
Niech nvidia dalej idzie w ilosc rdzeni cpu, widac ze dobrze na tym wychodzi heh
Michał OlberZobacz profil
Poziom ostrzeżenia: 0%
Michał Olber2012.03.29, 13:54
Te testy to o kant tyłka sobie potłuc. Wszystkie benchmarki używają maksymalnie dwóch rdzeni, więc nie mamy tutaj o czym gadać. Niech zaczną robić programy i te testujące aplikacje na 4 rdzenie, to dopiero zobaczymy kto wygra.
q-12Zobacz profil
Poziom ostrzeżenia: 0%
q-122012.03.29, 14:01
Te benchmarki z telefonami to burza w szklance wody.. Dzięki najnowszemu procesorowi będzie mógł dzwonić 2 razy szybciej!
zsx111Zobacz profil
Poziom ostrzeżenia: 0%
zsx1112012.03.29, 14:16
A ciekawe kto miał wygrać w benchmarku Qualcomma (Vellamo) jak nie Qualcomm?
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2012.03.29, 14:19
q-12 @ 2012.03.29 14:01  Post: 558759
Te benchmarki z telefonami to burza w szklance wody.. Dzięki najnowszemu procesorowi będzie mógł dzwonić 2 razy szybciej!

Dokładnie. Nie potrafię zrozumieć hype'u na rdzenie w telefonie i benchmarki. Do grania jest konsola która ma musi mieć guziki i analogi. W smartphonie wystarczy, ze da radę nagrać 720@30p, obsłuży ekran HD, menu będzie szybkie i pełna akceleracja przeglądarki.
otoconZobacz profil
Poziom ostrzeżenia: 0%
otocon2012.03.29, 15:05
Grave @ 2012.03.29 11:43  Post: 558705


Natomiast robienie z telefonu na siłę odpowiednika PC-ta uważam za bezsensowne, tak jak i ten cały wyścig na Gigaherce i rdzenie w telefonach.

Cała ta moc idzie głównie w gry przy czym obecnie smartphone'y praktycznie nie mają przycisków, więc do sterowania w grach się kompletnie nie nadają.


spokojnie, jeszcze chwilę, ta moc obliczeniowa będzie bezsensownie duża, ale tylko do momentu wyjścia Andka 5.0 który to (podobno) ma obsługiwać pełny tryb stacji dokującej - wracasz do domu w którym masz stację dokującą z podpiętą do niej myszką, klawiaturą i monitorem FullHD i po zadokowaniu telefonu masz normalnego PC-ta. Do tego to właśnie dąży.

Co do samych wyników to szkoda że nie zapuścili obu testów jednocześnie - dopiero wtedy wyniki miały by cokolwiek wspólnego z wiarygodnością
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.03.29, 15:26
otocon @ 2012.03.29 15:05  Post: 558768

spokojnie, jeszcze chwilę, ta moc obliczeniowa będzie bezsensownie duża, ale tylko do momentu wyjścia Andka 5.0 który to (podobno) ma obsługiwać pełny tryb stacji dokującej - wracasz do domu w którym masz stację dokującą z podpiętą do niej myszką, klawiaturą i monitorem FullHD i po zadokowaniu telefonu masz normalnego PC-ta.


No nie bardzo 'normalnego'. Bo podzespoły dla komórek mają bardzo restrykcyjne wymagania odnośnie TDP, a więc MUSZĄ być wielokrotnie mniej wydajne od tego co jest montowane choćby w laptopach.

W laptopach też są montowane znacznie pojemniejsze baterie które umożliwiają zastosowanie wydajniejszych podzespołów.

Pomyśl, że jeżeli okrojna wersja Atoma pod względem wydajności radzi sobie całkiem nieźle z ARM-ami, to jaka przepaść jest pomiędzy wydajnością CPU w smartphone'ach a choćby najtańszymi Core i3 Intela dla laptopów.

To samo tyczy się GPU.

Więc to co teraz jest proponowane dla komórek jest za mocne jak dla telefonu, natomiast wielokrotnie za słabe jak na PC-ta.

Ten cały wyścig na moc obliczeniową smartphone'ów nie ma żadnego praktycznego uzasadnienia poza tym, że robi się ludziom papkę z mózgu za pomocą marketingu który promuje te wielordzeniowe CPU, nowe GPu etc w komórkach.

Potem dochodzi do takich idiotyzmów, że jak Sony wprowadza Xperię S z dwurdzeniowym CPU to od razu komentarze 'eeee telefon z poprzedniej epoki' - taki jest właśnie efekt ogłupiającego marketingu.
Zaloguj się, by móc komentować