komentarze
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.01.05, 00:13
-2#21

mlodybe @ 2013.01.05 00:09  Post: 626665
grave to chyba słynny sony vaio...


Ja bym takiego nicka nie wybrał, bo na 2 VAIO jakie miałem oba się zepsuły...
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.01.05, 00:18
revcorey @ 2013.01.05 00:10  Post: 626666

A ty od samego początku nie zauważasz zwyczajnie że to esencja urządzeń mobilnych. W smartfonie/tablecie najważniejszy jest czas pracy na baterii a nie uruchomienie sobie fify.


Skoro tak to od każdego smartfona lepsza będzie jakaś stara NOKIA z monochromatycznym wyświetlaczem - trzyma na baterii tydzień, a jak piszesz to jest najważniejsze :>
BuksiorZobacz profil
Poziom ostrzeżenia: 0%
Buksior2013.01.05, 00:43
revcorey @ 2013.01.04 23:41  Post: 626656
Buksior @ 2013.01.04 23:19  Post: 626652
(...)


Tylko zapominasz chyba o tym, że jak podłączysz klawiaturę, myszkę i monitor do surface pro, to będziesz miał pełnoprawnego peceta, w przypadku Nexusa dalej będziesz miał popierdółkę.

Czyli masz netbooka. Tylko że... To samo możesz zrobić z ipadem/adroidem a rynek netboków właśnie upadł. Tam można podłączyć dowolną kalawiaturę/myszkę bluetooth.

zachowujac przy tym swoja najwieksza zalete jaka jest olbrzymia biblioteka orprogramowania.

Która nie ma kompletnie zastosowania w tego typu uradzeniach.


Nie netbooka, tylko ultrabooka. W netbookach nie uświadczysz i5, dysku ssd ani rozdzielczości 1920x1080. Ultrabooki źle się nie mają i na pewno w najbliższym czasie nie znikną. Tablety z win 8 pro to są takie ultrabooki tylko, że bez fizycznej klawiatury.

Niemniej nie ważne czy win pro czy andoird. Ekran jest za mały do pracy. Tak się składa że pracuje jako automatyk. I pracuję począwszy od excela(z setkami wierszy i dziesiątkami kolumn) przez step7 po programy SCADA. Każdy kto gada że na takim ekranie da się pracować bredzi. Ja swojego lapka podłączam pod zewnętrzny większy monitor i wtedy można mówić o w miarę komfortowej pracy. Koncepcja netbooków upadła bo ludzie szukali mobilności a tą daję tablety. Tu nikomu nie jest potrzebna klawiatura myszka. Tu idziesz pokazujesz komuś prezentację,oglądasz film w pociągu itd. Klawiatura i myszka nie ma tu zastosowania. Peryferia typu mysz to tu nic nie znaczący margines. Popytajcie jakiejkolwiek osoby co ma tablet. Powie wam że klawiatura to zbędny gadżet.


Dlatego właśnie napisałem o podłączeniu zewnętrznego monitora. A i pracować na 11 calach jak najbardziej można, tylko że jest to po prostu mniej wygodne niż na 19 czy 24. Sam mam ultrabooka (lub jak kto woli wydajnego małego notebooka -> do najcieńszych i najlżejszych nie należy) 12,5 cala i pracować się da. Tablet z win 8 pro może pełnić funkcje do jakich stworzony jest tablet z androidem i dodatkowo może pełnić funkcje zwykłego peceta.
arvalZobacz profil
Poziom ostrzeżenia: 0%
arval2013.01.05, 01:36
-2#24
revcorey
'intel może by i mógł doścignąć arm pod tym względem już teraz ale musi wspierać naleciałości x86 co jest problemem i zabiera tranzystory'

Nie bardzo wiem o jakie naleciałości chodzi. Mi chodziło o to że aktualny SoC Intel Atom działa na TDP porównywalnym z układami ARM A9 i to są okolice 1W. Natomiast później sprawa jest prosta. Im więcej prędkości wymagamy od procesora tym więcej zjada on mocy.

Układ SoC Exynos 5 z tabletu Google Nexus 10 przy obciążeniu zjada aż 4W. To 4x więcej mocy niż typowe układy SoC z 2012r. To pokazuje jak dużym kosztem okupiona jest wyższa wydajność. Nexus 10 jest najszybszym tabletem ale pobiera 4x więcej mocy niż inne tablety na rynku. Zbliża się do mocy pobieranej przez Intel Core ULT które na CES mają mieć premierę w wersji 10W (Haswell ULT ma mieć 8W).

Oczywiście procesor Intela jest w 22nm więc ma przewagę technologii ale także ma przewagę wydajności. No a na 2014r Intel zapowiada procesory w 14nm przy których kolejny raz spadnie pobierana moc. Może się okazać że 14nm Intel Core będzie pobierał mniej mocy niż dzisiejsze SoC typu Exynos 5


AanandTech - The ARM vs x86 Wars Have Begun: In-Depth Power Analysis of Atom, Krait & Cortex A15
http://www.anandtech.com/show/6536/arm-vs-...e-real-showdown
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2013.01.05, 02:21
-1#25
@up
--> Nie przeczę nic w to co piszesz, ale warto dopowiedzieć parę faktów z artu.
1. Porównywana była Tegra 3 40nm vs 32nm Atom...
...i rzecz jasna przegrał
2. Masz teraz 32nm A9 i 28nm 'A9' vs 32nm Atom
3. Nie ma 22nm SoC jeszcze
4. 4W, nie przeczę... ale wydajność wzrosła X razy
5. Intel ma przewagę w CPU, a w GPU Atom-y dają ciała. Kwestia bilansu.

Testy były robione pod okiem Intel-a. Mam wątpliwości co do obiektywizmu testu. Np. w teście używa się przeglądarki, a wiadomo, że wszystko tu optymalizowane jest pod x86...
Nie pisze się jaka gra tylko XYZ Game.

Jak można sfałszować wyniki? Nie ma limitu FPSów i np. platforma Intel-a renderuje 50 klatek/s, a Exynos 250klatek/s, siłą rzeczy zużycie CPU/GPU jest znacznie większe. W praktyce będzie limit FPSów i np. Exynos i Intel będą renderować 30 klatek, albo 60.

Nie ma wątpliwości, że Atom jest procesorem tutaj na miejscu i jest ciekawym układem. Wszystko zależy potem od softu, bo sprzęt jest. No może zależy też od producenta, bo jaka bateria i matryca zależy drugie tyle
ZodiacZobacz profil
Poziom ostrzeżenia: 0%
Zodiac2013.01.05, 02:26
-1#26
Z czym do ludzi, wydajność będzie słaba, czas na baterii krótki, jak zwykle M$ musi zrobić wszystko po swojemu i wyjdzie na tym jak na Metro/Modern w W8. Ludzie po prostu tego nie kupią, chyba że mówimy o wąskiej, niesprecyzowanej grupie fanboyów, jeśli M$ takową w ogóle posiada...

Kto chce tableta i potrzebuje tableta, juz go ma. Sam mam w domu iPada (posiadałem od wersji 2 do aktualnej generacji), używam w domu do przeglądania internetu, żona podobnież plus komunikacja (skype, messages na ios) i czasami jakiś dokument sobie żonka napisze do pracy w Pages (z użyciem klawiatury Logitecha, ten gażet sie do takich rzeczy przydaje właśnie), druknie przez AirPrint i tak oto tematy użytkowania komputera w domu mamy zamknięte bez potrzeby używania dekstopa czy laptopa.

Laptop u mnie siedzi sobie w domu w torbie, wyjmuję go w pracy podpinając do monitora 27', na którym pracuje. Sprzęt jest mobilny, więc mogę pracować gdziekolwiek jestem i brać do klienta, pokazać co mam pokazać w dowolnej formie (projektor, na ekranie laptopa, etc). Jako że laptop jest mocny, to i pograć w to co gram moge (WoW, SC2, Diablo3 - wszystko na ma detali w 1920x1200). Nie potrzebuje stacjonarki.

Dla mnie Surface jest bezużyteczny. Nie jestem w stanie wyobrazić sobie przypadku użycia tego urządzenia, w wersji Pro (i5) to juz w ogóle ani nie tablet (krótki czas pracy na baterii, zero słownie ZERO programów, szczególnie tych do których się przyzwyczaiłem na iOS, że o bibliotece muzyki i możliwości odtwarzania jej z iPada w domu czy iPhone w samochodzie nie wspomnę), ani nie komputer (za wolny do pracy nawet jak podepniemy do zewnętrznej klawiatury, myszki i monitora, no chyba że pracujemy max w Wordzie).

Widać przy Surface, że M$ nie ma pomysłu na sprzęt. Nie ma pomysłu na soft, bo robi soft osobno dla telefonów, osobno dla ARM i x86, przy czym każdy jest ze sobą niekompatybilny. Wszyscy narzekają na urządzenia Apple, że są drogie, ale tam soft jest dopracowany idealnie do sprzętu, wszystko działa, z każdego urządzenia mam dostęp do wszystkich dokumentów, treści, multimediów. Są programy, do ktorych już zdążyłem się przyzwyczaić i za chiny ludowe nie porzucę tego dla tableciku M$, który tani nie jest i d nie urywa - w żadnym aspekcie.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2013.01.05, 04:59
-1#27
Surface Pro to jak nazwa wskazuje, kosztowne (i ciężkie) urządzenie profesjonalne, dawniej też były oferowane podobne tablety i szału one nie zrobiły.
Wątpię aby Windows 8 to zmienił. Programy dla Modern UI są w przeważającej większości pisane w C#, więc będą równie dobrze działać na Surface RT.
A jeśli chodzi o programy biznesowe dla trybu Desktop, to często źle się one skalują, więc na 10-calowym ekranie Full HD może być potrzebny nie tylko rysik, ale i lupa :E
Zupełnie nie rozumiem braku modemu 4G.
Gdybym dysponował taką sumą to bym kupił iPada 3 64GB 4G i zrobił jailbreaka.
Albo zaoszczędził i kupił Asus Nexus 7 4G (32 GB, ekran 1,280 x 800 i tylko 340 gramów)! Jedna trzecia kwoty i niemalże jedna trzecia wagi :D
losiuZobacz profil
Poziom ostrzeżenia: 0%
losiu2013.01.05, 07:22
arval @ 2013.01.04 20:07  Post: 626625
Myślę że pierwsza wersja Surface Pro będzie bardzo limitowana. Ten sprzęt nie ma sensu z procesorem Ivy Bridge. Wyprodukują tego mało i będzie trudno dostępne a tym samym drogie.

Surface Pro stanie się bardziej sensowny gdy pojawi się Intel Core Haswell_ULT który ma być w postaci układu SOC o TDP 8W. To nadal dużo ale już nie tak bardzo jak Ivy Bridge w klasycznej architekturze. Dla porównania Nexus 10 ma TDP 4W więc trochę jeszcze brakuje do ideału Intelowi


http://www.anandtech.com/show/6536/arm-vs-...e-real-showdown
Super ciakwy art. na temat tych 4W Nexusa (te 4W dotyczą samego exynosa) i tego co moze Intel. 10.5W to nie 4W;) Nastepna generacja Mali w idle zacznie oddawać prąd jak tak dalej pójdzie;) To jest dopiero ZeroCore;)
Edit. widze, że sam znalazłeś:)
jkbrennaZobacz profil
Poziom ostrzeżenia: 0%
jkbrenna2013.01.05, 08:18
mlodybe @ 2013.01.04 22:38  Post: 626642
Grave @ 2013.01.04 22:34  Post: 626641
(...)


Tylko zapomniałeś dodać, że pod względem wydajności Ivy Bride robi z tego ARM-a w Nexusie miazgę i do tego można na nim odpalać normalne programy, a nie jakieś ARM-owe popierdułki.


A ty znowu swoje.

Nie rozumiesz że nie wszyscy potrzebują intela do szczęścia?!


Do szczescia nie ale do pracy tak, a juz widze ,ze plotki o montowaniu jakiegos tam Brazosa, plotkami pozostaly...
arvalZobacz profil
Poziom ostrzeżenia: 0%
arval2013.01.05, 08:34
losiu @ 2013.01.05 07:22  Post: 626684
arval @ 2013.01.04 20:07  Post: 626625
Myślę że pierwsza wersja Surface Pro będzie bardzo limitowana. Ten sprzęt nie ma sensu z procesorem Ivy Bridge. Wyprodukują tego mało i będzie trudno dostępne a tym samym drogie.

Surface Pro stanie się bardziej sensowny gdy pojawi się Intel Core Haswell_ULT który ma być w postaci układu SOC o TDP 8W. To nadal dużo ale już nie tak bardzo jak Ivy Bridge w klasycznej architekturze. Dla porównania Nexus 10 ma TDP 4W więc trochę jeszcze brakuje do ideału Intelowi


http://www.anandtech.com/show/6536/arm-vs-...e-real-showdown
Super ciakwy art. na temat tych 4W Nexusa (te 4W dotyczą samego exynosa) i tego co moze Intel. 10.5W to nie 4W;) Nastepna generacja Mali w idle zacznie oddawać prąd jak tak dalej pójdzie;) To jest dopiero ZeroCore;)
Edit. widze, że sam znalazłeś:)


Jest to chyba jeden z najciekawszych artykułów ostatnich dni na temat sprzętu. Potrafi zaskoczyć. Do tej pory myślałem że jest Atrom i ARM na jednej półce oraz Intel Core i AMD APU na zupełnie innej. Artykuł jednak pokazuje że to zaczyna się mieszać. A jak nie wymiesza się w 2013r to w 2014r po przejściu Intela na 14nm zupełnie znikną różnice

Nexus 10 na nowym SoC mocno przyspieszył ale jednocześnie pobór mocy wzrósł 4x w stosunku do tego co było do tej pory standardem. Fakt że AnandTech wymusił na układzie z Nexusa chwilowy pobór energii 8W pokazuje że układ ograniczany jest tylko i wyłącznie programowo. Nie ma tu mowy o bardziej enerooszczędnej architekturze jeżeli układ zwyczajnie jest programowo ograniczany do 4W. Takie same programowe organiczanie ma na CES pokazać Intel z procesorem Ivy Bridge który będzie potrafił pracować przy poborze mocy 7W (standardowo 10W ale producent będzie mógł ustalić 7W jako górną granicę w tabletach)

Czekanie na 8W Haswella zbudowanego jako SoC a następnie w przyszłym roku jego 14nm wersji nabiera sensu. Jeżeli Haswell ULT będzie pracował w 22nm z poborem mocy 8W to po zejściu do 14nm może zacznie pracować z poborem 4W lub coś w tym stylu. W takim przypadku całkowicie zatarłaby się granica oddzielająca ARM i X86

Ciekawie wygląda też potencjalnie sprawa AMD APU które ma się pojawić niedługo w 28nm. Jeżeli AMD swoje APU także zbuduje jako SoC to zacznie się ciekawy pojedynek. Różnice pomiędzy SoC się zacierają, szczególnie że to GPU odpowiada za sporą część pobieranej energii a ono nie ma nic wspólnego z walką X86/ARM. Rdzenie CPU to tylko fragment poboru mocy układu SoC i jak pokazują przykłady wcale nie zawsze największy.

Jeżeli Intel utrzyma swoje Tick-Tock i zejdzie za rok do 14nm a konkurencyjny TSMC zostanie na 28nm to sprawa będzie rozstrzygnięta. Nawet jeżeli CPU Intel Core zabierze więcej energii niż ARM to różnica ta zostanie zniwelowana przez mniejszy pobór energii przez GPU które zyska z przejścia na niższy wymiar.
kane25Zobacz profil
Poziom ostrzeżenia: 0%
kane252013.01.05, 09:54
nie ma co 'czekac' na to co na horyzoncie bo pozniej przez poltora roku taki procesor ma zaporowa cene.
Surface Pro - olbrzymi potencjal strasznie zmarnowany przez konfig i cene
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2013.01.05, 13:17
arval @ 2013.01.05 08:34  Post: 626687
losiu @ 2013.01.05 07:22  Post: 626684
(...)


http://www.anandtech.com/show/6536/arm-vs-...e-real-showdown
Super ciakwy art. na temat tych 4W Nexusa (te 4W dotyczą samego exynosa) i tego co moze Intel. 10.5W to nie 4W;) Nastepna generacja Mali w idle zacznie oddawać prąd jak tak dalej pójdzie;) To jest dopiero ZeroCore;)
Edit. widze, że sam znalazłeś:)


Jest to chyba jeden z najciekawszych artykułów ostatnich dni na temat sprzętu. Potrafi zaskoczyć. Do tej pory myślałem że jest Atrom i ARM na jednej półce oraz Intel Core i AMD APU na zupełnie innej. Artykuł jednak pokazuje że to zaczyna się mieszać. A jak nie wymiesza się w 2013r to w 2014r po przejściu Intela na 14nm zupełnie znikną różnice

Nexus 10 na nowym SoC mocno przyspieszył ale jednocześnie pobór mocy wzrósł 4x w stosunku do tego co było do tej pory standardem. Fakt że AnandTech wymusił na układzie z Nexusa chwilowy pobór energii 8W pokazuje że układ ograniczany jest tylko i wyłącznie programowo. Nie ma tu mowy o bardziej enerooszczędnej architekturze jeżeli układ zwyczajnie jest programowo ograniczany do 4W. Takie same programowe organiczanie ma na CES pokazać Intel z procesorem Ivy Bridge który będzie potrafił pracować przy poborze mocy 7W (standardowo 10W ale producent będzie mógł ustalić 7W jako górną granicę w tabletach)

Czekanie na 8W Haswella zbudowanego jako SoC a następnie w przyszłym roku jego 14nm wersji nabiera sensu. Jeżeli Haswell ULT będzie pracował w 22nm z poborem mocy 8W to po zejściu do 14nm może zacznie pracować z poborem 4W lub coś w tym stylu. W takim przypadku całkowicie zatarłaby się granica oddzielająca ARM i X86

Ciekawie wygląda też potencjalnie sprawa AMD APU które ma się pojawić niedługo w 28nm. Jeżeli AMD swoje APU także zbuduje jako SoC to zacznie się ciekawy pojedynek. Różnice pomiędzy SoC się zacierają, szczególnie że to GPU odpowiada za sporą część pobieranej energii a ono nie ma nic wspólnego z walką X86/ARM. Rdzenie CPU to tylko fragment poboru mocy układu SoC i jak pokazują przykłady wcale nie zawsze największy.

Jeżeli Intel utrzyma swoje Tick-Tock i zejdzie za rok do 14nm a konkurencyjny TSMC zostanie na 28nm to sprawa będzie rozstrzygnięta. Nawet jeżeli CPU Intel Core zabierze więcej energii niż ARM to różnica ta zostanie zniwelowana przez mniejszy pobór energii przez GPU które zyska z przejścia na niższy wymiar.

x86 zawsze był energowydajną architekturą. To się nigdy nie zmieniło.

Test nie jest wogóle zaskakujący, bo już wcześniej na podstawie testów 32nm atom-a było to widać.

Problemem x86 było ilość układów...
-Mostek północny/południowy/procesor/GPU....
-Każdy wykonany w innym procesie technologicznym. Po dzis dzień masz w pctach 65nm chipsety. Ciągnie to energii sporo
- Brak energooszczędności gdy układ 'nie pracuje'.
- wielokrotnie większa wydajność

Wszystkie te kwestia rozwiązano w najnowszym Atomie
-> jeden SoC
-> każdy z komponentów w 32nm
-> dobre energooszczędność w IDLE
-> wydajność na poziomie ARMów

Intel też ma limity TDP, więc co dziwnego, że Exynos też je ma?
Chwilowy pobór energii na poziomie 8W jest normalną rzeczą nawet podane to w definicji TDP Intela :) Pytanie jaką wydajność dostarcza w tych 4W.

Najważniejsze jest to....
-> Exynos i Atom wykonane są w podobnym procesie technologicznym.
-> Exynos dostarcza większą wydajność zdaję się parukrotnie. (całościowo układ)
-> pobiera przy tym parę krotnie więcej energii.
-> nihil novi

Tak jak pisałeś. ARM staje się coraz wydajniejszy i sięgnął półki wydajnościowej Intela.
Intel został z wydajnością tam gdzie był wiele lat temu i dodaje dobrze zrobione usypianie procesora, integruje komponenty.
Z drugiej strony przeniesienie integracji/trybów oszczędności energii daje szanse haswellowi.
------------------------
Pozostaje czekać na ARMv8
revcoreyZobacz profil
Poziom ostrzeżenia: 0%
revcorey2013.01.05, 13:48
-1#33
Nie bardzo wiem o jakie naleciałości chodzi.

Żeby utrzymać kompatybilność wsteczną z starymi seriami procesorów. Naleciałości z przed dwudziestu lat. Jak pamiętam na to idzie jakieś 30% tranzystorów. Ale nie chce mi się szukać teraz. X86 na dziś dzień to takie trochę dziadowanie. Ja nie widzę raczej ARM jako następce x86 w PC i notebookach. Pomimo wzrastającej wydajności. PowerPC był fajnym projektem szkoda go. Na dziś dzień w chinach kombinują coś z prockami MIPS.

BTW. Ma ktoś mapy soc atoma i soc A15 jakiegoś nie chce mi się szukać bo nie mam czasu a chciałbym zobaczyć jakie peryferia zintegrowano w strukturze.
VymmiataczZobacz profil
Poziom ostrzeżenia: 0%
Vymmiatacz2013.01.05, 14:05
Ten i5 jest grubą przesadą w sprzęcie, który ma uchodzić za tablet.
Niskonapięciowy i3 spokojnie by się wyrabiał, a byłby tańszy, i mniej żarłoczny na prąd.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2013.01.05, 14:30
revcorey @ 2013.01.05 13:48  Post: 626697
Nie bardzo wiem o jakie naleciałości chodzi.

Żeby utrzymać kompatybilność wsteczną z starymi seriami procesorów. Naleciałości z przed dwudziestu lat. Jak pamiętam na to idzie jakieś 30% tranzystorów. Ale nie chce mi się szukać teraz. X86 na dziś dzień to takie trochę dziadowanie. Ja nie widzę raczej ARM jako następce x86 w PC i notebookach. Pomimo wzrastającej wydajności. PowerPC był fajnym projektem szkoda go. Na dziś dzień w chinach kombinują coś z prockami MIPS.

BTW. Ma ktoś mapy soc atoma i soc A15 jakiegoś nie chce mi się szukać bo nie mam czasu a chciałbym zobaczyć jakie peryferia zintegrowano w strukturze.

Nie szkoda mi PowerPC. Po prostu gorsza architektura. Co z tego, że 30% tranzystorów idzie na wsteczną kompatybilność jeżeli te procesory i tak są tańsze niż konkurenci z tej samej półki wydajnościowej.
Co z tego, że 30% leci na wsteczną kompatybilność jeżeli wydajność i tak jest większa z każdego tranzystora, z każdego wata...
Znajdź mi 35W procesor, który byłby wydajniejszy. Znajdź mi 75, 90W....

Dla typowego użytkownika nie ma lepszego procesora. Dla użytkownika bardziej zaawansowanego też nie ma....

Ma sens tylko w serwerowniach i to też nie zawsze.

Intel narzucił tak szybkie tempo rozwoju, że nikt nie potrafi ich dogonić.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.01.05, 14:44
Zodiac @ 2013.01.05 02:26  Post: 626679

Dla mnie Surface jest bezużyteczny. Nie jestem w stanie wyobrazić sobie przypadku użycia tego urządzenia, w wersji Pro (i5) to juz w ogóle ani nie tablet (krótki czas pracy na baterii, zero słownie ZERO programów, szczególnie tych do których się przyzwyczaiłem na iOS


Widzisz... siła przyzwyczajenia. Dla przyzwyczajonych do oprogramowania pod OSX-a Windows sam w sobie będzie największą wadą sprzętu, ale to działa także w drugą stronę - jak ktoś jest przyzwyczajony do Windowsa, windowsowej klawiatury i windowsowych programów to OSX będzie dla niego największą i dyskwalifikującą wadą sprzętu Apple.

Nie zgodzę się, że pod Core i5 jest mało programów - uruchomisz na tym wszystkie programy dla Windowsa X86 - żaden inny system nie ma tak ogromnej biblioteki oprogramowania.

Więc to 'zero programów' o czym piszesz to z całym szacunkiem - kompletna bzdura.

Gdyby dali ARM to można by narzekać na brak programów, albo niewielką ich ilość, ale X86 to olbrzymia baza softu, od małych 'pierdziułkowatych' programików, poprzez gry, a na rozbudowanych pakietach narzędziowych skończywszy - dla każdego coś się znajdzie.

I jeszcze odnośnie sprzętu Apple...

Z roku na rok odwiedzam Ispoty przyglądając się nowej generacji najmocniejszych MBP i ciągle te komputery nie są w stanie zrobić na mnie 'piorunującego pierwszego wrażenia'. Czegoś w rodzaju stwierdzenia 'wow jak to szybko chodzi!'.

Pewnie na to wpływa wiele czynników, ale subiektywnie OSX w najnowszym MBP 'Retina' mimo bardzo mocnego procesora (4 rdzeniowy Ivy Bridge), ogromnej ilości RAM-u i SSD w środku reaguje wolniej na wydawane polecenia, niż Windows 7 w moim Samsungu 900X3C, uruchamia się dłużej i dłużej także uruchamiają się programy.

Może Apple wrzuciło sporo oprogramowania które obciąża procesor lub dysk, albo system sam w sobie ma spory narzut na CPU, względnie nie potrafi optymalnie korzystać z dostępnego sprzętu, ale chodzi to subiektywnie znacznie wolniej niż powinno sądząc po wyśrubowanej specyfikacji technicznej laptopa.

Jak na razie jeszcze na żadnym sprzęcie OSX nie zachwycił mnie swoją szybkością działania...
raximusZobacz profil
Poziom ostrzeżenia: 0%
raximus2013.01.05, 15:15
-1#37
Majowie mieli rację, muszę się zgodzić z Grave, więc chyba świat się kończy ;)
revcoreyZobacz profil
Poziom ostrzeżenia: 0%
revcorey2013.01.05, 15:19
-1#38

Znajdź mi 35W procesor, który byłby wydajniejszy. Znajdź mi 75, 90W....

Serwerowe Power. Bazy oracel są drogie licencjonowane od procesora jak pamiętam i czasami żeby oszczędzić zmienia się x86 ba Power.
Jak testy jeszcze jak powerpc był na rynku(ogólnodostępnym za czasów mac z G5 bo power to dziś konsole czy branża automotiv/medyczna) wykazywały nie odstawały one od procków intela(P4) a mogły być nawet lepsze i powoli doganiać K8 AMD. Tylko testy należało prowadzić nie na macos a na linuks. Jak testy pokazały testy z wykorzystaniem linuksa mogły dać przyrost od 2 do 4 razy.
Wadą PowerPC było to że intel walił potężne środki w rozwój x86 bo miał popyt na powerpc były małe nakłady stosunkowo.
Jeśli idzie o x86 można sobie poczytać dziesiątki opracowań krytykujących x86. Nie jest to najlepsza architektura ale na dziś dzień króluje z powodów zaszłości historycznych. Tyle że powerPC w przeciwieństwie do x86 nie dziedziczył naleciałości z lat 70-tych i miał tu większy potencjał i był czystym RISC a nie hybrydą jak x86.

Nie zgodzę się, że pod Core i5 jest mało programów - uruchomisz na tym wszystkie programy dla Windowsa X86 - żaden inny system nie ma tak ogromnej biblioteki oprogramowania.

Więc to 'zero programów' o czym piszesz to z całym szacunkiem - kompletna bzdura.

Bo mnie ma aplikacji dotykowych, tablet głównie do tego jest stworzony. Wypasione pc aplikacje na nic zdadzą się w takim układzie. Podłączenie klawiatury i myszki niczego nie rozwiązuje bo profesjonalne aplikacje wymagają dużych ekranów i to tyle. Tego nie możesz zrozumieć. Tablet jest kompletnie innym urządzeniem. Jak ktoś chce pracować na dużych aplikacjach to ma lapka. Niczym nadzwyczajnym są ludzie posiadający laptopa i tablet.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2013.01.05, 15:43
@up
Masz jakieś testy wydajności? Nie wiem czy sparcs, Power, są aktualnie wydajniejsze od xeonów

Powery mają gorszą wydajność w tych przedziałach poboru energii. Jeżeli ktoś pracuje na bazach oracle czy tam gdzie liczy się soft to masz rację. Ale wiele korporacji ma własny, korzysta z OpenSource. Masz w 100% racji, dlatego są takie, a nie inne udziały. Soft za 2-3k sprawia, że można olać energoefektywność.

Ale nie dla zwykłego usera, czy nawer pro usera, który oczekuje, że laptop będzie chodził cały dzień.
revcoreyZobacz profil
Poziom ostrzeżenia: 0%
revcorey2013.01.05, 15:47
-1#40
Masz jakieś testy wydajności? Nie wiem czy sparcs, Power, są aktualnie wydajniejsze od xeonów

W zeszłym roku po necie szukałem Power 6( a dziś już mamy Power 7 i rewizje) w większości zastosowań był wydajniejszy jak xenon. Chociaż ciężko o dobre testy. Sparc są bardzo wydajne w serwerach pocztowych.

Powery mają gorszą wydajność w tych przedziałach poboru energii

Nie powiem ci wiem tylko że IBM chwali się lepszym stosunkiem wydajności do mocy jak x86.
Zaloguj się, by móc komentować