komentarze
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.05.21, 21:52
SunTzu @ 2013.05.21 21:43  Post: 658843
@up
Nie wiadomo jakie takty będą. GT3 ma być tylko w dwurdzeniowych procesorach. Może, ale nie musi. Choć bardziej prawdopodobne, że będzie.

Pytanie kiedy będzie kaveri. AMD coś pisało, że poprzesuwają się premiery i 2014r, a jak wiemy AMD często przesuwa premiery nowych archi. Intel też coś psioczył, że przesunie premierę nowych CPU (po haswellu)

Ale jakże ironiczne by było gdyby Kaveri wszedł 3 miesiące przed haswellem w nowym procesie z lepszym GPU.

Poza tym będzie spora różnica procesów. AMD ma robić w 28nm, a Intel? A intel przechodzi z 22nm (już ma przewagę vs 28nm) na 14nm.
Spodziewam, że będzie moment gdy będzie tak duża rónica między AMD, a Intelem czyli 28nm vs 14nm. Sporo nie?


Na podstawie przecieków w necie odnoszę wrażenie, że Intel być może zrezygnuje z Haswella w 14nm (czyli Broadwella) w desktopach, da 14nm najpierw do mobile, a w desktopach dopiero przy Skylake'u.

W ten sposób tam gdzie najnowszy proces jest najbardziej potrzebny tam zostałby użyty najpierw (14nm w 2014), zaś pozostawienie 22nm CPU pozwoliłoby wycofać sporo kasy zainwestowanej w 22nm technologię.

Ale to tylko przypuszczenia. We wrześniu kolejny IDF i powinniśmy wiedzieć po nim więcej o 14nm CPU Intela.
*Konto usunięte*2013.05.21, 21:57
-10#42
Grave @ 2013.05.21 21:52  Post: 658851
SunTzu @ 2013.05.21 21:43  Post: 658843
@up
Nie wiadomo jakie takty będą. GT3 ma być tylko w dwurdzeniowych procesorach. Może, ale nie musi. Choć bardziej prawdopodobne, że będzie.

Pytanie kiedy będzie kaveri. AMD coś pisało, że poprzesuwają się premiery i 2014r, a jak wiemy AMD często przesuwa premiery nowych archi. Intel też coś psioczył, że przesunie premierę nowych CPU (po haswellu)

Ale jakże ironiczne by było gdyby Kaveri wszedł 3 miesiące przed haswellem w nowym procesie z lepszym GPU.

Poza tym będzie spora różnica procesów. AMD ma robić w 28nm, a Intel? A intel przechodzi z 22nm (już ma przewagę vs 28nm) na 14nm.
Spodziewam, że będzie moment gdy będzie tak duża rónica między AMD, a Intelem czyli 28nm vs 14nm. Sporo nie?


Na podstawie przecieków w necie odnoszę wrażenie, że Intel być może zrezygnuje z Haswella w 14nm (czyli Broadwella) w desktopach, da 14nm najpierw do mobile, a w desktopach dopiero przy Skylake'u.

W ten sposób tam gdzie najnowszy proces jest najbardziej potrzebny tam zostałby użyty najpierw (14nm w 2014), zaś pozostawienie 22nm CPU pozwoliłoby wycofać sporo kasy zainwestowanej w 22nm technologię.

Ale to tylko przypuszczenia. We wrześniu kolejny IDF i powinniśmy wiedzieć po nim więcej o 14nm CPU Intela.

Z przecieków też wynika że Chipzilla ma po prostu problem z 14nm i tyle w temacie.

A dalej czekam na to co obiecałeś jak okaże się że w nowych konsolach będą CPU na bazie x86 od AMD...
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2013.05.21, 21:59
SunTzu @ 2013.05.21 20:54  Post: 658808
To zaś oznacza, że w tej samej cenie można mieć znacznie mocniejszy procesor i jeszcze wydajniejszy układ graficzny, tyle że nie na jednym kawałku krzemu, co jednak z użytkowego punktu widzenia nie ma żadnego znaczenia.

I to kwintesencja kłamstwa waszej procedury testowej. Brak testowania czasu działania laptopa podczas stresu, brak info o poborze energii.

Wasza procedura testowa nie zakłada lepszego rozwiązania AMD, które może znacznie dłużej działać w stresie.

yorobo @ 2013.05.21 19:51  Post: 658744
(...)


Sorka - jestem już ponad 10 godzin w pracy i końca nie widać stąd pomyłka :P

Nie robimy testów baterii pod obciążeniem GPU bo doskonale wiadomo, że często po odłączeniu zasilania GPU nie działa na 100% - jest to zależne nie tylko od samego układu ale i laptopa i ustawień producenta.


Tym bardziej brak informacji o takim procederze w danym laptopie zastanawia czy laptop został właściwie przetestowany.
Tym bardziej konieczne jest przetestowanie w takich warunkach laptopa.

Licz się ze słowami!

Procedura testów baterii jest klarownie opisana: typowe użytkowanie to przy zadanej jasności (200 cd/m2) przeglądanie internetu, przy wymuszonym ruchu po sieci i otwieraniu wybranych dokumentów. Testowanie laptopów w stresie nie ma naszym zdaniem sensu. Nawet w testowanych laptopach MSI nie da się zmusić, żeby działały na baterii z dedykowaną kartą graficzną (HD 7970m) o pełnej wydajności. Niezależnie od ustawionych profili zarządzania energią.

Ponad wszystko: różna wydajność laptopów oznacza, że np. laptop A wykona daną kompresję w powiedzmy godzinę, a laptop B w 2 godziny. Dlaczego zatem mamy obydwa 'męczyć' przez 3 godziny, bo tyle obydwa były w stanie działać na baterii? Wyjaśnij mi dlaczego mielibyśmy non-stop obciążać je w sposób ciągły? Zaczynasz rendering na baterii i najpewniej dokańczasz go po podłączeniu zewnętrznego zasilania.

Autentycznie - wciąż nie rozumiem po co mielibyśmy testować czas działania przy pełnym obciążeniu.

Badania poboru energii ma sens tylko wtedy gdy mówimy o IDENTYCZNYCH kadłubkach - co zatem nam powie porównanie Trinity w Samsungu z Richlandem w MSI? Nawet jeśli wydzielimy ekran.
21szpakZobacz profil
Poziom ostrzeżenia: 0%
21szpak2013.05.21, 22:09
-6#44
Ale ale z tymi linkami i pisaniem że lapek na i5 i 640m jest za 2k to przesada.

Po pierwsze są za 2099 na x-kom i jest to najtańszy po drugie bez systemu który to jednak ponad 300zł kosztuje to robi się już nam minimum 2400zł no chyba że pclab namawia do instalowania lewego windowsa :-)

Ja swojego lapka HP na najmocniejszym Trinity kupiłem za 1800zł w promocji z zainstalowanym W8 tak więc da się kupić tanio tylko trzeba wyczuć moment.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.05.21, 22:10
mlodybe @ 2013.05.21 21:57  Post: 658854
Grave @ 2013.05.21 21:52  Post: 658851
(...)


Na podstawie przecieków w necie odnoszę wrażenie, że Intel być może zrezygnuje z Haswella w 14nm (czyli Broadwella) w desktopach, da 14nm najpierw do mobile, a w desktopach dopiero przy Skylake'u.

W ten sposób tam gdzie najnowszy proces jest najbardziej potrzebny tam zostałby użyty najpierw (14nm w 2014), zaś pozostawienie 22nm CPU pozwoliłoby wycofać sporo kasy zainwestowanej w 22nm technologię.

Ale to tylko przypuszczenia. We wrześniu kolejny IDF i powinniśmy wiedzieć po nim więcej o 14nm CPU Intela.

Z przecieków też wynika że Chipzilla ma po prostu problem z 14nm i tyle w temacie.

A dalej czekam na to co obiecałeś jak okaże się że w nowych konsolach będą CPU na bazie x86 od AMD...


Nie pamiętam co obiecywałem, ale jeżeli obiecywałem, że przyznam, że się myliłem jeżeli X86 trafi do konsol to rzeczywiście przyznaje, że moje przewidywania co do architektury CPU w nowych konsolach okazały się błędne.
piwo1Zobacz profil
Poziom ostrzeżenia: 0%
piwo12013.05.21, 22:19
takie pytanie czy wszystkie laptopy przy pomiarze czasu na bateri mialy nowki sztuki baterie czy model starszy byl uzywany z rok czasu i bateria tez miala juz sporo za soba?
ogolnie jestem zaskoczony wydajnoscia nowego apu. spodziewalem sie duzo nizszych przyrostow. ladnie to wyglada ale faktycznie ceny lapkow z amd w porownaniu do i3 to jakas kpina. szkoda bo teoretycznie lampki z apu bez zewnetrznej grafy powinny byc tanie i miec duzo lepszy stosunek ceny do wydajnosci niz i3 z grafa zewnetrzna. chyba pierwszy test nowego apu na necie?
*Konto usunięte*2013.05.21, 22:29
-4#47
focus @ 2013.05.21 21:59  Post: 658856
SunTzu @ 2013.05.21 20:54  Post: 658808
(...)

I to kwintesencja kłamstwa waszej procedury testowej. Brak testowania czasu działania laptopa podczas stresu, brak info o poborze energii.

Wasza procedura testowa nie zakłada lepszego rozwiązania AMD, które może znacznie dłużej działać w stresie.

(...)


Tym bardziej brak informacji o takim procederze w danym laptopie zastanawia czy laptop został właściwie przetestowany.
Tym bardziej konieczne jest przetestowanie w takich warunkach laptopa.

Licz się ze słowami!

Procedura testów baterii jest klarownie opisana: typowe użytkowanie to przy zadanej jasności (200 cd/m2) przeglądanie internetu, przy wymuszonym ruchu po sieci i otwieraniu wybranych dokumentów. Testowanie laptopów w stresie nie ma naszym zdaniem sensu.

Hmm...
Tego już nie rozumiem? Wytłumacz mi jaki sens ma testowanie PC-ta w stresie?


Nawet w testowanych laptopach MSI nie da się zmusić, żeby działały na baterii z dedykowaną kartą graficzną (HD 7970m) o pełnej wydajności. Niezależnie od ustawionych profili zarządzania energią.


Doskonały argument za tym by zrobić dwa testy jeden z podłączonym do prądu laptopem, a drugi test na bateri.



Ponad wszystko: różna wydajność laptopów oznacza, że np. laptop A wykona daną kompresję w powiedzmy godzinę, a laptop B w 2 godziny. Dlaczego zatem mamy obydwa 'męczyć' przez 3 godziny, bo tyle obydwa były w stanie działać na baterii? Wyjaśnij mi dlaczego mielibyśmy non-stop obciążać je w sposób ciągły? Zaczynasz rendering na baterii i najpewniej dokańczasz go po podłączeniu zewnętrznego zasilania.

Nie...
Wystarczyłby pobór energii, który dawałby pojęcie ( o ile byłby test pełnego obciążenia, a nie tylko CPU)
Podczas pracy np. Tworzę scenę. 5min renderingu. Zmiana 5min renderingu. Zmiana 5min renderingu..... W tym momencie wiem, że np. jeden pass renderingu na x laptopie z i7 ciągnąć mi będzie 15% energii, a np. na y laptopie 5%.
Jeżeli znam wydajność renderingu i czas pracy laptopa mogę dobrać taki konfig, który się sprawdzi.

Skończyły się czasy gdy rendering trwał godziny. Masz nowe rendery, a procesory są kilkukrotnie wydajniejsze od tych sprzed lat.


Autentycznie - wciąż nie rozumiem po co mielibyśmy testować czas działania przy pełnym obciążeniu.

Badania poboru energii ma sens tylko wtedy gdy mówimy o IDENTYCZNYCH kadłubkach - co zatem nam powie porównanie Trinity w Samsungu z Richlandem w MSI? Nawet jeśli wydzielimy ekran.

Nie rozumiem czemu nie. Prosty test odpalasz grę i patrzysz ile można grać+miło by widzieć pobór energii. Tyle. Testujesz gotowy produkt, a klient nie wymieni karty graficznej ( o ile jest wlutowana)

Wasza procedura testowa nie uwzględnia poboru energii dGPU. Jako, że NV ma odpowiednią technologię i kompletnie pomijacie ten parametr.

-------------------
Odpowiedz mi na proste 2 pytania, który laptop wg. waszego testu będzie najdłużej działał w grach?
Który laptop jest najwydajniejszy na aku (jako, że część obcina wydajność)?
dzikdenZobacz profil
Poziom ostrzeżenia: 0%
dzikden2013.05.21, 22:39
Jaki desperat kupuje laptopa żeby grać na baterii :P ? Przecież nie po to mamy Enduro i Optimusa żeby wychodząc z domu pracować na dodatkowych grafach. Mam wrażenie SunTzu że jesteś bardzo specyficznym gościem, który ma bardzo specyficzne wymagania co do sprzętu (no offence :P)

No i czemu złapałem na wcześniejszym komentarzu tyle minusów?
*Konto usunięte*2013.05.21, 22:51
-3#49
@up
Enduro i optimus są po to by laptop podczas przeglądania neta działał Ci 5-10h.
Nie zmienia to faktu, że są konfiguracje, które pozwalają na granie przez nawet 3-4h.

640m LE pobiera tyle energii ile sam chipset sprzed 10 lat.

3-4h to czas pracy niektórych laptopów, to bardzo dobry czas pracy laptopów za czasów C2D. Dziś taki czas pracy możesz mieć w stresie podczas grania.


Poza tym procedura Focusa nie zakłada jednego, że ten cały wzrost wydajności odbył się kosztem poboru energii. Na to pytanie recenzja nie odpowiada. TDP to maksymalna ilość wydzielanego ciepła nie określa realnego poboru.
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2013.05.21, 23:32
SunTzu - po kolei:

1. Nie da się obiektywnie zmierzyć czasu działania laptopa na baterii w grach. Inne relacje będą w wiedźminie, inne w Battlefieldzie, inne w StarCrafcie i jeszcze inne w Diablo. W tym ostatnim najdłużej będą działały laptopy z HD4000, np. względem APU AMD, zaś w StarCrafcie APU AMD będzie miało prawdopodobnie dłuższy czas działania od Core i5 z Intel HD. Jak myślisz z jakiego powodu mierzyliśmy pobór energii procesorów w dwóch grach?

Przerabiałem ten temat już w 2010 roku, gdy sam testowałem laptopy. Nie da się jedną i uniwersalną metodą obciążyć na maksa procesora i karty graficznej. O ile w przypadku testów kart graficznych czy testów procesorów (desktopowych) gdzie zmieniamy tylko jeden element można to zrobić, o tyle w przypadku laptopów możliwych kombinacji jest masa, przez co nie da się opracować jednej i stałej, a więc obiektywnej, metody na obciążenie całości. Każda gra inaczej będzie obciążała różne konfiguracje i będzie się też inaczej zachowywała zależnie od rozdzielczości jak i ustawień szczegółowości.

W związku z powyższym nie da się obiektywnie testować czasu działania w grach - no chyba, że założymy że zawsze testujemy np. w Diablo na minimalnych, ale już to z założenia jest nieobiektywne, bo dlaczego HD 7970m ma być testowane na minimalnych, skoro umożliwia grę na maksymalnych? Analogicznie trudno, żebyśmy Brazosa testowali na maksymalnych w 1920, podczas gdy żaden laptop z Brazosem go nie uciągnie na takich ustawieniach, a w szczególności nie ma laptopów z Brazosem i ekranem 1920x1080.


2. Testowanie, które proponujesz - 'zmiana, 5 minut renderingu, zmiana...' - jest również skazana na niepowodzenie. Powiedz: dlaczego mamy używać akurat renderingu? A jeśli to, dlaczego akurat np. w 3dsmaxie, a nie np. w blenderze? Przecież można robić np. kompresję wideo, albo np. konwertować zdjęcia. Niezależnie od tego co się wybierze NIE będzie to wybór obiektywny i będzie dotyczył wybranego zastosowania (bardzo wąskiego dodajmy), które będzie preferowało określone rozwiązania kosztem innych (relacje wydajności są inne w renderingu od tych np. w konwertowaniu zdjęć).


3. Jeszcze raz: to są laptopy, gdzie i5 + GT 640m w Samsungu pobiera inną ilość energii niż ten sam i5 + GT 640m w MSI. Nie można rozpatrywać wydajności i energooszczędności laptopów w oderwaniu od istoty tych urządzeń (np. braku możliwości wymiany płyty głównej i procesora w ramach kadłubka). Zauważ, że nie porównaliśmy czasu działania Richlanda do np. czasu działania Core i5 + GT 630M, bo trudno porównać wielki 17-calowy laptop z baterią o pojemności bliskiej 90 Wh do 15-calówek z bateriami o połowę mniejszymi. Niestety nie mamy za ścianą sklepu komputerowego, z którego moglibyśmy pożyczyć dowolny laptop w dowolnej konfiguracji i w ogóle możliwości przenoszenia procesorów o płyt głównych między kadłubkami.


Ponad wszystko: widziałeś gdziekolwiek test samochodów cywilnych polegający na zbadaniu ile km przejadą na jednym baku w rajdowej/wyścigowej jeździe po odcinku/torze? To co proponujesz przypomina testowanie baterii w komórkach w angry birds. Jest to równie absurdalny pomysł.
TrepciaZobacz profil
Poziom ostrzeżenia: 0%
Trepcia2013.05.22, 00:04
Grave @ 2013.05.21 22:10  Post: 658870
mlodybe @ 2013.05.21 21:57  Post: 658854
(...)

Z przecieków też wynika że Chipzilla ma po prostu problem z 14nm i tyle w temacie.

A dalej czekam na to co obiecałeś jak okaże się że w nowych konsolach będą CPU na bazie x86 od AMD...


Nie pamiętam co obiecywałem, ale jeżeli obiecywałem, że przyznam, że się myliłem jeżeli X86 trafi do konsol to rzeczywiście przyznaje, że moje przewidywania co do architektury CPU w nowych konsolach okazały się błędne.


Chyba miałeś publicznie zjeść laptopa z ogoloną głową :-)
*Konto usunięte*2013.05.22, 00:07
-4#52
@up
Nie odpowiedziałeś na 2 pytania

Odpowiedz mi na proste 2 pytania, który laptop wg. waszego testu będzie najdłużej działał w grach?
Który laptop jest najwydajniejszy na aku (jako, że część obcina wydajność)?



Wracając do twojego posta:
1. Nie da się obiektywnie zmierzyć czasu działania laptopa na baterii w grach. Inne relacje będą w wiedźminie, inne w Battlefieldzie, inne w StarCrafcie i jeszcze inne w Diablo. W tym ostatnim najdłużej będą działały laptopy z HD4000, np. względem APU AMD, zaś w StarCrafcie APU AMD będzie miało prawdopodobnie dłuższy czas działania od Core i5 z Intel HD. Jak myślisz z jakiego powodu mierzyliśmy pobór energii procesorów w dwóch grach?


Nie widzę nigdzie poboru energii w grach. Dlatego proponuję jeden test CPU (rendering czy co tam mocno obciąża CPU)....


Przerabiałem ten temat już w 2010 roku, gdy sam testowałem laptopy. Nie da się jedną i uniwersalną metodą obciążyć na maksa procesora i karty graficznej.
OCCT. W rozumieniu dosłownym nigdy nie obciążysz na max CPU czy GPU, ale tutaj będzie dość równomierny teoretycznie najgorszy scenariusz jakiemu zostanie poddany laptop.

O ile w przypadku testów kart graficznych czy testów procesorów (desktopowych) gdzie zmieniamy tylko jeden element można to zrobić, o tyle w przypadku laptopów możliwych kombinacji jest masa, przez co nie da się opracować jednej i stałej, a więc obiektywnej, metody na obciążenie całości. Każda gra inaczej będzie obciążała różne konfiguracje i będzie się też inaczej zachowywała zależnie od rozdzielczości jak i ustawień szczegółowości.

W związku z powyższym nie da się obiektywnie testować czasu działania w grach - no chyba, że założymy że zawsze testujemy np. w Diablo na minimalnych, ale już to z założenia jest nieobiektywne, bo dlaczego HD 7970m ma być testowane na minimalnych, skoro umożliwia grę na maksymalnych? Analogicznie trudno, żebyśmy Brazosa testowali na maksymalnych w 1920, podczas gdy żaden laptop z Brazosem go nie uciągnie na takich ustawieniach, a w szczególności nie ma laptopów z Brazosem i ekranem 1920x1080.

Ok...
Rozumiem. Zgodnie z tą logiką nie powinieneś testować poboru energii w dGPU. W końcu inne ustawienia zapewnią płynność w titanie, a inne w 7750. Titan uciągnie stereo 3d, 7750 nie.

Rozumiem, że jest to problematyczne i nie będzie zawsze sprawiedliwe, ale dajesz klientowi odpowiedź na to, że laptop w stresie będzie działał 15min czy może 115min...

Z twojej procedury nie masz bladego pojęcia jaki będzie czas pracy podczas jakiegokolwiek poważniejszego obciążenia. Więc prosze o jakiekolwiek poważniejsze obciążenie. Może być gra, może być OCCT, może być sam rendering CPU, coś co by dało jakiekolwiek pojęcie.



2. Testowanie, które proponujesz - 'zmiana, 5 minut renderingu, zmiana...' - jest również skazana na niepowodzenie. Powiedz: dlaczego mamy używać akurat renderingu? A jeśli to, dlaczego akurat np. w 3dsmaxie, a nie np. w blenderze? Przecież można robić np. kompresję wideo, albo np. konwertować zdjęcia. Niezależnie od tego co się wybierze NIE będzie to wybór obiektywny i będzie dotyczył wybranego zastosowania (bardzo wąskiego dodajmy), które będzie preferowało określone rozwiązania kosztem innych (relacje wydajności są inne w renderingu od tych np. w konwertowaniu zdjęć).

odpowiadałem to do komentarza, że niby rendering trwa tak długo, że musisz dokończyć go na zasilaniu AKU. Nie jest tak jak piszesz. Podczas zwykłej pracy często robisz testowe rendery. To przykład praktycznego zastosowania takiego testu.

Tak ma sens. Robisz rendering od 100->0%. Jasne X latpop zrobi do 10min y 5min...
... ale co wybrać X laptop z AMD, który to zrobić w 10min czy y laptop z intelem, który zrobi to w 9min?

------------
Zgodnie z twoją logiką nie ma sensu testowania poboru energii CPU (desktopie), ponieważ jeden CPU wykona pracę w 10min, a inny w 100min. Taki test robisz.

3. Jeszcze raz: to są laptopy, gdzie i5 + GT 640m w Samsungu pobiera inną ilość energii niż ten sam i5 + GT 640m w MSI. Nie można rozpatrywać wydajności i energooszczędności laptopów w oderwaniu od istoty tych urządzeń (np. braku możliwości wymiany płyty głównej i procesora w ramach kadłubka). Zauważ, że nie porównaliśmy czasu działania Richlanda do np. czasu działania Core i5 + GT 630M, bo trudno porównać wielki 17-calowy laptop z baterią o pojemności bliskiej 90 Wh do 15-calówek z bateriami o połowę mniejszymi. Niestety nie mamy za ścianą sklepu komputerowego, z którego moglibyśmy pożyczyć dowolny laptop w dowolnej konfiguracji i w ogóle możliwości przenoszenia procesorów o płyt głównych między kadłubkami.

Masz w 100% rację, dlatego warto zrobić test na takich samych konfigach różnych producentów. Nie wolno założyć takiego samego czasu pracy nawet przy tak samo pojemnym AKU



Ponad wszystko: widziałeś gdziekolwiek test samochodów cywilnych polegający na zbadaniu ile km przejadą na jednym baku w rajdowej/wyścigowej jeździe po odcinku/torze? To co proponujesz przypomina testowanie baterii w komórkach w angry birds. Jest to równie absurdalny pomysł.

Standardem jest podawanie spalania na 100km po mieście i poza miastem. Ale nie moja wina, że na drogach masz limity prędkości, a gry to jazda samochdem z maksymalną prędkością. Jest to dość kluczowy parametr w F1 był nawet gdy można było tankować w czasie wyścigu. Takie testy robi bardzo okazyjnie Anandtech, więc jest sens.

Ja proponuję testowanie baterii w komórkach przy użyciu takich gier jak Horn czy RR3 i takie testy też robi okazyjnie anandtech, więc jest sens.
ładnie widać, że przy kolejnych generacjach telefonów czas pracy czasem drastycznie spadł.
sizeerZobacz profil
Poziom ostrzeżenia: 0%
sizeer2013.05.22, 04:00
-7#53
focus nie tłumacz się przed wyznawcami AMD tylko banuj na ip wioski z których pochodzą
*Konto usunięte*2013.05.22, 07:00
@up
Nie jestem wyznawcą AMD, poprzednio też psioczyłem, bo procedura tego nie uwzględnia. Zresztą co jakiś czas przewala się ten wątek. Jeżeli AMD w stresie ciągnie więcej energii niż IB+NV to też chciałbym to wiedzieć.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2013.05.22, 08:06
Trzeba AMD przyznać, że w końcu im się udało. Pokazuje to jak bardzo na rynku mobilnym ważne są detale. Niby sprzęt ten sam co Trinity, ale dopracowane stany energetyczne wyraźnie zmieniają obraz całości.

Ciekawi mnie tylko, jak dużo tracił będzie do testowanego procesora mainsteamowy A8. 384 SPU a 256 SPU to jednak spora różnica.
21szpakZobacz profil
Poziom ostrzeżenia: 0%
21szpak2013.05.22, 08:08
-5#56
sizeer @ 2013.05.22 04:00  Post: 658932
focus nie tłumacz się przed wyznawcami AMD tylko banuj na ip wioski z których pochodzą


to wtedy byśmy się w sądzie z panem focusem spotkali :-) z pozwem zbiorowym
*Konto usunięte*2013.05.22, 08:16
-2#57
Assassin @ 2013.05.22 08:06  Post: 658945
Trzeba AMD przyznać, że w końcu im się udało. Pokazuje to jak bardzo na rynku mobilnym ważne są detale. Niby sprzęt ten sam co Trinity, ale dopracowane stany energetyczne wyraźnie zmieniają obraz całości.

Ciekawi mnie tylko, jak dużo tracił będzie do testowanego procesora mainsteamowy A8. 384 SPU a 256 SPU to jednak spora różnica.

Dokładnie Intel sukcesywnie walczył właśnie przez lata o obniżenie poboru energii. Engadget czy pclab nie uwzględniają poboru energii w stresie, więc kluczem jest chipset, stany C, P....
Redakcje mają gdzieś czy TDP układu wynosi 35 czy 45W, oceniają właśnie IDLE, stany P. Jedyne na co zwracają uwagę to czy włączy się przypadkiem spowalniacz (ale to raczej wina producenta laptopa).

Haswell tutaj będzie kolejnym krokiem i znowu AMD będzie w tyle.
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2013.05.22, 08:38
@ SunTzu - raz jeszcze i tym razem już ostatni...

Właśnie po to powstał ten artykuł: http://pclab.pl/art52110.html w którym wyjaśniałem wady tradycyjnego pomiaru. Niestety takie testowanie (jak przedstawione) wymaga po pierwsze znacznego skomplikowania procedury (wiele wariantów) jak też znacznego wydłużenia czasu potrzebnego na pomiary.

Przykładowo testując ilość pobieranej energii przez karty graficzne (w trakcie gier) trzeba brać poprawkę na to, że im szybsza karta, tym procesor pobiera więcej energii, przez co karta znacznie szybsza, ale bardziej energooszczędna (realnie) może pobierać (wraz z całym komputerem) więcej niż ta znacznie wolniejsza, ale mniej energooszczędna.

W przypadku laptopów jak już mówiłem: nie da się tego wydzielić, zbadać, bo za każdym razem ma się inny kadłubek, inny procesor itd.

No i ten sam argument który podałem wcześniej: dlaczego mamy testować pobór energii np. w Wiedźminie, a nie np. w StarCraft 2?

Nawet nie odnoszę się do testowania komórek w grze...
*Konto usunięte*2013.05.22, 08:51
-3#59
@up
Nie przeczytałeś tego co napisałem, tylko się powtarzasz.

Dalej nie odpowiedziałeś na 2 proste pytania.
Który laptop wg. waszego testu będzie najdłużej działał w grach?
Który laptop jest najwydajniejszy na aku (jako, że część obcina wydajność)?



Właśnie po to powstał ten artykuł: http://pclab.pl/art52110.html w którym wyjaśniałem wady tradycyjnego pomiaru. Niestety takie testowanie (jak przedstawione) wymaga po pierwsze znacznego skomplikowania procedury (wiele wariantów) jak też znacznego wydłużenia czasu potrzebnego na pomiary.

Tak czytałem go. Oczywiście rozumiem twój punkt widzenia. Przyznaję ci rację. Dlatego napisałem o porównaniu podobnych konfiguracji. Jak pisałem po przeczytaniu twojego artu nie mam bladego pojęcia co będzie pobierało mniej energii w grach/programach pro i dłużej działało Trinity, Richland, IB@2C. Taki czy siaki latop? Zero pojęcia.

Laptop w teorii może mieć TDP 65W procesora, podczas pracy przeglądarki może mieć taki sam pobór energii w teorii co laptop o TDP 25W. Nie mam bladego pojęcia na temat jakichkolwiek czasów jakie może mieć laptop X jaki Y podczas stresu.


Przykładowo testując ilość pobieranej energii przez karty graficzne (w trakcie gier) trzeba brać poprawkę na to, że im szybsza karta, tym procesor pobiera więcej energii, przez co karta znacznie szybsza, ale bardziej energooszczędna (realnie) może pobierać (wraz z całym komputerem) więcej niż ta znacznie wolniejsza, ale mniej energooszczędna

Chyba dajesz kolejny argument za tym by własnie testować. Skąd mam wiedzięć, który laptop w stresie będzie pobierać mniej energii jeżeli jest taka sytuacja? Jeżeli pclab przetestuje będę wiedział.


W przypadku laptopów jak już mówiłem: nie da się tego wydzielić, zbadać, bo za każdym razem ma się inny kadłubek, inny procesor itd.

Masz rację trzeba każdego laptopa traktować całościowo, nie można traktować osobno CPU i GPU tak jak to robi się w desktopie często.
Dlatego jak sam pisałeś trzeba robić więcej pomiarów by otrzymać sensowne rezultaty. Każdy laptop trzeba traktować indywidualnie. By ocenić jego wartość.



No i ten sam argument który podałem wcześniej: dlaczego mamy testować pobór energii np. w Wiedźminie, a nie np. w StarCraft 2?

Ja podałem na to .... widać nie przeczytałeś.
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2013.05.22, 08:55
SunTzu @ 2013.05.22 08:51  Post: 658954
@up
Nie przeczytałeś tego co napisałem, tylko się powtarzasz.

Odpowiedziałem Ci, tylko najwyraźniej nie chcesz przeczytać tej odpowiedzi.

SunTzu @ 2013.05.22 08:51  Post: 658954
Dalej nie odpowiedziałeś na 2 proste pytania.
Który laptop wg. waszego testu będzie najdłużej działał w grach?

Której grze? Bo jak Ci już dwa razy napisałem inne relacje laptopów będą w StarCraft 2, a inne w Crysis 3 i jeszcze inne w Wiedźminie 2 itd.

SunTzu @ 2013.05.22 08:51  Post: 658954
Który laptop jest najwydajniejszy na aku (jako, że część obcina wydajność)?

To zależy od konkretnego laptopa, konkretnej konfiguracji. Co wówczas mam pokazać? Wykres na którym laptop, który obcina wydajność na aku ma dłuższy słupek od tego, który nie ucina wydajności? I jeszcze raz wracamy do pytania numer 1: taka sytuacja (ucinanie wydajności) może mieć miejsce dla Wiedźmina 2, ale już dla StarCrafta 2 niekoniecznie.

SunTzu @ 2013.05.22 08:51  Post: 658954
Chyba dajesz kolejny argument za tym by własnie testować. Skąd mam wiedzięć, który laptop w stresie będzie pobierać mniej energii jeżeli jest taka sytuacja? Jeżeli pclab przetestuje będę wiedział.

No to właśnie mówię, że nie da się oceniać prądożerności kart graficznych, podczas gdy jedna jest podłączona do Core i5, a druga do Core i7. Ile razy mam powtarzać?
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.