Kolejna rzecz, troszkę odchodzi od tematu poboru energi. Wpływ zmiany taktowania procesora na jego wydajność. (też trochę testów na ten temat robiłem i wyniki były bardzo ciekawe).
A co tutaj jest nieodkrytego? Wystarczy zobaczyć na nasz test procesorów i porównać np. wyniki jednostek Core i5, Phenomów II X4 - masz wszystko na tacy. Chyba, że jest coś o czym nie wiem?
Chodzi o wzięcie na warsztat kilku procesorów i porównywać zmiane wydajności w zależności od taktowania co powiedzmy 100mhz. Chodzi o pokazanie zjawiska pustych mhz jak i lawinowego przyrostu wydajności. Bo w niektórych artykułach pisałeś 'wzrost taktowania 25% a wydajności 23,8% czyli prawie idealnie), a wydajność nie rośnie liniowo. I o szersze zajęcie się tym tematem proszę.
Bo ja uważam, że to bardzo ciekawe i dużo można z tego wyciągnąć.
My tu pitu, pitu, a scenariuszy nikt nie podrzuca...
Ja mam propozycje na w sumie trzy scenariusze i szczerze mówiąc nie widzę póki co powodów, by je w jakiś sposób mieszać.
1. To typowe użytkowanie, ale bez gier, czyli przeglądanie netu, obejrzenie filmu, pogaduchy np. przez gg (czy coś w tym rodzaju), słuchanie muzyki itp.
2. To gry (jednak tutaj mierzyłbym tylko gry nie mieszając w to żadnego przeglądania internetu, czy tym bardziej renderingu).
3. To rendering i/lub kompresja wideo - coś co w pełni obciąża wszystkie dostępne rdzenie. Pytanie jeszcze jakie aplikacje do tego się weźmie, ale to jest właśnie do przedyskutowania.
Jakie macie do tego propozycje i/lub uwagi?
Wszystko zależy od platformy testowej. W teorii od FX-a opłaca się bardziej kupić albo Athlon-a, albo Phenom-a
-------------------
Jeżeli będziesz testował FX-y 8xxx, i7, i5 to zdecydowanie opcja 3. Z naciskiem rendering, jako, że filmy nie są tak straszne.
-------------------
Jeżeli jednak do konfigu wybierzesz Athlon-a (nie piszę celowo jakiego), Phenom-a, Pentium, i5 to zdecydowanie scenariusz drugi.
----------------
Scenariusz 1 dołączyć do obojętnie jakiego wyboru. Z małą modyfikacją. Jeżeli wybierzesz scenariusz 3 to Viewporty, programy pro.
Jeżli wybierzesz scenarisuz drugi to tak jak piszesz net, gg, itp...
Wbrew pozorom scenariusz 1 jest dość kluczowy moim zdaniem. Jako, że obrazuje ile energii pobiera komputer w IDLE, a to w domyśle najdłużej używany tryb
Tą samą metodologią porównać coś MOCNO podkręconego. Typu Q6600 @2,4 vs @3,6. Czy wzrost wydajności po podkręceniu jest wart wzrostu ceny zużytego prądu i o ile albo cokolwiek nowszego, co można pogonić o 50%.
Super, ale podmieniłbym ten procesor na któryś z pierwszym Phenomów (podkręconych). Powód: ciekawsze wykresy ze względu na ogromny pobór prądu już na stocku
To też będzie, ale mam wątpliwości czy jest sens rozróżniać x264 i np. DivX'a. Oczywiście wiem, że x264 bardziej obciąża, ale nie wiem czy jest sens się nad tym rozwodzić. Nie sądzę, by ktokolwiek zaczął oglądać DivX'y dlatego że x264 więcej zużywa energii.
Nie ma sensu, bo oglądanie filmów fullhd to będzie tylko kilka, może kilkanaście W, w zależności od materiału. Chyba, że będą w teście procesory do urządzeń przenośnych. Prawie nie ma znaczenia, czy robi to karta graficzna czy cpu. Ale tutaj, jeśli macie dostęp do dokładnego miernika, może być ciekawe sprawdzenie, czy rzeczywiście opłaca się włączać sprzętową akcelerację wideo na mocniejszym sprzęcie desktopowym z wieloma rdzeniami.
Z tego co patrzyłem, raczej bardziej efektywne energetycznie jest odtwarzanie na desktopowym cpu, ale nie mam karty graficznej w najnowszym procesie technologicznym i było to na granicy możliwości miernika.
@Alma - podczas rozruchu komputera z tego co mi wiadomo nie działają żadne funkcje oszczędzania energii - proc chodzi na maksymalnym mnożniku i napięciu i tak samo karta ma taktowania i napięcia dla trybu 3D - wiadomo, że obciążenie wtedy jest niewielkie ale wydaje mi się, że takie wyłączanie i włączanie PC 4-5 razy w ciągu godziny pociągnie więcej z gniazdka niż np. 1h całkowitego IDLE.
A co do scenariusza to ja bym bardzo chciał zobaczyć taki: 4 godziny przeglądania WWW z muzyką, komunikatorem, antywirusem itp w tle + w tym czasie jakaś instalacja programu czy rozpakowanie/spakowanie 2-3 plików zip. Następnie (nie wyłączając przeglądarki i pozostałych programów, no, po za muzyką ) obejrzenie 2 godzinnego filmu, później z 2 godziny grania, 2 godziny mocno obciążających kompa operacji (czyli np. kompresja wideo) co daje nam łącznie 10 godzin ale następnie pozostawienie kompa włączonego na pozostałe 14 godzin dostępnych w ciągu doby aby sobie coś tam zasysał z internetów (tutaj już z wyłączonym monitorem i głośnikami) - wiadomo, że w czasie tych 14 godzin antywirus na pewno zapuści sobie szybkiego skana, windows wykorzysta sytuację aby sobie trochę zdefragmentować dyski itp.
Dlaczego taki scenariusz? Ponieważ znam sporo osób - w tym mnie, którzy własnie tak użytkują komputer. Oczywiście o żadnym wyłączaniu nie ma mowy, dopuszczalny jest jedynie restart po aktualizacji windowsa, chociaż z tym też zawsze się ociągam i robię to raz na jakieś 2 miesiące a tak to pececik sobie cały czas pyrka.
a to co mnie najbardziej zastanawia to czy oglądanie filmu nieskompresowanego do x264 czy innego formatu tylko czysty dvd, bluray w dużych rozdzielczościach powoduje dużo większe pobieranie energii?
To też będzie, ale mam wątpliwości czy jest sens rozróżniać x264 i np. DivX'a. Oczywiście wiem, że x264 bardziej obciąża, ale nie wiem czy jest sens się nad tym rozwodzić. Nie sądzę, by ktokolwiek zaczął oglądać DivX'y dlatego że x264 więcej zużywa energii.
Alma @ 2013.01.10 16:11
i ciekawostkę czyli wpływ bluescreenów czy też inne powody wymuszające częste uruchamianie komputera np. co 5-10 minut (instalowanie, oc czy co kolwiek innego) w danej jednostce czasu np 1godziny bardzo podnoszą zużycie energii w porównaniu do ciągłego korzystania i nic nie robienia lub maksymalnego obciążenia?
To ciekawy pomysł - przedstaw proszę przykładowy scenariusz (w sensie, co miałbym na komputerze robić) w jednym i drugim przypadku.
Co do pierwszego jest to dla mnie bez różnicy jak i pewnie dla każdego. chodziło mi o to co sobie wybierzecie, choć zakładam, że właśnie x264, ale napisałem co innego w razie gdyby inny format wpadł wam do głowy dla porównania (co nie ma znaczenia), bo chodzi tylko o porównanie skompresowanego i nie.
A co do drugiego. To w pierwszym przypadku gdy komputer 'chodzi' ale nic konkretnego na nim nie robimy.Jest po prostu włączony, może co najwyżej grać muzyka, lub być załączona jakaś strona w internecie. Z pewnością duża liczba osób wychodzi gdzieś od komputera i zostawia go włączonego, z pewnością dużej liczbie ludzi w tym czasie się włącza wygaszacz ekranu jeśli nic nie robią jak i z pewnością dużej liczbie się nie włącza, a komputer chodzi. A w drugim przypadku granie w gierkę która w znaczący sposób obciąża komputer lub np. przeprowadzania testów jak choćby u was kompresja do x264, czy sprawdzanie komputera pod oc. Zastanawia mnie właśnie czy zostawiając komputer włączony na jedną godzinę i nic nie robienie zużyje więcej prądu niż wyłączanie go co 10 minut i włączanie bo coś trzeba było szybko sprawdzić (nie wiem czy ktoś tak robi, ale nigdy nic nie wiadomo), czy też inny scenariusz gdzie instalujemy sporo rzeczy które wymagają restartu komputera, ale również możemy wykonać go później po zbiorowej instalacji po minięciu danej godziny, to jak ma się jedna opcja zużycia energii do drugiej. czyli inaczej mówiąc jak się mają częste restarty komputera, lub włączenie komputera na 10 minut i nic nie robienie ewentualnie w drugiej opcji przeprowadzenie testu w 3dmarku i wyłączenie komputera na 5-10minut po czym robimy to samo przez godzinę do jego ciągłej pracy przez taki sam okres czasu i nie wykonywanie na nim żadnej pracy lub obciążając go.
Wiadomo, że wniosek nasuwa się sam kiedy i dlaczego zużyjemy więcej prądu, ale chciałbym wiedzieć jak bardzo restarty wpływają (o ile) na zużycie tej energii w porównaniu do danych warunków pracy komputera oraz czy na prawdę człowiek zaoszczędzi jeśli wyłączy komputer na 5-10minut, czy też może okaże się, że restarty spowodują, że nie zaoszczędzi. W krótkim okresie czasu pomysł może wydawać się śmieszny (no dobra, może i jest), ale w proporcjonalnym dobowym ujęciu już wygląda inaczej.
Co do gier: jaką masz metode na powtórzenie testu w grze??
Wiele To jest właśnie tajemnica zawodowa.
Dobra nie wnikam
Jest pytanie w innym arcie http://pclab.pl/kom66303--0.html#c627912 pożesz przeczytać i się wypowiedzieć bo powiem szczerze że nirvan mnie nim zaskoczył - ostatnie czyba 3-4 posty.
To akurat to jest oczywiste i nie widzę większego sensu tego sprawdzanie. Pobór energii rośnie do kwadratu różnicy - żadne O/C nie będzie bardziej efektywne niż def, no chyba że takie bez zmiany napięcia (to akurat jest możliwe).
Nie bardzo rozumiem co w swoim poście napisałem źle. Odnosiłem się do wpływu napięcia na ilość pobieranej energii, co potwierdziłeś że ta przyrasta wówczas nie liniowo, a do kwadratu.
W takim razie ja przepraszam za czepialstwo. Oczywiście chodzi o błąd matematyczny, otóż napisałeś o kwadracie różnicy - czyli kwadracie wyniku odejmowania. We wzorze oczywiście stoi kwadrat ilorazu, a więc dzielenie. Niby malutka różnica, a zasadnicza i w oczy człowieka kłuje
focus @ 2013.01.10 18:34
Ktoś zgłosił mi taką uwagę:
'Elektrycznie rzecz biorąc, to mamy pobór mocy i zużycie energii. Więc na drugim obrazku ilustrującym pobór mocy, powinien być taki właśnie podpis, a nie pobór energii.'
Jak można 'pobierać moc'? Moim zdaniem jest to niezgodne z fizyką. Pamiętam moją rozmowę z moim kolegą fizykiem i nie mogliśmy razem dojść do jakiejś konkluzji w tym temacie, ale uznaliśmy, że nie jest to najszczęśliwsze określenie.
Ja również zgadzam się z uwagą. Zdecydowanie mniej szczęśliwe jest podawanie poboru energii w Watach, jednostką energii w układzie SI jest Dżul. Na elektrodzie jakoś nie mają problemu z pisaniem o poborze mocy
My tu pitu, pitu, a scenariuszy nikt nie podrzuca...
Ja mam propozycje na w sumie trzy scenariusze i szczerze mówiąc nie widzę póki co powodów, by je w jakiś sposób mieszać.
1. To typowe użytkowanie, ale bez gier, czyli przeglądanie netu, obejrzenie filmu, pogaduchy np. przez gg (czy coś w tym rodzaju), słuchanie muzyki itp.
2. To gry (jednak tutaj mierzyłbym tylko gry nie mieszając w to żadnego przeglądania internetu, czy tym bardziej renderingu).
3. To rendering i/lub kompresja wideo - coś co w pełni obciąża wszystkie dostępne rdzenie. Pytanie jeszcze jakie aplikacje do tego się weźmie, ale to jest właśnie do przedyskutowania.
Jakie macie do tego propozycje i/lub uwagi?
co do pkt 2: Gry MMO + komunikator, muzyka czy ogladanie filmu sa calkiem czestym przypadkiem.
My tu pitu, pitu, a scenariuszy nikt nie podrzuca...
Ja mam propozycje na w sumie trzy scenariusze i szczerze mówiąc nie widzę póki co powodów, by je w jakiś sposób mieszać.
1. To typowe użytkowanie, ale bez gier, czyli przeglądanie netu, obejrzenie filmu, pogaduchy np. przez gg (czy coś w tym rodzaju), słuchanie muzyki itp.
2. To gry (jednak tutaj mierzyłbym tylko gry nie mieszając w to żadnego przeglądania internetu, czy tym bardziej renderingu).
3. To rendering i/lub kompresja wideo - coś co w pełni obciąża wszystkie dostępne rdzenie. Pytanie jeszcze jakie aplikacje do tego się weźmie, ale to jest właśnie do przedyskutowania.
Jakie macie do tego propozycje i/lub uwagi?
Do jedynki dodał bym jeszcze kompresje np. 100 zdjęć
2 to raczej mało powtarzalny test dlatego tu bardziej nadają się benchmarki ale mogę się mylić.
3 super.
A co tutaj jest nieodkrytego? Wystarczy zobaczyć na nasz test procesorów i porównać np. wyniki jednostek Core i5, Phenomów II X4 - masz wszystko na tacy. Chyba, że jest coś o czym nie wiem?
Chodzi o wzięcie na warsztat kilku procesorów i porównywać zmiane wydajności w zależności od taktowania co powiedzmy 100mhz. Chodzi o pokazanie zjawiska pustych mhz jak i lawinowego przyrostu wydajności. Bo w niektórych artykułach pisałeś 'wzrost taktowania 25% a wydajności 23,8% czyli prawie idealnie), a wydajność nie rośnie liniowo. I o szersze zajęcie się tym tematem proszę.
Bo ja uważam, że to bardzo ciekawe i dużo można z tego wyciągnąć.
Ja mam propozycje na w sumie trzy scenariusze i szczerze mówiąc nie widzę póki co powodów, by je w jakiś sposób mieszać.
1. To typowe użytkowanie, ale bez gier, czyli przeglądanie netu, obejrzenie filmu, pogaduchy np. przez gg (czy coś w tym rodzaju), słuchanie muzyki itp.
2. To gry (jednak tutaj mierzyłbym tylko gry nie mieszając w to żadnego przeglądania internetu, czy tym bardziej renderingu).
3. To rendering i/lub kompresja wideo - coś co w pełni obciąża wszystkie dostępne rdzenie. Pytanie jeszcze jakie aplikacje do tego się weźmie, ale to jest właśnie do przedyskutowania.
Jakie macie do tego propozycje i/lub uwagi?
Wszystko zależy od platformy testowej. W teorii od FX-a opłaca się bardziej kupić albo Athlon-a, albo Phenom-a
-------------------
Jeżeli będziesz testował FX-y 8xxx, i7, i5 to zdecydowanie opcja 3. Z naciskiem rendering, jako, że filmy nie są tak straszne.
-------------------
Jeżeli jednak do konfigu wybierzesz Athlon-a (nie piszę celowo jakiego), Phenom-a, Pentium, i5 to zdecydowanie scenariusz drugi.
----------------
Scenariusz 1 dołączyć do obojętnie jakiego wyboru. Z małą modyfikacją. Jeżeli wybierzesz scenariusz 3 to Viewporty, programy pro.
Jeżli wybierzesz scenarisuz drugi to tak jak piszesz net, gg, itp...
Wbrew pozorom scenariusz 1 jest dość kluczowy moim zdaniem. Jako, że obrazuje ile energii pobiera komputer w IDLE, a to w domyśle najdłużej używany tryb
Super, ale podmieniłbym ten procesor na któryś z pierwszym Phenomów (podkręconych). Powód: ciekawsze wykresy ze względu na ogromny pobór prądu już na stocku
troche wymiarów będzie, ale potem juz tylko pochodoną, cełkę, i problem decyzji w zasadzie rozwiązuje się sam
To też będzie, ale mam wątpliwości czy jest sens rozróżniać x264 i np. DivX'a. Oczywiście wiem, że x264 bardziej obciąża, ale nie wiem czy jest sens się nad tym rozwodzić. Nie sądzę, by ktokolwiek zaczął oglądać DivX'y dlatego że x264 więcej zużywa energii.
Nie ma sensu, bo oglądanie filmów fullhd to będzie tylko kilka, może kilkanaście W, w zależności od materiału. Chyba, że będą w teście procesory do urządzeń przenośnych. Prawie nie ma znaczenia, czy robi to karta graficzna czy cpu. Ale tutaj, jeśli macie dostęp do dokładnego miernika, może być ciekawe sprawdzenie, czy rzeczywiście opłaca się włączać sprzętową akcelerację wideo na mocniejszym sprzęcie desktopowym z wieloma rdzeniami.
Z tego co patrzyłem, raczej bardziej efektywne energetycznie jest odtwarzanie na desktopowym cpu, ale nie mam karty graficznej w najnowszym procesie technologicznym i było to na granicy możliwości miernika.
A co do scenariusza to ja bym bardzo chciał zobaczyć taki: 4 godziny przeglądania WWW z muzyką, komunikatorem, antywirusem itp w tle + w tym czasie jakaś instalacja programu czy rozpakowanie/spakowanie 2-3 plików zip. Następnie (nie wyłączając przeglądarki i pozostałych programów, no, po za muzyką
Dlaczego taki scenariusz? Ponieważ znam sporo osób - w tym mnie, którzy własnie tak użytkują komputer. Oczywiście o żadnym wyłączaniu nie ma mowy, dopuszczalny jest jedynie restart po aktualizacji windowsa, chociaż z tym też zawsze się ociągam i robię to raz na jakieś 2 miesiące a tak to pececik sobie cały czas pyrka.
Phenom II x 4 965 vs i3 2120/3220 - zasady jak wyżej.
To są bardzo popularne jednostki (może oprócz athlonów). Wiec stosunkowo wiele osób może to interesować.
To też będzie, ale mam wątpliwości czy jest sens rozróżniać x264 i np. DivX'a. Oczywiście wiem, że x264 bardziej obciąża, ale nie wiem czy jest sens się nad tym rozwodzić. Nie sądzę, by ktokolwiek zaczął oglądać DivX'y dlatego że x264 więcej zużywa energii.
To ciekawy pomysł - przedstaw proszę przykładowy scenariusz (w sensie, co miałbym na komputerze robić) w jednym i drugim przypadku.
Co do pierwszego jest to dla mnie bez różnicy jak i pewnie dla każdego. chodziło mi o to co sobie wybierzecie, choć zakładam, że właśnie x264, ale napisałem co innego w razie gdyby inny format wpadł wam do głowy dla porównania (co nie ma znaczenia), bo chodzi tylko o porównanie skompresowanego i nie.
A co do drugiego. To w pierwszym przypadku gdy komputer 'chodzi' ale nic konkretnego na nim nie robimy.Jest po prostu włączony, może co najwyżej grać muzyka, lub być załączona jakaś strona w internecie. Z pewnością duża liczba osób wychodzi gdzieś od komputera i zostawia go włączonego, z pewnością dużej liczbie ludzi w tym czasie się włącza wygaszacz ekranu jeśli nic nie robią jak i z pewnością dużej liczbie się nie włącza, a komputer chodzi. A w drugim przypadku granie w gierkę która w znaczący sposób obciąża komputer lub np. przeprowadzania testów jak choćby u was kompresja do x264, czy sprawdzanie komputera pod oc. Zastanawia mnie właśnie czy zostawiając komputer włączony na jedną godzinę i nic nie robienie zużyje więcej prądu niż wyłączanie go co 10 minut i włączanie bo coś trzeba było szybko sprawdzić (nie wiem czy ktoś tak robi, ale nigdy nic nie wiadomo), czy też inny scenariusz gdzie instalujemy sporo rzeczy które wymagają restartu komputera, ale również możemy wykonać go później po zbiorowej instalacji po minięciu danej godziny, to jak ma się jedna opcja zużycia energii do drugiej. czyli inaczej mówiąc jak się mają częste restarty komputera, lub włączenie komputera na 10 minut i nic nie robienie ewentualnie w drugiej opcji przeprowadzenie testu w 3dmarku i wyłączenie komputera na 5-10minut po czym robimy to samo przez godzinę do jego ciągłej pracy przez taki sam okres czasu i nie wykonywanie na nim żadnej pracy lub obciążając go.
Wiadomo, że wniosek nasuwa się sam kiedy i dlaczego zużyjemy więcej prądu, ale chciałbym wiedzieć jak bardzo restarty wpływają (o ile) na zużycie tej energii w porównaniu do danych warunków pracy komputera oraz czy na prawdę człowiek zaoszczędzi jeśli wyłączy komputer na 5-10minut, czy też może okaże się, że restarty spowodują, że nie zaoszczędzi. W krótkim okresie czasu pomysł może wydawać się śmieszny (no dobra, może i jest), ale w proporcjonalnym dobowym ujęciu już wygląda inaczej.
Wiele
Focus ma bota
Wiele
Focus ma bota
Wiele
Dobra nie wnikam
Jest pytanie w innym arcie http://pclab.pl/kom66303--0.html#c627912 pożesz przeczytać i się wypowiedzieć bo powiem szczerze że nirvan mnie nim zaskoczył - ostatnie czyba 3-4 posty.
To akurat to jest oczywiste i nie widzę większego sensu tego sprawdzanie. Pobór energii rośnie do kwadratu różnicy - żadne O/C nie będzie bardziej efektywne niż def, no chyba że takie bez zmiany napięcia (to akurat jest możliwe).
Nie bardzo rozumiem co w swoim poście napisałem źle. Odnosiłem się do wpływu napięcia na ilość pobieranej energii, co potwierdziłeś że ta przyrasta wówczas nie liniowo, a do kwadratu.
W takim razie ja przepraszam za czepialstwo. Oczywiście chodzi o błąd matematyczny, otóż napisałeś o kwadracie różnicy - czyli kwadracie wyniku odejmowania. We wzorze oczywiście stoi kwadrat ilorazu, a więc dzielenie. Niby malutka różnica, a zasadnicza i w oczy człowieka kłuje
'Elektrycznie rzecz biorąc, to mamy pobór mocy i zużycie energii. Więc na drugim obrazku ilustrującym pobór mocy, powinien być taki właśnie podpis, a nie pobór energii.'
Jak można 'pobierać moc'? Moim zdaniem jest to niezgodne z fizyką. Pamiętam moją rozmowę z moim kolegą fizykiem i nie mogliśmy razem dojść do jakiejś konkluzji w tym temacie, ale uznaliśmy, że nie jest to najszczęśliwsze określenie.
Ja również zgadzam się z uwagą. Zdecydowanie mniej szczęśliwe jest podawanie poboru energii w Watach, jednostką energii w układzie SI jest Dżul. Na elektrodzie jakoś nie mają problemu z pisaniem o poborze mocy
Ja mam propozycje na w sumie trzy scenariusze i szczerze mówiąc nie widzę póki co powodów, by je w jakiś sposób mieszać.
1. To typowe użytkowanie, ale bez gier, czyli przeglądanie netu, obejrzenie filmu, pogaduchy np. przez gg (czy coś w tym rodzaju), słuchanie muzyki itp.
2. To gry (jednak tutaj mierzyłbym tylko gry nie mieszając w to żadnego przeglądania internetu, czy tym bardziej renderingu).
3. To rendering i/lub kompresja wideo - coś co w pełni obciąża wszystkie dostępne rdzenie. Pytanie jeszcze jakie aplikacje do tego się weźmie, ale to jest właśnie do przedyskutowania.
Jakie macie do tego propozycje i/lub uwagi?
co do pkt 2: Gry MMO + komunikator, muzyka czy ogladanie filmu sa calkiem czestym przypadkiem.
Wiele
Do jedynki dodał bym jeszcze kompresje np. 100 zdjęć
Dobry pomysł - nie będzie z tym problemu - mam przygotowane skrypty.
Mylisz się
Ogólnie ciekawi mnie ocl vs CPU.
ocl?
OpenCL - GPGPU.
Co do gier: jaką masz metode na powtórzenie testu w grze?? Bo powiem szczerze nie wyobrażam sobie tego.
A tak na marginesie to zrobił bym jeszcze test siłowy - Wszystkie testy z 1 i 3 puścił bym jednocześnie.
Do jedynki dodał bym jeszcze kompresje np. 100 zdjęć
Dobry pomysł - nie będzie z tym problemu - mam przygotowane skrypty.
Mylisz się
Ogólnie ciekawi mnie ocl vs CPU.
ocl?
Ja mam propozycje na w sumie trzy scenariusze i szczerze mówiąc nie widzę póki co powodów, by je w jakiś sposób mieszać.
1. To typowe użytkowanie, ale bez gier, czyli przeglądanie netu, obejrzenie filmu, pogaduchy np. przez gg (czy coś w tym rodzaju), słuchanie muzyki itp.
2. To gry (jednak tutaj mierzyłbym tylko gry nie mieszając w to żadnego przeglądania internetu, czy tym bardziej renderingu).
3. To rendering i/lub kompresja wideo - coś co w pełni obciąża wszystkie dostępne rdzenie. Pytanie jeszcze jakie aplikacje do tego się weźmie, ale to jest właśnie do przedyskutowania.
Jakie macie do tego propozycje i/lub uwagi?
Do jedynki dodał bym jeszcze kompresje np. 100 zdjęć
2 to raczej mało powtarzalny test dlatego tu bardziej nadają się benchmarki ale mogę się mylić.
3 super.
Ogólnie ciekawi mnie ocl vs CPU.