- 7zip powinien być testowany w LZMA2 przy kompresji Ultra, jeśli ktoś używa 7zipa, to nie po to, aby kompresować pliki do '.zip' a '.7z'. Słownik ustawić tak, aby obciążyć do 12 rdzeni i zmieścić się w RAMie (max wymaga 96GB RAM)
Zgadzam się z tym, że LZMA jest optymalnym wyborem, ale nie wiem czy to dobry pomysł. Co do wykorzystania wszystkich dostępnych rdzeni. Dawno tego nie sprawdzałem, ale jeszcze kilka lat temu, jeśli mnie pamięć nie myli, LZMA wykorzystywało maksymalnie dwa rdzenie. Realnie coś w tym temacie się zmieniło?
aqvario @ 2013.10.06 22:17
- MonkeyAudio, kompresja WAV do APE z maksymalną kompresją oraz dekompresja (ewentualnie także z FLAC do WAV)
- RIP WAV do MP3 z Exact Audio Copy za pomocą Lame z maksymalną jakością (-vbr-new -v0 -V0)
Pytanie tylko jak często ktoś to robi. Czy nie jest to zadanie, które większość osób robi raz, może dwa razy w miesiącu?
aqvario @ 2013.10.06 22:17
- optymalizacja PNG za pomocą np PNGout, co powinno być codziennym chlebem webmasterów.
Takie osoby powinny i raczej używają jakiegoś sensownego programu do prostej edycji plików.
aqvario @ 2013.10.06 22:17
- Ci, którzy kupują najszybsze sprzęty, często wykorzystują je do projektów np na platformie BOINC. Powinniście poszukać popularnych projektów, jak Einstein@home, Rosetta@home czy Climate Prediction@home (to trzy najpopularniejsze, które nadal liczy się na procesorach, a nie na kartach graficznych).
Wydaje mi się to szalonym pomysłem - serio.
aqvario @ 2013.10.06 22:17
- co do photoshopa - ostatnio popularny jest plugin Topaz, poprawiający jakość czarno-białych skanów. Ludzie raportują, że potrafi im zmulić kompy na parę minut i wcale nie wymaga nie wiadomo ile ramu, a właśnie mocy obliczeniowej.
Nie wiem w jakiej mierze zależy to od procesora, w jakiej od dysku, napędu etc. ale przykład z życia wzięty - prędkość ripowania płyty Blu-ray do np. formatu DVD. Jeśli napęd jest problemem, zawsze można z użyć wirtualnego napędu z obrazu na dysku twardym.
No i z pewnością kompilacja C/C++/C#
Wirtualizacja też nie jest złym pomysłem
Konwersja pliku Blu-ray do formatu x264 jest już przez nas w pewnym sensie realizowana, bo mamy materiał wideo, który kompresujemy do x264. Wydaje mi się, że nic więcej w tym temacie nie jest potrzebne.
waszu @ 2013.10.07 00:03
focus @ 2013.10.06 19:21
Cinebencha mamy, ale nie widzimy sensu testowania 1CPU.
Nowy cinebench R15 czy stary? R15 do pobrania na stronie maxona, zmodyfikowana scena, nowy system oceniania, silnik pewnie tez nowy.
Ja prosiłbym o testy odtwarzania 1080p (lub wyższych) w różnych formatach. Pytania bardzo często pojawiają się na forach przy okazji budowania HTPC i odpowiedzi często nie są jednoznaczne w szczególności jeśli chodzi o bardzo energooszczędne a mało wydajne jednostki. Mam na myśli czyste dekodowanie przez procesor, bez użycia DXVA.
Ja prosiłbym o testy odtwarzania 1080p (lub wyższych) w różnych formatach. Pytania bardzo często pojawiają się na forach przy okazji budowania HTPC i odpowiedzi często nie są jednoznaczne w szczególności jeśli chodzi o bardzo energooszczędne a mało wydajne jednostki. Mam na myśli czyste dekodowanie przez procesor, bez użycia DXVA.
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Ja prosiłbym o testy odtwarzania 1080p (lub wyższych) w różnych formatach. Pytania bardzo często pojawiają się na forach przy okazji budowania HTPC i odpowiedzi często nie są jednoznaczne w szczególności jeśli chodzi o bardzo energooszczędne a mało wydajne jednostki. Mam na myśli czyste dekodowanie przez procesor, bez użycia DXVA.
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Zgadzam się, ale to jest propozycja testu - bywają różne konfiguracje sprzętowo/softwarowe kiedy 'coś' nie działa - inny player, inny system operacyjny, brak napisów, brak audio po HDMI, dziwny kodek.. przy budowaniu HTPC warto mieć pewność, że w razie czego CPU da radę.
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Zgadzam się, ale to jest propozycja testu - bywają różne konfiguracje sprzętowo/softwarowe kiedy 'coś' nie działa - inny player, inny system operacyjny, brak napisów, brak audio po HDMI, dziwny kodek.. przy budowaniu HTPC warto mieć pewność, że w razie czego CPU da radę.
CPU na 100% da radę. Problemem może być wyłącznie oprogramowanie.
Ja bym dodał do testów programy które są darmowe i alternatywne dla pakietu M$ office czy Adobe photoszop. Czyli gimp (jak skończyli migracje na nowy silnik w wersji x64) i też openoffice/libreoffice.
Do tego co mi przyszło żeby zrobić test przy użyci różnych kompilatorów dla tego samego kodu, tak żeby pokazać jaki wpływ na poszczególne architektury posiada. Zdaje sobie sprawę że będzie to problematyczne, sam kod aplikacji najlepiej było by napisać tak żeby wykorzystywał jak największą liczbę rozszerzeń, oraz można było go uruchomić na nieskończonej ilości wątków. Chodzi o test aplikacji po skompilowaniu danym kompilatorem, można było by też zrobić czas kompilacji na bardzo dużego projektu w jednym konkretnym języku.
W sumie można było by zrobić również testy przy wykorzystaniem jakieś wersji linuxa (np ubutu lub inna popularna), w celu sprawdzenia wydajności w powyższych programach biurowych czy graficznych które są w niego wbudowane. Pewne ułatwienie jest takie że niektóre wersje linuxa mogą botować z pendriva czy DVD bez instalacji więc skróciło bo to czas instalacji przy czym nie wiem czy nie przełożyło by się to na wydajność.
Co do gier mogli byście dorzucić jakieś nowsze gry typowo on line lub takie z lepsza grafiką i bardziej dzisiejszym silnikiem który wykorzystać potrafi więcej niż 1 rdzeń. Proponuje WarThunder ale można też ST the old republic prawdopodobnie czy inne.
kategoria AUDIO - a w niej testy wydajności CPU w systemach DAW (ponieważ GPU w tej dziedzinie na razie się nie sprawdza). Czyli testy na identycznym interfejsie audio (sterowniki sprzętu robią różnicę) na różnych CPU i hostach wtyczek:
VST - np. Cubase, Sonar, Ableton, FL, itd.
RE - Propellerehead Reason
DXi - Sonar
RTAS - Pro Tools
zapewne pominąłem parę formatów oraz wtyczki z komputerów Mac
Testy w środowisku 64 bitowym, zarówno wirtualnych instrumentów jak i efektów.
Przeczytanie tego u Was byłoby niesamowite, ponieważ nie znam stron przedstawiających podobne dane. Każdy natomiast robi testy na własną rękę a wynikami dzieli się na różnych forach.
Osób zajmujących się muzyką jest całkiem sporo.
Pozdrawiam.
Brakuje mi tu Excela, jakiś skrypt VBA importujący dane z pliku tekstowego (z jakichś pomiarów czy czegoś takiego), analizujący dane, tworzący table na bazie wykonanych obliczeń i rysujący kilka wykresów. Excel dostaje takiej czkawki już nawet przy kilkudziesięciu tysiącach wierszy, a jak dojdzie do wykresów to już robi się tragedia całkowita.
Matlab i jego toolbox do uczenia sieci neuronowych, ulubione narzędzie leniwych studentów informatyki
Reszta proponowanej listy jest OK. Choć popieram także wszelkie komentarze sugerujące dodanie czasów kompilacji różnych projektów opensourceowych w co popularniejszych środowiskach.
Abstrahując od zestawu aplikacji, cieszę się że dodaliście do dużego testu procesorów OC haswella rzędu 4,8GHz. Mam nadzieję że ten trend zostanie zachowany, gdyż wydajność agresywniej podkręcanych procesorów jest dosyć ważnym kryterium przy zakupie w przypadku ludzi którzy jak choćby ja, w wolnym czasie lubią pobawić się swoim komputerem i oskalpować czy zwodować CPU.
Ja prosiłbym o testy odtwarzania 1080p (lub wyższych) w różnych formatach. Pytania bardzo często pojawiają się na forach przy okazji budowania HTPC i odpowiedzi często nie są jednoznaczne w szczególności jeśli chodzi o bardzo energooszczędne a mało wydajne jednostki. Mam na myśli czyste dekodowanie przez procesor, bez użycia DXVA.
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Pokaż mi proszę Focusie procesor albo kartę graficzną dekodującą sprzętowo materiał Hi10P, któy przy wysokim bitrate potrafi zamulić nawet bardzo mocnego kompa...
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Pokaż mi proszę Focusie procesor albo kartę graficzną dekodującą sprzętowo materiał Hi10P, któy przy wysokim bitrate potrafi zamulić nawet bardzo mocnego kompa...
Zaj..bisty pokój. Gdyby nie te procesory, to bym pomyślał, że to zdjęcie było zrobione w czasach głębokiego PRL-u.
Możliwe, że tak bardzo się nie pomyliłeś, większość procków pochodzi z szalonych lat 90-tych i początku XX wieku (filetowe Athlony/Durony, procki slotowe). Z drugiej strony w środku najwyższego rzędu są chyba nie najstarsze mobilne Clarkdale. W rozwiązaniu zagadki pomogłaby identyfikacja modelu odkurzacza
Pokaż mi proszę Focusie procesor albo kartę graficzną dekodującą sprzętowo materiał Hi10P, któy przy wysokim bitrate potrafi zamulić nawet bardzo mocnego kompa...
To 'trochę' więcej niż 1080p, nieprawdaż?
To tylko jeden z profili H.264 i można go stosować do różnych rozdzielczości więc na dobrą sprawę... to także jest 1080p, tylko takie bardziej dokokszone.
'High 10 Profile (Hi10P)
Going beyond typical mainstream consumer product capabilities, this profile builds on top of the High Profile, adding support for up to 10 bits per sample of decoded picture precision.'
1. Wirtualizacja.
- opcja A: gotowy test wg. specyfikacji: http://www.tpc.org/tpcvms/default.asp - naturalnie możecie to przyciąć z ilością/wielkością maszyn i RAMem, tak aby dało się robić na każdym procku i 16GB RAM.
- opcja B: opracowanie kilku własnych maszynek/VM testowych VmwareWorkstation9/10 ze scenariuszami użytkowymi typu kompilacja większych projektów pod GCC i/lub Microsoftem, serwer pocztowy, serwer aplikacyjny, baza danych, kostki MOLAP.
- opcja C: maszyny wirtualne ANDROIDa - zarówno emulatory ARM jak i wirtualizacja x86.
B. Bazy danych
- weźcie jakąś jedną/dwie, konkretne wersje porządnej, stabilnej bazy danych, np.: IBM DB2 Express C 10.5 czy Oracle XE i zróbcie na oddzielnym dysku SSD czystą instalację Linuxa oraz danej bazy i w niej strukturę pod testy TPC-C i TPC-H wg. metod http://www.tpc.org/tpcc/default.asp i http://www.tpc.org/tpch/default.asp, tam są gotowe metody testowania, ale też warto je przyciąć do swoich potrzeb (np. tylko część readonly&sort, etc.), a potem na każdym systemie po prostu bootoujecie ten system i odpalcie testy.
C. Serwery Aplikacyjne.
- podobnie jak poprzednio, czyli jakieś 2-3 ustalone wersje serwerów App - np. JBOSS, Tomcat i Websphere CE, źróbcie czystą instalkę Linuxa na dedykowanym dysku SSD z przygotowanymi scenariuszami np.: wg. http://www.ibm.com/developerworks/opensour...os-perfbenchmk/ i dla każdego procka bootojecie to i odpalacie.
D. Przemysłowy benchmark SPEC CPU2006 V1.2.
- kupujecie za 800$ toola ze strony: http://www.spec.org/order.html i robicie nim swoje testy, to jest powszechnie uznane na świecie narzędzie do porównywania i przeliczania wydajności procków różnych producentów.
Procki wielordzeniowe wymyslono po to by przyspieszyc programy ktore da sie zrownoleglic I przyspieszyc wykonanie wielu zadan (programow na raz). Wy chcecie testowac tylko jeden program na raz, czyli nie testujecie wielordzeniowych procesorow zgodnie z polowa przyczyn ich istnienia.
Doskonała uwaga.
Przydałoby się zestawienie kilku programów pracujących w tle.
np.
kompresja wideo/kompresja plików + kryptografia
biuro + edycja wideo
Przydały by się programy obliczeniowe (nie syntetyki), które używają najnowszych instrukcji w procesorach. Aby zobaczyć czy wsparcie AVX2 AVX przynosi wymierne zyski.
W wyapdku Linuxa i open source łatwo to można źledzić używając nowszych wersji kompilatorów i na bieżąco rozwijanych programów.
Zgadzam się z tym, że LZMA jest optymalnym wyborem, ale nie wiem czy to dobry pomysł. Co do wykorzystania wszystkich dostępnych rdzeni. Dawno tego nie sprawdzałem, ale jeszcze kilka lat temu, jeśli mnie pamięć nie myli, LZMA wykorzystywało maksymalnie dwa rdzenie. Realnie coś w tym temacie się zmieniło?
Nic się nie zmieniło - LZMA wykorzystuje 2 rdzenie, a LZMA2 tyle, ile masz ich w procku, dlatego w domyślnych ustawieniach nowych wersji 7zipa ma być właśnie ustawiony LZMA2.
focus @ 2013.10.07 07:52
aqvario @ 2013.10.06 22:17
- MonkeyAudio, RIP WAV do MP3
Pytanie tylko jak często ktoś to robi. Czy nie jest to zadanie, które większość osób robi raz, może dwa razy w miesiącu?
Zgadza się, przyznaję rację. To nie jest częsta operacja, już nie dziś.
focus @ 2013.10.07 07:52
aqvario @ 2013.10.06 22:17
- optymalizacja PNG za pomocą np PNGout, co powinno być codziennym chlebem webmasterów.
Takie osoby powinny i raczej używają jakiegoś sensownego programu do prostej edycji plików.
Tutaj nie załapałeś, o co chodzi. Właśnie rzecz w tym, że webmasterzy nie mają pojęcia o optymalizacji PNG, a tego NIE ROBIĄ programy, które do PNG zapisują. Przeczytaj chociażby krótki tekst tutaj: http://pornel.net/png (podpunkt 'Optymalizacja".
focus @ 2013.10.07 07:52
aqvario @ 2013.10.06 22:17
- BOINC
Wydaje mi się to szalonym pomysłem - serio.
No nie wiem, zobacz, ile na forum ludzi ma w sygnaturkach statsy z BOINCa. Polska społeczność Boinca liczy sobie około 50tys ludzi, na świecie jest to około 2,6mln ludzi. Albo inaczej. Gdyby porównać to do ilości osób wykonujących na co dzień operacje wykorzystujące procesor na 100%, to byłoby to całkiem sporo. Spróbuj raz i zobacz, czy podstrona z wynikami jest odwiedzana wystarczająco często (w sumie to samo polecam z testowaniem kart graficznych, które masowo są wykorzystywane do obliczeń).
focus @ 2013.10.07 07:52
aqvario @ 2013.10.06 22:17
- Topaz
Dzięki za cynk!
Od razu zaznaczam - nie znam się na tym, ale efekt topaza mi się nie podoba. Kwestia różnicy w komiksie papierowym i webowym. Poszperaj sam, a tu masz jeden z licznych poradników do wykonywania akcji w PSie. Ustawia się to na cały tom w batchu, dodaje warstwy inteligentne i mamy zmułę kompa na 15 minut (nawet mój i7 3770k nie robi 200 stronicowego tomu RAWów krócej niż 10 minut). http://rifez.blogspot.co.uk/2012/12/cleani...-turtorial.html BTW - topaz jest używany rzadziej niż boinc xD
Zgadzam się z tym, że LZMA jest optymalnym wyborem, ale nie wiem czy to dobry pomysł. Co do wykorzystania wszystkich dostępnych rdzeni. Dawno tego nie sprawdzałem, ale jeszcze kilka lat temu, jeśli mnie pamięć nie myli, LZMA wykorzystywało maksymalnie dwa rdzenie. Realnie coś w tym temacie się zmieniło?
- RIP WAV do MP3 z Exact Audio Copy za pomocą Lame z maksymalną jakością (-vbr-new -v0 -V0)
Pytanie tylko jak często ktoś to robi. Czy nie jest to zadanie, które większość osób robi raz, może dwa razy w miesiącu?
Takie osoby powinny i raczej używają jakiegoś sensownego programu do prostej edycji plików.
Wydaje mi się to szalonym pomysłem - serio.
Dzięki za cynk!
No i z pewnością kompilacja C/C++/C#
Wirtualizacja też nie jest złym pomysłem
Konwersja pliku Blu-ray do formatu x264 jest już przez nas w pewnym sensie realizowana, bo mamy materiał wideo, który kompresujemy do x264. Wydaje mi się, że nic więcej w tym temacie nie jest potrzebne.
Cinebencha mamy, ale nie widzimy sensu testowania 1CPU.
Nowy cinebench R15 czy stary? R15 do pobrania na stronie maxona, zmodyfikowana scena, nowy system oceniania, silnik pewnie tez nowy.
Będziemy używali oczywiście nowego Cinebencha.
Podobieństwo ? Nieeee wydaje mi się :-E
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Zgadzam się, ale to jest propozycja testu - bywają różne konfiguracje sprzętowo/softwarowe kiedy 'coś' nie działa - inny player, inny system operacyjny, brak napisów, brak audio po HDMI, dziwny kodek.. przy budowaniu HTPC warto mieć pewność, że w razie czego CPU da radę.
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Zgadzam się, ale to jest propozycja testu - bywają różne konfiguracje sprzętowo/softwarowe kiedy 'coś' nie działa - inny player, inny system operacyjny, brak napisów, brak audio po HDMI, dziwny kodek.. przy budowaniu HTPC warto mieć pewność, że w razie czego CPU da radę.
CPU na 100% da radę. Problemem może być wyłącznie oprogramowanie.
Do tego co mi przyszło żeby zrobić test przy użyci różnych kompilatorów dla tego samego kodu, tak żeby pokazać jaki wpływ na poszczególne architektury posiada. Zdaje sobie sprawę że będzie to problematyczne, sam kod aplikacji najlepiej było by napisać tak żeby wykorzystywał jak największą liczbę rozszerzeń, oraz można było go uruchomić na nieskończonej ilości wątków. Chodzi o test aplikacji po skompilowaniu danym kompilatorem, można było by też zrobić czas kompilacji na bardzo dużego projektu w jednym konkretnym języku.
W sumie można było by zrobić również testy przy wykorzystaniem jakieś wersji linuxa (np ubutu lub inna popularna), w celu sprawdzenia wydajności w powyższych programach biurowych czy graficznych które są w niego wbudowane. Pewne ułatwienie jest takie że niektóre wersje linuxa mogą botować z pendriva czy DVD bez instalacji więc skróciło bo to czas instalacji przy czym nie wiem czy nie przełożyło by się to na wydajność.
Co do gier mogli byście dorzucić jakieś nowsze gry typowo on line lub takie z lepsza grafiką i bardziej dzisiejszym silnikiem który wykorzystać potrafi więcej niż 1 rdzeń. Proponuje WarThunder ale można też ST the old republic prawdopodobnie czy inne.
kategoria AUDIO - a w niej testy wydajności CPU w systemach DAW (ponieważ GPU w tej dziedzinie na razie się nie sprawdza). Czyli testy na identycznym interfejsie audio (sterowniki sprzętu robią różnicę) na różnych CPU i hostach wtyczek:
VST - np. Cubase, Sonar, Ableton, FL, itd.
RE - Propellerehead Reason
DXi - Sonar
RTAS - Pro Tools
zapewne pominąłem parę formatów oraz wtyczki z komputerów Mac
Testy w środowisku 64 bitowym, zarówno wirtualnych instrumentów jak i efektów.
Przeczytanie tego u Was byłoby niesamowite, ponieważ nie znam stron przedstawiających podobne dane. Każdy natomiast robi testy na własną rękę a wynikami dzieli się na różnych forach.
Osób zajmujących się muzyką jest całkiem sporo.
Pozdrawiam.
Matlab i jego toolbox do uczenia sieci neuronowych, ulubione narzędzie leniwych studentów informatyki
Reszta proponowanej listy jest OK. Choć popieram także wszelkie komentarze sugerujące dodanie czasów kompilacji różnych projektów opensourceowych w co popularniejszych środowiskach.
Abstrahując od zestawu aplikacji, cieszę się że dodaliście do dużego testu procesorów OC haswella rzędu 4,8GHz. Mam nadzieję że ten trend zostanie zachowany, gdyż wydajność agresywniej podkręcanych procesorów jest dosyć ważnym kryterium przy zakupie w przypadku ludzi którzy jak choćby ja, w wolnym czasie lubią pobawić się swoim komputerem i oskalpować czy zwodować CPU.
Podobieństwo ? Nieeee wydaje mi się :-E
inne koszule; czarny kolor wyszczupla
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Pokaż mi proszę Focusie procesor albo kartę graficzną dekodującą sprzętowo materiał Hi10P, któy przy wysokim bitrate potrafi zamulić nawet bardzo mocnego kompa...
Od kilku już lat nie są produkowane procesory (APU AMD i Intela) i karty graficzne, które nie potrafiłyby tego robić w pełni sprzętowo (minimalne obciążenie procesora).
Pokaż mi proszę Focusie procesor albo kartę graficzną dekodującą sprzętowo materiał Hi10P, któy przy wysokim bitrate potrafi zamulić nawet bardzo mocnego kompa...
To 'trochę' więcej niż 1080p, nieprawdaż?
Możliwe, że tak bardzo się nie pomyliłeś, większość procków pochodzi z szalonych lat 90-tych i początku XX wieku (filetowe Athlony/Durony, procki slotowe). Z drugiej strony w środku najwyższego rzędu są chyba nie najstarsze mobilne Clarkdale. W rozwiązaniu zagadki pomogłaby identyfikacja modelu odkurzacza
Pokaż mi proszę Focusie procesor albo kartę graficzną dekodującą sprzętowo materiał Hi10P, któy przy wysokim bitrate potrafi zamulić nawet bardzo mocnego kompa...
To 'trochę' więcej niż 1080p, nieprawdaż?
To tylko jeden z profili H.264 i można go stosować do różnych rozdzielczości więc na dobrą sprawę... to także jest 1080p, tylko takie bardziej dokokszone.
'High 10 Profile (Hi10P)
Going beyond typical mainstream consumer product capabilities, this profile builds on top of the High Profile, adding support for up to 10 bits per sample of decoded picture precision.'
1. Wirtualizacja.
- opcja A: gotowy test wg. specyfikacji: http://www.tpc.org/tpcvms/default.asp - naturalnie możecie to przyciąć z ilością/wielkością maszyn i RAMem, tak aby dało się robić na każdym procku i 16GB RAM.
- opcja B: opracowanie kilku własnych maszynek/VM testowych VmwareWorkstation9/10 ze scenariuszami użytkowymi typu kompilacja większych projektów pod GCC i/lub Microsoftem, serwer pocztowy, serwer aplikacyjny, baza danych, kostki MOLAP.
- opcja C: maszyny wirtualne ANDROIDa - zarówno emulatory ARM jak i wirtualizacja x86.
2. Aplikacje/środowiska produkcyjne.
A. WebDevelopment, Kompilacja, interpretacja i webserwers.
- Kompilacja GCC, Visual, Java, Android
- Webserver - np.: WWW/Apache + skrypty PHP - jest tego dużo w sieci, poszukajcie co wam podejdzie do scenariuszy - np: http://www.cyberciti.biz/tips/howto-perfor...eb-server.html, czy http://www.phpbench.com/ lub http://www.php-benchmark-script.com/, etc.
B. Bazy danych
- weźcie jakąś jedną/dwie, konkretne wersje porządnej, stabilnej bazy danych, np.: IBM DB2 Express C 10.5 czy Oracle XE i zróbcie na oddzielnym dysku SSD czystą instalację Linuxa oraz danej bazy i w niej strukturę pod testy TPC-C i TPC-H wg. metod http://www.tpc.org/tpcc/default.asp i http://www.tpc.org/tpch/default.asp, tam są gotowe metody testowania, ale też warto je przyciąć do swoich potrzeb (np. tylko część readonly&sort, etc.), a potem na każdym systemie po prostu bootoujecie ten system i odpalcie testy.
C. Serwery Aplikacyjne.
- podobnie jak poprzednio, czyli jakieś 2-3 ustalone wersje serwerów App - np. JBOSS, Tomcat i Websphere CE, źróbcie czystą instalkę Linuxa na dedykowanym dysku SSD z przygotowanymi scenariuszami np.: wg. http://www.ibm.com/developerworks/opensour...os-perfbenchmk/ i dla każdego procka bootojecie to i odpalacie.
D. Przemysłowy benchmark SPEC CPU2006 V1.2.
- kupujecie za 800$ toola ze strony: http://www.spec.org/order.html i robicie nim swoje testy, to jest powszechnie uznane na świecie narzędzie do porównywania i przeliczania wydajności procków różnych producentów.
Pozdrawiam.
[edit - cena SPECa]
Doskonała uwaga.
Przydałoby się zestawienie kilku programów pracujących w tle.
np.
kompresja wideo/kompresja plików + kryptografia
biuro + edycja wideo
W wyapdku Linuxa i open source łatwo to można źledzić używając nowszych wersji kompilatorów i na bieżąco rozwijanych programów.
Zgadzam się z tym, że LZMA jest optymalnym wyborem, ale nie wiem czy to dobry pomysł. Co do wykorzystania wszystkich dostępnych rdzeni. Dawno tego nie sprawdzałem, ale jeszcze kilka lat temu, jeśli mnie pamięć nie myli, LZMA wykorzystywało maksymalnie dwa rdzenie. Realnie coś w tym temacie się zmieniło?
Nic się nie zmieniło - LZMA wykorzystuje 2 rdzenie, a LZMA2 tyle, ile masz ich w procku, dlatego w domyślnych ustawieniach nowych wersji 7zipa ma być właśnie ustawiony LZMA2.
Pytanie tylko jak często ktoś to robi. Czy nie jest to zadanie, które większość osób robi raz, może dwa razy w miesiącu?
Zgadza się, przyznaję rację. To nie jest częsta operacja, już nie dziś.
Takie osoby powinny i raczej używają jakiegoś sensownego programu do prostej edycji plików.
Tutaj nie załapałeś, o co chodzi. Właśnie rzecz w tym, że webmasterzy nie mają pojęcia o optymalizacji PNG, a tego NIE ROBIĄ programy, które do PNG zapisują. Przeczytaj chociażby krótki tekst tutaj: http://pornel.net/png (podpunkt 'Optymalizacja"
Wydaje mi się to szalonym pomysłem - serio.
No nie wiem, zobacz, ile na forum ludzi ma w sygnaturkach statsy z BOINCa. Polska społeczność Boinca liczy sobie około 50tys ludzi, na świecie jest to około 2,6mln ludzi. Albo inaczej. Gdyby porównać to do ilości osób wykonujących na co dzień operacje wykorzystujące procesor na 100%, to byłoby to całkiem sporo. Spróbuj raz i zobacz, czy podstrona z wynikami jest odwiedzana wystarczająco często (w sumie to samo polecam z testowaniem kart graficznych, które masowo są wykorzystywane do obliczeń).
Dzięki za cynk!
Od razu zaznaczam - nie znam się na tym, ale efekt topaza mi się nie podoba. Kwestia różnicy w komiksie papierowym i webowym. Poszperaj sam, a tu masz jeden z licznych poradników do wykonywania akcji w PSie. Ustawia się to na cały tom w batchu, dodaje warstwy inteligentne i mamy zmułę kompa na 15 minut (nawet mój i7 3770k nie robi 200 stronicowego tomu RAWów krócej niż 10 minut). http://rifez.blogspot.co.uk/2012/12/cleani...-turtorial.html BTW - topaz jest używany rzadziej niż boinc xD