To jest przecież typowy nośnik dla tych co im złącze m2 na ich płytach B350 albo taniej Zx70 tylko do tej pory zbierało kurz, jak im się giera będzie wczytywała o te kilka sekund szybciej to będą zadowoleni, a tutaj wszyscy przeżywają jakby to były testy co najmniej obliczeń trajektorii lotu na Marsa
Testy maja dwa etapy, najpierw czysty dysk podlaczony do platformy testowej z innym nosnikiem jako systemowy (czysty obraz), potem drugi gdy za nosnik systemowy sluzy testowany SSD.
Czy dobrze rozumiem że w 2 etapie klonujecie system z plikami testowymi itd z zewnętrznego nośnika na ten testowy i z niego uruchamiacie później system? Bo w 1 etapie testy są robione na pustym nośniku, tak?
Jak mi napiszesz jak to w powtarzalny sposob zrobic z logowaniem czasu do pliku to moge dodac. Strzelam jednak ze to bardziej bedzie przez CPU niz SSD ograniczane.
Ech, nie pomyślałem, faktycznie CPU to ogranicza, szczególnie że proces jest jednowątkowy.
Co do ostatniej odpowiedzi - Antywirusy z reguły pracują w trybie 'low priority' więc wpakują swoje działania w wolne chwile między działania innych programów - praktycznie zawsze skończą więc ostatnie. Jest to z jednej strony typowa działalność systemu/użytkownika a z drugiej strony zadanie wykorzystujące wielozadaniowość. Wynikiem byłby koniec skanowania (jako podwynik można by podać koniec kopiowania/rozpakowywania danych). A komentarz i ocena? 'W wielozadaniowym środowisku gdzie wiele programów korzysta z nośnika, ten i ten pozwolił zakończyć pracę szybciej' - oczywiście zakładając powtarzalność wyników (czego wcale nie jestem pewien)
Jeśli nie pasuje Wam takie podejście może spróbowalibyście IOMeter - tam są gotowe profile mieszkanki zapisu i odczytu, można tam zrobić dosłownie wszystko - dać kilka 'workerów' które będą działać jednocześnie zapisując i odczytując dane w dowolnych kombinacjach ilościowych, dowolnym rozmiarze próbki, liniowo albo losowo zapisywanej, przez ściśle ustawiony czas, albo do przesłania ograniczonej ilości danych - strony specjalizujące się w testach nośników chętnie tego programu używają Można z tych danych wyciągnąć daleko idące wnioski na temat wydajności nośników.
To nie jest takie proste, z dwoch powodow.
Powiedzmy ze mamy trzy SSD i dwie operacje, kopiowanie duzego pliku i jednoczesnie rozpakowywanie drugiego.
Na pierwszym SSD trwaja one odpowiednio 50 i 10 sekund, w sumie 60.
Na drugim SSD trwaja one 40 i 20 sekund, w sumie 60 sekund.
Na trzecim 10 i 50, w sumie 60 sekund.
Ktory z nich jest lepszy, i dlaczego?
Drugi powod jest taki, ze przy paru obciazeniach na raz duzo zaczyna zalezec od systemu operacyjnego czy cache nosnika i wyniki przestaja byc powtarzalne - roznica potrafi siegnac 50% czasu operacji, a wtedy to bardziej loteria niz nauka.
Nie no nie żartuj. Nie sumujemy czasów w wielozadaniowości. Podajemy czas zakończenia się wszystkich operacji. W wielozadaniowości nie mają znaczenia poszczególne czasy, liczy się czas finalny.
Ale możesz mieć rację, ze za duży wpływ na to ma system i jego zarządzanie kolejnością zadań. Ale kontroler w dysku też pewnie masę roboty odwala.
Nooo stary, zostałeś jakby nie patrzeć 'kontrowersyjnym autorem', powinni Ci ekstra zapłacić za te komentarze do artykułu, to wtedy odkupisz ode mnie płytę razem z procem
W sumie nie wiem jak po zmianie silnika ostatnio, ale królem zażynania dysku był zawsze World of Tanks. Ta gra potrafiła wczytywać mapę na SSD mapę prze 5s a na HDD przez 35s. I ooostro ta produkcja jeździ po dysku.
Wiem też z doświadczenia, że w grach turowych często sporo zależy nie tylko od CPU ale od dysku(czasy wczytywań, tur, etc) .
WoT pod tym katem sprawdzalem, jest z tym jeden problem - nie ma (a przynajmniej nie znalazlem) sposobu na zautomatyzowanie pomiaru. Mierzenie stoperem ma sredni sens.
Ps. Wynkii zapisów dla różnych softów testowych prawdopodobnie wynikają z różnicy rozmiaru próbek testowych. Tylko pytanie, o ile przy testowaniu Zapisu sekwencyjnego, próbki testowe 5GB są spoko, o tyle w przypadku 4K, są raczej głupotą(bo nie odzwierciedlają rzeczywistego wykorzystania)
Tez tak myslalem, ale nie. Zwroc uwage, ze dla innych nosnikow wahania miedzy programami sa znacznie mniejsze. To ewidentnie wyglada na jakies cuda wianki z cache.
Killer85 @ 2018.03.22 15:47
A ja się pytam gdzie są temperatury?
Zanotowane, nie przedstawione poki co bo przeciez nie porownam temperatury Adaty z SSD 2,5'... Jak bede mial wiecej urzadzen (i temperatur) przetestowanych to zaczna sie pojawiac.
Algerion @ 2018.03.22 15:58
Kiedy możliwy jest test nowych dysków na M.2 naszego rodzimego producenta GOODRAM IRDM Ultimate?
Nie wiem, sprobuje sie dowiedziec.
mat9v @ 2018.03.22 20:24
Gwoli zaspokojenia ciekawości - czy testy wykonywane są na zimno, to znaczy po restarcie systemu
Oczywiscie.
i czy testy kopiowania/uruchamiania/czegokolwiek są wykonywane po odpowiednim czasie od restartu systemu, z wyłączonymi usługami indeksowania, skanowania AV, aktualizacji i innego śmietnika?
Oczywiscie, AV to wrecz w ogole nie ma. System jest odlaczony od sieci.
Czy moglibyście ewentualnie jako podstawę systemu do testów używać LTSB - ma najmniejszy śmietnik i najbardziej powtarzalne wyniki.
Nie, raczej chcemy miec mozliwie realne wyniki, a nie 'co by bylo gdyby'. Chociaz osobiscie tez lubie takie podejscie. Tylko jakbym chcial robic testy 'dla wszystkich' i testy 'akademickie' kazdego urzadzenia to bym sie musial przerzucic z coca-coli na sama koke...
Czy rozumiem poprawnie, że dyski podłączacie po kolei do platformy testowej na której jest na innym dysku system, czy pomiędzy podłączeniami przywracacie system do stanu 'zerowego', czy czyścicie pliki 'prefetch' systemu pomiędzy testami?
Testy maja dwa etapy, najpierw czysty dysk podlaczony do platformy testowej z innym nosnikiem jako systemowy (czysty obraz), potem drugi gdy za nosnik systemowy sluzy testowany SSD.
Czy bylibyście skłonni załączać wykres prędkości przesyłu danych przy sekwencyjnym odczycie/zapisie plików - chodzi o to czy i kiedy kończy się SLC, przydałoby się też zwiększyć plik kopiowany do 30-40GB (1 film BluRay) - wykres dałby pojęcie o prędkości w obrębie SLC i później.
Wykresy sie pojawia. Zwiekszenie kopiowania do 30-40GB nie, mamy testy dla 8GB, 24GB i calego nosnika (szyfrowanie). Niestety musi wystarczyc. Po czesci z ograniczen platformy testowej (32GB ramu nie przeskocze)
Czy według was miałby sens test na przykład weryfikacji spójności jakiegoś dużego torrenta?
Jak mi napiszesz jak to w powtarzalny sposob zrobic z logowaniem czasu do pliku to moge dodac. Strzelam jednak ze to bardziej bedzie przez CPU niz SSD ograniczane.
Test wielozadaniowości można by przeprowadzić dając programowi AV do przeskanowania jakiś bogaty katalog (Windows+ProgramFiles+User) podczas gdy będzie się rozpakowywało archiwum albo instalowała aplikacja.
To nie jest takie proste, z dwoch powodow.
Powiedzmy ze mamy trzy SSD i dwie operacje, kopiowanie duzego pliku i jednoczesnie rozpakowywanie drugiego.
Na pierwszym SSD trwaja one odpowiednio 50 i 10 sekund, w sumie 60.
Na drugim SSD trwaja one 40 i 20 sekund, w sumie 60 sekund.
Na trzecim 10 i 50, w sumie 60 sekund.
Ktory z nich jest lepszy, i dlaczego?
Drugi powod jest taki, ze przy paru obciazeniach na raz duzo zaczyna zalezec od systemu operacyjnego czy cache nosnika i wyniki przestaja byc powtarzalne - roznica potrafi siegnac 50% czasu operacji, a wtedy to bardziej loteria niz nauka.
Czysta herezja i nic więcej. Zaraz się okaże, że ten szrot jest też szybszy od MX200, M6 Pro... Kostki tragiczne, ale kontroler(niby lepszy) nadrabia . Poczytaj normalne testy(i nie mówię tu o PPC, bo w Polsce to może 2 redakcje wiedzą, jak przetestować SSD i jak 'udławić' 3D TLC).
Kostki tragiczne? Uhm.
I wlasciwie zaczalem sie zastanawiac co Ty mi tu wmawiasz:
No ja tu widze, ze Toshiba jest jednak szybsza od MX500, o SX6000 nie wspominajac.
Tylko, ze to tak czy inaczej stary nosnik i w syntetykach to widac, nie wysyca SATA III nawet, MX500 owszem. W realnych zastosowaniach jak pokazalem troche wygrywa z MX500, ale bez jakiejs drastycznej przewagi (liczac srednia, w pojedynczych testach bywa ze owszem).
Wiec przeczytales cos poza testami z syntetykow zanim napisales 'olaboga mx500 przegrywa z q300'?
Toshiba Q Pro to trzyletni zabytek i MX500 jest od niej znacznie szybszy. Głównie za sprawą lepszego kontrolera.
Czysta herezja i nic więcej. Zaraz się okaże, że ten szrot jest też szybszy od MX200, M6 Pro... Kostki tragiczne, ale kontroler(niby lepszy) nadrabia . Poczytaj normalne testy(i nie mówię tu o PPC, bo w Polsce to może 2 redakcje wiedzą, jak przetestować SSD i jak 'udławić' 3D TLC).
Szczerze rozważałem ten dysk w wersji 2x pojemniejszej, już nie rozważam. Jednak trzeba dozbierać do Samsunga.
masz Plextora 512GB z tego testu za niecałe 800pln, samsungowi jak widać niewiele ustępuje, wersja z chłodzeniem 40pln droższa, http://www.camino.pl/solid-state-drive-512...,twr,89956.html no chyba że koniecznie samsung to niestety minimum 1250pln za 960pro
Co do adaty, to już epizod miałem z tą marką i na wykopie można było poczytać o niej
Prawdę mówiąc myślałem raczej o wersji oem, lub używanej z przebiegiem kilka(naście) TB. Te są w świetnych cenach i całkiem sporej dostępności.
Inne marki na wtórnym rynku nie istnieją.
Miałem Samsunga 850pro, mam teraz jakiś OEM kupiony z laptopem + HDD którego wibracje mnie męczą, chciałbym zamienić na M2 512 GB który będzie jedynym dyskiem w komputerze. Niemniej jednak - obecnie Samsung, Samsung i długo nic...
Coraz więcej na rynku 'ciekawych' rozwiązań, czyli cięcia kosztów, gdzie się da. Miałem ostatnio do czynienia z dwoma z nich. Intel SSDSCKKW256G8X1 256GB SATA 545s M.2 — pamięci TLC z buforem SLC. Ten dawał jeszcze radę, głównie dzięki temu, że Intel wyrzucił firmware dołączone do kontrolera SM2259 i napisał swoje od podstaw. W efekcie np. przy wykryciu transferów sekwencyjnych bufor SLC jest pomijany i zapis dokonywany jest bezpośrednio do TLC.
Natomiast Goodram IR-SSDPR-S25A-60 IRDM Gen.2 nie posiada jakiegokolwiek sprzętowego bufora, brak nawet SLC, o RAM nie mówiąc. Po wypełnieniu tego dysku danymi odczyt/zapis spadły znacząco poniżej możliwości SATAII.
Jeśli konkurencja ma być pure to od razu powiem, że jakkolwiek od lat jestem czytelnikiem i lubię ich testy tak SSD testować nie umieją. Odnośnie reszty - porównaj zestaw testów sprzed pół roku z obecnym. Teraz jest etap przejściowy odkąd przejąłem dział pamięci w pclabie. Robię więcej testów niz widać na wykresach, ale ich nie prezentuje póki co bo nie mam materiału porównawczego jeszcze. Ale wnioski z nich uwzględniam w podsumowaniu. Gdzie napisałem że w sumie do typowego użytkowania tj 'odczyt stałych danych' to urządzenie jest w sumie całkiem ok.
I pytanie o inne testy rzeczywiste było całkiem serio. Niedługo zmieniamy platformę i część testów. Z uruchamianiem aplikacji jest problem taki, że większość z nich zależy bardziej od CPU niż SSD i różnice są pomijalne. Z wielozadaniowością można zrobić tak jak pure czyli źle, albo dobrze czyli jeszcze nie wiem jak Ale eksperymenty trwają
Gwoli zaspokojenia ciekawości - czy testy wykonywane są na zimno, to znaczy po restarcie systemu i czy testy kopiowania/uruchamiania/czegokolwiek są wykonywane po odpowiednim czasie od restartu systemu, z wyłączonymi usługami indeksowania, skanowania AV, aktualizacji i innego śmietnika? Czy moglibyście ewentualnie jako podstawę systemu do testów używać LTSB - ma najmniejszy śmietnik i najbardziej powtarzalne wyniki. Czy rozumiem poprawnie, że dyski podłączacie po kolei do platformy testowej na której jest na innym dysku system, czy pomiędzy podłączeniami przywracacie system do stanu 'zerowego', czy czyścicie pliki 'prefetch' systemu pomiędzy testami? Czy bylibyście skłonni załączać wykres prędkości przesyłu danych przy sekwencyjnym odczycie/zapisie plików - chodzi o to czy i kiedy kończy się SLC, przydałoby się też zwiększyć plik kopiowany do 30-40GB (1 film BluRay) - wykres dałby pojęcie o prędkości w obrębie SLC i później.
Czy według was miałby sens test na przykład weryfikacji spójności jakiegoś dużego torrenta? Test wielozadaniowości można by przeprowadzić dając programowi AV do przeskanowania jakiś bogaty katalog (Windows+ProgramFiles+User) podczas gdy będzie się rozpakowywało archiwum albo instalowała aplikacja.
Szczerze rozważałem ten dysk w wersji 2x pojemniejszej, już nie rozważam. Jednak trzeba dozbierać do Samsunga.
masz Plextora 512GB z tego testu za niecałe 800pln, samsungowi jak widać niewiele ustępuje, wersja z chłodzeniem 40pln droższa, http://www.camino.pl/solid-state-drive-512...,twr,89956.html no chyba że koniecznie samsung to niestety minimum 1250pln za 960pro
Co do adaty, to już epizod miałem z tą marką i na wykopie można było poczytać o niej
Jezus jak to kole w oczy... Chyba se je wydłubię...
A co, lepsza zgermanizowana nowomowa typu 'nowy nośnik od ADATA'? A fuj, to jest dopiero paskudztwo językowe. Dziś, zamiast profesorów polonistyki, reguły odmiany ustalają marketoidy i potem masz takie koszmarki jak 'nowy krem od NIVEA' czy 'piękna sofa od IKEA'. Ble.
Jeśli konkurencja ma być pure to od razu powiem, że jakkolwiek od lat jestem czytelnikiem i lubię ich testy tak SSD testować nie umieją. Odnośnie reszty - porównaj zestaw testów sprzed pół roku z obecnym. Teraz jest etap przejściowy odkąd przejąłem dział pamięci w pclabie. Robię więcej testów niz widać na wykresach, ale ich nie prezentuje póki co bo nie mam materiału porównawczego jeszcze. Ale wnioski z nich uwzględniam w podsumowaniu. Gdzie napisałem że w sumie do typowego użytkowania tj 'odczyt stałych danych' to urządzenie jest w sumie całkiem ok.
I pytanie o inne testy rzeczywiste było całkiem serio. Niedługo zmieniamy platformę i część testów. Z uruchamianiem aplikacji jest problem taki, że większość z nich zależy bardziej od CPU niż SSD i różnice są pomijalne. Z wielozadaniowością można zrobić tak jak pure czyli źle, albo dobrze czyli jeszcze nie wiem jak Ale eksperymenty trwają
W sumie nie wiem jak po zmianie silnika ostatnio, ale królem zażynania dysku był zawsze World of Tanks. Ta gra potrafiła wczytywać mapę na SSD mapę prze 5s a na HDD przez 35s. I ooostro ta produkcja jeździ po dysku.
Wiem też z doświadczenia, że w grach turowych często sporo zależy nie tylko od CPU ale od dysku(czasy wczytywań, tur, etc) .
Ps. Wynkii zapisów dla różnych softów testowych prawdopodobnie wynikają z różnicy rozmiaru próbek testowych. Tylko pytanie, o ile przy testowaniu Zapisu sekwencyjnego, próbki testowe 5GB są spoko, o tyle w przypadku 4K, są raczej głupotą(bo nie odzwierciedlają rzeczywistego wykorzystania)
Jeśli konkurencja ma być pure to od razu powiem, że jakkolwiek od lat jestem czytelnikiem i lubię ich testy tak SSD testować nie umieją. Odnośnie reszty - porównaj zestaw testów sprzed pół roku z obecnym. Teraz jest etap przejściowy odkąd przejąłem dział pamięci w pclabie. Robię więcej testów niz widać na wykresach, ale ich nie prezentuje póki co bo nie mam materiału porównawczego jeszcze. Ale wnioski z nich uwzględniam w podsumowaniu. Gdzie napisałem że w sumie do typowego użytkowania tj 'odczyt stałych danych' to urządzenie jest w sumie całkiem ok.
I pytanie o inne testy rzeczywiste było całkiem serio. Niedługo zmieniamy platformę i część testów. Z uruchamianiem aplikacji jest problem taki, że większość z nich zależy bardziej od CPU niż SSD i różnice są pomijalne. Z wielozadaniowością można zrobić tak jak pure czyli źle, albo dobrze czyli jeszcze nie wiem jak Ale eksperymenty trwają
Jezus jak to kole w oczy... Chyba se je wydłubię...
Takie są zasady odmiany skrótowców pisanych wyłącznie wielkimi literami. Druga opcja to Adaty. Można od biedy pisać też kogo, czego: ADATA, ale to trochę brzmi jak ulotka reklamowa. W każdym razie na pewno nie ADATY.
Te 'doskonałe' testy rzeczywiste, które nijak się mają do typowego rzeczywistego użytkowania dysku SSD z tego segmentu. Brawo PCL
Polecam poczytać inne testy - chyba prawie dowolnego innego portalu - w których sytuacji testowych jest więcej i może ocenić jak w jego użytkowaniu się sprawdzi.
Bo w przypadku tego jak ja, oraz sporo innych osób użytkuje SSD (więc trzyma na nich dane względnie stałe (te same najcześniej używane gry, programy, system, etc ) - tutaj w realnych testach tego nie widać prawie wcale...
Tzn jakie testy rzeczywiste sugerujesz? Test czego? Odczytu? Są. Uruchamiania programów/systemu? Są. Instalacji oprogramowania? Też są. Testu 'przechowywania stałych danych' jakoś sobie nie umiem wyobrazić, osobiście wolałbym przechowywać na HDD, najlepiej w sejfie
Uruchamianie Aplikacji. Jednej. JEDNEJ. Jak zaczniecie testować karty graficzne tak samo, w jednej grze, to będzie już po zabawie
Bo każdy typ oprogramowania wykorzystuje dysk dokładnie tak samo. Nie, różnice są ogromne.
Jakiekolwiek wielozadaniowości.
Poza tym, mam duży dysonans poznawczy widząc przy podobnych scenariuszach testowych zupełnie inne wyniki w tej recenzji niż w innych tego modelu
Polecam zamiast odbijać od razu piłeczkę, zerknąć na konkurencję, czym się różnimy i poprawić, a nie walczyć z czytelnikami.
PS. I jeszcze jedna drobna uwaga, tak poza recenzją. Wersje 512GB dysków na SATA w zasadzie nie zyskują w stosunku do wersji 256GB. W przypadku dysków M2 PCI-E, różnicę w max odczytach są spore, często mają też większe cache co wpływa na wydajność. Więc modelu 512GB nie można oceniać równocześnie z 256GB(co do kolegi wyżej rezygnującego z zakupu).
Te 'doskonałe' testy rzeczywiste, które nijak się mają do typowego rzeczywistego użytkowania dysku SSD z tego segmentu. Brawo PCL
Polecam poczytać inne testy - chyba prawie dowolnego innego portalu - w których sytuacji testowych jest więcej i może ocenić jak w jego użytkowaniu się sprawdzi.
Bo w przypadku tego jak ja, oraz sporo innych osób użytkuje SSD (więc trzyma na nich dane względnie stałe (te same najcześniej używane gry, programy, system, etc ) - tutaj w realnych testach tego nie widać prawie wcale...
Tzn jakie testy rzeczywiste sugerujesz? Test czego? Odczytu? Są. Uruchamiania programów/systemu? Są. Instalacji oprogramowania? Też są. Testu 'przechowywania stałych danych' jakoś sobie nie umiem wyobrazić, osobiście wolałbym przechowywać na HDD, najlepiej w sejfie
Co do ostatniej odpowiedzi - Antywirusy z reguły pracują w trybie 'low priority' więc wpakują swoje działania w wolne chwile między działania innych programów - praktycznie zawsze skończą więc ostatnie. Jest to z jednej strony typowa działalność systemu/użytkownika a z drugiej strony zadanie wykorzystujące wielozadaniowość. Wynikiem byłby koniec skanowania (jako podwynik można by podać koniec kopiowania/rozpakowywania danych). A komentarz i ocena? 'W wielozadaniowym środowisku gdzie wiele programów korzysta z nośnika, ten i ten pozwolił zakończyć pracę szybciej' - oczywiście zakładając powtarzalność wyników (czego wcale nie jestem pewien)
Jeśli nie pasuje Wam takie podejście może spróbowalibyście IOMeter - tam są gotowe profile mieszkanki zapisu i odczytu, można tam zrobić dosłownie wszystko - dać kilka 'workerów' które będą działać jednocześnie zapisując i odczytując dane w dowolnych kombinacjach ilościowych, dowolnym rozmiarze próbki, liniowo albo losowo zapisywanej, przez ściśle ustawiony czas, albo do przesłania ograniczonej ilości danych - strony specjalizujące się w testach nośników chętnie tego programu używają
To nie jest takie proste, z dwoch powodow.
Powiedzmy ze mamy trzy SSD i dwie operacje, kopiowanie duzego pliku i jednoczesnie rozpakowywanie drugiego.
Na pierwszym SSD trwaja one odpowiednio 50 i 10 sekund, w sumie 60.
Na drugim SSD trwaja one 40 i 20 sekund, w sumie 60 sekund.
Na trzecim 10 i 50, w sumie 60 sekund.
Ktory z nich jest lepszy, i dlaczego?
Drugi powod jest taki, ze przy paru obciazeniach na raz duzo zaczyna zalezec od systemu operacyjnego czy cache nosnika i wyniki przestaja byc powtarzalne - roznica potrafi siegnac 50% czasu operacji, a wtedy to bardziej loteria niz nauka.
Nie no nie żartuj. Nie sumujemy czasów w wielozadaniowości. Podajemy czas zakończenia się wszystkich operacji. W wielozadaniowości nie mają znaczenia poszczególne czasy, liczy się czas finalny.
Ale możesz mieć rację, ze za duży wpływ na to ma system i jego zarządzanie kolejnością zadań. Ale kontroler w dysku też pewnie masę roboty odwala.
W sumie nie wiem jak po zmianie silnika ostatnio, ale królem zażynania dysku był zawsze World of Tanks. Ta gra potrafiła wczytywać mapę na SSD mapę prze 5s a na HDD przez 35s. I ooostro ta produkcja jeździ po dysku.
Wiem też z doświadczenia, że w grach turowych często sporo zależy nie tylko od CPU ale od dysku(czasy wczytywań, tur, etc) .
WoT pod tym katem sprawdzalem, jest z tym jeden problem - nie ma (a przynajmniej nie znalazlem) sposobu na zautomatyzowanie pomiaru. Mierzenie stoperem ma sredni sens.
Ps. Wynkii zapisów dla różnych softów testowych prawdopodobnie wynikają z różnicy rozmiaru próbek testowych. Tylko pytanie, o ile przy testowaniu Zapisu sekwencyjnego, próbki testowe 5GB są spoko, o tyle w przypadku 4K, są raczej głupotą(bo nie odzwierciedlają rzeczywistego wykorzystania)
Tez tak myslalem, ale nie. Zwroc uwage, ze dla innych nosnikow wahania miedzy programami sa znacznie mniejsze. To ewidentnie wyglada na jakies cuda wianki z cache.
Zanotowane, nie przedstawione poki co bo przeciez nie porownam temperatury Adaty z SSD 2,5'... Jak bede mial wiecej urzadzen (i temperatur) przetestowanych to zaczna sie pojawiac.
Nie wiem, sprobuje sie dowiedziec.
Gwoli zaspokojenia ciekawości - czy testy wykonywane są na zimno, to znaczy po restarcie systemu
Oczywiscie.
i czy testy kopiowania/uruchamiania/czegokolwiek są wykonywane po odpowiednim czasie od restartu systemu, z wyłączonymi usługami indeksowania, skanowania AV, aktualizacji i innego śmietnika?
Oczywiscie, AV to wrecz w ogole nie ma. System jest odlaczony od sieci.
Czy moglibyście ewentualnie jako podstawę systemu do testów używać LTSB - ma najmniejszy śmietnik i najbardziej powtarzalne wyniki.
Nie, raczej chcemy miec mozliwie realne wyniki, a nie 'co by bylo gdyby'. Chociaz osobiscie tez lubie takie podejscie. Tylko jakbym chcial robic testy 'dla wszystkich' i testy 'akademickie' kazdego urzadzenia to bym sie musial przerzucic z coca-coli na sama koke...
Czy rozumiem poprawnie, że dyski podłączacie po kolei do platformy testowej na której jest na innym dysku system, czy pomiędzy podłączeniami przywracacie system do stanu 'zerowego', czy czyścicie pliki 'prefetch' systemu pomiędzy testami?
Testy maja dwa etapy, najpierw czysty dysk podlaczony do platformy testowej z innym nosnikiem jako systemowy (czysty obraz), potem drugi gdy za nosnik systemowy sluzy testowany SSD.
Czy bylibyście skłonni załączać wykres prędkości przesyłu danych przy sekwencyjnym odczycie/zapisie plików - chodzi o to czy i kiedy kończy się SLC, przydałoby się też zwiększyć plik kopiowany do 30-40GB (1 film BluRay) - wykres dałby pojęcie o prędkości w obrębie SLC i później.
Wykresy sie pojawia. Zwiekszenie kopiowania do 30-40GB nie, mamy testy dla 8GB, 24GB i calego nosnika (szyfrowanie). Niestety musi wystarczyc. Po czesci z ograniczen platformy testowej (32GB ramu nie przeskocze)
Czy według was miałby sens test na przykład weryfikacji spójności jakiegoś dużego torrenta?
Jak mi napiszesz jak to w powtarzalny sposob zrobic z logowaniem czasu do pliku to moge dodac. Strzelam jednak ze to bardziej bedzie przez CPU niz SSD ograniczane.
Test wielozadaniowości można by przeprowadzić dając programowi AV do przeskanowania jakiś bogaty katalog (Windows+ProgramFiles+User) podczas gdy będzie się rozpakowywało archiwum albo instalowała aplikacja.
To nie jest takie proste, z dwoch powodow.
Powiedzmy ze mamy trzy SSD i dwie operacje, kopiowanie duzego pliku i jednoczesnie rozpakowywanie drugiego.
Na pierwszym SSD trwaja one odpowiednio 50 i 10 sekund, w sumie 60.
Na drugim SSD trwaja one 40 i 20 sekund, w sumie 60 sekund.
Na trzecim 10 i 50, w sumie 60 sekund.
Ktory z nich jest lepszy, i dlaczego?
Drugi powod jest taki, ze przy paru obciazeniach na raz duzo zaczyna zalezec od systemu operacyjnego czy cache nosnika i wyniki przestaja byc powtarzalne - roznica potrafi siegnac 50% czasu operacji, a wtedy to bardziej loteria niz nauka.
Czysta herezja i nic więcej. Zaraz się okaże, że ten szrot jest też szybszy od MX200, M6 Pro... Kostki tragiczne, ale kontroler(niby lepszy) nadrabia
Kostki tragiczne? Uhm.
I wlasciwie zaczalem sie zastanawiac co Ty mi tu wmawiasz:
No ja tu widze, ze Toshiba jest jednak szybsza od MX500, o SX6000 nie wspominajac.
Tylko, ze to tak czy inaczej stary nosnik i w syntetykach to widac, nie wysyca SATA III nawet, MX500 owszem. W realnych zastosowaniach jak pokazalem troche wygrywa z MX500, ale bez jakiejs drastycznej przewagi (liczac srednia, w pojedynczych testach bywa ze owszem).
Wiec przeczytales cos poza testami z syntetykow zanim napisales 'olaboga mx500 przegrywa z q300'?
Toshiba Q Pro to trzyletni zabytek i MX500 jest od niej znacznie szybszy. Głównie za sprawą lepszego kontrolera.
Czysta herezja i nic więcej. Zaraz się okaże, że ten szrot jest też szybszy od MX200, M6 Pro... Kostki tragiczne, ale kontroler(niby lepszy) nadrabia
masz Plextora 512GB z tego testu za niecałe 800pln, samsungowi jak widać niewiele ustępuje, wersja z chłodzeniem 40pln droższa, http://www.camino.pl/solid-state-drive-512...,twr,89956.html no chyba że koniecznie samsung to niestety minimum 1250pln za 960pro
Co do adaty, to już epizod miałem z tą marką i na wykopie można było poczytać o niej
Prawdę mówiąc myślałem raczej o wersji oem, lub używanej z przebiegiem kilka(naście) TB. Te są w świetnych cenach i całkiem sporej dostępności.
Inne marki na wtórnym rynku nie istnieją.
Miałem Samsunga 850pro, mam teraz jakiś OEM kupiony z laptopem + HDD którego wibracje mnie męczą, chciałbym zamienić na M2 512 GB który będzie jedynym dyskiem w komputerze. Niemniej jednak - obecnie Samsung, Samsung i długo nic...
Natomiast Goodram IR-SSDPR-S25A-60 IRDM Gen.2 nie posiada jakiegokolwiek sprzętowego bufora, brak nawet SLC, o RAM nie mówiąc. Po wypełnieniu tego dysku danymi odczyt/zapis spadły znacząco poniżej możliwości SATAII.
I pytanie o inne testy rzeczywiste było całkiem serio. Niedługo zmieniamy platformę i część testów. Z uruchamianiem aplikacji jest problem taki, że większość z nich zależy bardziej od CPU niż SSD i różnice są pomijalne. Z wielozadaniowością można zrobić tak jak pure czyli źle, albo dobrze czyli jeszcze nie wiem jak
Gwoli zaspokojenia ciekawości - czy testy wykonywane są na zimno, to znaczy po restarcie systemu i czy testy kopiowania/uruchamiania/czegokolwiek są wykonywane po odpowiednim czasie od restartu systemu, z wyłączonymi usługami indeksowania, skanowania AV, aktualizacji i innego śmietnika? Czy moglibyście ewentualnie jako podstawę systemu do testów używać LTSB - ma najmniejszy śmietnik i najbardziej powtarzalne wyniki. Czy rozumiem poprawnie, że dyski podłączacie po kolei do platformy testowej na której jest na innym dysku system, czy pomiędzy podłączeniami przywracacie system do stanu 'zerowego', czy czyścicie pliki 'prefetch' systemu pomiędzy testami? Czy bylibyście skłonni załączać wykres prędkości przesyłu danych przy sekwencyjnym odczycie/zapisie plików - chodzi o to czy i kiedy kończy się SLC, przydałoby się też zwiększyć plik kopiowany do 30-40GB (1 film BluRay) - wykres dałby pojęcie o prędkości w obrębie SLC i później.
Czy według was miałby sens test na przykład weryfikacji spójności jakiegoś dużego torrenta? Test wielozadaniowości można by przeprowadzić dając programowi AV do przeskanowania jakiś bogaty katalog (Windows+ProgramFiles+User) podczas gdy będzie się rozpakowywało archiwum albo instalowała aplikacja.
masz Plextora 512GB z tego testu za niecałe 800pln, samsungowi jak widać niewiele ustępuje, wersja z chłodzeniem 40pln droższa, http://www.camino.pl/solid-state-drive-512...,twr,89956.html no chyba że koniecznie samsung to niestety minimum 1250pln za 960pro
Co do adaty, to już epizod miałem z tą marką i na wykopie można było poczytać o niej
Jezus jak to kole w oczy... Chyba se je wydłubię...
A co, lepsza zgermanizowana nowomowa typu 'nowy nośnik od ADATA'? A fuj, to jest dopiero paskudztwo językowe. Dziś, zamiast profesorów polonistyki, reguły odmiany ustalają marketoidy i potem masz takie koszmarki jak 'nowy krem od NIVEA' czy 'piękna sofa od IKEA'. Ble.
I pytanie o inne testy rzeczywiste było całkiem serio. Niedługo zmieniamy platformę i część testów. Z uruchamianiem aplikacji jest problem taki, że większość z nich zależy bardziej od CPU niż SSD i różnice są pomijalne. Z wielozadaniowością można zrobić tak jak pure czyli źle, albo dobrze czyli jeszcze nie wiem jak
W sumie nie wiem jak po zmianie silnika ostatnio, ale królem zażynania dysku był zawsze World of Tanks. Ta gra potrafiła wczytywać mapę na SSD mapę prze 5s a na HDD przez 35s. I ooostro ta produkcja jeździ po dysku.
Wiem też z doświadczenia, że w grach turowych często sporo zależy nie tylko od CPU ale od dysku(czasy wczytywań, tur, etc) .
Ps. Wynkii zapisów dla różnych softów testowych prawdopodobnie wynikają z różnicy rozmiaru próbek testowych. Tylko pytanie, o ile przy testowaniu Zapisu sekwencyjnego, próbki testowe 5GB są spoko, o tyle w przypadku 4K, są raczej głupotą(bo nie odzwierciedlają rzeczywistego wykorzystania)
I pytanie o inne testy rzeczywiste było całkiem serio. Niedługo zmieniamy platformę i część testów. Z uruchamianiem aplikacji jest problem taki, że większość z nich zależy bardziej od CPU niż SSD i różnice są pomijalne. Z wielozadaniowością można zrobić tak jak pure czyli źle, albo dobrze czyli jeszcze nie wiem jak
Jezus jak to kole w oczy... Chyba se je wydłubię...
Takie są zasady odmiany skrótowców pisanych wyłącznie wielkimi literami. Druga opcja to Adaty. Można od biedy pisać też kogo, czego: ADATA, ale to trochę brzmi jak ulotka reklamowa. W każdym razie na pewno nie ADATY.
Polecam poczytać inne testy - chyba prawie dowolnego innego portalu - w których sytuacji testowych jest więcej i może ocenić jak w jego użytkowaniu się sprawdzi.
Bo w przypadku tego jak ja, oraz sporo innych osób użytkuje SSD (więc trzyma na nich dane względnie stałe (te same najcześniej używane gry, programy, system, etc ) - tutaj w realnych testach tego nie widać prawie wcale...
Tzn jakie testy rzeczywiste sugerujesz? Test czego? Odczytu? Są. Uruchamiania programów/systemu? Są. Instalacji oprogramowania? Też są. Testu 'przechowywania stałych danych' jakoś sobie nie umiem wyobrazić, osobiście wolałbym przechowywać na HDD, najlepiej w sejfie
Uruchamianie Aplikacji. Jednej. JEDNEJ. Jak zaczniecie testować karty graficzne tak samo, w jednej grze, to będzie już po zabawie
Bo każdy typ oprogramowania wykorzystuje dysk dokładnie tak samo. Nie, różnice są ogromne.
Jakiekolwiek wielozadaniowości.
Poza tym, mam duży dysonans poznawczy widząc przy podobnych scenariuszach testowych zupełnie inne wyniki w tej recenzji niż w innych tego modelu
Polecam zamiast odbijać od razu piłeczkę, zerknąć na konkurencję, czym się różnimy i poprawić, a nie walczyć z czytelnikami.
PS. I jeszcze jedna drobna uwaga, tak poza recenzją. Wersje 512GB dysków na SATA w zasadzie nie zyskują w stosunku do wersji 256GB. W przypadku dysków M2 PCI-E, różnicę w max odczytach są spore, często mają też większe cache co wpływa na wydajność. Więc modelu 512GB nie można oceniać równocześnie z 256GB(co do kolegi wyżej rezygnującego z zakupu).
Polecam poczytać inne testy - chyba prawie dowolnego innego portalu - w których sytuacji testowych jest więcej i może ocenić jak w jego użytkowaniu się sprawdzi.
Bo w przypadku tego jak ja, oraz sporo innych osób użytkuje SSD (więc trzyma na nich dane względnie stałe (te same najcześniej używane gry, programy, system, etc ) - tutaj w realnych testach tego nie widać prawie wcale...
Tzn jakie testy rzeczywiste sugerujesz? Test czego? Odczytu? Są. Uruchamiania programów/systemu? Są. Instalacji oprogramowania? Też są. Testu 'przechowywania stałych danych' jakoś sobie nie umiem wyobrazić, osobiście wolałbym przechowywać na HDD, najlepiej w sejfie