Ja z ciekawości zapytam o metodykę pomiarową testu uruchamiania Windowsa 10.
Na przykład od momentu wciśnięcia przycisku power do pojawienia się pulpitu zazwyczaj mija znacznie więcej niż 5 sekund nawet na najszybszych dyskach.
GeForce 2 MX400 to akurat nie takie złe skojarzenie Pierwszego Far Cry na tym ustrojstwie przeszedłem
GF MX400 - jedyna karta która wytrzymała xx przepięć serwisowanych płyt głównych i nadal żyje.
Co do MLC vs TLC - ja posiadam Samsunga PM810 i Kingstona V100.
Samsung jest niestety katowany w netbooku 10' z 1GB RAM, dysk często służy jako zamiennik RAM i wiem, że któregoś dnia padnie. 2 lata minęły i jeszcze działa sprawnie, wcześniej kilka lat robił jako cache dla systemu.
Czy warto się tak 'spuszczać nad TLC, skoro się używa netka do pracy i do neta?
Moim zdaniem nie warto. Przy cenie 150zł za nowy dysk 120GB - szkoda nawet tracić czas by o tym myśleć. Backup na inne dyski, Ghost. A czy dysk padnie dzis czy jutro - co za różnica. Kupię nowy. Cruciala MX500 albo GoodRam Iridium.
Sata3 już nie ma sensu i tylko na magazyn się nadaje ale jak na M.2 ceny pójdą jeszcze w dół to za stare rozwiązanie będzie się przepłacać.Jeżeli rzeczywiście wydadzą Sata4 a patrząc na wzrosty jakie to dokonywało to samo Sata 4 byłoby na wstępie przestarzałe bo 1.2Gbps nie zachwyca teraz więc musieli by zrobić większy skok w przepustowości tego łącza.Kolejny mankament używania Sata3 to ograniczenie ilości IOPS.Nawet jeżeli Sata4 się pojawi to czy przeskoczy tą maksymalną ilość IOPS jakie może wykonać ten standard.
Tak czy inaczej najlepiej kupować SSD opartym na połączeniu M.2 nawet jeżeli skorzysta z PCI EX 3.0 x2.
Drugą sprawą jeżeli rozsądnie podchodzimy do zakupu naszego 'DYSKU' i także składamy nową platformę to przemyślał bym czy warto brać coś co za rok może być przestarzałe i kierować się zasadą logiki.Wszystko i tak rozbija się o kwotę jaką chcemy zainwestować w nową platformę a przecież zbliżamy się do kolejnego przeskoku w wyglądzie nowych gier i zadajcie sobie pytanie czy wasze przyszłe czterowątkowce czy sześciowątkowce przetrwają próbę czasu tak jak chociażby 8/12/16wątkowce.
Ja nie raz jak rozmawiam z ludźmi chcą kupić CPU w cenie do 600złotych i ma starczyć im na lata.Takie coś nie może się udać właśnie teraz bo ci co kupowali rok temu to jeszcze ten jeden rok jakoś wytrzymają ale gdy brałeś sprzęt na 5lat to sam jesteś sobie winny bo każdy ma te dane dostępne od dawna na temat zbliżających się nowych litografii na przykład 10nm i 7nm w przyszłym roku.
GeForce 2 MX400 to akurat nie takie złe skojarzenie Pierwszego Far Cry na tym ustrojstwie przeszedłem
No to musiałeś mieć samozaparcie. Ja na GF4 MX440 64/64 nir byłem w stanie w to grać na 1024x768 w najmniejszych.
Andree @ 2018.02.23 09:28
Ja nie obawiam się wyczerpania możliwości zapisu komórek TLC, tylko tego że jeśli zostawię komputer wyłączony przez długi czas (np. pół roku albo rok), to stracę wszystkie dane. Przecież komórki pamięci Flash powoli tracą zgromadzony ładunek, a w przypadku gdy jest 8 rozróżnialnych poziomów naładowania komórki TLC wcale nie trzeba dużej zmiany poziomu, żeby zmienić dane.
Andree, ale nikt tego nie rozumie, jak widać na PCLabie...
Czy na pewno to dotyczy tylko odłączonych dysków? Jak się tak wczytać w artykuły dostępne w necie, to sam kontroler potrafi emitować takie źródło elektromagnetyczne, że jest wstanie rpzypadkowo poprzestawiać stany niektórych komórek. Teoria, ale... w przypadku MLC tego nie ma.
IMHO na system jest OK, nawet i TLC, ale na przechowywanie danych, to... zalezy jakie dane. Jak film jakiś, to nie szkoda, ale jak zdjęcia dzieci sprzed 10 lat, to wolałbym jednak trzymać na talerzowcu.
W przypadku premiery APU pojawiła się informacja czy były zainstalowane łaty od Meltdown i Spectre. Czy podczas testów tego dysku też były one zainstalowane, bo nie znalazłmm takiej informacji w artykule?
Nie ma, wszystkie testy robimy na systemie odlaczonym od sieci. Takze od jakiegos czasu zadnych aktualizacji, lacznie z tymi do spectre nie wgrywalismy.
Dziękuję za wyjaśnienie.
Wydaje mi się jednak, że dobrze by było w szczególności przy testowaniu dysków i sprzętu sieciowego, zamieszczać taką informację w artykule, gdyż jeśli te łaty są zainstalowane I aktywne, to biorąc pod uwagę jak obciążają one komunikację z kernelem, cała platforma robi się bottleneckiem do tych testów - mamy wtedy sytuację podobną do tej, gdy byśmy testowali CPU w grach przy użyciu karty GTX 1050 w rozdzielczości FullHD (gdzie wpadamy na GPU bottleneck i wyniki testów nie odzwierciedlają wszystkich różnic).
Na benchmarku jest bardzo ciekawy test tych dysków, mają ciekawą procedurę testu pod dłuższym obciążeniem i MX500 wypadają im bardzo dobrze, to dzięki tamtemu testowi zakupiłem MX500 500GB. Wasze testy potwierdzają dobrą wydajność tych dysków. Nie myśleliście o wprowadzeniu podobnej procedury?
Nie. Po pierwsze dlatego, ze nie mamy 36h na jeden test jednego nosnika (wykonanie go trzy razy tyle by zajelo). A po drugie dlatego, ze to zupelnie bez sensu. Nikt nie bedzie domowych, budzetowych nosnikow obciazal w 100% probkami 4k po 12h. One nie sa do tego. Juz test szyfrowania VeraCrypt pokazuje jak stabilnie nosniki utrzymuja transfer przy zapelnieniu ich od 0 do 100%. W praktyce nawet tak nie beda nigdy obciazone.
adam_M @ 2018.02.25 19:06
Mam pytanko odnośnie wersji 250 GB - przejrzałem ceneo i wychodzi na to , że MX500 jest najtańszym dyskiem w swojej klasie, to skąd w podsumowaniu wadą jest 'Kiepski stosunek pojemności do ceny'
Można było zrobić test dla 250GB przy 90% zapełnieniu. Taki dysk będzie częściej pracować w takich warunkach. Na 1TB było 200GB wolnego miejsca z 'czystymi komórkami'.
Zrobilem, roznice na tym samym poziomie. Wyglada na to ze to juz nie te czasy zeby kontrolery mialy problem ze spadkiem wydajnosci wraz z zapelnieniem. Troche za szybko zeby ten wniosek byl w 100% pewny, ale bede sprawdzal i mysle ze sie z czasem potwierdzi.
W przypadku premiery APU pojawiła się informacja czy były zainstalowane łaty od Meltdown i Spectre. Czy podczas testów tego dysku też były one zainstalowane, bo nie znalazłmm takiej informacji w artykule?
Nie ma, wszystkie testy robimy na systemie odlaczonym od sieci. Takze od jakiegos czasu zadnych aktualizacji, lacznie z tymi do spectre nie wgrywalismy.
Mam pytanko odnośnie wersji 250 GB - przejrzałem ceneo i wychodzi na to , że MX500 jest najtańszym dyskiem w swojej klasie, to skąd w podsumowaniu wadą jest 'Kiepski stosunek pojemności do ceny'
Pragnę tylko zwrócić uwagę Autora na jedną rzecz- mianowicie assembled in Mexico zdecydowanie nie wyklucza, że wszystkie komponenty pochodzą z ChRL (Szanghaju w tym konkretnych przypadku). Widocznie teraz taniej klepać te dyski w jedną całość w Meksyku i mieć największy rynek zbytu na elektronikę (poza samymi Chinami oczywiście) zaraz obok.
Koszty produkcji w Chinach mocno wzrosły. Minimalne pensje mają już wyższe niż w Meksyku a obecnie wzeli się za walkę z zanieczyszczeniem więc będą rosły koszty energii i wywozu odpadów. Natomiast dziwne, że w Meksyku a nie w Indiach, Bangladeszu czy Wietnamie.
A jakie to ma znacznie w fabrykach które są supernowoczesne, w pełni zautomatyzowane, produkują minimalną ilość odpadów, posiadają systemy pozyskiwania energii np. z ogniw fotowoltaicznych umieszczonych na dachach hal produkcyjnych co jest dzisiaj w zasadzie standardem w celu obniżenia kosztów. To nie są szwalnia zatrudniająca dziesiątki tysięcy osób tylko nowoczesny zakłady, do obsługi których wystarcza kilkadziesiąt osób i są to głównie wykształceni inżynierowie a nie tania siała robocza za kilka dolarów dziennie. Lokalizacja fabryk np. Meksyku jest spowodowana bardziej kosztami i czasem transportu z Azji niż redukcją kosztów samej działalności fabryki. Ciężarówki czy pociągi z Meksyku dostarczą produkt do USA w kilka dni a na transport z statkiem z Chin trzeba czekać kilka tygodni.
...
Zależy z jakich aplikacji korzystasz np. w Adobe Bridge czy Lightroom szybkość dysku ma znaczenie bo odczyt podglądu kilkuset plików będzie znacznie szybszy na NVMe.
Owszem. Ale to są rozwiązania jest dosyć profesjonalne/praca. Mówię o typowym konsumencie treści- internet, filmy, gry, muzyka
Bez przesady Lightroom to narzędzie dla fotografów nie koniecznie profesjonalistów. Wręcz przeciwnie większość użytkowników tego programu to hobbyści.
Trwałość MLC to zaleta, ale sposób w jaki większość użytkowników użytkuje dysk SSD powoduje że zbliżenie się do limitów wytrzymałości TLC zajmię dłuuugie lata.
Na forum ludzie często pytają, czy 8GB RAM im wystarczy, czy lepiej dokupić te 8GB i mieć 16GB. Kiedy jeszcze ceny nie były poronione, tłumaczyłem im to tak, że 8GB typowemu użytkownikowi starcza spokojnie, ale przy 16GB RAM zapominasz, że coś takiego jak pamięć operacyjna istnieje i może być problemem. Dla domowego użytkownika jest to luksus, ale warto (było, teraz już nie) w niego zainwestować.
W przypadku TLC i MLC jest podobnie. TLC wystarczy dla każdego, ale przy MLC nie zastanawiasz się, czy to wielkie archiwum, które przepakowujesz w te i wewte kilka razy może jednak lepiej by było obrabiać na HDD, bo zaraz będą terabajty lecieć. Sam tak kiedyś miałem, a potem przesiadłem się na MX550 i przestałem się zastanawiać nad czymkolwiek.
Ja mam MX200 i samsunga jakiegoś na MLC ...
Kupione nieco taniej niż te wynalazki i zapominam wszystkich wadach.
Na benchmarku jest bardzo ciekawy test tych dysków, mają ciekawą procedurę testu pod dłuższym obciążeniem i MX500 wypadają im bardzo dobrze, to dzięki tamtemu testowi zakupiłem MX500 500GB. Wasze testy potwierdzają dobrą wydajność tych dysków. Nie myśleliście o wprowadzeniu podobnej procedury?
O ile w komputerze/laptopie jest NVME PCIe to dyski SATA straciły już sens. Bo różnica cenowa minimalna a wydajnościowo dosyć duża.
Za to co do kwestii TLC a MLC:
Trwałość MLC to zaleta, ale sposób w jaki większość użytkowników użytkuje dysk SSD powoduje że zbliżenie się do limitów wytrzymałości TLC zajmię dłuuugie lata. Są konkretne osoby które potrzebują MLC, ale zwykle takie osoby są świadome tej potrzeby. Sugerowanie dorzucania xx złotych do MLC każdemu jest rzekłbym lekko fanatyczne.
Też tak myślę. Wydaje mi się że SSD TLC na SATA będą powoli przejmowały funkcje szybkiego magazynu, a na system/wymagające aplikacje będzie NVME.
Problem w tym, że większość kosztów SSD to pamięci. O ile nie pojawią jeszcze wolniejsze ale większe/tańsze systemy pamięci to ceny NVME będą zawsze porównywalne z SATA (dochodzi tylko dopłata za kontroler).
Dodatkowo, jakoś dzisiejsze systemy nie są w stanie wykorzystać transferów jakie proponują NVME. Zwykły użytkownik nie odczuje prawie różnicy posiadając jakby nie było kilka razy szybszy dysk. Ba nawet znacznie droższy Optane z jeszcze większą ilością operacji pazury pokazuje dopiero w profesjonalnych zastosowaniach.
Był już w PCLabie test pokazujący, że np. do Photoshopa lepiej mieć 64GB RAMu i HDD, niż mało RAMu i SSD.
To raczej bzdura. Robiłem porównanie 8GB i HDD, później 8GB i SSD i 16GB HDD i 16GB SSD.
'Lightroom Catalog' - bo to on wpływa na wydajność musi być na SSD. Różnica jest kolosalna i daje dużo lepszą responsywność w działaniu programu niż 16GB RAM i HDD.
Nie wiem jak PCLab testował, ale responsywność programu jest najbardziej istotna, a nie to jak długo trwa eksport czy import.
To będzie trzeci dysk SSD w moim kompie i drugi firmy Crucial.
Na przykład od momentu wciśnięcia przycisku power do pojawienia się pulpitu zazwyczaj mija znacznie więcej niż 5 sekund nawet na najszybszych dyskach.
GF MX400 - jedyna karta która wytrzymała xx przepięć serwisowanych płyt głównych i nadal żyje.
Co do MLC vs TLC - ja posiadam Samsunga PM810 i Kingstona V100.
Samsung jest niestety katowany w netbooku 10' z 1GB RAM, dysk często służy jako zamiennik RAM i wiem, że któregoś dnia padnie. 2 lata minęły i jeszcze działa sprawnie, wcześniej kilka lat robił jako cache dla systemu.
Czy warto się tak 'spuszczać nad TLC, skoro się używa netka do pracy i do neta?
Moim zdaniem nie warto. Przy cenie 150zł za nowy dysk 120GB - szkoda nawet tracić czas by o tym myśleć. Backup na inne dyski, Ghost. A czy dysk padnie dzis czy jutro - co za różnica. Kupię nowy. Cruciala MX500 albo GoodRam Iridium.
Tak czy inaczej najlepiej kupować SSD opartym na połączeniu M.2 nawet jeżeli skorzysta z PCI EX 3.0 x2.
Drugą sprawą jeżeli rozsądnie podchodzimy do zakupu naszego 'DYSKU' i także składamy nową platformę to przemyślał bym czy warto brać coś co za rok może być przestarzałe i kierować się zasadą logiki.Wszystko i tak rozbija się o kwotę jaką chcemy zainwestować w nową platformę a przecież zbliżamy się do kolejnego przeskoku w wyglądzie nowych gier i zadajcie sobie pytanie czy wasze przyszłe czterowątkowce czy sześciowątkowce przetrwają próbę czasu tak jak chociażby 8/12/16wątkowce.
Ja nie raz jak rozmawiam z ludźmi chcą kupić CPU w cenie do 600złotych i ma starczyć im na lata.Takie coś nie może się udać właśnie teraz bo ci co kupowali rok temu to jeszcze ten jeden rok jakoś wytrzymają ale gdy brałeś sprzęt na 5lat to sam jesteś sobie winny bo każdy ma te dane dostępne od dawna na temat zbliżających się nowych litografii na przykład 10nm i 7nm w przyszłym roku.
No to musiałeś mieć samozaparcie. Ja na GF4 MX440 64/64 nir byłem w stanie w to grać na 1024x768 w najmniejszych.
Andree, ale nikt tego nie rozumie, jak widać na PCLabie...
Czy na pewno to dotyczy tylko odłączonych dysków? Jak się tak wczytać w artykuły dostępne w necie, to sam kontroler potrafi emitować takie źródło elektromagnetyczne, że jest wstanie rpzypadkowo poprzestawiać stany niektórych komórek. Teoria, ale... w przypadku MLC tego nie ma.
IMHO na system jest OK, nawet i TLC, ale na przechowywanie danych, to... zalezy jakie dane. Jak film jakiś, to nie szkoda, ale jak zdjęcia dzieci sprzed 10 lat, to wolałbym jednak trzymać na talerzowcu.
ADATA Ultimate SU800 256 GB
Nie ma, wszystkie testy robimy na systemie odlaczonym od sieci. Takze od jakiegos czasu zadnych aktualizacji, lacznie z tymi do spectre nie wgrywalismy.
Dziękuję za wyjaśnienie.
Wydaje mi się jednak, że dobrze by było w szczególności przy testowaniu dysków i sprzętu sieciowego, zamieszczać taką informację w artykule, gdyż jeśli te łaty są zainstalowane I aktywne, to biorąc pod uwagę jak obciążają one komunikację z kernelem, cała platforma robi się bottleneckiem do tych testów - mamy wtedy sytuację podobną do tej, gdy byśmy testowali CPU w grach przy użyciu karty GTX 1050 w rozdzielczości FullHD (gdzie wpadamy na GPU bottleneck i wyniki testów nie odzwierciedlają wszystkich różnic).
Nie. Po pierwsze dlatego, ze nie mamy 36h na jeden test jednego nosnika (wykonanie go trzy razy tyle by zajelo). A po drugie dlatego, ze to zupelnie bez sensu. Nikt nie bedzie domowych, budzetowych nosnikow obciazal w 100% probkami 4k po 12h. One nie sa do tego. Juz test szyfrowania VeraCrypt pokazuje jak stabilnie nosniki utrzymuja transfer przy zapelnieniu ich od 0 do 100%. W praktyce nawet tak nie beda nigdy obciazone.
Dlatego:
https://pclab.pl/zdjecia/artykuly/wkoczyk/.../mx500/cena.png
Po prostu bardziej sie oplaca kupic nosniki o wiekszej pojemnosci.
Można było zrobić test dla 250GB przy 90% zapełnieniu. Taki dysk będzie częściej pracować w takich warunkach. Na 1TB było 200GB wolnego miejsca z 'czystymi komórkami'.
Zrobilem, roznice na tym samym poziomie. Wyglada na to ze to juz nie te czasy zeby kontrolery mialy problem ze spadkiem wydajnosci wraz z zapelnieniem. Troche za szybko zeby ten wniosek byl w 100% pewny, ale bede sprawdzal i mysle ze sie z czasem potwierdzi.
Nie ma, wszystkie testy robimy na systemie odlaczonym od sieci. Takze od jakiegos czasu zadnych aktualizacji, lacznie z tymi do spectre nie wgrywalismy.
Koszty produkcji w Chinach mocno wzrosły. Minimalne pensje mają już wyższe niż w Meksyku a obecnie wzeli się za walkę z zanieczyszczeniem więc będą rosły koszty energii i wywozu odpadów. Natomiast dziwne, że w Meksyku a nie w Indiach, Bangladeszu czy Wietnamie.
A jakie to ma znacznie w fabrykach które są supernowoczesne, w pełni zautomatyzowane, produkują minimalną ilość odpadów, posiadają systemy pozyskiwania energii np. z ogniw fotowoltaicznych umieszczonych na dachach hal produkcyjnych co jest dzisiaj w zasadzie standardem w celu obniżenia kosztów. To nie są szwalnia zatrudniająca dziesiątki tysięcy osób tylko nowoczesny zakłady, do obsługi których wystarcza kilkadziesiąt osób i są to głównie wykształceni inżynierowie a nie tania siała robocza za kilka dolarów dziennie. Lokalizacja fabryk np. Meksyku jest spowodowana bardziej kosztami i czasem transportu z Azji niż redukcją kosztów samej działalności fabryki. Ciężarówki czy pociągi z Meksyku dostarczą produkt do USA w kilka dni a na transport z statkiem z Chin trzeba czekać kilka tygodni.
Zależy z jakich aplikacji korzystasz np. w Adobe Bridge czy Lightroom szybkość dysku ma znaczenie bo odczyt podglądu kilkuset plików będzie znacznie szybszy na NVMe.
Owszem. Ale to są rozwiązania jest dosyć profesjonalne/praca. Mówię o typowym konsumencie treści- internet, filmy, gry, muzyka
Bez przesady Lightroom to narzędzie dla fotografów nie koniecznie profesjonalistów. Wręcz przeciwnie większość użytkowników tego programu to hobbyści.
Trwałość MLC to zaleta, ale sposób w jaki większość użytkowników użytkuje dysk SSD powoduje że zbliżenie się do limitów wytrzymałości TLC zajmię dłuuugie lata.
Na forum ludzie często pytają, czy 8GB RAM im wystarczy, czy lepiej dokupić te 8GB i mieć 16GB. Kiedy jeszcze ceny nie były poronione, tłumaczyłem im to tak, że 8GB typowemu użytkownikowi starcza spokojnie, ale przy 16GB RAM zapominasz, że coś takiego jak pamięć operacyjna istnieje i może być problemem. Dla domowego użytkownika jest to luksus, ale warto (było, teraz już nie) w niego zainwestować.
W przypadku TLC i MLC jest podobnie. TLC wystarczy dla każdego, ale przy MLC nie zastanawiasz się, czy to wielkie archiwum, które przepakowujesz w te i wewte kilka razy może jednak lepiej by było obrabiać na HDD, bo zaraz będą terabajty lecieć. Sam tak kiedyś miałem, a potem przesiadłem się na MX550 i przestałem się zastanawiać nad czymkolwiek.
Ja mam MX200 i samsunga jakiegoś na MLC ...
Kupione nieco taniej niż te wynalazki i zapominam wszystkich wadach.
Za to co do kwestii TLC a MLC:
Trwałość MLC to zaleta, ale sposób w jaki większość użytkowników użytkuje dysk SSD powoduje że zbliżenie się do limitów wytrzymałości TLC zajmię dłuuugie lata. Są konkretne osoby które potrzebują MLC, ale zwykle takie osoby są świadome tej potrzeby. Sugerowanie dorzucania xx złotych do MLC każdemu jest rzekłbym lekko fanatyczne.
Też tak myślę. Wydaje mi się że SSD TLC na SATA będą powoli przejmowały funkcje szybkiego magazynu, a na system/wymagające aplikacje będzie NVME.
Problem w tym, że większość kosztów SSD to pamięci. O ile nie pojawią jeszcze wolniejsze ale większe/tańsze systemy pamięci to ceny NVME będą zawsze porównywalne z SATA (dochodzi tylko dopłata za kontroler).
Dodatkowo, jakoś dzisiejsze systemy nie są w stanie wykorzystać transferów jakie proponują NVME. Zwykły użytkownik nie odczuje prawie różnicy posiadając jakby nie było kilka razy szybszy dysk. Ba nawet znacznie droższy Optane z jeszcze większą ilością operacji pazury pokazuje dopiero w profesjonalnych zastosowaniach.
'Lightroom Catalog' - bo to on wpływa na wydajność musi być na SSD. Różnica jest kolosalna i daje dużo lepszą responsywność w działaniu programu niż 16GB RAM i HDD.
Nie wiem jak PCLab testował, ale responsywność programu jest najbardziej istotna, a nie to jak długo trwa eksport czy import.