Cóż, Redakcja nie popisała się elastycznością myślenia. Skoro wiedzieliście, że aby PlexTurbo mogło rozwinąć skrzydła potrzebuje więcej RAM-u, to do testu mogliście zrobić aneks, w którym byłoby tego RAM-u dużo więcej. A tak, to główny atut tego dysku został ośmieszony.
P.S. PlexTurbo, to nie PrimoCache - może już od 16 GB byłby korzystny efekt?
Test do uzupełnienia.
Nawet jak dasz 64GB ram-u to i tak będzie przeszkadzać, bo to zależne jest od źródła i tego co się robi. Równie dobrze lab mógł dać 4GB...
...
Cóż, Redakcja nie popisała się elastycznością myślenia. Skoro wiedzieliście, że aby PlexTurbo mogło rozwinąć skrzydła potrzebuje więcej RAM-u, to do testu mogliście zrobić aneks, w którym byłoby tego RAM-u dużo więcej. A tak, to główny atut tego dysku został ośmieszony.
P.S. PlexTurbo, to nie PrimoCache - może już od 16 GB byłby korzystny efekt?
Test do uzupełnienia.
Nawet jak dasz 64GB ram-u to i tak będzie przeszkadzać, bo to zależne jest od źródła i tego co się robi. Równie dobrze lab mógł dać 4GB...
Idea była taka by pokazać co wydajniejsze. Bo mechanizm mógł pomagać gdy za mało RAM-u, a przeszkadza.
@up
No, ale nie trzeba nizszyć dysku. Dobre dyski, a takie głównie są testowane mają spory zapas komórek. Wystarczy ogarnąć kiedy dysk zacznie relokować . Przypuśćmy przerywany test gdy 200 sektorów uległo relokacji. Wciąż powinno Ci zostać z 50% dysku do zapisania...
... przecież pclab dużo 'czyta' danych, nie jest tego aż tak dużo.
Prawda jest taka, że u nas w PL jest bardzo mało sampli. Większość firm ma maksymalnie 3-4 nośniki, a zdarzają się takie, które mają po jednej sztuce z jednej pojemności i nie pozwolą nam wtedy 'zabić' ich SSD dla publiki...
A jak już dostajemy SSD na stałe do redakcji to naprawdę wolimy go wykorzystać jako nośnik do platform testowych niż zabijać zapisami, bo dzisiaj gry i programy rozrastają się w takim tempie, że moja platforma do testów kart graficznych to już ~500-600 GB danych, a system Radka do testów CPU zajmuje prawie 1 TB i każdy SSD jest na wagę złota.
Ale mowa o czasie kiedy dysk zacznie relokować sektory/sypnąć błędami czyli dysk cały czas jest gotowy do użycia. Miałem parę dysków SSD i sporo z nich zaczęło się sypać co nie znaczyło, że w jakikolwiek sposób było to zauważalne.
Nie wywierałbym presji gdyby dysk był do wyrzucenia. Nawet taki dysk jeśli dostanie kolejna redakcja, to prawdopodobnie niczego nie zauważy.
Spójrz na to tak - jeśli nie 'oni' mają robić testy zniszczenie to kto? Przez 'oni' mam na myśli portale uważane za opiniotwórcze. Producenci wewnętrznie nie takie rzeczy robią więc ci rzetelni wręcz powinni być zachwyceni jeśli jakaś 'niezależna redakcja' pokaże faktyczną wyższość ich produktu nad konkurencją również w aspekcie trwałości. Z drugiej strony to śmiech na sali, żeby poważna redakcja nie mogła sobie z własnego budżetu kupić SSD na potrzeby platform testowych. Uważam też, że po części takie tłumaczenie redakcji wynika z lenistwa (jeśli inni tego nie robią to po co mamy się orobić, odwalmy standardowe testy i po kłopocie - czytelników w PL i tak nie przybędzie bo potencjał został wyczerpany dawno temu).
Cóż, Redakcja nie popisała się elastycznością myślenia. Skoro wiedzieliście, że aby PlexTurbo mogło rozwinąć skrzydła potrzebuje więcej RAM-u, to do testu mogliście zrobić aneks, w którym byłoby tego RAM-u dużo więcej. A tak, to główny atut tego dysku został ośmieszony.
P.S. PlexTurbo, to nie PrimoCache - może już od 16 GB byłby korzystny efekt?
Test do uzupełnienia.
Rozumienie tekstu czytanego jednak boli..... te 100 zł to nie dla +4% wydajności tylko dla 10 LAT GWARANCJI!
Mało tego gwarancji, dysk nie zużyje się tak szybko, bo za tym stoi technologia bodaj 3xnm , a konkurencja wręcz odwrotnie zmniejszając proces zmniejsza trwałość....
Dysków praktycznie nikt nie testuje na trwałość, więc to olewają wszyscy...
Więc jakby nie patrzeć 850-tka samsunga równie dobrze mogła być zarezerwowana dla segmentu PRO/serwerów i kosztować 4x.
Jakby nie patrzeć jest sporo ludzi, którzy generują kilobajty dziennie danych+OS, więc dysk niszczy się tyle co nic. Im nie trzeba czegoś takiego jak 850 i takie dyski jak ten, a nawet gorsze maja sens.
Może prosty test zapisywania danych nie do skompresowania i jak dysk zacznie relokować sektory=koniec testu. To da dużo dużo DUŻO więcej niż wykres z latami gwarancji.
Prawda jest taka, że u nas w PL jest bardzo mało sampli. Większość firm ma maksymalnie 3-4 nośniki, a zdarzają się takie, które mają po jednej sztuce z jednej pojemności i nie pozwolą nam wtedy 'zabić' ich SSD dla publiki...
A jak już dostajemy SSD na stałe do redakcji to naprawdę wolimy go wykorzystać jako nośnik do platform testowych niż zabijać zapisami, bo dzisiaj gry i programy rozrastają się w takim tempie, że moja platforma do testów kart graficznych to już ~500-600 GB danych, a system Radka do testów CPU zajmuje prawie 1 TB i każdy SSD jest na wagę złota.
Ale mowa o czasie kiedy dysk zacznie relokować sektory/sypnąć błędami czyli dysk cały czas jest gotowy do użycia. Miałem parę dysków SSD i sporo z nich zaczęło się sypać co nie znaczyło, że w jakikolwiek sposób było to zauważalne.
Nie wywierałbym presji gdyby dysk był do wyrzucenia. Nawet taki dysk jeśli dostanie kolejna redakcja, to prawdopodobnie niczego nie zauważy.
Też sobie ustawiłem zapis opóźniony na 60 sekund, ale przydzielona pamięć to tylko 256mb - chodziło mi głównie o zmniejszenie do minimum migania co chwilę diodki dysku powodowanego przez windę i różne programy zapisujące do logów itp; dzięki takiemu ustawieniu podczas bezczynności dysk prawie się nie odzywa. Ale 24 giga ramu to czystej wody marnotrawstwo Winda przecież i tak sobie keszuje sama większość rzeczy w pamięci, a tą zużytą przez primocache wolałbym wykorzystać na ramdysk (co też robię). No chyba że ma się w kompie dziesiątki gigabajtów, to tak. @chaostheory - w twoim kompie ile jest? 64gb, dobrze widzę? Po wymianie platformy z sandybridge sam mam ochotę na minimum 32. 16 to trochę mało jednak
Do stacjonarek nie trzeba czekać na M.2 jest przecież PCI-E. Problem w tym, że aby wypełnić transfer PCI-E 3.0 x16, to trzeba dysku wyposażonego w takie kontrolery, że jego cena determinuje jego użycie wyłącznie do celów profesjonalnych/entuzjastycznych.
Jakich zastosowań?
Kto ci takich bajek naopowiadał. Idąc tym tokiem to wystarczyłoby nam HDD.
Oczywiscie ze rozchodzi się o kontroler.
Np. Samsung sam ogarnia temat SSD to niech zadbają o porządny M.2.
SATAExpress to niewypał!
Tutaj powinna zajść zmiana jak z IDE/ATA na SATA. A nie tworzyć pewnego rodzaju zapchaj-dziurę (SATA w obecnej postaci nie ma przyszłości - pisali o tym na AnandTech, ładnie podpierając sie realnymi danymi).
Ładnie , Ładnie szkoda że nie wstrzymałem się z zakupem drugiego dysku SSD przez te 2 miesiące. Wydajność i cena zaskoczyła pewnie nawet Samsunga - może w końcu obniżą ceny.
Trzeba przywyknac, ze premira goni premiere. Zanim pojawil sie marketingowy belkot, na rynek wypuszczano produkty z finalna technologia. Nastepcy byli rzeczywistymi nastepcami. Teraz pojawia sie marketing, polprodukt, marketing + popprodukt, marketing o nowym produkcie gdzie stary(miesieczny) jeszcze nie jest do konca zoptymalizowany i cisza.
Pozniej to juz walki gimnazjalistow na super argumenty o produktach, kilka tematow po forach o problemach i spogladanie w strone kolejnych papierowych premier. I tak w kolko.
Jak sie wzielo, to nie ma co zalowac. Cieszyc sie i korzystac z zakupu
ps. cen nikt nie uwolni. Na SSD-ki jest kartel. Z koryta pasza dla korporacji az chlupie.
Na jakie podium?
Z testu wyraźnie wynika że obecne zmiany i udziwnienia dla SATA 3 są zbędne. bariera już dawno została osiągnięta.
Czas najwyższy poważnie podejść do dysków M.2 a nie to co obecnie oferuje firma. To tylko namiastka możliwości.
Do stacjonarek nie trzeba czekać na M.2 jest przecież PCI-E. Problem w tym, że aby wypełnić transfer PCI-E 3.0 x16, to trzeba dysku wyposażonego w takie kontrolery, że jego cena determinuje jego użycie wyłącznie do celów profesjonalnych/entuzjastycznych.
Dajcie mu (MarKol4) ze 150 plusów, żeby redakcja to zauważyła
Za takie profesjonalne testy (część opisana wyżej) nawet mógłbym płacić jakiś drobny miesięczny hajs, bo w necie praktycznie tego nie ma
Ten kto kupuje dysk twardy do zastosowań profesjonalnych, nie patrzy na gwarancje tylko na reliability. Samsung jest na 40nm kościach, Plextor na 19nm tego się nie da przeskoczyć. Aktualnie dla pracy profesjonalnej tylko Samsung 850pro ze swoimi koścmi V-NAND.
Może prosty test zapisywania danych nie do skompresowania i jak dysk zacznie relokować sektory=koniec testu. To da dużo dużo DUŻO więcej niż wykres z latami gwarancji.
Prawda jest taka, że u nas w PL jest bardzo mało sampli. Większość firm ma maksymalnie 3-4 nośniki, a zdarzają się takie, które mają po jednej sztuce z jednej pojemności i nie pozwolą nam wtedy 'zabić' ich SSD dla publiki...
A jak już dostajemy SSD na stałe do redakcji to naprawdę wolimy go wykorzystać jako nośnik do platform testowych niż zabijać zapisami, bo dzisiaj gry i programy rozrastają się w takim tempie, że moja platforma do testów kart graficznych to już ~500-600 GB danych, a system Radka do testów CPU zajmuje prawie 1 TB i każdy SSD jest na wagę złota.
No teraz to dołożyłeś do pieca. Największy portal w PL w temacie. Szwajcarski właściciel. I takie dziadostwo odstawiacie... żeby nie było środków na test konsumencki z prawdziwego zdarzenia? Już nawet nie mówię o przełożeniu na producentów bo Ci od dawna powinni jeść wam z ręki.
U nas w kraju chyba nikt nie testuje SSD w sensowny sposob. Kilka malo znaczacych slupkow, ktore nie mowia wlasciwie nic. Ostatnio mialem potrzebe wybrac dysk pod male srodowisko do wirtualizacji na ESXie. Niestety wszystkie krajowe testy sa do kitu i nie moglem znalezc w nich wlasciwie zadnych przydatnych informacji.
U nas na slupkach bryluje cos pokroju Samsung SSD 840 Pro (tez taki jeden mam zeby nie bylo) czy Evo - ale sa to dyski dobre przede wszystkim w slupkach.
Brakuje testow z cyklu:
+ test w tzw. 'steady state' z roznymi proporcjami zapisu/odczytu oraz ich wielkoscia, gdzie widac jak dysk radzi sobie pod obciazeniem i jak porzadkuje dane na biezaco (a przede wszystkim jak na leb leci wydajnosc wtedy kiedy najbardziej jej potrzeba, jakie sa dropy - w niektorych czasem i sekundowe!!);
+ odpornosc na zanik zasilania - czyli 'power loss protection' (niestety te brylujace dyski duzo cacheuja i moga slabo z tym radzic - a co mi po dysku, ktory moze uszkodzic dane?);
+ praca bez mozliwosci wykonania Trim przez system (dysk wsadzony do macierzy czy dzialajacy wlasnie pod ESXem nie wykonuje tej operacji);
+ trwalosc zapisu przy znacznym stopniu zuzycia - czyli po okreslonym zuzyciu dysku odlozenie na jakis czas na polke i podlaczenie + weryfikacja danych + dalsze testy.
+ zywotnosc dysku - czyli zapisywanie az do upadku urzadzenia;
+ testy wydajnosciowe przy znacznym zapelnieniu;
Mniej wiecej takie cechy dysku byly dla mnie interesujace jak poszukiwalem dysku. Niestety prozno szukac takich testow na naszych portalach - a szkoda. Znalazlem troche odpowiedzi w roznych miejscach w necie - ale caly czas nie moge pojac dlaczego np. PCLab nie uwzglednia takich czynnikow jak podalem i ich nie testuje.
Bo to czy dysk wyciska 430 czy 500 MB ma znikome znaczenie w porownaniu do kwestii, ktore poruszylem powyzej. Brak uwzglednienia tych czynnikow sprawia, ze pierwsze miejsca w rankingach zajmuja dyski, ktore wcale na to nie zasluguja.
Wiem, ze czesc z tych testow moze trwac dlugo - moze i pare miesiecy. Ale coz z tego - czesc rzeczy mozna przetestowac szybko a reszte (glownie chodzi o zuzycie i trwalosc zapisu) systematycznie dodawac w miare zberania wynikow. I tak wiekszosc userow nie kupuje nowinek tylko czeka - w sam raz po takim kilkumiesiecznym testowaniu jest material do podjecia decyzji.
P.S. PlexTurbo, to nie PrimoCache - może już od 16 GB byłby korzystny efekt?
Test do uzupełnienia.
Nawet jak dasz 64GB ram-u to i tak będzie przeszkadzać, bo to zależne jest od źródła i tego co się robi. Równie dobrze lab mógł dać 4GB...
...
To zdanie jest absurdalne.
P.S. PlexTurbo, to nie PrimoCache - może już od 16 GB byłby korzystny efekt?
Test do uzupełnienia.
Nawet jak dasz 64GB ram-u to i tak będzie przeszkadzać, bo to zależne jest od źródła i tego co się robi. Równie dobrze lab mógł dać 4GB...
Idea była taka by pokazać co wydajniejsze. Bo mechanizm mógł pomagać gdy za mało RAM-u, a przeszkadza.
No, ale nie trzeba nizszyć dysku. Dobre dyski, a takie głównie są testowane mają spory zapas komórek. Wystarczy ogarnąć kiedy dysk zacznie relokować . Przypuśćmy przerywany test gdy 200 sektorów uległo relokacji. Wciąż powinno Ci zostać z 50% dysku do zapisania...
... przecież pclab dużo 'czyta' danych, nie jest tego aż tak dużo.
Prawda jest taka, że u nas w PL jest bardzo mało sampli. Większość firm ma maksymalnie 3-4 nośniki, a zdarzają się takie, które mają po jednej sztuce z jednej pojemności i nie pozwolą nam wtedy 'zabić' ich SSD dla publiki...
A jak już dostajemy SSD na stałe do redakcji to naprawdę wolimy go wykorzystać jako nośnik do platform testowych niż zabijać zapisami, bo dzisiaj gry i programy rozrastają się w takim tempie, że moja platforma do testów kart graficznych to już ~500-600 GB danych, a system Radka do testów CPU zajmuje prawie 1 TB i każdy SSD jest na wagę złota.
Ale mowa o czasie kiedy dysk zacznie relokować sektory/sypnąć błędami czyli dysk cały czas jest gotowy do użycia. Miałem parę dysków SSD i sporo z nich zaczęło się sypać co nie znaczyło, że w jakikolwiek sposób było to zauważalne.
Nie wywierałbym presji gdyby dysk był do wyrzucenia. Nawet taki dysk jeśli dostanie kolejna redakcja, to prawdopodobnie niczego nie zauważy.
Spójrz na to tak - jeśli nie 'oni' mają robić testy zniszczenie to kto? Przez 'oni' mam na myśli portale uważane za opiniotwórcze. Producenci wewnętrznie nie takie rzeczy robią więc ci rzetelni wręcz powinni być zachwyceni jeśli jakaś 'niezależna redakcja' pokaże faktyczną wyższość ich produktu nad konkurencją również w aspekcie trwałości. Z drugiej strony to śmiech na sali, żeby poważna redakcja nie mogła sobie z własnego budżetu kupić SSD na potrzeby platform testowych. Uważam też, że po części takie tłumaczenie redakcji wynika z lenistwa (jeśli inni tego nie robią to po co mamy się orobić, odwalmy standardowe testy i po kłopocie - czytelników w PL i tak nie przybędzie bo potencjał został wyczerpany dawno temu).
P.S. PlexTurbo, to nie PrimoCache - może już od 16 GB byłby korzystny efekt?
Test do uzupełnienia.
Rozumienie tekstu czytanego jednak boli..... te 100 zł to nie dla +4% wydajności tylko dla 10 LAT GWARANCJI!
Dysków praktycznie nikt nie testuje na trwałość, więc to olewają wszyscy...
Więc jakby nie patrzeć 850-tka samsunga równie dobrze mogła być zarezerwowana dla segmentu PRO/serwerów i kosztować 4x.
Jakby nie patrzeć jest sporo ludzi, którzy generują kilobajty dziennie danych+OS, więc dysk niszczy się tyle co nic. Im nie trzeba czegoś takiego jak 850 i takie dyski jak ten, a nawet gorsze maja sens.
Może prosty test zapisywania danych nie do skompresowania i jak dysk zacznie relokować sektory=koniec testu. To da dużo dużo DUŻO więcej niż wykres z latami gwarancji.
Prawda jest taka, że u nas w PL jest bardzo mało sampli. Większość firm ma maksymalnie 3-4 nośniki, a zdarzają się takie, które mają po jednej sztuce z jednej pojemności i nie pozwolą nam wtedy 'zabić' ich SSD dla publiki...
A jak już dostajemy SSD na stałe do redakcji to naprawdę wolimy go wykorzystać jako nośnik do platform testowych niż zabijać zapisami, bo dzisiaj gry i programy rozrastają się w takim tempie, że moja platforma do testów kart graficznych to już ~500-600 GB danych, a system Radka do testów CPU zajmuje prawie 1 TB i każdy SSD jest na wagę złota.
Ale mowa o czasie kiedy dysk zacznie relokować sektory/sypnąć błędami czyli dysk cały czas jest gotowy do użycia. Miałem parę dysków SSD i sporo z nich zaczęło się sypać co nie znaczyło, że w jakikolwiek sposób było to zauważalne.
Nie wywierałbym presji gdyby dysk był do wyrzucenia. Nawet taki dysk jeśli dostanie kolejna redakcja, to prawdopodobnie niczego nie zauważy.
Mój PrimoCache zaciąga juz 60% danych z RAM-u
Też sobie ustawiłem zapis opóźniony na 60 sekund, ale przydzielona pamięć to tylko 256mb - chodziło mi głównie o zmniejszenie do minimum migania co chwilę diodki dysku powodowanego przez windę i różne programy zapisujące do logów itp; dzięki takiemu ustawieniu podczas bezczynności dysk prawie się nie odzywa.
Jakich zastosowań?
Kto ci takich bajek naopowiadał. Idąc tym tokiem to wystarczyłoby nam HDD.
Oczywiscie ze rozchodzi się o kontroler.
Np. Samsung sam ogarnia temat SSD to niech zadbają o porządny M.2.
SATAExpress to niewypał!
Tutaj powinna zajść zmiana jak z IDE/ATA na SATA. A nie tworzyć pewnego rodzaju zapchaj-dziurę (SATA w obecnej postaci nie ma przyszłości - pisali o tym na AnandTech, ładnie podpierając sie realnymi danymi).
Uzyski 5% (rzeczywiste, nie benchmarkowe) nie mają znaczenia dla komfortu pracy.
Trzeba przywyknac, ze premira goni premiere. Zanim pojawil sie marketingowy belkot, na rynek wypuszczano produkty z finalna technologia. Nastepcy byli rzeczywistymi nastepcami. Teraz pojawia sie marketing, polprodukt, marketing + popprodukt, marketing o nowym produkcie gdzie stary(miesieczny) jeszcze nie jest do konca zoptymalizowany i cisza.
Pozniej to juz walki gimnazjalistow na super argumenty o produktach, kilka tematow po forach o problemach i spogladanie w strone kolejnych papierowych premier. I tak w kolko.
Jak sie wzielo, to nie ma co zalowac. Cieszyc sie i korzystac z zakupu
ps. cen nikt nie uwolni. Na SSD-ki jest kartel. Z koryta pasza dla korporacji az chlupie.
Z testu wyraźnie wynika że obecne zmiany i udziwnienia dla SATA 3 są zbędne. bariera już dawno została osiągnięta.
Czas najwyższy poważnie podejść do dysków M.2 a nie to co obecnie oferuje firma. To tylko namiastka możliwości.
Do stacjonarek nie trzeba czekać na M.2 jest przecież PCI-E. Problem w tym, że aby wypełnić transfer PCI-E 3.0 x16, to trzeba dysku wyposażonego w takie kontrolery, że jego cena determinuje jego użycie wyłącznie do celów profesjonalnych/entuzjastycznych.
Z testu wyraźnie wynika że obecne zmiany i udziwnienia dla SATA 3 są zbędne. bariera już dawno została osiągnięta.
Czas najwyższy poważnie podejść do dysków M.2 a nie to co obecnie oferuje firma. To tylko namiastka możliwości.
Za takie profesjonalne testy (część opisana wyżej) nawet mógłbym płacić jakiś drobny miesięczny hajs, bo w necie praktycznie tego nie ma
Może prosty test zapisywania danych nie do skompresowania i jak dysk zacznie relokować sektory=koniec testu. To da dużo dużo DUŻO więcej niż wykres z latami gwarancji.
Prawda jest taka, że u nas w PL jest bardzo mało sampli. Większość firm ma maksymalnie 3-4 nośniki, a zdarzają się takie, które mają po jednej sztuce z jednej pojemności i nie pozwolą nam wtedy 'zabić' ich SSD dla publiki...
A jak już dostajemy SSD na stałe do redakcji to naprawdę wolimy go wykorzystać jako nośnik do platform testowych niż zabijać zapisami, bo dzisiaj gry i programy rozrastają się w takim tempie, że moja platforma do testów kart graficznych to już ~500-600 GB danych, a system Radka do testów CPU zajmuje prawie 1 TB i każdy SSD jest na wagę złota.
No teraz to dołożyłeś do pieca. Największy portal w PL w temacie. Szwajcarski właściciel. I takie dziadostwo odstawiacie... żeby nie było środków na test konsumencki z prawdziwego zdarzenia? Już nawet nie mówię o przełożeniu na producentów bo Ci od dawna powinni jeść wam z ręki.
U nas na slupkach bryluje cos pokroju Samsung SSD 840 Pro (tez taki jeden mam zeby nie bylo) czy Evo - ale sa to dyski dobre przede wszystkim w slupkach.
Brakuje testow z cyklu:
+ test w tzw. 'steady state' z roznymi proporcjami zapisu/odczytu oraz ich wielkoscia, gdzie widac jak dysk radzi sobie pod obciazeniem i jak porzadkuje dane na biezaco (a przede wszystkim jak na leb leci wydajnosc wtedy kiedy najbardziej jej potrzeba, jakie sa dropy - w niektorych czasem i sekundowe!!);
+ odpornosc na zanik zasilania - czyli 'power loss protection' (niestety te brylujace dyski duzo cacheuja i moga slabo z tym radzic - a co mi po dysku, ktory moze uszkodzic dane?);
+ praca bez mozliwosci wykonania Trim przez system (dysk wsadzony do macierzy czy dzialajacy wlasnie pod ESXem nie wykonuje tej operacji);
+ trwalosc zapisu przy znacznym stopniu zuzycia - czyli po okreslonym zuzyciu dysku odlozenie na jakis czas na polke i podlaczenie + weryfikacja danych + dalsze testy.
+ zywotnosc dysku - czyli zapisywanie az do upadku urzadzenia;
+ testy wydajnosciowe przy znacznym zapelnieniu;
Mniej wiecej takie cechy dysku byly dla mnie interesujace jak poszukiwalem dysku. Niestety prozno szukac takich testow na naszych portalach - a szkoda. Znalazlem troche odpowiedzi w roznych miejscach w necie - ale caly czas nie moge pojac dlaczego np. PCLab nie uwzglednia takich czynnikow jak podalem i ich nie testuje.
Bo to czy dysk wyciska 430 czy 500 MB ma znikome znaczenie w porownaniu do kwestii, ktore poruszylem powyzej. Brak uwzglednienia tych czynnikow sprawia, ze pierwsze miejsca w rankingach zajmuja dyski, ktore wcale na to nie zasluguja.
Wiem, ze czesc z tych testow moze trwac dlugo - moze i pare miesiecy. Ale coz z tego - czesc rzeczy mozna przetestowac szybko a reszte (glownie chodzi o zuzycie i trwalosc zapisu) systematycznie dodawac w miare zberania wynikow. I tak wiekszosc userow nie kupuje nowinek tylko czeka - w sam raz po takim kilkumiesiecznym testowaniu jest material do podjecia decyzji.