Wady
Wysoka cena w porównaniu z tradycyjnymi dyskami twardymi
Normalnie rozłożyło mnie to na łopatki...A Corsair pewnie jest w cenie talerzowca...
Przecież to jest wada wszystkich dysków SDD, już nie macie co wymyślac w podsumowaniu???
O wyglądzie Corsair nie będę się rozpisywał, oczywiście każdy właściciel nosi go w kieszeni jak komórke, a ewentualnie robi sobie z niego bryloczek do kluczy i niech dynda przy pasku od spodni.
Wszystko super a teraz skoro juz jest tyle modeli dostepnych na rynku moze zrobic test porownawczy Intel vs Corsair vs Kingston vs A-data vs reszta swiata i oczywiscie porownac ceny?juz idzie sie w tym pogubic heh.
Dokładnie. Dałem temat na forum i bardzo mnie ciekawi jakie było by najlepsze chłodzenie w cenie do 120 zł....
Taki test rozwiał by wiele wątpliwości, może by ktoś przynajmniej puścił trochę farby jakie sa wstępne wyniki testów coolerów w różnych cenach
4x raid proponuje z barki 12 500gb porownac do ssd
no dobra ,ale na tym nawet nie uruchomisz systemu, Na GPT nie da się bootować , a juz nie pamietam czy matrix raid pozwala na bootowanie , gdy łączny rozmiar macierzy przekracza 2TB , nawet gdy ustawione jest MBR na mniejszej macierzy
A mnie dziwi, czemu redakcja użyła tylko i wyłącznie WinRara, skoro program ten jest zamknięty i jakby nie patrzeć nie używa go większość społeczeństwa. Chciałbym, aby w tych testach znalazł się też 7-zip !!!!
A mnie dziwi, czemu redakcja użyła tylko i wyłącznie WinRara, skoro program ten jest zamknięty i jakby nie patrzeć nie używa go większość społeczeństwa. Chciałbym, aby w tych testach znalazł się też 7-zip !!!!
dyski SSD potrzebuję jeszcze 2-3 lata ....
Wtedy moze moze bedzie sens je kupować
znaczy 512 MB na dysk ...i wysokie parametry
a to e producenci jeszcze robią sztuczne ograniczenia ...
gdyby ten adata kosztował 300zł to ja już bym go kupował. biorąc pod uwage tempo spadku ceny - myślę już za rok będzie można spokojnie brać taki dysk do komputera o ile ktoś nie chomikuje nieoganiczonej ilości danych a nie ma NASa w domu
Ja mam pytanie, bo ostanio się kłuciłem na innym portalu. Jak to jest, jeżeli mam pełny dysk twardy jak to zwykle na systemowym. Przypuścmy, że pełny w 90%, a te 10% non stop używamy jako pliki stronnicowe i generalnie miejsca gdzie trzymamy aktualnie podczas pracy ważniejsze/większe pliki. Te 10% załóżmy, że jest zapisywane około 30 razy dziennie.
Czy taki dysk twardy wytrzyma te milion godzin? Czy poprostu jeżeli uszkodzi się te 10% dysku to na te 10% nie będzie się dało zapisać, a dysk wciąż będzie działał.
Dysk SSD działa zupełnie inaczej od 'zwykłego' HDD - z reguly dane nie znajdują się ciągle w tym samym miejscu. W dużym uproszczeniu: problem z NAND flash polega na braku swobodnego dostępu do poszczególnych komórek pamięci przy zapisie - dane można jedynie zapisywać/usuwać całymi blokami. Przy kilkugigabajtowych kościach, wielkość takiego bloku może wynosić nawet kilka megabajtów.
Nawet jeśli modyfikujemy tylko kilka kilobajtów danych, cały blok trzeba usunąć i zapisać na nowo. Łatwo można się domyśleć, ze wydajność SSD przy zapisie niewielkich plików powinna być żenująca (i pierwotnie była, wystarczy tylko wspomnieć pierwsze SSD na niesławnych kontrolerach JMicron).
W związku z tym ograniczeniem (jak i problemem stopniowego zużycia komórek) , stosuje się takie rozwiązania jak:
- zaawansowane kontrolery z duza ilością pamięci podręcznej - wszystkie te drobne operacje wykonywane są najpierw w szybkiej pamięci podręcznej, a dopiero gdy uzbiera się ich odpowiednio dużo by wypełnić cały blok , zostają one przenoszone do pamięci flash.
- odpowiednie algorytmy dbają o równomierne wykorzystanie komórek -
W razie potrzeby dane przerzucane są z jednego bloku do drugiego aby tylko zachować właściwy poziom zużycia. 'Logiczne' rozmieszczenie plików na dysku (pokazywane przez system operacyjny) nie ma nic wspólnego z ich fizyczna lokalizacja w modułach flash. Co więcej, tak wysokie prędkości transferu w przypadku SSD są możliwe do uzyskania właśnie poprzez 'szatkowanie' plików pomiędzy wszystkie te kości pamięci (działa to trochę jak RAID 0).
Trzeba zdać sobie sprawę z tego, ze pamięć flash pozbawiona jest podstawowej bolączki nękającej wszystkiego dyski twarde: czas dostępu jest pomijanie niski i przede wszystkim jednakowy dla każdego bloku pamięci. Daje to zupełnie nowe możliwości fizycznego składowania danych - w końcu nie ma już potrzeby gromadzić ich sekwencyjnie, sektor po sektorze.
Z drugiej strony, pojawia się inny problem: jak powszechnie chyba każdemu wiadomo, plik po skasowaniu w systemie nie jest tak naprawdę usuwany z dysku (np. nadpisywany zerami), jedynie wymazywana jest referencja to niego w tablicy systemu plików. Jest to zupełnie zrozumiale - w przypadku talerzowych nośników miejsce po takim pliku może być spokojnie nadpisane w razie potrzeby w dowolnym momencie. W SSD sprawa przedstawia się zupełnie inaczej - kontroler 'nie wie' ze dane miejsce w pamięci nie jest nie jest już używane (wszak wciąż są w nim jakieś dane) i nie jest w stanie efektywnie go wykorzystać do remapowania bloków czy zapisywania nowych danych. Im bardziej pamięć zapełnia się, tym bardziej wydajność spada. Tutaj z pomocą wchodzi właśnie nowa komenda ATA - 'TRIM', która informuje kontroler SSD, ze dane zostały fizycznie skasowane i określone komórki mogą zostać zwolnione i 'poddane recyklingowi'.
Zastanawiam się, dlaczego w testach nie ma odniesienia do jakiejkolwiek macierzy RAID.
To coraz bardziej popularne rozwiązanie. Sam mam RAID 0 na Baracudach 12-kach 500 GiB. Owszem fajnie, że ujęto mój dysk (mogę się dołować patrząc jak jest wolny) ale co z RAID, wyniki byłyby inne.
Ja proponuje 15k
I znowu te bzdury o raidzie... eh...
pic or it didn't happen
Wysoka cena w porównaniu z tradycyjnymi dyskami twardymi
Normalnie rozłożyło mnie to na łopatki...A Corsair pewnie jest w cenie talerzowca...
Przecież to jest wada wszystkich dysków SDD, już nie macie co wymyślac w podsumowaniu???
O wyglądzie Corsair nie będę się rozpisywał, oczywiście każdy właściciel nosi go w kieszeni jak komórke, a ewentualnie robi sobie z niego bryloczek do kluczy i niech dynda przy pasku od spodni.
Coś się test schładzaczy spóźnia...
To tyle mojego marudzenia.
pic or it didn't happen
Here you go:
http://www.anandtech.com/storage/showdoc.a...i=2101&p=10
Bonus read:
http://techreport.com/forums/viewtopic.php...t=68045#p966001
http://www.storagereview.com/php/tiki/tiki...gleDriveVsRaid0
Tak, jak mówiłem - idealne rozwiązanie do pracy z dużymi plikami, ale nie zwiększy uniwersalnie szybkości w dowolnych zadaniach.
Coś się test schładzaczy spóźnia...
Dokładnie. Dałem temat na forum i bardzo mnie ciekawi jakie było by najlepsze chłodzenie w cenie do 120 zł....
Taki test rozwiał by wiele wątpliwości, może by ktoś przynajmniej puścił trochę farby jakie sa wstępne wyniki testów coolerów w różnych cenach
P.S. pierwszy mój koment ^^
I znowu te bzdury o raidzie... eh...
To zróbcie test porównawczy SDD vs. Raid.[/quote]
tu juz zrobili. użyli 16 dysków sata, 8 sas i 8 ssd intela extreme, dwóch sprzętowych kontrolerów. Pojedynczy dysk ssd okazal sie leszy od 8 sas
http://it.anandtech.com/IT/showdoc.aspx?i=3532&p=6
no dobra ,ale na tym nawet nie uruchomisz systemu, Na GPT nie da się bootować , a juz nie pamietam czy matrix raid pozwala na bootowanie , gdy łączny rozmiar macierzy przekracza 2TB , nawet gdy ustawione jest MBR na mniejszej macierzy
http://it.anandtech.com/IT/showdoc.aspx?i=3532&p=6
Ownage
Ja też się dziwię, i też bym chciał!
Wtedy moze moze bedzie sens je kupować
znaczy 512 MB na dysk ...i wysokie parametry
a to e producenci jeszcze robią sztuczne ograniczenia ...
gdyby ten adata kosztował 300zł to ja już bym go kupował. biorąc pod uwage tempo spadku ceny - myślę już za rok będzie można spokojnie brać taki dysk do komputera o ile ktoś nie chomikuje nieoganiczonej ilości danych a nie ma NASa w domu
Czy taki dysk twardy wytrzyma te milion godzin? Czy poprostu jeżeli uszkodzi się te 10% dysku to na te 10% nie będzie się dało zapisać, a dysk wciąż będzie działał.
Dysk SSD działa zupełnie inaczej od 'zwykłego' HDD - z reguly dane nie znajdują się ciągle w tym samym miejscu. W dużym uproszczeniu: problem z NAND flash polega na braku swobodnego dostępu do poszczególnych komórek pamięci przy zapisie - dane można jedynie zapisywać/usuwać całymi blokami. Przy kilkugigabajtowych kościach, wielkość takiego bloku może wynosić nawet kilka megabajtów.
Nawet jeśli modyfikujemy tylko kilka kilobajtów danych, cały blok trzeba usunąć i zapisać na nowo. Łatwo można się domyśleć, ze wydajność SSD przy zapisie niewielkich plików powinna być żenująca (i pierwotnie była, wystarczy tylko wspomnieć pierwsze SSD na niesławnych kontrolerach JMicron).
W związku z tym ograniczeniem (jak i problemem stopniowego zużycia komórek) , stosuje się takie rozwiązania jak:
- zaawansowane kontrolery z duza ilością pamięci podręcznej - wszystkie te drobne operacje wykonywane są najpierw w szybkiej pamięci podręcznej, a dopiero gdy uzbiera się ich odpowiednio dużo by wypełnić cały blok , zostają one przenoszone do pamięci flash.
- odpowiednie algorytmy dbają o równomierne wykorzystanie komórek -
W razie potrzeby dane przerzucane są z jednego bloku do drugiego aby tylko zachować właściwy poziom zużycia. 'Logiczne' rozmieszczenie plików na dysku (pokazywane przez system operacyjny) nie ma nic wspólnego z ich fizyczna lokalizacja w modułach flash. Co więcej, tak wysokie prędkości transferu w przypadku SSD są możliwe do uzyskania właśnie poprzez 'szatkowanie' plików pomiędzy wszystkie te kości pamięci (działa to trochę jak RAID 0).
Trzeba zdać sobie sprawę z tego, ze pamięć flash pozbawiona jest podstawowej bolączki nękającej wszystkiego dyski twarde: czas dostępu jest pomijanie niski i przede wszystkim jednakowy dla każdego bloku pamięci. Daje to zupełnie nowe możliwości fizycznego składowania danych - w końcu nie ma już potrzeby gromadzić ich sekwencyjnie, sektor po sektorze.
Z drugiej strony, pojawia się inny problem: jak powszechnie chyba każdemu wiadomo, plik po skasowaniu w systemie nie jest tak naprawdę usuwany z dysku (np. nadpisywany zerami), jedynie wymazywana jest referencja to niego w tablicy systemu plików. Jest to zupełnie zrozumiale - w przypadku talerzowych nośników miejsce po takim pliku może być spokojnie nadpisane w razie potrzeby w dowolnym momencie. W SSD sprawa przedstawia się zupełnie inaczej - kontroler 'nie wie' ze dane miejsce w pamięci nie jest nie jest już używane (wszak wciąż są w nim jakieś dane) i nie jest w stanie efektywnie go wykorzystać do remapowania bloków czy zapisywania nowych danych. Im bardziej pamięć zapełnia się, tym bardziej wydajność spada. Tutaj z pomocą wchodzi właśnie nowa komenda ATA - 'TRIM', która informuje kontroler SSD, ze dane zostały fizycznie skasowane i określone komórki mogą zostać zwolnione i 'poddane recyklingowi'.
To coraz bardziej popularne rozwiązanie. Sam mam RAID 0 na Baracudach 12-kach 500 GiB. Owszem fajnie, że ujęto mój dysk (mogę się dołować patrząc jak jest wolny) ale co z RAID, wyniki byłyby inne.