To jest niezły pomysł. Dawno nie było żadnego porównania wydajności SATA między platformami.
sata możesz odpuścić to teraz za magazyn służy, jak widać ludzię chcą nvme w rzeczywistych warunkach, cricial 250GB na TLC i sata kosztuje około 315pln a plextor 256GB na nvme i MLC niewiele drożej 369pln.
A przynajmniej może test Optane (samodzielny) z zainstalowanymi łatkami? - pod tytułem 'Jak Meltdown i Spectre (nie)wpływają na wydajność najnowszych dysków NVMe od Intela'. Tak żeby zobaczyć tylko ten dysk w obu sytuacjach - to by dużo pracy nie wymagało jak sądzę
Testów na AMD nie będzie (też żałuję), nie ma na to czasu po prostu. Musiałbym przetestować przecież co najmniej kilka nośników od nowa żeby mieć porównanie z optane na nowej platformie. A w praktyce przy NVME i tak nie powinno być żadnych roznic więc poświęcił bym dużo czasu w celu pokazania że nie miało to sensu
To samo odnosi się do latek. Jak zmienimy platformę testowa na nowsza to i system też na najbardziej aktualny na dzień tej zmiany. Na dziś to niemożliwe bo wszystkie dotychczasowe wyniki poszły by do śmieci. I tak w nowych testach chciałbym więcej nośników do porównań.
Priorytetem na dziś jest przeglądowy test HDD, a w międzyczasie pojawia się dwa albo trzy inne testy. Staram się utrzymać tempo jednego testu w tygodniu w międzyczasie uzupełniając bazę danych o starsze SSD, a to nie jest tak łatwe jak może się wydawać
optane memory ma takie wymagania, ale to nie ten sam produkt, na stronie intela nie widziałem nic co by uniemożliwiało uruchomienie na platformie amd dysku 900p
Dokładnie. Jako Optane Memory nie pójdzie ale jako zwykły SSD nvme powinien pójść.
Fajnie by było, żeby redakcja jak robi test takie niuanse sprawdzała bo bez tego test taki trochę niekompletny.
testy odbywały się bez 'łatki intela' jak słusznie zauważył mat9v, 'trochę niekompletny' to trochę eufemizm.
Na AMD to nie pójdzie, tylko Intel od KabyLake Z270.
optane memory ma takie wymagania, ale to nie ten sam produkt, na stronie intela nie widziałem nic co by uniemożliwiało uruchomienie na platformie amd dysku 900p
Dokładnie. Jako Optane Memory nie pójdzie ale jako zwykły SSD nvme powinien pójść.
Fajnie by było, żeby redakcja jak robi test takie niuanse sprawdzała bo bez tego test taki trochę niekompletny.
Przetestowalibyście ten dysk z ryzen 7 lub threadripper? wszak to dysk intela, ale może jest to dobry produkt dla wszyskich? z platformą amd bardziej by pasował ten produkt, jest 20 linii pci-e 16 dla grafiki i 4 dla dysku zostają, nawet dla graczy pasuje lepiej.
@kain możemy tego oczekiwać?
Na AMD to nie pójdzie, tylko Intel od KabyLake Z270.
optane memory ma takie wymagania, ale to nie ten sam produkt, na stronie intela nie widziałem nic co by uniemożliwiało uruchomienie na platformie amd dysku 900p
Przetestowalibyście ten dysk z ryzen 7 lub threadripper? wszak to dysk intela, ale może jest to dobry produkt dla wszyskich? z platformą amd bardziej by pasował ten produkt, jest 20 linii pci-e 16 dla grafiki i 4 dla dysku zostają, nawet dla graczy pasuje lepiej.
@kain możemy tego oczekiwać?
Na AMD to nie pójdzie, tylko Intel od KabyLake Z270.
Przetestowalibyście ten dysk z ryzen 7 lub threadripper? wszak to dysk intela, ale może jest to dobry produkt dla wszyskich? z platformą amd bardziej by pasował ten produkt, jest 20 linii pci-e 16 dla grafiki i 4 dla dysku zostają, nawet dla graczy pasuje lepiej.
Recenzuj produkt Intela, bądź zdziwiony wysoką ceną.
Płaćcie, cebulaki biedaki za sprzynt gwarantujący całe 2% realnej mocy więcej, ha!
Szanuję ich za wkład w rozwój mikroelektroniki, ale ceny, z jakimi wyskakują są chorym żartem.
Recenzuj produkt Intela, bądź zdziwiony wysoką ceną.
Płaćcie, cebulaki biedaki za sprzynt gwarantujący całe 2% realnej mocy więcej, ha!
Szanuję ich za wkład w rozwój mikroelektroniki, ale ceny, z jakimi wyskakują są chorym żartem.
Ten SSD Optane dzięki swojej trwałości i szybkości odczytu i zapisu pojedynczych 4KB sektorów świetnie się nadaje do serwera bazodanowego o dużym obciążeniu.
W bazach danych pliki indeksowe są zazwyczaj implementowane jako B-drzewa, w których pojedyncze węzły mają wielkość w KB nie mniejszą niż wielkość sektora albo klastra (jednostki alokacji systemu plików). Zwłaszcza operacja usuwania rekordów z bazy danych wymaga dużej ilości operacji na węzłach, zgodnie ze skomplikowanym algorytmem porządkowania B-drzewa wg. jego klucza.
Taka sama role spelnia test w VeraCrypt, tyle ze jest nawet lepszy bo a) nie ma ograniczenia nosnika zrodlowego b) dane sa niekompresowalne wiec pokazujemy najgorszy mozliwy scenariusz.
Podstawowy test dla dysków od których wymagamy coś więcej, to test write w HD Tune pro. Alternatywnie stworzenie pliku o pojemności dysku i kopiowanie go z innego nośnika szybszego w odczycie jak zapis testowanego.
Taka sama role spelnia test w VeraCrypt, tyle ze jest nawet lepszy bo a) nie ma ograniczenia nosnika zrodlowego b) dane sa niekompresowalne wiec pokazujemy najgorszy mozliwy scenariusz.
Podstawowy test dla dysków od których wymagamy coś więcej, to test write w HD Tune pro. Alternatywnie stworzenie pliku o pojemności dysku i kopiowanie go z innego nośnika szybszego w odczycie jak zapis testowanego.
Druga sprawa to test szybkości kopiowania małych plików w dużej ilości, czyli np. starego folderu Windows 30GB+.
Wzięliście bardzo duży dysk Samsunga i mały optane wybierając większe pliki niż dotychczas. Zważywszy jak działają kontrolery to może mieć znaczenie. Może jak już porównujcie to wejście 960 pro za też w przedziale 1-2k czyli 512.
deklarowana/rzeczywista
280/~260 GB
napisać po prostu:
Pojemność: 280 GB = ~260 GiB
?
sata możesz odpuścić to teraz za magazyn służy, jak widać ludzię chcą nvme w rzeczywistych warunkach, cricial 250GB na TLC i sata kosztuje około 315pln a plextor 256GB na nvme i MLC niewiele drożej 369pln.
To samo odnosi się do latek. Jak zmienimy platformę testowa na nowsza to i system też na najbardziej aktualny na dzień tej zmiany. Na dziś to niemożliwe bo wszystkie dotychczasowe wyniki poszły by do śmieci. I tak w nowych testach chciałbym więcej nośników do porównań.
Priorytetem na dziś jest przeglądowy test HDD, a w międzyczasie pojawia się dwa albo trzy inne testy. Staram się utrzymać tempo jednego testu w tygodniu w międzyczasie uzupełniając bazę danych o starsze SSD, a to nie jest tak łatwe jak może się wydawać
optane memory ma takie wymagania, ale to nie ten sam produkt, na stronie intela nie widziałem nic co by uniemożliwiało uruchomienie na platformie amd dysku 900p
Dokładnie. Jako Optane Memory nie pójdzie ale jako zwykły SSD nvme powinien pójść.
Fajnie by było, żeby redakcja jak robi test takie niuanse sprawdzała bo bez tego test taki trochę niekompletny.
testy odbywały się bez 'łatki intela' jak słusznie zauważył mat9v, 'trochę niekompletny' to trochę eufemizm.
Na AMD to nie pójdzie, tylko Intel od KabyLake Z270.
optane memory ma takie wymagania, ale to nie ten sam produkt, na stronie intela nie widziałem nic co by uniemożliwiało uruchomienie na platformie amd dysku 900p
Dokładnie. Jako Optane Memory nie pójdzie ale jako zwykły SSD nvme powinien pójść.
Fajnie by było, żeby redakcja jak robi test takie niuanse sprawdzała bo bez tego test taki trochę niekompletny.
@kain możemy tego oczekiwać?
Na AMD to nie pójdzie, tylko Intel od KabyLake Z270.
optane memory ma takie wymagania, ale to nie ten sam produkt, na stronie intela nie widziałem nic co by uniemożliwiało uruchomienie na platformie amd dysku 900p
@kain możemy tego oczekiwać?
Na AMD to nie pójdzie, tylko Intel od KabyLake Z270.
@kain możemy tego oczekiwać?
Płaćcie, cebulaki biedaki za sprzynt gwarantujący całe 2% realnej mocy więcej, ha!
Szanuję ich za wkład w rozwój mikroelektroniki, ale ceny, z jakimi wyskakują są chorym żartem.
No właśnie te ceny są wynikiem inwestycji w R&D.
Płaćcie, cebulaki biedaki za sprzynt gwarantujący całe 2% realnej mocy więcej, ha!
Szanuję ich za wkład w rozwój mikroelektroniki, ale ceny, z jakimi wyskakują są chorym żartem.
W bazach danych pliki indeksowe są zazwyczaj implementowane jako B-drzewa, w których pojedyncze węzły mają wielkość w KB nie mniejszą niż wielkość sektora albo klastra (jednostki alokacji systemu plików). Zwłaszcza operacja usuwania rekordów z bazy danych wymaga dużej ilości operacji na węzłach, zgodnie ze skomplikowanym algorytmem porządkowania B-drzewa wg. jego klucza.
Taka sama role spelnia test w VeraCrypt, tyle ze jest nawet lepszy bo a) nie ma ograniczenia nosnika zrodlowego b) dane sa niekompresowalne wiec pokazujemy najgorszy mozliwy scenariusz.
To nie to samo. Nie widać w jest SLC cache, to są tylko średnie wartości.
Nie widać czegoś takiego
http://tssdr1.thessdreview1.netdna-cdn.com...50GB-HDTune.png
http://tssdr1.thessdreview1.netdna-cdn.com...-1TB-HDTune.png
Ciekawe dlaczego zapelniony w 80% byl szybszy od pustego?
Nie jestem pewien, czy oglądaliśmy te same wykresy. Samsung wygrał z tym badziewiem.
Taka sama role spelnia test w VeraCrypt, tyle ze jest nawet lepszy bo a) nie ma ograniczenia nosnika zrodlowego b) dane sa niekompresowalne wiec pokazujemy najgorszy mozliwy scenariusz.
Druga sprawa to test szybkości kopiowania małych plików w dużej ilości, czyli np. starego folderu Windows 30GB+.