Komentarze
Komentarzy na stronę
1
Raadek (2017.12.04, 22:19)
Ocena: 10
#1

0%
To jest rozwiązanie zaadoptowane wprost z serwerów. SSD NVMe w Raid1 już funkcjonuje od jakiegoś czasu.
p_lider (2017.12.04, 23:16)
Ocena: 9
#2

0%
Do redakcji: Jak dla mnie najciekawszym testem byłoby włożenie przynajmniej 4 lub 6 dysków tego typu w macierz RAID0 i porównanie wydajności takiej macierzy bezpośrednio z wydajnością pamięci RAM (czyli RamDrive'em).
Z chęcią zobaczyłbym jak duże byłyby różnice w poszczególnych testach.
Wyniki takiego testu mogłyby posłużyć jako estymacja jak mógłby taki zestaw PC sprawdzić się jako ekstremalny serwer bazy danych (na przykład SQL Server).

Ważne: przy konfiguracji tego typu połowę dysków należałoby podłączyć do linii PCIe wychodzących z jednego zeppelinu, a drugą połowę do linii PCIe wychodzących z drugiego zeppelinu, aby uzyskać maksymalną przepustowość. Do tego celu należy sprawdzić na płycie głównej jak (w sensie do których slotów) rozlokowane są linie PCIe.
doman18 (2017.12.04, 23:27)
Ocena: 8
#3

0%
p_lider @ 2017.12.04 23:16  Post: 1112155

Wyniki takiego testu mogłyby posłużyć jako estymacja jak mógłby taki zestaw PC sprawdzić się jako ekstremalny serwer bazy danych (na przykład SQL Server).

Jeżeli już to taki serwer by stał na RAID10. Co oczywiście nie zmienia faktu że taki test byłby ciekawy.

A i zapomniałem dodać: brawo dla autora. Bardzo dobry artykuł od dłuższego czasu.
T_G (2017.12.05, 01:07)
Ocena: 4
#4

0%
ja poproszę o dodanie testu programem 'blackmagic design - disk speed' - jest darmowy, będzie się do czego odnieść
radier (2017.12.05, 08:00)
Ocena: 1
#5

0%
Do redakcji:

Wkrótce będę składał zestaw na TR + 2x 960 Evo 250GB. Będzie to maszyna z Windows 10 + Linux. Czy np. Ubuntu 17.04 na etapie instalacji wykryję wcześniejszą instalację Windows 10 czy w ogóle nie rozpozna macierzy RAID 0 z dysków NVMe?
Bogie (2017.12.05, 09:15)
Ocena: 2
#6

0%
Mam 32GB ramu w laptopie (cena była dobra, to wziąłem) - to sobie przetestuję to PrimoCache - wygląda obiecująco.
puchatek2 (2017.12.05, 10:16)
Ocena: 0
#7

0%
tego raida to stawialiście w tym slocie ala dimm2?
to znaczy że wątki z drugiego ccxa przepychały dane przez cache cpu.
trzeba było drugie m.2 wsadzić w sloty pcie podpięte do drugiego ccxa i tak postawić raida i testować. oj nie odrobiliście lekcji.
roomunho (2017.12.05, 10:19)
#8

0%
radier @ 2017.12.05 08:00  Post: 1112197
Do redakcji:

Wkrótce będę składał zestaw na TR + 2x 960 Evo 250GB. Będzie to maszyna z Windows 10 + Linux. Czy np. Ubuntu 17.04 na etapie instalacji wykryję wcześniejszą instalację Windows 10 czy w ogóle nie rozpozna macierzy RAID 0 z dysków NVMe?


Ubuntu niestety nie rozpozna macierzy z Windowsem.
ash (2017.12.05, 12:24)
Ocena: 2
#9

0%
Klikam na procek i wrzuca mnie na artykuł z intelem...
_ivanov_ (2017.12.05, 13:33)
Ocena: 1
#10

0%
p_lider @ 2017.12.04 23:16  Post: 1112155

Do tego celu należy sprawdzić na płycie głównej jak (w sensie do których slotów) rozlokowane są linie PCIe.

Nie trzeba nic sprawdzać - Linus dostał info od ASUSa.
https://abload.de/img/threadripperdieszenitxcawr.png
VSS (2017.12.05, 13:52)
Ocena: 2
#11

0%
a na intelu nie da sie postawić RAID0 z NVMe ?? , ciekawe bylo by porownanie wlasnie miedzy TR a takim odpowiednikiem Intela
roomunho (2017.12.05, 14:01)
#12

0%
VSS @ 2017.12.05 13:52  Post: 1112278
a na intelu nie da sie postawić RAID0 z NVMe ?? , ciekawe bylo by porownanie wlasnie miedzy TR a takim odpowiednikiem Intela


Teoretycznie da się, pisaliśmy o tym we wstępie. Technika nazywa się VROC. Niestety nadal oficjalnie niedostępny jest sterownik, więc nie mogliśmy sprawdzić, jak takie rozwiązanie sprawdza się na platformie Intela.
mbrzostek (2017.12.05, 14:45)
#13

0%
_ivanov_ @ 2017.12.05 13:33  Post: 1112272

Nie trzeba nic sprawdzać - Linus dostał info od ASUSa.
https://abload.de/img/threadripperdieszenitxcawr.png

Nieprawda! Wystarczy zajrzeć tutaj: http://pclab.pl/art75202-5.html żeby się przekonać, że jest tak:
mbrzostek (2017.12.05, 14:49)
#14

0%
p_lider @ 2017.12.04 23:16  Post: 1112155
połowę dysków należałoby podłączyć do linii PCIe wychodzących z jednego zeppelinu, a drugą połowę do linii PCIe wychodzących z drugiego zeppelinu, aby uzyskać maksymalną przepustowość.

To ciekawe zagadnienie – jeśli chcemy zapełnić danymi całą pulę pamięci, to najlepiej będzie ustawić maszynę w tryb NUMA i podłączyć tak jak mówisz. Ale jeśli chcemy pobrać z macierzy tyle danych, ile mieści się w połowie pamięci, to może lepiej będzie podłączyć wszystkie SSD-ki do jednego jądra, a może nawet ustawić wtedy tryb UMA?
Atak_Snajpera (2017.12.05, 16:03)
Ocena: -2
#15

0%
Pytanie. Po co wam PrmoCache skoro Windows i tak buforuje dynamicznie dane w pamięci ram?

Za pomocą tego narzędzia możecie podejrzeć jakie dane sobie aktualnie siedzą w pamięci RAM
https://docs.microsoft.com/en-us/sysintern...ownloads/rammap
mat9v (2017.12.05, 17:06)
Ocena: -2
#16

0%
Chciałbym poprosić o następujący test:
1. przygotować RAM dysk o pojemności 40GB+ zamiast PrimoCache
2. przenieść na niego typowy folder Windows i uzupełnić jakimiś danymi do pełna, może być katalog 'temp' ;)
3. skopiować dane na dysk SSD i zmierzyć czas
4. skopiować dane na macierz i zmierzyć czas
5. wyczyścić RAM dysk i po kilku minutach (żeby dyski SSD przepisały dane do MLC) + restart systemu żeby cache Windows opróżnić, przeprowadzić test odczytu danych z dysku do RAM dysku
6. z ciekawości można zrobić jakieś 40GB+ archiwum i taki sam test z nim żeby sprawdzić sekwencyjny zapis i odczyt danych w praktyce a nie to co pokazują programy testujące
7. ewentualnie mniejsze paczki danych (30GB) uzupełnione na przykład 8GB buforem PrimoCache
Marucins (2017.12.05, 17:50)
Ocena: -2
#17

0%
To w końcu reklama dysku czy kontrolera i nowej funkcji od AMD?
Gdzie realne testy?
p_lider (2017.12.05, 22:58)
Ocena: 2
#18

0%
mbrzostek @ 2017.12.05 14:49  Post: 1112301
p_lider @ 2017.12.04 23:16  Post: 1112155
połowę dysków należałoby podłączyć do linii PCIe wychodzących z jednego zeppelinu, a drugą połowę do linii PCIe wychodzących z drugiego zeppelinu, aby uzyskać maksymalną przepustowość.

To ciekawe zagadnienie – jeśli chcemy zapełnić danymi całą pulę pamięci, to najlepiej będzie ustawić maszynę w tryb NUMA i podłączyć tak jak mówisz. Ale jeśli chcemy pobrać z macierzy tyle danych, ile mieści się w połowie pamięci, to może lepiej będzie podłączyć wszystkie SSD-ki do jednego jądra, a może nawet ustawić wtedy tryb UMA?

Podłączenie macierzy po równo na obu zeppelinach maksymalizuje przepustowość przesyłu danych (potwierdziło to kilku już ludzi w internecine, w tym popularny Linus), ale możliwe, że negatywnie wpływa na opóźnienia. Podłączenie macierzy tylko do jednego zeppelina najprawdopodobniej będize miało skutek odwrotny, czyli zmniejszenie przepustowości, ale polepszenie opóźnień. Warto przetestować czy tak jest faktycznie.

Swoją drogą nie brałem pod uwagę trybu działania pamięciu UMA/NUMA. To ciekawy aspekt i moim zdaniem też wart przetestowania :)
pwil (2018.01.16, 21:46)
Ocena: 0
#19

0%
p_lider @ 2017.12.04 23:16  Post: 1112155
Do redakcji: Jak dla mnie najciekawszym testem byłoby włożenie przynajmniej 4 lub 6 dysków tego typu w macierz RAID0 i porównanie wydajności takiej macierzy bezpośrednio z wydajnością pamięci RAM (czyli RamDrive'em).
Z chęcią zobaczyłbym jak duże byłyby różnice w poszczególnych testach.
Wyniki takiego testu mogłyby posłużyć jako estymacja jak mógłby taki zestaw PC sprawdzić się jako ekstremalny serwer bazy danych (na przykład SQL Server).


W serwerach bazodanowych wrzuca się tyle RAMu, żeby rzadko dotykać dysków. Na dyski leci zapis liniowy do logów i zapis zmian w bazie. Co więcej często wrzuca się kilkukrotnie większą ilość RAMu, niż same dane, by przetwarzać je równolegle w pamięci bez blokowania.
Zaloguj się, by móc komentować
Aktualności
Facebook
Ostatnio komentowane