artykuły

Test Seagate Firecuda 510  1 TB − Phison E12 po raz trzeci

Ani ogień, ani cuda

13
27 lipca 2019, 14:01 Wojciech Koczyk

Seagate to producent wciąż kojarzony głównie z dyskami twardymi. To dziś niekoniecznie korzystna łatka ─ popyt na HDD cały czas maleje, a SSD stają się coraz tańsze i bardziej pojemne. Główny konkurent, firma WD, opracował już własny wydajny kontroler NVMe i coraz silniej zaznacza swoją obecność na rynku nowoczesnych nośników. Seagate musi gonić konkurencję i próbuje to robić, wykorzystując znaną markę Firecuda. Pytanie tylko, na ile skutecznie?

Seagate Firecuda 510 SSD 1 TB
Cena od 1039.00 zł do 1203.00 zł

Spis treści

Seagate Firecuda 510 1 TB

Seria dysków twardych Firecuda to dość nietypowe rozwiązanie nazywane przez producenta SSHD. Jest to klasyczny dysk twardy, ale wyposażony w 8 GB pamięci MLC. Ma ona służyć jako bufor do szybkiego zapisu i cache dla najczęściej odczytywanych danych. Niestety, jak pokazał nasz test opisany w artykule V = ω * r – czyli test talerzowych dysków twardych, rzeczywiste korzyści z tego rozwiązania zupełnie nie usprawiedliwiały wysokich kosztów. Oczywiście SSHD miało wyraźne zalety, ale w dobie tanich SSD lepszym rozwiązaniem byłby klasyczny dysk twardy plus niewielki SSD − w sumie w tej samej cenie...

Najwyraźniej producent uznał, że pora wprowadzić na rynek urządzenie, które rzeczywiście może podbić serca graczy i wymagających użytkowników. I tak oto powstał model Firecuda Gaming 510 SSD.

Nośnik prezentuje się bardzo ładnie, na szczęście o jego gamingowym przeznaczeniu przypomina jedynie niewielki napis. Nic ciekawego z tej strony się jednak nie dowiemy, bo wszystkie interesujące komponenty schowano pod naklejką.

 

Druga strona także ma swoje tajemnice, ale przynajmniej naklejka zawiera dużo takich informacji, jak: dokładny model, data produkcji (w tym przypadku 8 marca 2019 roku) czy wersja firmware’u (STES1020). Po raz pierwszy na nośniku zauważyliśmy napis „CAUTION HOT SURFACE”. Jest on o tyle zabawny, że po zamontowaniu nośnika w płycie głównej znajduje się po niewidocznej stronie. 

Nośnik nie wymaga żadnych sterowników poza tymi zaszytymi w systemie Windows, ale producent udostępnia oprogramowanie SeaTools pozwalające na monitorowanie temperatury urządzenia, parametrów SMART, przeprowadzenie aktualizacji oprogramowania układowego itp. Robi ono dobre wrażenie, ale wątpimy, by ktoś rzeczywiście z niego korzystał. Ciekawsza jest wersja pozwalająca na utworzenie bootowalnego nośnika USB, który z poziomu kreatora umożliwia nie tylko dokładny test SSD, ale także bezpieczne wymazanie wszystkich danych.

Do serii należą tylko dwa nośniki o pojemnościach 1 TB i 2 TB. Modele 256 GB i 512 GB zaliczono do serii Barracuda.

 Firecuda 510 1 TB

Pojemność:

deklarowana/rzeczywista

1 TB/~931 GB

Kontroler

Phison E12

Typ złącza

PCIe 3.0 ×4 NVMe

Kości pamięci

Toshiba 64L 3D TLC NAND

Deklarowana prędkość odczytu sekwencyjnego

3450 MB/s

Deklarowana prędkość zapisu sekwencyjnego

3200 MB/s

Deklarowana liczba op. na sek. – odczyt

620 000

Deklarowana liczba op. na sek. – zapis

600 000
Gwarancja 5 lat
TBW 1300 TB
Cena ok. 950 zł

 

Specyfikacja techniczna robi bardzo dobre wrażenie, ale zorientowani w sytuacji na rynku SSD czytelnicy powinni zauważyć coś bardzo istotnego. Połączenie nowoczesnego kontrolera Phison E12 z pamięciami Toshiba 64L 3D TLC już widzieliśmy. Firecuda 510 i Corsair MP510 są tak podobne, jak oznaczenia ich modeli...

Nie ma w tym oczywiście nic złego, jak już wiemy, Corsair MP510 jest bardzo dobrym i dobrze wycenionym nośnikiem. Między urządzeniami istnieje zresztą dość istotna różnica. Corsair ma ograniczoną pojemność ─ na rynku dostępne są modele 480 GB i 960 GB. Seagate nie rezerwuje dodatkowego miejsca i dla użytkownika jest dostępny „cały” terabajt. W niektórych zastosowaniach ma to znaczenie.

Pewnym problemem w naszej ocenie jest coś innego. Wspomniany już wcześniej Western Digital od lat, a właściwie dziesięcioleci, jest konkurentem firmy Seagate. Po zakupie Sandiska i opracowaniu własnych, bardzo dobrych kontrolerów zdobywa istotną pozycję na rynku i bezcenne doświadczenie. Jak widać, Seagate, póki co, musi się posiłkować rozwiązaniami firm trzecich. Jest to o tyle dziwne, że w swoim czasie przejął firmę Sandforce, znaną z projektowania kontrolerów.

Strona:
DrW2019.07.27, 14:43
Aż się napaliłem na tę premierę, ale ta cena... Za pół roku będzie kosztował połowę obecnej kwoty. A za tyle to już dzisiaj można kupić MP510 na nieco słabszych kościach.

Niemniej jednak, po obniżce będzie bardzo dobrą opcją dla laptopów ze względu na niskie temperatury.
*Konto usunięte*2019.07.27, 15:18
'Nie wiemy więc, do kogo skierowana jest bieżąca oferta firmy Seagate.' - jak to do kogo. Do tych, którzy pomimo całych padających serii Barracud dalej pędzili do sklepów po talerze tej firmy i twierdzili, że problem nie istnieje. Seagate zawsze miało fanatyków.
SebZMCZobacz profil
Poziom ostrzeżenia: 0%
SebZMC2019.07.27, 15:41
Nawet jakby był w dobrej cenie, to nie widzę sensu wspierać producenta, który robił dyski z elementów o jakości biodegradowalnego materiału. Stare dyski trzymały poziom, nowsze HDDki padały jak muchy.
Kyle_PLZobacz profil
Poziom ostrzeżenia: 0%
Kyle_PL2019.07.27, 17:42
Mam pytanie techniczne (związane z tym testem i platformą testową): w chipsetach Intel Z170 i nowszych ( np. Z390 ) chipset z procesorem jest połączony złączem DMI3.0 o przepustowości równej PCI-E x4 3.0 . Natomiast taki dysk SSD M.2 PCI-E 4x 3.0, wszelkie porty USB 3.1 Gen2, Gigabit Ethernet, audio, SATA, wszystkie PCI-E (poza jednym x16, wychodzącym z CPU, który zajmuje zwykle karta graficzna), są podpięte do takiego Z170/Z390 i całkowita przepustowość dla tego wszystkiego razem, przy komunikacji z CPU to ... DMI 3.0 czyli PCI-E 3.0 x4 . W związku z tym, co się dzieje z transferami, kiedy ostro czytamy z takiego szybkiego dysku SSD wpiętego w Z170/Z390 (który samodzielnie jest w stanie zająć całe pasmo komunikacyjne między chipsetem a CPU), a do tego równolegle używamy dysku SATA, czegoś na USB 3.1 Gen2 itd., czy nie daj Boże jeszcze czegoś na PCI-E wpiętego w takie Z390/Z170 ? Dochodzi do równomiernego spowolnienia wszystkiego, tak by sumarycznie nie przekraczało przepustowości PCI-E 3.0 x4 , czy może następuje jakieś sekwencyjne przełączanie, dzięki czemu są sekwencyjnie wstrzymywane transfery (jakieś mikro-przycięcia itp.) ?
Edytowane przez autora (2019.07.27, 17:52)
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2019.07.28, 10:58
Na pewno nic nie przycina. Gdyby było inaczej mostki PLX nie miałyby najmniejszego sensu.

A Seagate mógłby zrobić w końcu jakąś hybrydę z prawdziwego zdarzenia - z minimum 128 a najlepiej 256GB SSD cache, z możliwością pracy w 2 trybach (jako dwa osobne dyski lub a'la FuzeDrive/StoreMI). Miałoby to technologiczny sens i mają technologię talerzową, którą coraz trudniej będzie kapitalizować. Tyle, że to ostatni gwizdek na tego typu produkt, bo brak prawdziwego następcy SATA 6GB/s będzie się coraz bardziej dawał we znaki.
Kyle_PLZobacz profil
Poziom ostrzeżenia: 0%
Kyle_PL2019.07.28, 13:59
Assassin @ 2019.07.28 10:58  Post: 1212556

A Seagate mógłby zrobić w końcu jakąś hybrydę z prawdziwego zdarzenia - z minimum 128 a najlepiej 256GB SSD cache, z możliwością pracy w 2 trybach (jako dwa osobne dyski lub a'la FuzeDrive/StoreMI). Miałoby to technologiczny sens i mają technologię talerzową, którą coraz trudniej będzie kapitalizować. Tyle, że to ostatni gwizdek na tego typu produkt, bo brak prawdziwego następcy SATA 6GB/s będzie się coraz bardziej dawał we znaki.
SSD teraz są tak tanie, że w sumie się spóźnili. Natomiast talerzowce nadal przydatne są do archiwizacji (zamiast płyt DVD, taki dysk na USB). Nawet jeśli ktoś obecnie nie robi kopii bezpieczeństwa/archiwizacji i nie potrzebuje talerzowca, to po awarii dysku, na którym miał zdjęcia swojego życia w jakimś laptopie ( i tylko tam), to zaczyna robić kopie bezpieczeństwa/archiwum i zaczyna potrzebować talerzowca ;) Także popyt na talerzowce będzie ... jak nie będą ich zbyt drogo sprzedawać.
Edytowane przez autora (2019.07.28, 14:03)
Orzel94Zobacz profil
Poziom ostrzeżenia: 0%
Orzel942019.07.28, 21:18
Kyle_PL @ 2019.07.27 17:42  Post: 1212529
Mam pytanie techniczne (związane z tym testem i platformą testową): w chipsetach Intel Z170 i nowszych ( np. Z390 ) chipset z procesorem jest połączony złączem DMI3.0 o przepustowości równej PCI-E x4 3.0 . Natomiast taki dysk SSD M.2 PCI-E 4x 3.0, wszelkie porty USB 3.1 Gen2, Gigabit Ethernet, audio, SATA, wszystkie PCI-E (poza jednym x16, wychodzącym z CPU, który zajmuje zwykle karta graficzna), są podpięte do takiego Z170/Z390 i całkowita przepustowość dla tego wszystkiego razem, przy komunikacji z CPU to ... DMI 3.0 czyli PCI-E 3.0 x4 . W związku z tym, co się dzieje z transferami, kiedy ostro czytamy z takiego szybkiego dysku SSD wpiętego w Z170/Z390 (który samodzielnie jest w stanie zająć całe pasmo komunikacyjne między chipsetem a CPU), a do tego równolegle używamy dysku SATA, czegoś na USB 3.1 Gen2 itd., czy nie daj Boże jeszcze czegoś na PCI-E wpiętego w takie Z390/Z170 ? Dochodzi do równomiernego spowolnienia wszystkiego, tak by sumarycznie nie przekraczało przepustowości PCI-E 3.0 x4 , czy może następuje jakieś sekwencyjne przełączanie, dzięki czemu są sekwencyjnie wstrzymywane transfery (jakieś mikro-przycięcia itp.) ?

W skrajnym wypadku dojdzie do obniżenia przepustowości ale w skrajnym, nie wszystkie operacje przesyłu danych wymagają przepuszczenia ich przez procesor w wielu wypadkach procesor nie wie nic o danych. Podobnie (ale tylko po części) działa DMA kiedy możesz zrzucić dane z pamięci RAM na dysk czy do karty graficznej z pominięciem procesora
Edytowane przez autora (2019.07.28, 21:18)
Rybaczek KoziołkaZobacz profil
Poziom ostrzeżenia: 0%
Rybaczek Koziołka2019.07.29, 13:07
-1#8
w zasadzie dyski SSHD pojawiły się tylko dlatego, bo MS od lat kisi przestarzały NTFS, i nie umożliwia takiego rozlokowania danych, aby uzyskać maksymalne przyspieszenie. Dla kontrastu mamy pod Linux takie rozwiązania jak LVM, niezależne od systemu plikowego. Zaś w systemach plikowych nawet w EXT4 da się tzw. journala wypchnąć na inny dysk. z kolei w systemach BTRFS i zaadaptowanym ZFS da się zdefiniować dyski SSD jako cache R i/lub W.
Z tych rozwiązań pod windows można skorzystać na 2 sposoby, każdy ma wady:
1. pod windowsa dopinamy dysk wyeksportowany z linuxa
2. główny system na komputerze to linux, zaś windowsa wpychamy do wirtualizatora. ale żeby to sprawnie działało, trzeba dopłacić do vmware workstation który daje wsparcie dla akcelerowanego 3D z małą stratą wydajności

rozwiązanie alternatywne, ciągle niedojrzałe
3. Wine for Linux, umożliwiające odpalanie wielu aplikacji windowsa na linux, także gier z akceleracją 3D. niestety walka z pełnym wsparciem dla DX11 ciągle trwa.

Za to MS nadal nas karmi przestarzałym NTFS.

Chociaż w sumie.... kiedyś płaciło się 2000zł za 1TB SSD, potem przyszły czasy 1000zł za 1TB ale one też odchodzą w niepamięć, zaś seagate coś przespał. Obecnie za 1TB trzeba zapłacić jakieś 400 - 500zł (patrz patriot 1TB), i ta cena już zniechęca do zakupu hybryd SSHD, w których modum SSD jest używany wyłącznie jako cache do najczęściej czytanych danych, zapis leci bezpośrednio na talerz. to jest po to, aby kości Flash nie zdechły zbyt szybko, algorytm je chroni, a nie podbija wydajność, zaś jak pisałem powyżej, MS nie robi nic sensownego abyśmy mogli sami sobie zestawić SSD i HDD w jeden FS.
Edytowane przez autora (2019.07.29, 13:27)
tomangeloZobacz profil
Poziom ostrzeżenia: 0%
tomangelo2019.07.29, 23:45
Rybaczek Koziołka @ 2019.07.29 13:07  Post: 1212642
w zasadzie dyski SSHD pojawiły się tylko dlatego, bo MS od lat kisi przestarzały NTFS, i nie umożliwia takiego rozlokowania danych, aby uzyskać maksymalne przyspieszenie. Dla kontrastu mamy pod Linux takie rozwiązania jak LVM, niezależne od systemu plikowego. Zaś w systemach plikowych nawet w EXT4 da się tzw. journala wypchnąć na inny dysk. z kolei w systemach BTRFS i zaadaptowanym ZFS da się zdefiniować dyski SSD jako cache R i/lub W.
Z tych rozwiązań pod windows można skorzystać na 2 sposoby, każdy ma wady:
1. pod windowsa dopinamy dysk wyeksportowany z linuxa
2. główny system na komputerze to linux, zaś windowsa wpychamy do wirtualizatora. ale żeby to sprawnie działało, trzeba dopłacić do vmware workstation który daje wsparcie dla akcelerowanego 3D z małą stratą wydajności

rozwiązanie alternatywne, ciągle niedojrzałe
3. Wine for Linux, umożliwiające odpalanie wielu aplikacji windowsa na linux, także gier z akceleracją 3D. niestety walka z pełnym wsparciem dla DX11 ciągle trwa.

Za to MS nadal nas karmi przestarzałym NTFS.

Chociaż w sumie.... kiedyś płaciło się 2000zł za 1TB SSD, potem przyszły czasy 1000zł za 1TB ale one też odchodzą w niepamięć, zaś seagate coś przespał. Obecnie za 1TB trzeba zapłacić jakieś 400 - 500zł (patrz patriot 1TB), i ta cena już zniechęca do zakupu hybryd SSHD, w których modum SSD jest używany wyłącznie jako cache do najczęściej czytanych danych, zapis leci bezpośrednio na talerz. to jest po to, aby kości Flash nie zdechły zbyt szybko, algorytm je chroni, a nie podbija wydajność, zaś jak pisałem powyżej, MS nie robi nic sensownego abyśmy mogli sami sobie zestawić SSD i HDD w jeden FS.


Jak podpunkt drugiego punktu jest też opcja gpu-passthrough, ale to dla bardziej zaawansowanych.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2019.07.30, 11:49
Gdyby w cenie SSD 1TB dali hybrydę 256GB SSD + 4TB HDD (gdzie HDD byłby cichy i z dobrym odczytem liniowym; czas dostępu nie taki ważny, bo od tego byłby moduł SSD) i do tego od strony oprogramowania zostałoby to dobrze rozwiązane (nie gorzej niż w FuzeDrive) to wg mnie miałoby to sens. Zwłaszcza dla osób, które trzymają dużo poinstalowanych gier/programów i chcą mieć je wszystkie 'akcelerowane' (na SSD 1TB musieliby jednak wybierać i albo odinstalować część gier/programów, albo trzymać je na wolnym HDD).

A czy takie coś ma jakąś przyszłość to głownie zależy od tego, czy tempo pęcznienia oprogramowania będzie wyższe od tempa spadku cen coraz pojemniejszych SSD ;)
Zaloguj się, by móc komentować
1