Acha, i odłożysz SSDka na półkę a podłączysz jeden ze starych dysków talerzowych? Nie możesz nadążyć za komputerem i celowo go zwalniasz?
A kto powiedział o posiadaniu jednego SSD? Mam z 10 sztuk różnych od 60GB po 750GB. Czasem zrobię klona na któryś z dysków i po teście leży w szufladzie nieużywany. Szkoda wyrzucać 60/80/120GB SSD albo sprzedawać za grosze, żeby później instalować jakiegoś W7 x86 by podłączyć jakiś interfejs wymagający takiego Windowsa.
Problemy pierwszego świata. Zdecydowanie dyski ssd a w szczególności tlc nite nadają się na dyski zewnętrzne i awaryjne backupy naszych filmów lub plików instalacyjnych jeśli naszym zamierzeniem jest przechowywać je nieużywane długimi miesiącami, w wypadku biblioteki filmów często latami. Co takich celów kupuje się zewnętrzny dysk hdd najlepiej 2.5 cal, bo uniwersalny a jak ktoś ma naprawdę dużo filmów może pokusić się o prosty nas. Jest to praktyczne i umożliwia przenoszenie całej biblioteki w łatwy sposób i korzystanie z niej w dowolnych warunkach po podłączeniu do usb. Na rozumiem, że staroci 60 gb nie opłaca się sprzedawać ale one zostały stworzone z myślą o pracy jako dyski zewnętrzne i jest to dość oczywiste, że się do tego nie nadają. W wielu przypadkach można rupieciarnie zastąpić pendrivem i jest to o niebo wygodniejsze rozwiązanie. Jak ktoś ma dużo zdjęć, filmów to oczywiście najlepiej i najbezpieczniej poprostu mieć dysk zewnętrzny.
Oczywiście dla większości użytkowników domowych nie ma to znaczenia, dla niech ważniejsza jest niezawodność nośnika.
{potrzebne źródło}
To co ty przedstawiasz to tylko twoje 'Ja tak myślę.'.
Zresztą niezawodność nośnika jest bez znaczenia jeżeli nie ma backupu.
Chyba nie zrozumiałeś o czym piszę.
pwil @ 2018.02.23 18:33
Vendeur @ 2018.02.23 17:29
Po to, że niektórzy nie tylko instalują, ale także kopiują duże ilości danych i wtedy różnica w transferze staje się zauważalna. Oczywiście dla większości użytkowników domowych nie ma to znaczenia, dla niech ważniejsza jest niezawodność nośnika.
Kopiują tak z miejsca na miejsce... ciekawe zajęcie
Może przy 15TB można by się 'rozpędzić' z obróbką nieskompresowanego materiału, a tak to i tak jakiekolwiek przetwarzanie danych/kompresja powoduje, że prędkość przetwarzania danych wejściowych będzie niższa od tych setek GB.
W większości sytuacji znaczenie prędkości kopiowania wynika stąd, że pojemność jest ograniczona. Photoshop? Liczy się ilość RAMu, a zapisy lecą liniowo w tle. Ładowanie plików ważących po 5GB na dysku? Prędzej SWAPowanie, jak RAMu za mało.
Nie ośmieszaj się więcej takimi bzdurami. Skoro nie rozumiesz na czym polega kopiowanie danych pomiędzy dyskami, to po co zabierasz głos?
Pragnę tylko zwrócić uwagę Autora na jedną rzecz- mianowicie assembled in Mexico zdecydowanie nie wyklucza, że wszystkie komponenty pochodzą z ChRL (Szanghaju w tym konkretnych przypadku). Widocznie teraz taniej klepać te dyski w jedną całość w Meksyku i mieć największy rynek zbytu na elektronikę (poza samymi Chinami oczywiście) zaraz obok.
Koszty produkcji w Chinach mocno wzrosły. Minimalne pensje mają już wyższe niż w Meksyku a obecnie wzeli się za walkę z zanieczyszczeniem więc będą rosły koszty energii i wywozu odpadów. Natomiast dziwne, że w Meksyku a nie w Indiach, Bangladeszu czy Wietnamie.
Pragnę tylko zwrócić uwagę Autora na jedną rzecz- mianowicie assembled in Mexico zdecydowanie nie wyklucza, że wszystkie komponenty pochodzą z ChRL (Szanghaju w tym konkretnych przypadku). Widocznie teraz taniej klepać te dyski w jedną całość w Meksyku i mieć największy rynek zbytu na elektronikę (poza samymi Chinami oczywiście) zaraz obok.
Koszty produkcji w Chinach mocno wzrosły. Minimalne pensje mają już wyższe niż w Meksyku a obecnie wzeli się za walkę z zanieczyszczeniem więc będą rosły koszty energii i wywozu odpadów. Natomiast dziwne, że w Meksyku a nie w Indiach, Bangladeszu czy Wietnamie.
w meksyku póki muru nie ma wkładają prZekraczającym nielegalnie granice po dwie trzy sztuki do kieszeni i voila cła nie ma
Był już w PCLabie test pokazujący, że np. do Photoshopa lepiej mieć 64GB RAMu i HDD, niż mało RAMu i SSD.
To raczej bzdura. Robiłem porównanie 8GB i HDD, później 8GB i SSD i 16GB HDD i 16GB SSD.
'Lightroom Catalog' - bo to on wpływa na wydajność musi być na SSD. Różnica jest kolosalna i daje dużo lepszą responsywność w działaniu programu niż 16GB RAM i HDD.
Nie wiem jak PCLab testował, ale responsywność programu jest najbardziej istotna, a nie to jak długo trwa eksport czy import.
O ile w komputerze/laptopie jest NVME PCIe to dyski SATA straciły już sens. Bo różnica cenowa minimalna a wydajnościowo dosyć duża.
Za to co do kwestii TLC a MLC:
Trwałość MLC to zaleta, ale sposób w jaki większość użytkowników użytkuje dysk SSD powoduje że zbliżenie się do limitów wytrzymałości TLC zajmię dłuuugie lata. Są konkretne osoby które potrzebują MLC, ale zwykle takie osoby są świadome tej potrzeby. Sugerowanie dorzucania xx złotych do MLC każdemu jest rzekłbym lekko fanatyczne.
Też tak myślę. Wydaje mi się że SSD TLC na SATA będą powoli przejmowały funkcje szybkiego magazynu, a na system/wymagające aplikacje będzie NVME.
Problem w tym, że większość kosztów SSD to pamięci. O ile nie pojawią jeszcze wolniejsze ale większe/tańsze systemy pamięci to ceny NVME będą zawsze porównywalne z SATA (dochodzi tylko dopłata za kontroler).
Dodatkowo, jakoś dzisiejsze systemy nie są w stanie wykorzystać transferów jakie proponują NVME. Zwykły użytkownik nie odczuje prawie różnicy posiadając jakby nie było kilka razy szybszy dysk. Ba nawet znacznie droższy Optane z jeszcze większą ilością operacji pazury pokazuje dopiero w profesjonalnych zastosowaniach.
Na benchmarku jest bardzo ciekawy test tych dysków, mają ciekawą procedurę testu pod dłuższym obciążeniem i MX500 wypadają im bardzo dobrze, to dzięki tamtemu testowi zakupiłem MX500 500GB. Wasze testy potwierdzają dobrą wydajność tych dysków. Nie myśleliście o wprowadzeniu podobnej procedury?
Trwałość MLC to zaleta, ale sposób w jaki większość użytkowników użytkuje dysk SSD powoduje że zbliżenie się do limitów wytrzymałości TLC zajmię dłuuugie lata.
Na forum ludzie często pytają, czy 8GB RAM im wystarczy, czy lepiej dokupić te 8GB i mieć 16GB. Kiedy jeszcze ceny nie były poronione, tłumaczyłem im to tak, że 8GB typowemu użytkownikowi starcza spokojnie, ale przy 16GB RAM zapominasz, że coś takiego jak pamięć operacyjna istnieje i może być problemem. Dla domowego użytkownika jest to luksus, ale warto (było, teraz już nie) w niego zainwestować.
W przypadku TLC i MLC jest podobnie. TLC wystarczy dla każdego, ale przy MLC nie zastanawiasz się, czy to wielkie archiwum, które przepakowujesz w te i wewte kilka razy może jednak lepiej by było obrabiać na HDD, bo zaraz będą terabajty lecieć. Sam tak kiedyś miałem, a potem przesiadłem się na MX550 i przestałem się zastanawiać nad czymkolwiek.
Ja mam MX200 i samsunga jakiegoś na MLC ...
Kupione nieco taniej niż te wynalazki i zapominam wszystkich wadach.
...
Zależy z jakich aplikacji korzystasz np. w Adobe Bridge czy Lightroom szybkość dysku ma znaczenie bo odczyt podglądu kilkuset plików będzie znacznie szybszy na NVMe.
Owszem. Ale to są rozwiązania jest dosyć profesjonalne/praca. Mówię o typowym konsumencie treści- internet, filmy, gry, muzyka
Bez przesady Lightroom to narzędzie dla fotografów nie koniecznie profesjonalistów. Wręcz przeciwnie większość użytkowników tego programu to hobbyści.
Pragnę tylko zwrócić uwagę Autora na jedną rzecz- mianowicie assembled in Mexico zdecydowanie nie wyklucza, że wszystkie komponenty pochodzą z ChRL (Szanghaju w tym konkretnych przypadku). Widocznie teraz taniej klepać te dyski w jedną całość w Meksyku i mieć największy rynek zbytu na elektronikę (poza samymi Chinami oczywiście) zaraz obok.
Koszty produkcji w Chinach mocno wzrosły. Minimalne pensje mają już wyższe niż w Meksyku a obecnie wzeli się za walkę z zanieczyszczeniem więc będą rosły koszty energii i wywozu odpadów. Natomiast dziwne, że w Meksyku a nie w Indiach, Bangladeszu czy Wietnamie.
A jakie to ma znacznie w fabrykach które są supernowoczesne, w pełni zautomatyzowane, produkują minimalną ilość odpadów, posiadają systemy pozyskiwania energii np. z ogniw fotowoltaicznych umieszczonych na dachach hal produkcyjnych co jest dzisiaj w zasadzie standardem w celu obniżenia kosztów. To nie są szwalnia zatrudniająca dziesiątki tysięcy osób tylko nowoczesny zakłady, do obsługi których wystarcza kilkadziesiąt osób i są to głównie wykształceni inżynierowie a nie tania siała robocza za kilka dolarów dziennie. Lokalizacja fabryk np. Meksyku jest spowodowana bardziej kosztami i czasem transportu z Azji niż redukcją kosztów samej działalności fabryki. Ciężarówki czy pociągi z Meksyku dostarczą produkt do USA w kilka dni a na transport z statkiem z Chin trzeba czekać kilka tygodni.
Mam pytanko odnośnie wersji 250 GB - przejrzałem ceneo i wychodzi na to , że MX500 jest najtańszym dyskiem w swojej klasie, to skąd w podsumowaniu wadą jest 'Kiepski stosunek pojemności do ceny'
W przypadku premiery APU pojawiła się informacja czy były zainstalowane łaty od Meltdown i Spectre. Czy podczas testów tego dysku też były one zainstalowane, bo nie znalazłmm takiej informacji w artykule?
Nie ma, wszystkie testy robimy na systemie odlaczonym od sieci. Takze od jakiegos czasu zadnych aktualizacji, lacznie z tymi do spectre nie wgrywalismy.
Można było zrobić test dla 250GB przy 90% zapełnieniu. Taki dysk będzie częściej pracować w takich warunkach. Na 1TB było 200GB wolnego miejsca z 'czystymi komórkami'.
Zrobilem, roznice na tym samym poziomie. Wyglada na to ze to juz nie te czasy zeby kontrolery mialy problem ze spadkiem wydajnosci wraz z zapelnieniem. Troche za szybko zeby ten wniosek byl w 100% pewny, ale bede sprawdzal i mysle ze sie z czasem potwierdzi.
Na benchmarku jest bardzo ciekawy test tych dysków, mają ciekawą procedurę testu pod dłuższym obciążeniem i MX500 wypadają im bardzo dobrze, to dzięki tamtemu testowi zakupiłem MX500 500GB. Wasze testy potwierdzają dobrą wydajność tych dysków. Nie myśleliście o wprowadzeniu podobnej procedury?
Nie. Po pierwsze dlatego, ze nie mamy 36h na jeden test jednego nosnika (wykonanie go trzy razy tyle by zajelo). A po drugie dlatego, ze to zupelnie bez sensu. Nikt nie bedzie domowych, budzetowych nosnikow obciazal w 100% probkami 4k po 12h. One nie sa do tego. Juz test szyfrowania VeraCrypt pokazuje jak stabilnie nosniki utrzymuja transfer przy zapelnieniu ich od 0 do 100%. W praktyce nawet tak nie beda nigdy obciazone.
adam_M @ 2018.02.25 19:06
Mam pytanko odnośnie wersji 250 GB - przejrzałem ceneo i wychodzi na to , że MX500 jest najtańszym dyskiem w swojej klasie, to skąd w podsumowaniu wadą jest 'Kiepski stosunek pojemności do ceny'
W przypadku premiery APU pojawiła się informacja czy były zainstalowane łaty od Meltdown i Spectre. Czy podczas testów tego dysku też były one zainstalowane, bo nie znalazłmm takiej informacji w artykule?
Nie ma, wszystkie testy robimy na systemie odlaczonym od sieci. Takze od jakiegos czasu zadnych aktualizacji, lacznie z tymi do spectre nie wgrywalismy.
Dziękuję za wyjaśnienie.
Wydaje mi się jednak, że dobrze by było w szczególności przy testowaniu dysków i sprzętu sieciowego, zamieszczać taką informację w artykule, gdyż jeśli te łaty są zainstalowane I aktywne, to biorąc pod uwagę jak obciążają one komunikację z kernelem, cała platforma robi się bottleneckiem do tych testów - mamy wtedy sytuację podobną do tej, gdy byśmy testowali CPU w grach przy użyciu karty GTX 1050 w rozdzielczości FullHD (gdzie wpadamy na GPU bottleneck i wyniki testów nie odzwierciedlają wszystkich różnic).
GeForce 2 MX400 to akurat nie takie złe skojarzenie Pierwszego Far Cry na tym ustrojstwie przeszedłem
No to musiałeś mieć samozaparcie. Ja na GF4 MX440 64/64 nir byłem w stanie w to grać na 1024x768 w najmniejszych.
Andree @ 2018.02.23 09:28
Ja nie obawiam się wyczerpania możliwości zapisu komórek TLC, tylko tego że jeśli zostawię komputer wyłączony przez długi czas (np. pół roku albo rok), to stracę wszystkie dane. Przecież komórki pamięci Flash powoli tracą zgromadzony ładunek, a w przypadku gdy jest 8 rozróżnialnych poziomów naładowania komórki TLC wcale nie trzeba dużej zmiany poziomu, żeby zmienić dane.
Andree, ale nikt tego nie rozumie, jak widać na PCLabie...
Czy na pewno to dotyczy tylko odłączonych dysków? Jak się tak wczytać w artykuły dostępne w necie, to sam kontroler potrafi emitować takie źródło elektromagnetyczne, że jest wstanie rpzypadkowo poprzestawiać stany niektórych komórek. Teoria, ale... w przypadku MLC tego nie ma.
IMHO na system jest OK, nawet i TLC, ale na przechowywanie danych, to... zalezy jakie dane. Jak film jakiś, to nie szkoda, ale jak zdjęcia dzieci sprzed 10 lat, to wolałbym jednak trzymać na talerzowcu.
Sata3 już nie ma sensu i tylko na magazyn się nadaje ale jak na M.2 ceny pójdą jeszcze w dół to za stare rozwiązanie będzie się przepłacać.Jeżeli rzeczywiście wydadzą Sata4 a patrząc na wzrosty jakie to dokonywało to samo Sata 4 byłoby na wstępie przestarzałe bo 1.2Gbps nie zachwyca teraz więc musieli by zrobić większy skok w przepustowości tego łącza.Kolejny mankament używania Sata3 to ograniczenie ilości IOPS.Nawet jeżeli Sata4 się pojawi to czy przeskoczy tą maksymalną ilość IOPS jakie może wykonać ten standard.
Tak czy inaczej najlepiej kupować SSD opartym na połączeniu M.2 nawet jeżeli skorzysta z PCI EX 3.0 x2.
Drugą sprawą jeżeli rozsądnie podchodzimy do zakupu naszego 'DYSKU' i także składamy nową platformę to przemyślał bym czy warto brać coś co za rok może być przestarzałe i kierować się zasadą logiki.Wszystko i tak rozbija się o kwotę jaką chcemy zainwestować w nową platformę a przecież zbliżamy się do kolejnego przeskoku w wyglądzie nowych gier i zadajcie sobie pytanie czy wasze przyszłe czterowątkowce czy sześciowątkowce przetrwają próbę czasu tak jak chociażby 8/12/16wątkowce.
Ja nie raz jak rozmawiam z ludźmi chcą kupić CPU w cenie do 600złotych i ma starczyć im na lata.Takie coś nie może się udać właśnie teraz bo ci co kupowali rok temu to jeszcze ten jeden rok jakoś wytrzymają ale gdy brałeś sprzęt na 5lat to sam jesteś sobie winny bo każdy ma te dane dostępne od dawna na temat zbliżających się nowych litografii na przykład 10nm i 7nm w przyszłym roku.
Acha, i odłożysz SSDka na półkę a podłączysz jeden ze starych dysków talerzowych? Nie możesz nadążyć za komputerem i celowo go zwalniasz?
A kto powiedział o posiadaniu jednego SSD? Mam z 10 sztuk różnych od 60GB po 750GB. Czasem zrobię klona na któryś z dysków i po teście leży w szufladzie nieużywany. Szkoda wyrzucać 60/80/120GB SSD albo sprzedawać za grosze, żeby później instalować jakiegoś W7 x86 by podłączyć jakiś interfejs wymagający takiego Windowsa.
Problemy pierwszego świata. Zdecydowanie dyski ssd a w szczególności tlc nite nadają się na dyski zewnętrzne i awaryjne backupy naszych filmów lub plików instalacyjnych jeśli naszym zamierzeniem jest przechowywać je nieużywane długimi miesiącami, w wypadku biblioteki filmów często latami. Co takich celów kupuje się zewnętrzny dysk hdd najlepiej 2.5 cal, bo uniwersalny a jak ktoś ma naprawdę dużo filmów może pokusić się o prosty nas. Jest to praktyczne i umożliwia przenoszenie całej biblioteki w łatwy sposób i korzystanie z niej w dowolnych warunkach po podłączeniu do usb. Na rozumiem, że staroci 60 gb nie opłaca się sprzedawać ale one zostały stworzone z myślą o pracy jako dyski zewnętrzne i jest to dość oczywiste, że się do tego nie nadają. W wielu przypadkach można rupieciarnie zastąpić pendrivem i jest to o niebo wygodniejsze rozwiązanie. Jak ktoś ma dużo zdjęć, filmów to oczywiście najlepiej i najbezpieczniej poprostu mieć dysk zewnętrzny.
{potrzebne źródło}
To co ty przedstawiasz to tylko twoje 'Ja tak myślę.'.
Zresztą niezawodność nośnika jest bez znaczenia jeżeli nie ma backupu.
Chyba nie zrozumiałeś o czym piszę.
Po to, że niektórzy nie tylko instalują, ale także kopiują duże ilości danych i wtedy różnica w transferze staje się zauważalna. Oczywiście dla większości użytkowników domowych nie ma to znaczenia, dla niech ważniejsza jest niezawodność nośnika.
Kopiują tak z miejsca na miejsce... ciekawe zajęcie
Może przy 15TB można by się 'rozpędzić' z obróbką nieskompresowanego materiału, a tak to i tak jakiekolwiek przetwarzanie danych/kompresja powoduje, że prędkość przetwarzania danych wejściowych będzie niższa od tych setek GB.
W większości sytuacji znaczenie prędkości kopiowania wynika stąd, że pojemność jest ograniczona. Photoshop? Liczy się ilość RAMu, a zapisy lecą liniowo w tle. Ładowanie plików ważących po 5GB na dysku? Prędzej SWAPowanie, jak RAMu za mało.
Nie ośmieszaj się więcej takimi bzdurami. Skoro nie rozumiesz na czym polega kopiowanie danych pomiędzy dyskami, to po co zabierasz głos?
Koszty produkcji w Chinach mocno wzrosły. Minimalne pensje mają już wyższe niż w Meksyku a obecnie wzeli się za walkę z zanieczyszczeniem więc będą rosły koszty energii i wywozu odpadów. Natomiast dziwne, że w Meksyku a nie w Indiach, Bangladeszu czy Wietnamie.
Koszty produkcji w Chinach mocno wzrosły. Minimalne pensje mają już wyższe niż w Meksyku a obecnie wzeli się za walkę z zanieczyszczeniem więc będą rosły koszty energii i wywozu odpadów. Natomiast dziwne, że w Meksyku a nie w Indiach, Bangladeszu czy Wietnamie.
w meksyku póki muru nie ma wkładają prZekraczającym nielegalnie granice po dwie trzy sztuki do kieszeni i voila cła nie ma
'Lightroom Catalog' - bo to on wpływa na wydajność musi być na SSD. Różnica jest kolosalna i daje dużo lepszą responsywność w działaniu programu niż 16GB RAM i HDD.
Nie wiem jak PCLab testował, ale responsywność programu jest najbardziej istotna, a nie to jak długo trwa eksport czy import.
Za to co do kwestii TLC a MLC:
Trwałość MLC to zaleta, ale sposób w jaki większość użytkowników użytkuje dysk SSD powoduje że zbliżenie się do limitów wytrzymałości TLC zajmię dłuuugie lata. Są konkretne osoby które potrzebują MLC, ale zwykle takie osoby są świadome tej potrzeby. Sugerowanie dorzucania xx złotych do MLC każdemu jest rzekłbym lekko fanatyczne.
Też tak myślę. Wydaje mi się że SSD TLC na SATA będą powoli przejmowały funkcje szybkiego magazynu, a na system/wymagające aplikacje będzie NVME.
Problem w tym, że większość kosztów SSD to pamięci. O ile nie pojawią jeszcze wolniejsze ale większe/tańsze systemy pamięci to ceny NVME będą zawsze porównywalne z SATA (dochodzi tylko dopłata za kontroler).
Dodatkowo, jakoś dzisiejsze systemy nie są w stanie wykorzystać transferów jakie proponują NVME. Zwykły użytkownik nie odczuje prawie różnicy posiadając jakby nie było kilka razy szybszy dysk. Ba nawet znacznie droższy Optane z jeszcze większą ilością operacji pazury pokazuje dopiero w profesjonalnych zastosowaniach.
Trwałość MLC to zaleta, ale sposób w jaki większość użytkowników użytkuje dysk SSD powoduje że zbliżenie się do limitów wytrzymałości TLC zajmię dłuuugie lata.
Na forum ludzie często pytają, czy 8GB RAM im wystarczy, czy lepiej dokupić te 8GB i mieć 16GB. Kiedy jeszcze ceny nie były poronione, tłumaczyłem im to tak, że 8GB typowemu użytkownikowi starcza spokojnie, ale przy 16GB RAM zapominasz, że coś takiego jak pamięć operacyjna istnieje i może być problemem. Dla domowego użytkownika jest to luksus, ale warto (było, teraz już nie) w niego zainwestować.
W przypadku TLC i MLC jest podobnie. TLC wystarczy dla każdego, ale przy MLC nie zastanawiasz się, czy to wielkie archiwum, które przepakowujesz w te i wewte kilka razy może jednak lepiej by było obrabiać na HDD, bo zaraz będą terabajty lecieć. Sam tak kiedyś miałem, a potem przesiadłem się na MX550 i przestałem się zastanawiać nad czymkolwiek.
Ja mam MX200 i samsunga jakiegoś na MLC ...
Kupione nieco taniej niż te wynalazki i zapominam wszystkich wadach.
Zależy z jakich aplikacji korzystasz np. w Adobe Bridge czy Lightroom szybkość dysku ma znaczenie bo odczyt podglądu kilkuset plików będzie znacznie szybszy na NVMe.
Owszem. Ale to są rozwiązania jest dosyć profesjonalne/praca. Mówię o typowym konsumencie treści- internet, filmy, gry, muzyka
Bez przesady Lightroom to narzędzie dla fotografów nie koniecznie profesjonalistów. Wręcz przeciwnie większość użytkowników tego programu to hobbyści.
Koszty produkcji w Chinach mocno wzrosły. Minimalne pensje mają już wyższe niż w Meksyku a obecnie wzeli się za walkę z zanieczyszczeniem więc będą rosły koszty energii i wywozu odpadów. Natomiast dziwne, że w Meksyku a nie w Indiach, Bangladeszu czy Wietnamie.
A jakie to ma znacznie w fabrykach które są supernowoczesne, w pełni zautomatyzowane, produkują minimalną ilość odpadów, posiadają systemy pozyskiwania energii np. z ogniw fotowoltaicznych umieszczonych na dachach hal produkcyjnych co jest dzisiaj w zasadzie standardem w celu obniżenia kosztów. To nie są szwalnia zatrudniająca dziesiątki tysięcy osób tylko nowoczesny zakłady, do obsługi których wystarcza kilkadziesiąt osób i są to głównie wykształceni inżynierowie a nie tania siała robocza za kilka dolarów dziennie. Lokalizacja fabryk np. Meksyku jest spowodowana bardziej kosztami i czasem transportu z Azji niż redukcją kosztów samej działalności fabryki. Ciężarówki czy pociągi z Meksyku dostarczą produkt do USA w kilka dni a na transport z statkiem z Chin trzeba czekać kilka tygodni.
Nie ma, wszystkie testy robimy na systemie odlaczonym od sieci. Takze od jakiegos czasu zadnych aktualizacji, lacznie z tymi do spectre nie wgrywalismy.
Można było zrobić test dla 250GB przy 90% zapełnieniu. Taki dysk będzie częściej pracować w takich warunkach. Na 1TB było 200GB wolnego miejsca z 'czystymi komórkami'.
Zrobilem, roznice na tym samym poziomie. Wyglada na to ze to juz nie te czasy zeby kontrolery mialy problem ze spadkiem wydajnosci wraz z zapelnieniem. Troche za szybko zeby ten wniosek byl w 100% pewny, ale bede sprawdzal i mysle ze sie z czasem potwierdzi.
Nie. Po pierwsze dlatego, ze nie mamy 36h na jeden test jednego nosnika (wykonanie go trzy razy tyle by zajelo). A po drugie dlatego, ze to zupelnie bez sensu. Nikt nie bedzie domowych, budzetowych nosnikow obciazal w 100% probkami 4k po 12h. One nie sa do tego. Juz test szyfrowania VeraCrypt pokazuje jak stabilnie nosniki utrzymuja transfer przy zapelnieniu ich od 0 do 100%. W praktyce nawet tak nie beda nigdy obciazone.
Dlatego:
https://pclab.pl/zdjecia/artykuly/wkoczyk/.../mx500/cena.png
Po prostu bardziej sie oplaca kupic nosniki o wiekszej pojemnosci.
Nie ma, wszystkie testy robimy na systemie odlaczonym od sieci. Takze od jakiegos czasu zadnych aktualizacji, lacznie z tymi do spectre nie wgrywalismy.
Dziękuję za wyjaśnienie.
Wydaje mi się jednak, że dobrze by było w szczególności przy testowaniu dysków i sprzętu sieciowego, zamieszczać taką informację w artykule, gdyż jeśli te łaty są zainstalowane I aktywne, to biorąc pod uwagę jak obciążają one komunikację z kernelem, cała platforma robi się bottleneckiem do tych testów - mamy wtedy sytuację podobną do tej, gdy byśmy testowali CPU w grach przy użyciu karty GTX 1050 w rozdzielczości FullHD (gdzie wpadamy na GPU bottleneck i wyniki testów nie odzwierciedlają wszystkich różnic).
ADATA Ultimate SU800 256 GB
No to musiałeś mieć samozaparcie. Ja na GF4 MX440 64/64 nir byłem w stanie w to grać na 1024x768 w najmniejszych.
Andree, ale nikt tego nie rozumie, jak widać na PCLabie...
Czy na pewno to dotyczy tylko odłączonych dysków? Jak się tak wczytać w artykuły dostępne w necie, to sam kontroler potrafi emitować takie źródło elektromagnetyczne, że jest wstanie rpzypadkowo poprzestawiać stany niektórych komórek. Teoria, ale... w przypadku MLC tego nie ma.
IMHO na system jest OK, nawet i TLC, ale na przechowywanie danych, to... zalezy jakie dane. Jak film jakiś, to nie szkoda, ale jak zdjęcia dzieci sprzed 10 lat, to wolałbym jednak trzymać na talerzowcu.
Tak czy inaczej najlepiej kupować SSD opartym na połączeniu M.2 nawet jeżeli skorzysta z PCI EX 3.0 x2.
Drugą sprawą jeżeli rozsądnie podchodzimy do zakupu naszego 'DYSKU' i także składamy nową platformę to przemyślał bym czy warto brać coś co za rok może być przestarzałe i kierować się zasadą logiki.Wszystko i tak rozbija się o kwotę jaką chcemy zainwestować w nową platformę a przecież zbliżamy się do kolejnego przeskoku w wyglądzie nowych gier i zadajcie sobie pytanie czy wasze przyszłe czterowątkowce czy sześciowątkowce przetrwają próbę czasu tak jak chociażby 8/12/16wątkowce.
Ja nie raz jak rozmawiam z ludźmi chcą kupić CPU w cenie do 600złotych i ma starczyć im na lata.Takie coś nie może się udać właśnie teraz bo ci co kupowali rok temu to jeszcze ten jeden rok jakoś wytrzymają ale gdy brałeś sprzęt na 5lat to sam jesteś sobie winny bo każdy ma te dane dostępne od dawna na temat zbliżających się nowych litografii na przykład 10nm i 7nm w przyszłym roku.