Ciekawe rozwiązanie, i z początku też się dziwiłem czemu wcześniej nikt na to nie w padł. W sumie i potrzebne na rynku, bo są na to klienci, nie wszyscy chcą taszczyć za sobą HDD z kabelkami.
Wydajność jeszcze, co widać w niektórych testach jest dużo gorsza, a zadziwia fakt że w paru dosłownie wygrał o przysłowiowy włos ale wygrał. Kopiowanie z ssd do hdd i na odwrót odbywa się w elektronice tylko i wyłącznie dysku, płyta główna bierze w tym taki udział że poprzez kliknięcie myszką wysyłamy tylko informację do dysku aby kopiowanie się zaczęło. A Producent umiejętnie sparował elektronikę z oprogramowaniem bo wie dokładnie z jakimi dyskami to robi. W przypadku tradycyjnego rozwiązania mamy mnóstwo kombinacji, płyta główna i jego mostki, procesor, ram, dysk ssd i hdd mogą być z różnych stajni. Do tego oprogramowanie wszystko musi hulać razem, musi być uniwersalne. Jak ktoś umie dobrze z konfigurować PC to pół biedy, ale nie zmienimy faktu że każdy elektron mysi przelecieć przez płytę główną. I potem są takie chocki klocki jak z kontrolerem sandforce. Bo chipset, bo firmware, a tu proszę ominiemy ten problem. Pojawia się tylko zgrzyt gdy w pracy obu dysków wtrąca się płyty główna, czyli w chwili gdy jakieś dane są modyfikowane, przeliczane i ponownie zapisywane. Nawet jeśli producent dopracuje ten pomysł to ma do dyspozycji jedno wejście SATA 3.0. co widać też przy wyszukiwaniu. Może gdy opracują nowy standard SATA to rozwiązanie podbije rynek i okaże się że najlepiej zgra dwa rodzaje nośników tylko i wyłącznie producent tych dysków. Mi się pomysł podoba. Dysk przejdzie przez okres błędów poprodukcyjnych, dopracują poprawki aby podczas współpracy z płytą główna wykorzystać maksymalnie SATA 3.0. Moim kolejnym ruchem było by wypuszczenia dysku do PC z wejściem 2xSATA3.0, a dysk 1xSATA3.0 zostawił do wykorzystania w laptopach gdzie mamy ograniczone miejsce.
Tylko ta cena? I co gdy zawiedzie jeden z dysków? 1200zł do śmieci. Może serwis coś tam podłubie i postawi go na nogi, ale w przypadku tradycyjnego rozwiązania mamy 700zł i to w relacji 300+400. Więc jak coś padnie to trochę portfel się mniej poci.
W sumie to napisałem to co redakcja ale nie będę już kasował tyle klikania a niech zajmuje przestrzeń wirtualną
Z tego co widzę wąskim gardłem wydajności jest multiplekser. Skoro ssd ma maksymalny odczyt ~400MB/s, hdd ~100MB/s, to do zapełnienia interfejsu sata jeszcze ciut brakuje.
Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata. Niestety od momentu wprowadzenia urządzeń magazynujących chyba nic się nie zmieniło, trzeba wczytać z dysku do pamięci, a potem znowu wysłać na dysk w inną lokalizację. W przypadku takich urządzeń traci się na wydajności przy wielu zadaniach.
Cena faktycznie za duża, bo za niewiele więcej można mieć ssd 500GB, a to już chyba wystarczy większości użytkownikom. Dysk powinien kosztować niewiele więcej niż tandem ssd+hdd kupowany oddzielnie.
Ale są takie zastosowania,kiedy musisz mieć X pojemności, do pracy choćby nawet. I wtedy cena ma drugorzędne znaczenie.
Wtedy biorę SSD i zewnętrzny na USB i mam 500zł w kieszeni.
Chyba,że płaci firma/uniwersytet/rząd to wtedy Ci to lata ile kosztuje dany dysk, bo kupujesz to,co jest potrzebne do pracy,a nie nosisz paru urządzeń ze sobą, żeby oszczędzić 500zł,bo Twój czas jest ważniejszy od tego.
name='Bono[UG]' date='2013.12.05 13:55' post='707084']Z tego co widzę wąskim gardłem wydajności jest multiplekser. Skoro ssd ma maksymalny odczyt ~400MB/s, hdd ~100MB/s, to do zapełnienia interfejsu sata jeszcze ciut brakuje.
Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata. Niestety od momentu wprowadzenia urządzeń magazynujących chyba nic się nie zmieniło, trzeba wczytać z dysku do pamięci, a potem znowu wysłać na dysk w inną lokalizację. W przypadku takich urządzeń traci się na wydajności przy wielu zadaniach.
Czyli co? Mimo iż dwa dyski siedzą spętane jedną elektroniką to nie działa tak jak sobie to wyobrażałem. Weeeee to faktycznie kicha. Bo jeśli każde 0 i 1 musi i tak grzać do płyty głównej zostać zapisane w pamięci przetrzepane przez procek i potem dopiero zapindalać do drugiego dysku, to idea takiego rozwiązania trochę mniej mi się podoba. A co do przepustowości MB to nie ma już tak dużego zapasu SATA 3 (6Gbit/s, 600 MB/s) i 7 pinow, zaprojektowana była do komunikacji z jednym nośnikem. Uważam że trochę robi się wąskie gardło do wysyłania i odbierania w obie strony informacji z dwóch nośników może braknąć paru pinów.
Warto dodać jeszcze, że nosząc ze sobą dysk zewnętrzny ryzyko jego 'zejścia' jest wielokrotnie większe niż gdy jest w środku obudowy.
Warto tutaj pamiętać jeszcze o jednym: WD jakiś czas temu wydało najbardziej pojemny na rynku dysk UltraSlim (który przy okazji też trochę kosztuje za GB), tutaj pewnie jest ta sama technologia, bo kości SSD gdzieś muszą się zmieścić.
A taki dysk jest idealny do pracy - wszystkie programy na SSD i wszystkie multimedia i kopie zapasowe na HDD.
Witam
A ja mam inny pomysł dla desktopów..
Jak wiemy SATAIII staje się wąskim gardłem dla nowoczesnych konstrukcji.
A gdyby tak wypuścić dysk z dwoma złączami SATA. Na początku dysk by działał jednokanałowo, a po zainstalowaniu systemu i odp. sterownika załączony by został drugi kanał (drugi kabel SATA) i dysk mógłby przyspieszyć do np. 700-800 MB/s .
Opcja dwukanałowa mogłaby działać w dwóch trybach:
- własnym (wymagany sterownik)
- RAID0 (wystarczy płyta z obsługą raida)
Już w czasach interfejsów ATA istniało bezpośrednie kopiowanie: http://www.hgst.com/tech/techlib.nsf/techd...paper_FINAL.pdf
więc procesor ma tu za zadanie wskazywanie kolejnych fragmentów do skopiowania itp. Inaczej ma się sprawa, jeśli musi analizować dane np. szyfrowanie. Fakt, że implementacja tych algorytmów mogła by być znacznie lepsza, ale co poradzić...
MarasK
No tak masz racje, tu nie chodzi o 0 i 1 ale jeszcze o informacje lokalizacji każdego wiersza. Już rozumie co miał na myśli Bono[UG] :
'Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata.'
Przecież nawet jak na jednym dysku odbywa się kopiowanie miedzy partycjami, to wszystko się tłucze przez całe bebechy. Z kopiowanie w zakresie jednej partycji polega tylko na przepisaniu ścieżki dostępu, nie było potrzeby podnosić fizycznie danych z talerza dysku w inne miejsce tej samej partycji. Ciekawe jak jest na dysku SSD który ma dwie partycje? Jeśli i tutaj tez miedzy partycjami wszystko idzie przez bebechy to siadamy chłopaki nad algorytmem. Wniosek taki, że jak wszystko na tym świecie, udoskonalamy cały czas ten sam patent a chłopaki od marketingu tylko dzielą zyski kroczek po kroczku technologicznego tortu.
MarasK
No tak masz racje, tu nie chodzi o 0 i 1 ale jeszcze o informacje lokalizacji każdego wiersza. Już rozumie co miał na myśli Bono[UG] :
'Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata.'
Przecież nawet jak na jednym dysku odbywa się kopiowanie miedzy partycjami, to wszystko się tłucze przez całe bebechy. Z kopiowanie w zakresie jednej partycji polega tylko na przepisaniu ścieżki dostępu, nie było potrzeby podnosić fizycznie danych z talerza dysku w inne miejsce tej samej partycji. Ciekawe jak jest na dysku SSD który ma dwie partycje? Jeśli i tutaj tez miedzy partycjami wszystko idzie przez bebechy to siadamy chłopaki nad algorytmem. Wniosek taki, że jak wszystko na tym świecie, udoskonalamy cały czas ten sam patent a chłopaki od marketingu tylko dzielą zyski kroczek po kroczku technologicznego tortu.
Ale Panowie....przenoszenie pliku z miejsca A do B na dysku,to nie jest tylko i wyłącznie kwestia skopiowania jego zer i jedynek. W normalnych systemach plików wiąże się to ze zmianami w dzienniku, o którego istnieniu dysk nie ma zielonego pojęcia. Tym zarządza system - dysk ma zbyt mało informacji aby taką operację przeprowadzić samodzielnie. Chyba,że sugerujecie,aby dyski miały wbudowane kontrolery obsługujące systemy NTFS, EXT3/4,HFS i tak dalej.....ale wtedy ponownie - dane i tak czy siak muszą przejść przez jakiś układ scalony który zadecyduje co z nimi zrobić - przyrost szybkości byłby taki,że żaden. Że już nie mówię o sytuacjach,gdy mamy włączone szyfrowanie systemu danych - wtedy dane muszą przejść przez CPU albo kontroler dyskowy obsługujący szyfrowanie.
MarasK
No tak masz racje, tu nie chodzi o 0 i 1 ale jeszcze o informacje lokalizacji każdego wiersza. Już rozumie co miał na myśli Bono[UG] :
'Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata.'
Przecież nawet jak na jednym dysku odbywa się kopiowanie miedzy partycjami, to wszystko się tłucze przez całe bebechy. Z kopiowanie w zakresie jednej partycji polega tylko na przepisaniu ścieżki dostępu, nie było potrzeby podnosić fizycznie danych z talerza dysku w inne miejsce tej samej partycji. Ciekawe jak jest na dysku SSD który ma dwie partycje? Jeśli i tutaj tez miedzy partycjami wszystko idzie przez bebechy to siadamy chłopaki nad algorytmem. Wniosek taki, że jak wszystko na tym świecie, udoskonalamy cały czas ten sam patent a chłopaki od marketingu tylko dzielą zyski kroczek po kroczku technologicznego tortu.
Ale Panowie....przenoszenie pliku z miejsca A do B na dysku,to nie jest tylko i wyłącznie kwestia skopiowania jego zer i jedynek. W normalnych systemach plików wiąże się to ze zmianami w dzienniku, o którego istnieniu dysk nie ma zielonego pojęcia. Tym zarządza system - dysk ma zbyt mało informacji aby taką operację przeprowadzić samodzielnie. Chyba,że sugerujecie,aby dyski miały wbudowane kontrolery obsługujące systemy NTFS, EXT3/4,HFS i tak dalej.....ale wtedy ponownie - dane i tak czy siak muszą przejść przez jakiś układ scalony który zadecyduje co z nimi zrobić - przyrost szybkości byłby taki,że żaden. Że już nie mówię o sytuacjach,gdy mamy włączone szyfrowanie systemu danych - wtedy dane muszą przejść przez CPU albo kontroler dyskowy obsługujący szyfrowanie.
Wiemy o tym co piszesz, piszemy w dużym uproszczeniu o całej logice funkcjonowania zapisu i odczytu danych. Tylko po co w zakresie jednego dysku który jest na jednej elektronice i kontrolerze przepierdziela on cały proces z partycji na partycje, po prostu ograniczenia mechaniczne i magnetyczne nie pozwalają na taki bałagan. A połączenie dysku SSD z HDD powoduje że nadal nie eliminujemy wąskiego gardła. Wady i zalety poszczególnych nośników znamy. Ale chodzi o to aby tak to zrobić aby przynajmniej za jedną elektroniką i kontrolerem nie mielić tego na okrągło, tylko to co podlega modyfikacji. Ta logika miała sens jak na rynku były tylko magnetyczne dyski, teraz przy SSD trochę dziwi.
Zgadza się, że tak czy inaczej jakiś sprzęt musi wykonać robotę. Zgadza się także, że to system operacyjny zna strukturę systemu plików i to on musi wydać komendę skąd czytać i dokąd pisać. Jednak można by usprawnić mechanizm nie przenosząc danych do lokalnej pamięci komputera, a wykorzystując wewnętrzną dysku. Zyskujemy czas potrzebny na transfer po interfejsie sata (fizyczne przesłanie + narzut protokołu).
Po kablu idą tylko rozkazy skąd dokąd i kontrolne, modyfikacja dzienników.
Wśród kilkuletnich laptopów też jest opcja posiadania SSD + HDD wewnątrz, nawet wśród 13-14 calowców
Mam na myśli biznesowe serie Della, Lenovo, HP i Fujitsu, w których w miejscu czytnika DVD można zamiennie używać kieszeń na 2,5 calowy HDD lub SSD.
Sam tak używam T400 (SSD w miejscu dysku, dysk w kieszeni) na miejscu nagrywarki DVD) i z czytnika/nagrywarki DVD korzystam tak rzadko, że rozwiązanie się świetnie sprawdziło, a sam laptop mimo wieku działa teraz bardzo kulturalnie.
To rozwiązanie WD z artykułu bardzo ciekawe, tylko cena, niestety, już nieciekawa.
Jednak można by usprawnić mechanizm nie przenosząc danych do lokalnej pamięci komputera, a wykorzystując wewnętrzną dysku. Zyskujemy czas potrzebny na transfer po interfejsie sata (fizyczne przesłanie + narzut protokołu).
Po kablu idą tylko rozkazy skąd dokąd i kontrolne, modyfikacja dzienników.
Fajnie sobie pofantazjować i teoretycznie jest to do zrobienia, ale gdyby te wasze fantastyczne wizje próbować zrealizować to po pierwsze trzeba by znacząco rozbudować zestaw komend sterujących dyskiem, w związku z czym po drugie musiałby tenże dysk dostać znacznie bardziej zaawansowaną elektronikę i oprogramowanie (komunikacja zwrotna do systemu z tym co i jak robi/zrobił itd), no a poza tym pamięć podręczna dysku jest zwykle nieduża a prędkości zapisu/odczytu rosną coraz bardziej, co wiązałoby się z dużym chrobotaniem głowicami przerzucającymi małe paczki danych, większym niż gdy się do buforowania wykorzysta pamięć systemową. W skrócie - nie warto, i dlatego jest jak jest.
PS Bono, Twoje nawiasy kwadratowe w nicku psują kłoty.
Przy kopiowaniu w obrębie tego samego dysku ustawiałem w totalu bufor 10MB, większy nic nie dawał. Obecne dyski mają po 64MB pamięci, więc nie powinno być problemu z buforem np. 16MB.
Nowe instrukcje są konieczne. Elektronika i algorytmy w ssd są o wiele bardziej skomplikowane i nikt nie robi problemu. Zresztą już zaimplementowane algorytmy typu NCQ czy pozycjonowania głowicy też do prostych nie należą.
W warstwie programów jaki piszemy to wygląda dużo prościej: odczytaj ten plik, zapisz tamten. W warstwie sterownika pewnie w stylu zrób operację na takim sektorze. Co faktycznie wykona dysk i z jakimi problemami się boryka, to zupełnie inna kwestia.
PS. wiem, należy się cieszyć, że nie dałem czegoś w stylu drop table
co to jest dysk 1TB w tych czasach,. Jakby zrobili 120GB SSD lub 256GB SSD i 2-3TB HDD w jednej obudowie jak ten to oplacaloby sie. Ja mam 1TB+512MB przenosny+80GB stary tez służy do przenoszenia danych i brakuje mi siagle miejsca i musze cos z bolem wywalac.
Ale jesli chodzi o laptopa to tu sie zgodze jest idealnie. mamy i szybki pojemny ssd jka i hdd pojemny jak na laptopy. proste rozwiazanie. ssd system i programy a na hdd dane.
Tylko w przypadku laptopów np 15 cal zawsze można kupić dysk 128/120GB jako podstawowy, wyrzucić napęd do obudowy, obudowa do napędu na dysk 1TB tym. Taka operacja około 100zł.
Chyba to jest najlepsze rozwiązanie bo z napędu mało kto korzysta, bardziej okazyjnie niż ciągle.
Opłaca się tylko wtedy kiedy chcemy go wsadzić do laptopa który niema miejsca na 2 dyski i rzeczywiście potrzebujemy te 1 TB na filmy itp. BO 'zawrotna' prędkość 5400 obrotów na dzisiejsze gry programy itp się nie nadaje. C
Jeżeli do stacjonarnego kompa, to nie opłaca się!!!!!!!!!!!
W podobnej cenie można zamontować sobie SSD 500GB.
Dyski 5400 obrotów są koszmarnie wolne przy obsłudze dużej ilości danych. A jak nie trzeba obrabiać dużej ilości danych to po co taki dysk ....
Wydajność jeszcze, co widać w niektórych testach jest dużo gorsza, a zadziwia fakt że w paru dosłownie wygrał o przysłowiowy włos ale wygrał. Kopiowanie z ssd do hdd i na odwrót odbywa się w elektronice tylko i wyłącznie dysku, płyta główna bierze w tym taki udział że poprzez kliknięcie myszką wysyłamy tylko informację do dysku aby kopiowanie się zaczęło. A Producent umiejętnie sparował elektronikę z oprogramowaniem bo wie dokładnie z jakimi dyskami to robi. W przypadku tradycyjnego rozwiązania mamy mnóstwo kombinacji, płyta główna i jego mostki, procesor, ram, dysk ssd i hdd mogą być z różnych stajni. Do tego oprogramowanie wszystko musi hulać razem, musi być uniwersalne. Jak ktoś umie dobrze z konfigurować PC to pół biedy, ale nie zmienimy faktu że każdy elektron mysi przelecieć przez płytę główną. I potem są takie chocki klocki jak z kontrolerem sandforce. Bo chipset, bo firmware, a tu proszę ominiemy ten problem. Pojawia się tylko zgrzyt gdy w pracy obu dysków wtrąca się płyty główna, czyli w chwili gdy jakieś dane są modyfikowane, przeliczane i ponownie zapisywane. Nawet jeśli producent dopracuje ten pomysł to ma do dyspozycji jedno wejście SATA 3.0. co widać też przy wyszukiwaniu. Może gdy opracują nowy standard SATA to rozwiązanie podbije rynek i okaże się że najlepiej zgra dwa rodzaje nośników tylko i wyłącznie producent tych dysków. Mi się pomysł podoba. Dysk przejdzie przez okres błędów poprodukcyjnych, dopracują poprawki aby podczas współpracy z płytą główna wykorzystać maksymalnie SATA 3.0. Moim kolejnym ruchem było by wypuszczenia dysku do PC z wejściem 2xSATA3.0, a dysk 1xSATA3.0 zostawił do wykorzystania w laptopach gdzie mamy ograniczone miejsce.
Tylko ta cena? I co gdy zawiedzie jeden z dysków? 1200zł do śmieci. Może serwis coś tam podłubie i postawi go na nogi, ale w przypadku tradycyjnego rozwiązania mamy 700zł i to w relacji 300+400. Więc jak coś padnie to trochę portfel się mniej poci.
W sumie to napisałem to co redakcja ale nie będę już kasował
Ale są takie zastosowania,kiedy musisz mieć X pojemności, do pracy choćby nawet. I wtedy cena ma drugorzędne znaczenie.
Wtedy biorę SSD i zewnętrzny na USB i mam 500zł w kieszeni.
Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata. Niestety od momentu wprowadzenia urządzeń magazynujących chyba nic się nie zmieniło, trzeba wczytać z dysku do pamięci, a potem znowu wysłać na dysk w inną lokalizację. W przypadku takich urządzeń traci się na wydajności przy wielu zadaniach.
Cena faktycznie za duża, bo za niewiele więcej można mieć ssd 500GB, a to już chyba wystarczy większości użytkownikom. Dysk powinien kosztować niewiele więcej niż tandem ssd+hdd kupowany oddzielnie.
Ale są takie zastosowania,kiedy musisz mieć X pojemności, do pracy choćby nawet. I wtedy cena ma drugorzędne znaczenie.
Wtedy biorę SSD i zewnętrzny na USB i mam 500zł w kieszeni.
Chyba,że płaci firma/uniwersytet/rząd to wtedy Ci to lata ile kosztuje dany dysk, bo kupujesz to,co jest potrzebne do pracy,a nie nosisz paru urządzeń ze sobą, żeby oszczędzić 500zł,bo Twój czas jest ważniejszy od tego.
Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata. Niestety od momentu wprowadzenia urządzeń magazynujących chyba nic się nie zmieniło, trzeba wczytać z dysku do pamięci, a potem znowu wysłać na dysk w inną lokalizację. W przypadku takich urządzeń traci się na wydajności przy wielu zadaniach.
Czyli co? Mimo iż dwa dyski siedzą spętane jedną elektroniką to nie działa tak jak sobie to wyobrażałem. Weeeee to faktycznie kicha. Bo jeśli każde 0 i 1 musi i tak grzać do płyty głównej zostać zapisane w pamięci przetrzepane przez procek i potem dopiero zapindalać do drugiego dysku, to idea takiego rozwiązania trochę mniej mi się podoba. A co do przepustowości MB to nie ma już tak dużego zapasu SATA 3 (6Gbit/s, 600 MB/s) i 7 pinow, zaprojektowana była do komunikacji z jednym nośnikem. Uważam że trochę robi się wąskie gardło do wysyłania i odbierania w obie strony informacji z dwóch nośników może braknąć paru pinów.
Warto tutaj pamiętać jeszcze o jednym: WD jakiś czas temu wydało najbardziej pojemny na rynku dysk UltraSlim (który przy okazji też trochę kosztuje za GB), tutaj pewnie jest ta sama technologia, bo kości SSD gdzieś muszą się zmieścić.
A taki dysk jest idealny do pracy - wszystkie programy na SSD i wszystkie multimedia i kopie zapasowe na HDD.
A ja mam inny pomysł dla desktopów..
Jak wiemy SATAIII staje się wąskim gardłem dla nowoczesnych konstrukcji.
A gdyby tak wypuścić dysk z dwoma złączami SATA. Na początku dysk by działał jednokanałowo, a po zainstalowaniu systemu i odp. sterownika załączony by został drugi kanał (drugi kabel SATA) i dysk mógłby przyspieszyć do np. 700-800 MB/s
Opcja dwukanałowa mogłaby działać w dwóch trybach:
- własnym (wymagany sterownik)
- RAID0 (wystarczy płyta z obsługą raida)
Proste?
Pozdrawiam
http://www.hgst.com/tech/techlib.nsf/techd...paper_FINAL.pdf
więc procesor ma tu za zadanie wskazywanie kolejnych fragmentów do skopiowania itp. Inaczej ma się sprawa, jeśli musi analizować dane np. szyfrowanie. Fakt, że implementacja tych algorytmów mogła by być znacznie lepsza, ale co poradzić...
No tak masz racje, tu nie chodzi o 0 i 1 ale jeszcze o informacje lokalizacji każdego wiersza. Już rozumie co miał na myśli Bono[UG] :
'Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata.'
Przecież nawet jak na jednym dysku odbywa się kopiowanie miedzy partycjami, to wszystko się tłucze przez całe bebechy. Z kopiowanie w zakresie jednej partycji polega tylko na przepisaniu ścieżki dostępu, nie było potrzeby podnosić fizycznie danych z talerza dysku w inne miejsce tej samej partycji. Ciekawe jak jest na dysku SSD który ma dwie partycje? Jeśli i tutaj tez miedzy partycjami wszystko idzie przez bebechy to siadamy chłopaki nad algorytmem. Wniosek taki, że jak wszystko na tym świecie, udoskonalamy cały czas ten sam patent a chłopaki od marketingu tylko dzielą zyski kroczek po kroczku technologicznego tortu.
No tak masz racje, tu nie chodzi o 0 i 1 ale jeszcze o informacje lokalizacji każdego wiersza. Już rozumie co miał na myśli Bono[UG] :
'Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata.'
Przecież nawet jak na jednym dysku odbywa się kopiowanie miedzy partycjami, to wszystko się tłucze przez całe bebechy. Z kopiowanie w zakresie jednej partycji polega tylko na przepisaniu ścieżki dostępu, nie było potrzeby podnosić fizycznie danych z talerza dysku w inne miejsce tej samej partycji. Ciekawe jak jest na dysku SSD który ma dwie partycje? Jeśli i tutaj tez miedzy partycjami wszystko idzie przez bebechy to siadamy chłopaki nad algorytmem. Wniosek taki, że jak wszystko na tym świecie, udoskonalamy cały czas ten sam patent a chłopaki od marketingu tylko dzielą zyski kroczek po kroczku technologicznego tortu.
Ale Panowie....przenoszenie pliku z miejsca A do B na dysku,to nie jest tylko i wyłącznie kwestia skopiowania jego zer i jedynek. W normalnych systemach plików wiąże się to ze zmianami w dzienniku, o którego istnieniu dysk nie ma zielonego pojęcia. Tym zarządza system - dysk ma zbyt mało informacji aby taką operację przeprowadzić samodzielnie. Chyba,że sugerujecie,aby dyski miały wbudowane kontrolery obsługujące systemy NTFS, EXT3/4,HFS i tak dalej.....ale wtedy ponownie - dane i tak czy siak muszą przejść przez jakiś układ scalony który zadecyduje co z nimi zrobić - przyrost szybkości byłby taki,że żaden. Że już nie mówię o sytuacjach,gdy mamy włączone szyfrowanie systemu danych - wtedy dane muszą przejść przez CPU albo kontroler dyskowy obsługujący szyfrowanie.
No tak masz racje, tu nie chodzi o 0 i 1 ale jeszcze o informacje lokalizacji każdego wiersza. Już rozumie co miał na myśli Bono[UG] :
'Drugi problem to przestarzałe algorytmy lub systemy plików. Kopiowanie danych w obrębie jednego dysku nie powinno angażować prawie wcale CPU i przepustowości sata.'
Przecież nawet jak na jednym dysku odbywa się kopiowanie miedzy partycjami, to wszystko się tłucze przez całe bebechy. Z kopiowanie w zakresie jednej partycji polega tylko na przepisaniu ścieżki dostępu, nie było potrzeby podnosić fizycznie danych z talerza dysku w inne miejsce tej samej partycji. Ciekawe jak jest na dysku SSD który ma dwie partycje? Jeśli i tutaj tez miedzy partycjami wszystko idzie przez bebechy to siadamy chłopaki nad algorytmem. Wniosek taki, że jak wszystko na tym świecie, udoskonalamy cały czas ten sam patent a chłopaki od marketingu tylko dzielą zyski kroczek po kroczku technologicznego tortu.
Ale Panowie....przenoszenie pliku z miejsca A do B na dysku,to nie jest tylko i wyłącznie kwestia skopiowania jego zer i jedynek. W normalnych systemach plików wiąże się to ze zmianami w dzienniku, o którego istnieniu dysk nie ma zielonego pojęcia. Tym zarządza system - dysk ma zbyt mało informacji aby taką operację przeprowadzić samodzielnie. Chyba,że sugerujecie,aby dyski miały wbudowane kontrolery obsługujące systemy NTFS, EXT3/4,HFS i tak dalej.....ale wtedy ponownie - dane i tak czy siak muszą przejść przez jakiś układ scalony który zadecyduje co z nimi zrobić - przyrost szybkości byłby taki,że żaden. Że już nie mówię o sytuacjach,gdy mamy włączone szyfrowanie systemu danych - wtedy dane muszą przejść przez CPU albo kontroler dyskowy obsługujący szyfrowanie.
Wiemy o tym co piszesz, piszemy w dużym uproszczeniu o całej logice funkcjonowania zapisu i odczytu danych. Tylko po co w zakresie jednego dysku który jest na jednej elektronice i kontrolerze przepierdziela on cały proces z partycji na partycje, po prostu ograniczenia mechaniczne i magnetyczne nie pozwalają na taki bałagan. A połączenie dysku SSD z HDD powoduje że nadal nie eliminujemy wąskiego gardła. Wady i zalety poszczególnych nośników znamy. Ale chodzi o to aby tak to zrobić aby przynajmniej za jedną elektroniką i kontrolerem nie mielić tego na okrągło, tylko to co podlega modyfikacji. Ta logika miała sens jak na rynku były tylko magnetyczne dyski, teraz przy SSD trochę dziwi.
Po kablu idą tylko rozkazy skąd dokąd i kontrolne, modyfikacja dzienników.
tylko jak jesteś na pc... laptopy miały tutaj zawsze spore ograniczenie...
A moim zdaniem to świetny kompromis, dla laptopów...
Jeżeli dobrze pamiętam były jeszcze napędy z SSD
Mam na myśli biznesowe serie Della, Lenovo, HP i Fujitsu, w których w miejscu czytnika DVD można zamiennie używać kieszeń na 2,5 calowy HDD lub SSD.
Sam tak używam T400 (SSD w miejscu dysku, dysk w kieszeni) na miejscu nagrywarki DVD) i z czytnika/nagrywarki DVD korzystam tak rzadko, że rozwiązanie się świetnie sprawdziło, a sam laptop mimo wieku działa teraz bardzo kulturalnie.
To rozwiązanie WD z artykułu bardzo ciekawe, tylko cena, niestety, już nieciekawa.
Po kablu idą tylko rozkazy skąd dokąd i kontrolne, modyfikacja dzienników.
Fajnie sobie pofantazjować i teoretycznie jest to do zrobienia, ale gdyby te wasze fantastyczne wizje próbować zrealizować to po pierwsze trzeba by znacząco rozbudować zestaw komend sterujących dyskiem, w związku z czym po drugie musiałby tenże dysk dostać znacznie bardziej zaawansowaną elektronikę i oprogramowanie (komunikacja zwrotna do systemu z tym co i jak robi/zrobił itd), no a poza tym pamięć podręczna dysku jest zwykle nieduża a prędkości zapisu/odczytu rosną coraz bardziej, co wiązałoby się z dużym chrobotaniem głowicami przerzucającymi małe paczki danych, większym niż gdy się do buforowania wykorzysta pamięć systemową. W skrócie - nie warto, i dlatego jest jak jest.
PS Bono, Twoje nawiasy kwadratowe w nicku psują kłoty.
Nowe instrukcje są konieczne. Elektronika i algorytmy w ssd są o wiele bardziej skomplikowane i nikt nie robi problemu. Zresztą już zaimplementowane algorytmy typu NCQ czy pozycjonowania głowicy też do prostych nie należą.
W warstwie programów jaki piszemy to wygląda dużo prościej: odczytaj ten plik, zapisz tamten. W warstwie sterownika pewnie w stylu zrób operację na takim sektorze. Co faktycznie wykona dysk i z jakimi problemami się boryka, to zupełnie inna kwestia.
PS. wiem, należy się cieszyć, że nie dałem czegoś w stylu drop table
Ale jesli chodzi o laptopa to tu sie zgodze jest idealnie. mamy i szybki pojemny ssd jka i hdd pojemny jak na laptopy. proste rozwiazanie. ssd system i programy a na hdd dane.
Chyba to jest najlepsze rozwiązanie bo z napędu mało kto korzysta, bardziej okazyjnie niż ciągle.
Jeżeli do stacjonarnego kompa, to nie opłaca się!!!!!!!!!!!
Dyski 5400 obrotów są koszmarnie wolne przy obsłudze dużej ilości danych. A jak nie trzeba obrabiać dużej ilości danych to po co taki dysk ....