Wlasnie ta sytuacja jest normalna. Duzo osob bierze nieduzy ssd na system, instaluje na nim tez najpotrzebniejsze rzeczy i miejsca zostaje niewiele, bo po co kupowac dysk 64gb i zapelnic ich tylko 20?
Może dlatego, że te 20 GB zajmuje na dzień dobry już sam system operacyjny
Wlasnie ta sytuacja jest normalna. Duzo osob bierze nieduzy ssd na system, instaluje na nim tez najpotrzebniejsze rzeczy i miejsca zostaje niewiele, bo po co kupowac dysk 64gb i zapelnic ich tylko 20?
Może dlatego, że te 20 GB zajmuje na dzień dobry już sam system operacyjny
Fakt, to trochę nienormalne by OS zajmował więcej niż te parę GB. Windows-a odchudziłem W7 x64 do mniej niż płyty DVD, w sensie usunąłem co się dało i niepotrzebne. Niestety po wgraniu aplikacji system rozrósł się o 10gb. Windows dubluje masę rzeczy. Naprawdę nie rozumiem po co mi w kompie baza wszystkich sterowników świata, po co dublowanie bibliotek. linux ma wszystko w kernelu, który zajmuje ile ??
Może dlatego, że te 20 GB zajmuje na dzień dobry już sam system operacyjny
Fakt, to trochę nienormalne by OS zajmował więcej niż te parę GB. Windows-a odchudziłem W7 x64 do mniej niż płyty DVD, w sensie usunąłem co się dało i niepotrzebne. Niestety po wgraniu aplikacji system rozrósł się o 10gb. Windows dubluje masę rzeczy. Naprawdę nie rozumiem po co mi w kompie baza wszystkich sterowników świata, po co dublowanie bibliotek. linux ma wszystko w kernelu, który zajmuje ile ??
Masz racje mnie to zawsze wkurzalo, poza tym niestety nie mozna usunac czy wybrac komponentow do instalacji - co jest moim zdaniem spora wada, no ale coz poradzimy, majac do wyboru Windows lub Linux ja wybiore zawsze to pierwsze...
Nie mowie, ze Linux jest zly, jest on po prostu nie dla mnie.
Fakt, to trochę nienormalne by OS zajmował więcej niż te parę GB. Windows-a odchudziłem W7 x64 do mniej niż płyty DVD, w sensie usunąłem co się dało i niepotrzebne. Niestety po wgraniu aplikacji system rozrósł się o 10gb. Windows dubluje masę rzeczy. Naprawdę nie rozumiem po co mi w kompie baza wszystkich sterowników świata, po co dublowanie bibliotek. linux ma wszystko w kernelu, który zajmuje ile ??
Masz racje mnie to zawsze wkurzalo, poza tym niestety nie mozna usunac czy wybrac komponentow do instalacji - co jest moim zdaniem spora wada, no ale coz poradzimy, majac do wyboru Windows lub Linux ja wybiore zawsze to pierwsze...
Nie mowie, ze Linux jest zly, jest on po prostu nie dla mnie.
No tak, rozne technologie zastosowane w SSD zwiekszaja zuzywana powierzchnie dysku. Dzieki temu uzywanych jest wiecej blokow, niz faktycznie nadpisywanych sektorow logicznych. Ale to powoduje, ze pliki ktorych wcale nie zmieniamy sa zapisywane wiele razy na SSD. Czyli system zapisuje 4 kB, a SSD musi zapisac 256 kB, bo zmienia sie tylko jedna strona, a wyczyscic trzeba caly blok stron. Czyli moze sie okazac, ze Windows zapisuje dziennie1-2 GB, a dysk w rzeczywistosci zapisuje 64GB, bo wszystkie zapisane 4kB strony sa rownomiernie rozrzucone po dysku. Z drugiej strony, jesli jednak nie beda rownomiernie rozrzucone po dysku, to komorki nie beda rownomiernie zuzywane i te, z niezmienialnymi danymi beda zuzywac sie wolniej.
Co do awaryjnosci, to wam powiem, ze jednak ja mam mniejsze zaufanie do SSD. Owszem sa bardziej odporne na uszkodzenia mechaniczne, takie jak rzucanie dyskiem, czy zalanie woda. Ale elektronika tez ulega uszkodzeniom i to wcale nie tak rzadko. Juz pomijam, to, ze np. przepieciew sieci moze uwalic elektronike zarowno w SSD jak i HDD. Tylko ze HDD w takim przypadku nie traci danych, wystarczy wymienic plytke z elektronika i wszystkie dane mamy spowrotem. W SSD przepiecie uszkadza wszystko.
Napisaliscie, ze SSD mniej padaja, bo m nie maja elementow mechanicznych, jego problemy sa wydumane i rzeczywistosc jest inna. To wy raczej teoretyzujecie, bo byc moze nie powinny padac, dzieki temu, ale jak jest? Chetnie zobaczylbym statystyki zwrotow gwarancyjnych HDD 3,5' i SSD. Bo chyba gdzies widzialem, ze SSD wracaja na gwarancji 3x czesciej, tylko juz nie mam linka do tej strony (to byly wartosci rzedu 3% vs 10%). Na forach tez wiecej slyszy sie narzekan na padajace bez zadnego powodu np miesiac po zakupie SSD, albo ktore wymienialy dysk kilka razy w ciagu gwarancji. Nie wspomne juz o zwiechach systemu bez zadnego powodu. A to, ze ktos ma nawet trzy SSD i jemu zaden nie padl to zaden argument. Dopiero statsytyka z odpowiednio licznej proby cos powie. Do tego SSD jesli padaja to raczej bez zadnego ostrzezenia. Jedyny HDD jaki mi padl przez ostatnie 20 lat umieral pol roku dajac bardzo wyrazne symptomy i nie mialem problemu, z kupieniem w tym czasie nowego dysku i skopiowaniu wszystkich danych (w tamtych czasach nikogo wlasciwie nie bylo stac na dyski do backupow, niektore dane trzymalo sie na CD, ktore tez byly dosc zawodne i wcale nie takie tanie).
I nie piszcie, ze najbardziej zawodne SandForce'y to ulamek oferty, bo to przytlaczajaca wiekszosc oferty.
EDIT:
czekoczeko @ 2012.05.25 14:59
Ja mam Corsaira i transfery na poziomie 450 i więcej, wcześniej się Agility mi zdupczył i cienko ogólnie działał na 990XA-UD3
No prosze, proba mala, ale u kolegi na 2 dyskach 50% awaryjnosci SSD. To o niczym nie swiadczy, przytaczam jako przeciwwage do postow: Nie pisz glupot, mam SSD od dwoch tygodni i nic sie nie psuje.
No tak, rozne technologie zastosowane w SSD zwiekszaja zuzywana powierzchnie dysku. Dzieki temu uzywanych jest wiecej blokow, niz faktycznie nadpisywanych sektorow logicznych. Ale to powoduje, ze pliki ktorych wcale nie zmieniamy sa zapisywane wiele razy na SSD. Czyli system zapisuje 4 kB, a SSD musi zapisac 256 kB, bo zmienia sie tylko jedna strona, a wyczyscic trzeba caly blok stron. Czyli moze sie okazac, ze Windows zapisuje dziennie1-2 GB, a dysk w rzeczywistosci zapisuje 64GB, bo wszystkie zapisane 4kB strony sa rownomiernie rozrzucone po dysku. Z drugiej strony, jesli jednak nie beda rownomiernie rozrzucone po dysku, to komorki nie beda rownomiernie zuzywane i te, z niezmienialnymi danymi beda zuzywac sie wolniej.
Nie może się okazać. Write amplification zależy od kontrolera i typu danych zapisywanych na dysk. SandForsy, ze względu na to, że zapisują w praktyce skompresowane dane, mają średni write amplification mniejszy niż 1, czyli w praktyce zapisują do NAND-ów mniej danych niż widzi to system operacyjny. Inne dobre kontrolery mają write amplification nieznacznie większy niż 1, więc nigdy nie dojdzie do sytuacji 2 GB przerabianych na 64 GB, chyba że masz jakiś bardzo słaby dysk z beznadziejnym kontrolerem i zarzucisz go specjalnie spreparowanymi danymi.
O równomierne zużywanie komórek dbają mechanizmy statycznego i dynamicznego wear levelingu, które w razie potrzeby przenoszą statyczne dane z jednych komórek do innych aby nie dochodziło do zbyt dużych rozbieżności w tym ile cyklów PE mają za sobą poszczególne fragmenty dysku. Ja mam Corsaira Force 3 120 GB, który także ma NAND-y przeżywające 3k cykli zapisu i z testu wytrzymałości przeprowadzanego przez ludzi z xtremesystems wynika, że bez problemu powinien wytrzymać przerzucenie przez niego około 1 PB danych. Mam dopiero 2 TB za sobą, więc jeszcze trochę czasu mi zostało...
No tak, rozne technologie zastosowane w SSD zwiekszaja zuzywana powierzchnie dysku. Dzieki temu uzywanych jest wiecej blokow, niz faktycznie nadpisywanych sektorow logicznych. Ale to powoduje, ze pliki ktorych wcale nie zmieniamy sa zapisywane wiele razy na SSD. Czyli system zapisuje 4 kB, a SSD musi zapisac 256 kB, bo zmienia sie tylko jedna strona, a wyczyscic trzeba caly blok stron. Czyli moze sie okazac, ze Windows zapisuje dziennie1-2 GB, a dysk w rzeczywistosci zapisuje 64GB, bo wszystkie zapisane 4kB strony sa rownomiernie rozrzucone po dysku. Z drugiej strony, jesli jednak nie beda rownomiernie rozrzucone po dysku, to komorki nie beda rownomiernie zuzywane i te, z niezmienialnymi danymi beda zuzywac sie wolniej.
Fajnie że macie swoje przemyślenia, ale szkoda tylko że d***y nie chce Wam się ruszyć, douczyć w temacie i zatruwacie komentarze bzdurami od własnego 'wydaje mi się, że', które potem ktoś czyta i być może wyciąga bzdurne wnioski (które nie daj Bóg powtarza), bo autor posta akurat miał potrzebę wymyślić sobie parę liczb.
Fakty z real-world scenario: Typowe Write Amplification przy założeniu, że jest 'wystarczająco dużo miejsca' (co może oznaczać nawet ok. połowy pojemności dysku licząc ze spare area) to ok. 1.1x (w przypadku SandForce najczęściej jest to mniej niż 1 - dla takich rzeczy jak OS nawet około 0.5). Kiedy miejsca jest mało i zaczynają się schody Write Amplification powinno oscylować dookoła 2x (rozmiar danych zapisanych i rozmiar danych przeniesionych). Ponieważ dane przenosi się z rozdzielczością do bloku pamięci, to w rzeczywistości tych dodatkowych zapisów może być więcej - aż do ok. 10x w najgorszych możliwych sytuacjach (tzn. peak może być jeszcze większy, ale nawet katując dysk nie powinno to być więcej niż 10x, przy braku wolnego miejsca ALE normalnym korzystaniu jakieś wspominane 2x, a posiadając zapas wolnego miejsca ok. 1x [i mniej niż 1x dla SF]).
No prosze, proba mala, ale u kolegi na 2 dyskach 50% awaryjnosci SSD. To o niczym nie swiadczy, przytaczam jako przeciwwage do postow: Nie pisz glupot, mam SSD od dwoch tygodni i nic sie nie psuje.
Nie pisz głupot, mam SSD od ponad miesiąca i nic się nie psuje
Napisaliscie, ze SSD mniej padaja, bo m nie maja elementow mechanicznych, jego problemy sa wydumane i rzeczywistosc jest inna. To wy raczej teoretyzujecie, bo byc moze nie powinny padac, dzieki temu, ale jak jest? Chetnie zobaczylbym statystyki zwrotow gwarancyjnych HDD 3,5' i SSD. Bo chyba gdzies widzialem, ze SSD wracaja na gwarancji 3x czesciej, tylko juz nie mam linka do tej strony (to byly wartosci rzedu 3% vs 10%). Na forach tez wiecej slyszy sie narzekan na padajace bez zadnego powodu np miesiac po zakupie SSD, albo ktore wymienialy dysk kilka razy w ciagu gwarancji. Nie wspomne juz o zwiechach systemu bez zadnego powodu. A to, ze ktos ma nawet trzy SSD i jemu zaden nie padl to zaden argument. Dopiero statsytyka z odpowiednio licznej proby cos powie. Do tego SSD jesli padaja to raczej bez zadnego ostrzezenia. Jedyny HDD jaki mi padl przez ostatnie 20 lat umieral pol roku dajac bardzo wyrazne symptomy i nie mialem problemu, z kupieniem w tym czasie nowego dysku i skopiowaniu wszystkich danych (w tamtych czasach nikogo wlasciwie nie bylo stac na dyski do backupow, niektore dane trzymalo sie na CD, ktore tez byly dosc zawodne i wcale nie takie tanie).
Typowa skala zwrotów dotycząca całości sprzętu komputerowego to od mniej niż 1% do trochę powyżej 10% (ale wtedy jest już marnie, bo przestaje się opłacać produkcja). Dane o które pytasz są w wielu miejscach w sieci, więc możesz pobawić się w data mining na zadanie domowe Natomiast w kwestii wiedzy ogólnej - producenci sprzedający duże wolumeny sprzętu, w tym producenci OEM najbardziej zainteresowani są niską awaryjnością i tu w kwestii SSD dobrym przykładem jest Samsung albo Toshiba. Do tego Intel ma politykę wysokiej jakości, stąd chwali się na swoich slajdach niską awaryjnością SSD. Trochę inaczej jest w przypadku OCZ, bo ta firma ma za sobą koszmarną przeszłość jeśli chodzi o jakość sprzętu i zaufanie klientów. Zaczęli robić SSD i poprawiło im się, ale nadal daleko do wyników Intela czy Samsunga - to m.in. jest powód dla którego nie warto interesować się nowym Vertex 4 - tańszy i pewniejszy (no i sprawdzony), a mający identyczną w praktyce wydajność jest Samsung 830, a jeśli ktoś chce SSD pod OS na SF to Intel 520 (o pojemności minimum 180GB, bo wtedy kontroler osiąga bliską maksymalnej wydajność - nie wiem jaka pojemność jest optymalna u Samsunga, warto sprawdzić). Jeśli ktoś planuje SSD do lapka i zależy mu na zmaksymalizowaniu wydajności ORAZ czasu pracy na baterii to może w ciemno brać Samsunga 830
@mkopek
Czekaj chwilę, zaraz przylecą 'specjalysty' i Ci udowodnią, że nie masz racji.
W średniowieczu zakułbym Cię w dyby żebyś miał czas przemyśleć swoją głupotę.
Tjaaa.... Bo nie pasuję do TWOJEJ wizji świata. Stalin takich co mu nie pasowali (i takich co pasowali też zresztą) mordował. Dobrze, że nie masz takie władzy.
W średniowieczu zakułbym Cię w dyby żebyś miał czas przemyśleć swoją głupotę.
Tjaaa.... Bo nie pasuję do TWOJEJ wizji świata. Stalin takich co mu nie pasowali (i takich co pasowali też zresztą) mordował. Dobrze, że nie masz takie władzy.
No ale odpowiedz szczerze co w Twoim przypadku świat by stracił, gdybym taką miał?
Co do swapa - zamiast przenosić moszna po prostu zmniejszyć np do 200MB i luz. Całkowite usuwanie to przesad, ale takie 200MB chroni przed zwiechami a i miejsce oszczędzone.
Wiesz, co to jest moszna?
boogdal @ 2012.05.23 12:27
Stary po co Ci aż tyle pamięci? O ile nie jesteś jakimś profesjonalnym grafikiem czy nie wiem kim, to te 6GB pamięci wystarczy Ci absolutnie do wszystkiego i zawsze zostanie Ci jeszcze z 2GB w zapasie
PS. Chodzi mi oczywiście o RAM plus pagefile 9GB. 15GB Do czego Ci to?
Stary, pagefile to nie ram i nie ma sensu dodawać jednego do drugiego...
Może dlatego, że te 20 GB zajmuje na dzień dobry już sam system operacyjny
Może dlatego, że te 20 GB zajmuje na dzień dobry już sam system operacyjny
Fakt, to trochę nienormalne by OS zajmował więcej niż te parę GB. Windows-a odchudziłem W7 x64 do mniej niż płyty DVD, w sensie usunąłem co się dało i niepotrzebne. Niestety po wgraniu aplikacji system rozrósł się o 10gb. Windows dubluje masę rzeczy. Naprawdę nie rozumiem po co mi w kompie baza wszystkich sterowników świata, po co dublowanie bibliotek. linux ma wszystko w kernelu, który zajmuje ile ??
Może dlatego, że te 20 GB zajmuje na dzień dobry już sam system operacyjny
Fakt, to trochę nienormalne by OS zajmował więcej niż te parę GB. Windows-a odchudziłem W7 x64 do mniej niż płyty DVD, w sensie usunąłem co się dało i niepotrzebne. Niestety po wgraniu aplikacji system rozrósł się o 10gb. Windows dubluje masę rzeczy. Naprawdę nie rozumiem po co mi w kompie baza wszystkich sterowników świata, po co dublowanie bibliotek. linux ma wszystko w kernelu, który zajmuje ile ??
Masz racje mnie to zawsze wkurzalo, poza tym niestety nie mozna usunac czy wybrac komponentow do instalacji - co jest moim zdaniem spora wada, no ale coz poradzimy, majac do wyboru Windows lub Linux ja wybiore zawsze to pierwsze...
Nie mowie, ze Linux jest zly, jest on po prostu nie dla mnie.
120 GB * 5000 cykli zapisu = ~0,6 PT danych
Autor trzyma 120GB wolnego miejsca?
Wiec jaki sens ma ssd?
Poza tym autor powinien wiedziec o czym pisze, a nie pisac takich bzdur.,
Łap linka i doedukuj się - dopiero jak skończysz wróć i pisz:
http://en.wikipedia.org/wiki/Write_amplification
Fakt, to trochę nienormalne by OS zajmował więcej niż te parę GB. Windows-a odchudziłem W7 x64 do mniej niż płyty DVD, w sensie usunąłem co się dało i niepotrzebne. Niestety po wgraniu aplikacji system rozrósł się o 10gb. Windows dubluje masę rzeczy. Naprawdę nie rozumiem po co mi w kompie baza wszystkich sterowników świata, po co dublowanie bibliotek. linux ma wszystko w kernelu, który zajmuje ile ??
Masz racje mnie to zawsze wkurzalo, poza tym niestety nie mozna usunac czy wybrac komponentow do instalacji - co jest moim zdaniem spora wada, no ale coz poradzimy, majac do wyboru Windows lub Linux ja wybiore zawsze to pierwsze...
Nie mowie, ze Linux jest zly, jest on po prostu nie dla mnie.
Spokojnie Panowie, era Post-PC już niedługo
http://pclab.pl/kom64098-3.html#c573965
120 GB * 5000 cykli zapisu = ~0,6 PT danych
Autor trzyma 120GB wolnego miejsca?
Wiec jaki sens ma ssd?
Poza tym autor powinien wiedziec o czym pisze, a nie pisac takich bzdur.,
Łap linka i doedukuj się - dopiero jak skończysz wróć i pisz:
http://en.wikipedia.org/wiki/Write_amplification
No tak, rozne technologie zastosowane w SSD zwiekszaja zuzywana powierzchnie dysku. Dzieki temu uzywanych jest wiecej blokow, niz faktycznie nadpisywanych sektorow logicznych. Ale to powoduje, ze pliki ktorych wcale nie zmieniamy sa zapisywane wiele razy na SSD. Czyli system zapisuje 4 kB, a SSD musi zapisac 256 kB, bo zmienia sie tylko jedna strona, a wyczyscic trzeba caly blok stron. Czyli moze sie okazac, ze Windows zapisuje dziennie1-2 GB, a dysk w rzeczywistosci zapisuje 64GB, bo wszystkie zapisane 4kB strony sa rownomiernie rozrzucone po dysku. Z drugiej strony, jesli jednak nie beda rownomiernie rozrzucone po dysku, to komorki nie beda rownomiernie zuzywane i te, z niezmienialnymi danymi beda zuzywac sie wolniej.
Co do awaryjnosci, to wam powiem, ze jednak ja mam mniejsze zaufanie do SSD. Owszem sa bardziej odporne na uszkodzenia mechaniczne, takie jak rzucanie dyskiem, czy zalanie woda. Ale elektronika tez ulega uszkodzeniom i to wcale nie tak rzadko. Juz pomijam, to, ze np. przepieciew sieci moze uwalic elektronike zarowno w SSD jak i HDD. Tylko ze HDD w takim przypadku nie traci danych, wystarczy wymienic plytke z elektronika i wszystkie dane mamy spowrotem. W SSD przepiecie uszkadza wszystko.
Napisaliscie, ze SSD mniej padaja, bo m nie maja elementow mechanicznych, jego problemy sa wydumane i rzeczywistosc jest inna. To wy raczej teoretyzujecie, bo byc moze nie powinny padac, dzieki temu, ale jak jest? Chetnie zobaczylbym statystyki zwrotow gwarancyjnych HDD 3,5' i SSD. Bo chyba gdzies widzialem, ze SSD wracaja na gwarancji 3x czesciej, tylko juz nie mam linka do tej strony (to byly wartosci rzedu 3% vs 10%). Na forach tez wiecej slyszy sie narzekan na padajace bez zadnego powodu np miesiac po zakupie SSD, albo ktore wymienialy dysk kilka razy w ciagu gwarancji. Nie wspomne juz o zwiechach systemu bez zadnego powodu. A to, ze ktos ma nawet trzy SSD i jemu zaden nie padl to zaden argument. Dopiero statsytyka z odpowiednio licznej proby cos powie. Do tego SSD jesli padaja to raczej bez zadnego ostrzezenia. Jedyny HDD jaki mi padl przez ostatnie 20 lat umieral pol roku dajac bardzo wyrazne symptomy i nie mialem problemu, z kupieniem w tym czasie nowego dysku i skopiowaniu wszystkich danych (w tamtych czasach nikogo wlasciwie nie bylo stac na dyski do backupow, niektore dane trzymalo sie na CD, ktore tez byly dosc zawodne i wcale nie takie tanie).
I nie piszcie, ze najbardziej zawodne SandForce'y to ulamek oferty, bo to przytlaczajaca wiekszosc oferty.
EDIT:
No prosze, proba mala, ale u kolegi na 2 dyskach 50% awaryjnosci SSD. To o niczym nie swiadczy, przytaczam jako przeciwwage do postow: Nie pisz glupot, mam SSD od dwoch tygodni i nic sie nie psuje.
Czekaj chwilę, zaraz przylecą 'specjalysty' i Ci udowodnią, że nie masz racji.
No tak, rozne technologie zastosowane w SSD zwiekszaja zuzywana powierzchnie dysku. Dzieki temu uzywanych jest wiecej blokow, niz faktycznie nadpisywanych sektorow logicznych. Ale to powoduje, ze pliki ktorych wcale nie zmieniamy sa zapisywane wiele razy na SSD. Czyli system zapisuje 4 kB, a SSD musi zapisac 256 kB, bo zmienia sie tylko jedna strona, a wyczyscic trzeba caly blok stron. Czyli moze sie okazac, ze Windows zapisuje dziennie1-2 GB, a dysk w rzeczywistosci zapisuje 64GB, bo wszystkie zapisane 4kB strony sa rownomiernie rozrzucone po dysku. Z drugiej strony, jesli jednak nie beda rownomiernie rozrzucone po dysku, to komorki nie beda rownomiernie zuzywane i te, z niezmienialnymi danymi beda zuzywac sie wolniej.
Nie może się okazać. Write amplification zależy od kontrolera i typu danych zapisywanych na dysk. SandForsy, ze względu na to, że zapisują w praktyce skompresowane dane, mają średni write amplification mniejszy niż 1, czyli w praktyce zapisują do NAND-ów mniej danych niż widzi to system operacyjny. Inne dobre kontrolery mają write amplification nieznacznie większy niż 1, więc nigdy nie dojdzie do sytuacji 2 GB przerabianych na 64 GB, chyba że masz jakiś bardzo słaby dysk z beznadziejnym kontrolerem i zarzucisz go specjalnie spreparowanymi danymi.
O równomierne zużywanie komórek dbają mechanizmy statycznego i dynamicznego wear levelingu, które w razie potrzeby przenoszą statyczne dane z jednych komórek do innych aby nie dochodziło do zbyt dużych rozbieżności w tym ile cyklów PE mają za sobą poszczególne fragmenty dysku. Ja mam Corsaira Force 3 120 GB, który także ma NAND-y przeżywające 3k cykli zapisu i z testu wytrzymałości przeprowadzanego przez ludzi z xtremesystems wynika, że bez problemu powinien wytrzymać przerzucenie przez niego około 1 PB danych. Mam dopiero 2 TB za sobą, więc jeszcze trochę czasu mi zostało...
Fajnie że macie swoje przemyślenia, ale szkoda tylko że d***y nie chce Wam się ruszyć, douczyć w temacie i zatruwacie komentarze bzdurami od własnego 'wydaje mi się, że', które potem ktoś czyta i być może wyciąga bzdurne wnioski (które nie daj Bóg powtarza), bo autor posta akurat miał potrzebę wymyślić sobie parę liczb.
Fakty z real-world scenario: Typowe Write Amplification przy założeniu, że jest 'wystarczająco dużo miejsca' (co może oznaczać nawet ok. połowy pojemności dysku licząc ze spare area) to ok. 1.1x (w przypadku SandForce najczęściej jest to mniej niż 1 - dla takich rzeczy jak OS nawet około 0.5). Kiedy miejsca jest mało i zaczynają się schody Write Amplification powinno oscylować dookoła 2x (rozmiar danych zapisanych i rozmiar danych przeniesionych). Ponieważ dane przenosi się z rozdzielczością do bloku pamięci, to w rzeczywistości tych dodatkowych zapisów może być więcej - aż do ok. 10x w najgorszych możliwych sytuacjach (tzn. peak może być jeszcze większy, ale nawet katując dysk nie powinno to być więcej niż 10x, przy braku wolnego miejsca ALE normalnym korzystaniu jakieś wspominane 2x, a posiadając zapas wolnego miejsca ok. 1x [i mniej niż 1x dla SF]).
Czekaj chwilę, zaraz przylecą 'specjalysty' i Ci udowodnią, że nie masz racji.
W średniowieczu zakułbym Cię w dyby żebyś miał czas przemyśleć swoją głupotę.
Nie pisz głupot, mam SSD od ponad miesiąca i nic się nie psuje
Typowa skala zwrotów dotycząca całości sprzętu komputerowego to od mniej niż 1% do trochę powyżej 10% (ale wtedy jest już marnie, bo przestaje się opłacać produkcja). Dane o które pytasz są w wielu miejscach w sieci, więc możesz pobawić się w data mining na zadanie domowe
Czekaj chwilę, zaraz przylecą 'specjalysty' i Ci udowodnią, że nie masz racji.
W średniowieczu zakułbym Cię w dyby żebyś miał czas przemyśleć swoją głupotę.
Tjaaa.... Bo nie pasuję do TWOJEJ wizji świata. Stalin takich co mu nie pasowali (i takich co pasowali też zresztą) mordował. Dobrze, że nie masz takie władzy.
Nie
W średniowieczu zakułbym Cię w dyby żebyś miał czas przemyśleć swoją głupotę.
Tjaaa.... Bo nie pasuję do TWOJEJ wizji świata. Stalin takich co mu nie pasowali (i takich co pasowali też zresztą) mordował. Dobrze, że nie masz takie władzy.
No ale odpowiedz szczerze co w Twoim przypadku świat by stracił, gdybym taką miał?
Co do swapa - zamiast przenosić moszna po prostu zmniejszyć np do 200MB i luz. Całkowite usuwanie to przesad, ale takie 200MB chroni przed zwiechami a i miejsce oszczędzone.
Wiesz, co to jest moszna?
Stary po co Ci aż tyle pamięci? O ile nie jesteś jakimś profesjonalnym grafikiem czy nie wiem kim, to te 6GB pamięci wystarczy Ci absolutnie do wszystkiego i zawsze zostanie Ci jeszcze z 2GB w zapasie
PS. Chodzi mi oczywiście o RAM plus pagefile 9GB. 15GB Do czego Ci to?
Stary, pagefile to nie ram i nie ma sensu dodawać jednego do drugiego...