Lepiej poczekaj na DualCore. . A ja myśle ze z tą wirtuzalizacją będzie jak ja myśle. Bo MS zapowiedział wbudowanie wsparcia dla niej do Longhorna. nie powiedziel tylko na czym dokładnie ma to polegać...
Nie, linuksa Getnoo miałe dość długo więc... . A chodzi o to, że dzięki wirtualizacji mógłbym uruchumić już nie dwa a cztery wątki realizaowane jednocześnie. Które w dodatku nie będą sobie nawazajem przeszkadzać. Np. Jeden pulpit to swego rodzaju jedna virtualna maszyna a drugi pulpit następna. I wątki na nich uruchamiane są nie zależnie od siebie. Teoretycznie z podobną prędkościa... itd. Wieloużytkowość, i wielowątkowe systemy to nadal warstwa softerowa, a mi chodzi o wsparcie od strony sprzętowej dla tego Ojj chyba troche zakręciłem..
Komputer ma swoją przestrzeń adresową. W przypadku 32bitów 4GB. (jeśli nawet masz mniej RAMu to i tak taka jest przestrzeńwirtualna) W obrębie tej pamieci działają progrmy, z których każdy ma 1 lub więcej procesów, każdy proces ma swoją przestrzeń adresową, jednak ma jej tylko połowę całości, dróga połowa do przestrzeń systemu operacyjnego i jest wspólna dla wszystkich procesów. Każdy proces ma jeden lub więcej wątków. Wątki jednego procesu mająwspółnąprzestrzeń adresową. Każdy wątek ma własny stan rejestrów procesora. Jeden procesor (bąć procesor wirtualny w przypadku HT) może w danej chwili przetwarzać jeden wątek. Co jakiś czas następuje przerwanie systemowe, które kopiuje zawartość rejestrów aktualnego wątku do pamięci, a do procesora ładuje stan rejestrów wątku zarzadzającego wątkami. Ten wątek zaś podejmuje decyzje który wątek dostanie procesor, po czym ładuje stan jego rejestrów z pamięci do procesora. Przeładowanie rejestrów zajmuje całkiem sporo czasu. Jak komp ma więcej nizjeden procesor to na raz idą dwa wątki. HT to wprowadzenie do jednego procesora 2 zestawów rejestrów. Procesor bardzo szybko przełącza jądro między tymi rejestrami. Z punktu widzenia OSu są to dwa osobne procesory reprezentowane przez dwa osobne zestawy rejestrów. Ale oczywiści nie ma takiej syytuacji że oba procesory na raz pracują. Tyle że w HT przełączenie wątków zajmuje kilka ns, a w przypadku kompa z jednym procesorem bez HT kilka(dziesiąt,set) us. Kilka rejestrów jest używane przez system operacyjny i system obsługi przerwań i one są wspólne dla wszystkich programów, procesów i wątków. W przypadku wirtualizacji będzie kilka kopii tych rejestrów i to bios będzie je przełączał w procesorze (procesorach/jądrach). Tak więc każdy wirtualny OS będzie myślał, że ma całego kompa dla siebie, tak jak OS pracujący na procku z HT myśli że ma dla siebie 2 procesory. Jednak wydajność tego rozwiązania przy obciążeniu przez więcej niż jeden OS będzie marna, tak jak procek z HT nie działa dobrze z 2 programami w pełni obciążającymi procesor.
W przypadku wirtualizacji będzie kilka kopii tych rejestrów i to bios będzie je przełączał w procesorze (procesorach/jądrach). Tak więc każdy wirtualny OS będzie myślał, że ma całego kompa dla siebie, tak jak OS pracujący na procku z HT myśli że ma dla siebie 2 procesory. Jednak wydajność tego rozwiązania przy obciążeniu przez więcej niż jeden OS będzie marna, tak jak procek z HT nie działa dobrze z 2 programami w pełni obciążającymi procesor.
Szczególnie chodzi o to, ze piszesz o tym ze wydajnosci bedzie marna. Chodzi ci o uruchomione na dwóch systemach dwie gry jednoczesnie? Bo podobno (marketing w IBM tak twierdzi ) wirtualizacja spisuje sie calkiem niezle u nich (ale oni oczywiscie gier nie odpalają). Swoją drogą jak intel i AMD tłumaczą potrzebe wprowadzenie wirtualizacji? do Xeon-ów i Opteron-ów to od biedy mozna zrozumiec, ale do zwykłych procesorów?
Intel poszerza ofertę 64-bitowych platform serwerowych Główne komponenty nowej platformy, znanej do tej pory pod kryptonimem Truland, są 64-bitowe procesory Intel Xeon MP (multiprocessor) oraz chipset Intel E8500. Nowy chipset przygotowany jest na obsługę układów dwurdzeniowych i nowych innowacji, takich jak Intel Virtualization Technology. Intel po raz pierwszy połączył w platformie wieloprocesorowej technologie Intel Extended Memory 64 Technology, PCI Express, pamięci DDR2-400 oraz Demand Based Switching wraz z Enhanced Intel SpeedStep Technology. Procesory Intel Xeon MP mogą mieć do 8 MB pamięci podręcznej trzeciego poziomu (L3 cache). Chipset Intel E8500 ma podwójną, niezależną magistralę systemową 667 MHz. Przepustowość (10,6 GBs) jest ponad trzykrotnie większa, niż zapewniała poprzednia generacja platformy.
na pewno nie jest rozwiązanie mające na celu zwiększenie wydajności, tylko funkcjonalności po co 2 systemy na jednym kompie? - np. do łagodnego przejścia od starego windows do nowego linuxa (czy innego systemu operacyjnego), które na bank jest nie do przecenienia przez łosi z dużych firm odpowiedzialnych za informatyzację - są z natury strachliwi i wrażliwi na wszelkie kłopoty - a taka wirtualizacja to idealny sposób na uspokojenie ich - w razie czego mogą zawsze włączyć drugi system, bo dual boot nie jest najlepszym rozwiązaniem; do gier się nie nada, co nie znaczy, że jest niepotrzebne; niedawno słyszałem, że chłopaki od kernel linuxa 2.6 zajęli się właśnie wsparciem wirtualizacji systemu nie trudno sobie wyobrazić, jak ktoś pracuje w jednym systemie i nie chcąc (nie mogąc) przerywać tej pracy koniecznie potrzebuje informacji dostępnej na tym drugim systemie - po prostu uruchamiamy drugi system; teraz jest to niemożliwe pozostaje kwestja wydajności - ile zasobów Waszym zdaniem zużywa system ? - to zależy od systemu, środowiska (graficzne/tekstowe) i aplikacji, które są na nim uruchomione; widows zabiera jakieś (w dużym przybliżeniu) 100MB ramu, 0-1 % mocy procesora, jeśli nie uruchomimy żadnej aplikacji (mi sama opera potrafi wejść na zużycie ponad 100MB ramu), więc nie widzę, w jaki zasadniczy sposób ta technologia miała by być skazana na niską/nieakceptowalną wydajność; no tak - nie da się grać w Doom3 jednocześnie na 3 systemach i jednym kompie? - nie to do du.y jest...marketingowy chwyt...znowu chcą mnie oszukać ktoś znowu twierdził, że "więcej rdzeni = większa wydajność" - to nie jest prawda; wszystko zależy od systemu operacyjnego i tego jak dany soft został napisany; poza tym najpewniej się okaże, że wiele programów (w tym gier) po wejściu na rynek będzie działało wolniej niż na jednordzeniowych procesorach - główny powód to obniżone taktowanie zegarów tych proców, żeby procki się nie przegrzewały
Wielordzeniowe plany Przyszłe komputery PC oraz serwery bazujące na architekturze Intela będą wyposażone w procesory dwurdzeniowe i wielordzeniowe. Będą one obsługiwały wiele innowacyjnych technologii, takich jak szybsze I/O czy wirtualizacja. Zapewnią również większe bezpieczeństwo i umożliwią korzystanie z przyszłych, zaawansowanych technologii pamięci. Platforma kryjąca się pod kryptonimem „Richford” będzie wyposażona w dwa procesory Intel Itanium (kryptonim „Tukwila”). Zostanie ona zaprezentowana w 2007 roku. Kolejnym produktem będzie procesor Intel Itanium nowej generacji (kryptonim „Poulson”).
Pierwszy dwurdzeniowy procesor Intel Xeon MP (kryptonim „Paxville”) zostanie zaprezentowany w pierwszym kwartale 2006 roku. Programy przygotowawcze kierowane do przedsiębiorstw i twórców oprogramowania zostaną uruchomione pod koniec 2005 roku. Oparta na procesorze Intel Xeon MP wyposażonym w więcej niż dwa rdzenie (kryptonim „Whitefield”) platforma kryjąca się pod kryptonimem „Reidland” zostanie zaprezentowana w 2007 roku. Procesory Intel Xeon MP są stosowane w serwerach wyposażonych w cztery lub więcej CPU.
Stworzona z myślą o serwerach dwuprocesorowych platforma „Bensley” pojawi się w pierwszym kwartale przyszłego roku. Będzie ona wyposażona w dwurdzeniowe procesory Intel Xeon (kryptonim „Dempsey”). Układy „Dempsey” znajdą również zastosowanie w platformie „Glidewell” tworzonej dla najwydajniejszych stacji roboczych.
Platforma dla cyfrowego biura (kryptonim „Lyndon”) zostanie zaprezentowana jeszcze w tym roku. Będzie ona wykorzystywała chipsety z rodziny Intel 945/955 oraz procesory Intel Pentium 4 5xx i 6xx, jak również dwurdzeniowe układy Intel Pentium D (kryptonim „Smithfield”). Platforma „Lyndon” będzie obsługiwała zarówno Intel Active Management Technology, jak i Intel Virtualization Technology.
Intel opublikował specyfikację nowej technologii zarządzania
Intel opublikował szczegóły dotyczące specyfikacji Intel Active Management Technology (Intel AMT). Nowa technologia będzie stosowana w procesorach, chipsetach i kartach sieciowych Intela zapewniając szefom IT większą kontrolę nad połączonymi w sieciach komputerami, łatwiejsze zarządzanie zasobami IT oraz zmniejszenie kosztów obsługi.
Intel AMT to nowe rozwiązanie umożliwiające zdalne diagnozowanie i naprawy wielu usterek komputerów, które do tej pory wymagały wizyt serwisowych. Informatyk może dzięki niemu zdalnie konfigurować nowe komputery, uaktualniać oprogramowanie, dokonywać inwentaryzacji oraz wykrywać i rozwiązywać wiele problemów. Może to robić również wtedy, gdy sprzęt jest wyłączony, systemy operacyjne są zamknięte, a nawet, gdy uszkodzony jest twardy dysk. Nowa technologia to część inicjatywy Intela Digital Office, która ma na celu opracowywanie nowych sposobów użytkowania sprzętu przez pracowników biurowych. Technologia Intel AMT będzie zastosowana w platformie desktopowej „Lyndon”, która pojawi się w 2005 roku. W roku 2006 rozwiązanie zostanie wykorzystane w platformie serwerowej „Bensley”.
„Intel AMT znacznie usprawni zarządzanie zasobami oraz pomoże w ograniczeniu przestojów systemu, wizyt technicznych oraz kosztów operacyjnych” – powiedział Abhi Talwalkar, wiceprezes i dyrektor generalny Intel Digital Enterprise Group. „To doskonały przykład pokazujący jak Intel integruje innowacje platform w elementy krzemowe w celu ułatwienia zarządzania i zwiększenia bezpieczeństwa dzisiejszych sieci komputerowych”.
Ogłoszona dzisiaj specyfikacja opisuje specyficzne interfejsy umożliwiające współpracę Intel AMT z odpowiednim oprogramowaniem oraz wykorzystanie zintegrowanych możliwości z zakresu monitorowania i kontroli przy użyciu platformy klienta. Intel AMT będzie podsystemem zupełnie oddzielonym od systemu operacyjnego. Taka niezależność pomoże w rozwiązaniu jednego z najpoważniejszych problemów, z jakim borykają się szefowie IT – celowego lub przypadkowego zablokowania w komputerach funkcji związanych z zarządzaniem i bezpieczeństwem. Specyfikacja Intel AMT zapewni kontrolę dostępu do odpowiednich funkcji dzięki zastosowaniu branżowych standardów bezpieczeństwa.
W 2006 roku Intel AMT będzie korzystać ze specyfikacji Web Services Management (WS-Management), która zapewnia połączonym w sieć systemom wspólną drogę dostępu i wymiany informacji niezbędnych do zarządzania. WS-Management jest doskonałym fundamentem dla nowej generacji aplikacji do zarządzania ze względu na ogromną funkcjonalność połączoną z możliwościami czerpania korzyści związanych z bezpieczeństwem i stabilnością architektury usług internetowych. Specyfikacja opisuje również aplikacje uzupełniające Intel AMT z innymi technologiami, m.in.: Intel Virtualization Technology oraz technologia LaGrande, a także Extensible Firmware Interface (EFI). Technologia Vanderpool umożliwia szefom IT wyodrębnienie części komputera w celu umożliwienia niezauważalnego dla użytkownika serwisowania i uaktualniania oprogramowania. W połączeniu z Intel AMT operacje te mogą być przeprowadzane na systemie, który jest wyłączony, lub który posiada uszkodzony twardy dysk. Technologia LaGrande oraz Intel AMT uzupełniają się wzajemnie tworząc bezpieczne środowisko dla kompletnej platformy. LaGrande zwiększa bezpieczeństwo platformy, podczas gdy Intel AMT zapewnia bezpieczne, działające niezależnie środowisko zarządzania. EFI.
Intel poinformował, że ekosystem oprogramowania obsługującego Intel AMT wciąż się rozrasta. Odpowiednie produkty zapowiedziały m.in. firmy: Altiris Inc, BMC Software, Check Point Software Technologies, Computer Associates, LANDesk Software, Novell, Symantec, StarSoftComm oraz Trend Micro.
Dodatkowe informacje o specyfikacji można znaleźć w Internecie, pod adresem: www.intel.com/technology/manage. Pełna specyfikacje jest dostępna pod embargiem informacyjnym. Producenci mogą zdobyć dodatkowe informacje od przedstawicieli Intela lub w lokalnej siedzibie korporacji.
jak dlamnie juz znalazlem odpowiedz na moje wczesniejsze przemyslenia
Zapewnią również większe bezpieczeństwo i umożliwią korzystanie z przyszłych, zaawansowanych technologii pamięci. Platforma kryjąca się pod kryptonimem „Richford” będzie wyposażona w dwa procesory Intel Itanium (kryptonim „Tukwila”). Zostanie ona zaprezentowana w 2007 roku. Kolejnym produktem będzie procesor Intel Itanium nowej generacji (kryptonim „Poulson”).
Normlanie przez chwile odnioslem wrażenie że ITanium ma być na komputery średnio-biurkowe . Znaczy takie dla fanatyków . Czyli Kompatybilność z x86... Bleh, jak to czytałem to chyba sie za bardzo rozmażyłem
Odnośnie Cedar Mill. Z tego co znalazłem na googlarce to nie będzie żadna rewolucja.. Tylko o ZGROZO rozwinięcie prescota http://endian.net/details.asp?tag=CedarMill Nehelame umrał już dawno. Czyli co... Zostaje na polu bitwy Pentium M i ITanium skoro już ktoś bardzo upiera sie na zupełnie nową architekture..
Aby jeden system wydajniej robił kilka wątków potrzebny jest szybszy procesor, lub procesor wielordzeniowy, lub procesor z HT. HT oczywiście daje najmniej, ale jest najtańszy.
Nie jest to prawdą, w każdym razie nie do końca. Ściągnij sobię film z thg z porównaniem procesorów 3,6ghz i 3,06 z ht. Ten wolniejszy lepiej sobię radził z paroma wątkami, awięc napewno ht dawało więcej aniżeli dodatkowe mhz (czytaj szybszy procesor).
Nie ma co marzyć, to jest przydatne tylkop w zastosowaniach profesjonalnych - serwerki i to te potężniejsze.
VT było już w czasach 386 - taka karta na cztery zestawy myszek, klawiatur i monitorów (może Piła pamięta), robiąca z jednego cztery niezależne kompy. Jakoś się nie przyjęło .
Jeśli chcecie "ukryewać" swoje grzeszne rozrywki i udawać pracę to macie przecież wirtualne pulpity, zainstalować któryś z dodatków do sterowników i się bawić.
W domku widzę raczej jeden pałerny komp ze wszsytkim i kilka słabszych (czytaj: starszych) końcówek, kóre prawie nic nie robią - wszystko łącznie z grafiką w grach liczone jest na serwerku a one dostają gotowe dane do wyświetlenia. Wtedy wystarczy odpowiednio dobry ssytem i "wsparcie" sterownikowe. Macie kilka osób robiących jednocześnei różne rzeczy. Tylko trzeba jeszcze chcieć.
To brzmi prawie jak gird (przetwarzanie rozproszone). Imho nie wiem dlaczego ale mi sie nie zbyt taki pomysl podoba. Ja bym był za sprzętową obsługa wirtualnych pulpitów (co kolwiek ma to oznaczać...)
Troche poszperałem i Tukwilla ma: -działać na tym samym sockecie co Xeon (najprawdopodbniej będzie to LGA...) -cena ma być taka sama jak Xeona (hmmm) -nic nigdzie nie jest wspomniane o jakiej kolwiek zgodności z x86 czy też sprzętowe mulacji takowego -chipsety obsługujące następne generacje ITanium od TUkwilla mają być takie same dla Xeonów i ITanium Czyżby Intel szykował sie do ataku na Desktopy, w niedalkiej przyszłości ?
To brzmi prawie jak gird (przetwarzanie rozproszone). Imho nie wiem dlaczego ale mi sie nie zbyt taki pomysl podoba. Ja bym był za sprzętową obsługa wirtualnych pulpitów (co kolwiek ma to oznaczać...)
grid nie gird - dlatego Ci się to nie podoba - bo by trzeba było ogromne ilości informacji przesyłać tam i z powrotem (video) z niesłychanie małymi opóźnieniami- a coś takiego nie ma racji bytu; dodatkowo - wszyscy na świecie odeszli już od zcentralizowanych monstrów na korzyść bardziej rozproszonych(ale to już na marginesie) - kolega PO. miał dobre intencje, ale pomysł im jakością nie dorównał jeśli nie wiesz co to znaczy wirtualny pulpit, to dlaczego jesteś "za" ?
CYTAT
Nie ma co marzyć, to jest przydatne tylkop w zastosowaniach profesjonalnych - serwerki i to te potężniejsze.
to się będzie mogło znaleźć w każdym komputerze i jestem przekonany, że będzie sprawnie działać
CYTAT
VT było już w czasach 386 - taka karta na cztery zestawy myszek, klawiatur i monitorów (może Piła pamięta), robiąca z jednego cztery niezależne kompy. Jakoś się nie przyjęło
bez związku - nie zrozumiałeś idei za tym stojącej, nie czytasz postów, a sam postujesz bez namysłu - paskudny zwyczaj
Chodzilo mi o podział zasobów systemu między jego wirtualne odesperaowane od siebie części. (Wirtualne pulpity), za pomocą jednej maszyny. Tak żeby, po przejści na inny wirtualny pulpit i uruchomieniu na nim programu nia miał on wpływy na inne części systemu... Chyba troche zawile to napisałem, ale ciągle chodzi mi dokładnie o to ..
Po co to Intel wymyślił (lub nie wymyślił, a tylko chce użyć czyjegoś pomysłu)? Bo nie potrafią zrobićszybkiego rdzenia i prędzej czy później zrobią procka 4 rdzeniowego? A do czego komuś4 rdzeniowy procek? Żeby mu dobrze VP działał. A Po co komu VP? Po nic!
co do pierwszego to mas rację ale co do 64 bit. to żes strzelił jak ślepy w tekturowe pudło, może od razu powróćmy do 8 bitów? i programowania w jezyku maszynowym?
Komputer ma swoją przestrzeń adresową. W przypadku 32bitów 4GB. (jeśli nawet masz mniej RAMu to i tak taka jest przestrzeńwirtualna) ...
To że coś niema zastosowania w twoim ogródku nieznaczy że tak będzie w każdym. Wirtualizacja jest potrzebna jednak dziś jest ona okupiona bardzo dużym spadkiem wydajności. Do czego? Założmy że mamy Komputer 2x Intel Xeon 2.4 Mhz do niego podpiętych jest np $x developerów na "cieńkich klientach" a wirtualizowany jest komputer testowy to idealne rozwiązanie do testowania systemów, sterowników niskiego poziomu itp W porównaniu do łączenia komputerów jest o wiele prostsze logistycznie. Kwestia wydajności już została w pewnych przypadkach rozwiązania. Kolejne zastosowanie np w pełni bezpieczne konta udostępniane jako komputery osobiste
Widziałeś jak działa XEN? Zapewne wiesz jakie ma wady teraz nie będzie to problem.
HT to moim zdaniem naprawdę kiepski wynalazek nie wiem na jakiej podstawie twierdzisz że przyspiesza przełączanie się wątków bo zadanie to należy do systemu. HT tylko umożliwia rozpoczęcie wykonywania pewnych zadań nieco szybciej bez czekania na zakończenie innych operacji JEŻELI odpowiednie rejestry i jednostki wykonywania nie są zajęte. Wyniki testów pokazują jak bardzo rozdmuchane są tego efekty w stosunku do założeń. To że AMD się w HT nie bawi to jeszcze 1 powód.
Niektórzy sobie roszczą prawo do wyłączności na pomysły . Zastanawiajcie się nad krytyką.
Co innego internet a co innego lan. Mamy już gigabitówki i spokojnie można na czymś takim kilka kompletnych kompów obsłużyć. Ok, może nie pulpit, ale rendrting 3d, dekompresja, deszyfracja - to pies? Opóźnienia będą wystarczajaco małe. To jest idea serwerka domowego, jeśli są dwa kompy w domu to i tak jest potrzebny router - takie coś mozę robić za bramę z odpowinednio silnym fajerłolem, antywirusem i odrobaczaczem dodatkowo, bez martwienia sięo lagi w czasie gry. Magazyn plikóów, dostępny ze wszsytkich kompów. Hosta, na korego tak naprawdęsielogujesz i wszędzie masz te same ustawienia. Życie trzeba upraszczać a nie utrudniać . Więcej systemów w domu to wiecej konfigurowania. Więcej straconego czasu. Kilkakrotne dłubanie przy tych samych ustawieniach (na kilku kompach).
VT ma zastosowanie w serwerach - bo tam przydzielasz zamiast konta całą maszynę i nie martwisz się, co klient sobie psuje, instaluje itp... Że będzie sprawnie działać - jasne. Tylko nie będzie miało zastosowania, po prostu będzie "działać".
w sensie ze bede mial a nie ze juz jest bo jest
w sensie ze bede mial a nie ze juz jest bo jest
Lepiej poczekaj na DualCore.
A ja myśle ze z tą wirtuzalizacją będzie jak ja myśle. Bo MS zapowiedział wbudowanie wsparcia dla niej do Longhorna. nie powiedziel tylko na czym dokładnie ma to polegać...
Np. Jeden pulpit to swego rodzaju jedna virtualna maszyna a drugi pulpit następna. I wątki na nich uruchamiane są nie zależnie od siebie. Teoretycznie z podobną prędkościa... itd. Wieloużytkowość, i wielowątkowe systemy to nadal warstwa softerowa, a mi chodzi o wsparcie od strony sprzętowej dla tego
Ty zupełnie mylisz pojęcia.
Komputer ma swoją przestrzeń adresową. W przypadku 32bitów 4GB. (jeśli nawet masz mniej RAMu to i tak taka jest przestrzeńwirtualna)
W obrębie tej pamieci działają progrmy, z których każdy ma 1 lub więcej procesów, każdy proces ma swoją przestrzeń adresową, jednak ma jej tylko połowę całości, dróga połowa do przestrzeń systemu operacyjnego i jest wspólna dla wszystkich procesów. Każdy proces ma jeden lub więcej wątków. Wątki jednego procesu mająwspółnąprzestrzeń adresową. Każdy wątek ma własny stan rejestrów procesora.
Jeden procesor (bąć procesor wirtualny w przypadku HT) może w danej chwili przetwarzać jeden wątek. Co jakiś czas następuje przerwanie systemowe, które kopiuje zawartość rejestrów aktualnego wątku do pamięci, a do procesora ładuje stan rejestrów wątku zarzadzającego wątkami. Ten wątek zaś podejmuje decyzje który wątek dostanie procesor, po czym ładuje stan jego rejestrów z pamięci do procesora. Przeładowanie rejestrów zajmuje całkiem sporo czasu. Jak komp ma więcej nizjeden procesor to na raz idą dwa wątki. HT to wprowadzenie do jednego procesora 2 zestawów rejestrów. Procesor bardzo szybko przełącza jądro między tymi rejestrami. Z punktu widzenia OSu są to dwa osobne procesory reprezentowane przez dwa osobne zestawy rejestrów. Ale oczywiści nie ma takiej syytuacji że oba procesory na raz pracują. Tyle że w HT przełączenie wątków zajmuje kilka ns, a w przypadku kompa z jednym procesorem bez HT kilka(dziesiąt,set) us.
Kilka rejestrów jest używane przez system operacyjny i system obsługi przerwań i one są wspólne dla wszystkich programów, procesów i wątków.
W przypadku wirtualizacji będzie kilka kopii tych rejestrów i to bios będzie je przełączał w procesorze (procesorach/jądrach). Tak więc każdy wirtualny OS będzie myślał, że ma całego kompa dla siebie, tak jak OS pracujący na procku z HT myśli że ma dla siebie 2 procesory. Jednak wydajność tego rozwiązania przy obciążeniu przez więcej niż jeden OS będzie marna, tak jak procek z HT nie działa dobrze z 2 programami w pełni obciążającymi procesor.
Szczególnie chodzi o to, ze piszesz o tym ze wydajnosci bedzie marna. Chodzi ci o uruchomione na dwóch systemach dwie gry jednoczesnie? Bo podobno (marketing w IBM tak twierdzi
Intel poszerza ofertę 64-bitowych platform serwerowych
Główne komponenty nowej platformy, znanej do tej pory pod kryptonimem Truland, są 64-bitowe procesory Intel Xeon MP (multiprocessor) oraz chipset Intel E8500. Nowy chipset przygotowany jest na obsługę układów dwurdzeniowych i nowych innowacji, takich jak Intel Virtualization Technology.
Intel po raz pierwszy połączył w platformie wieloprocesorowej technologie Intel Extended Memory 64 Technology, PCI Express, pamięci DDR2-400 oraz Demand Based Switching wraz z Enhanced Intel SpeedStep Technology.
Procesory Intel Xeon MP mogą mieć do 8 MB pamięci podręcznej trzeciego poziomu (L3 cache). Chipset Intel E8500 ma podwójną, niezależną magistralę systemową 667 MHz. Przepustowość (10,6 GBs) jest ponad trzykrotnie większa, niż zapewniała poprzednia generacja platformy.
nie trudno sobie wyobrazić, jak ktoś pracuje w jednym systemie i nie chcąc (nie mogąc) przerywać tej pracy koniecznie potrzebuje informacji dostępnej na tym drugim systemie - po prostu uruchamiamy drugi system; teraz jest to niemożliwe
pozostaje kwestja wydajności - ile zasobów Waszym zdaniem zużywa system ? - to zależy od systemu, środowiska (graficzne/tekstowe) i aplikacji, które są na nim uruchomione; widows zabiera jakieś (w dużym przybliżeniu) 100MB ramu, 0-1 % mocy procesora, jeśli nie uruchomimy żadnej aplikacji (mi sama opera potrafi wejść na zużycie ponad 100MB ramu), więc nie widzę, w jaki zasadniczy sposób ta technologia miała by być skazana na niską/nieakceptowalną wydajność; no tak - nie da się grać w Doom3 jednocześnie na 3 systemach i jednym kompie? - nie to do du.y jest...marketingowy chwyt...znowu chcą mnie oszukać
ktoś znowu twierdził, że "więcej rdzeni = większa wydajność" - to nie jest prawda;
wszystko zależy od systemu operacyjnego i tego jak dany soft został napisany; poza tym najpewniej się okaże, że wiele programów (w tym gier) po wejściu na rynek będzie działało wolniej niż na jednordzeniowych procesorach - główny powód to obniżone taktowanie zegarów tych proców, żeby procki się nie przegrzewały
a to z Tom's Hardware Guide
Wielordzeniowe plany
Przyszłe komputery PC oraz serwery bazujące na architekturze Intela będą wyposażone w procesory dwurdzeniowe i wielordzeniowe. Będą one obsługiwały wiele innowacyjnych technologii, takich jak szybsze I/O czy wirtualizacja. Zapewnią również większe bezpieczeństwo i umożliwią korzystanie z przyszłych, zaawansowanych technologii pamięci. Platforma kryjąca się pod kryptonimem „Richford” będzie wyposażona w dwa procesory Intel Itanium (kryptonim „Tukwila”). Zostanie ona zaprezentowana w 2007 roku. Kolejnym produktem będzie procesor Intel Itanium nowej generacji (kryptonim „Poulson”).
Pierwszy dwurdzeniowy procesor Intel Xeon MP (kryptonim „Paxville”) zostanie zaprezentowany w pierwszym kwartale 2006 roku. Programy przygotowawcze kierowane
do przedsiębiorstw i twórców oprogramowania zostaną uruchomione pod koniec 2005 roku. Oparta na procesorze Intel Xeon MP wyposażonym w więcej niż dwa rdzenie (kryptonim „Whitefield”) platforma kryjąca się pod kryptonimem „Reidland” zostanie zaprezentowana w 2007 roku. Procesory Intel Xeon MP są stosowane w serwerach wyposażonych w cztery lub więcej CPU.
Stworzona z myślą o serwerach dwuprocesorowych platforma „Bensley” pojawi się w pierwszym kwartale przyszłego roku. Będzie ona wyposażona w dwurdzeniowe procesory Intel Xeon (kryptonim „Dempsey”). Układy „Dempsey” znajdą również zastosowanie w platformie „Glidewell” tworzonej dla najwydajniejszych stacji roboczych.
Platforma dla cyfrowego biura (kryptonim „Lyndon”) zostanie zaprezentowana jeszcze w tym roku. Będzie ona wykorzystywała chipsety z rodziny Intel 945/955 oraz procesory Intel Pentium 4 5xx i 6xx, jak również dwurdzeniowe układy Intel Pentium D (kryptonim „Smithfield”). Platforma „Lyndon” będzie obsługiwała zarówno Intel Active Management Technology, jak i Intel Virtualization Technology.
Intel opublikował specyfikację nowej technologii zarządzania
Intel opublikował szczegóły dotyczące specyfikacji Intel Active Management Technology (Intel AMT). Nowa technologia będzie stosowana w procesorach, chipsetach i kartach sieciowych Intela zapewniając szefom IT większą kontrolę nad połączonymi w sieciach komputerami, łatwiejsze zarządzanie zasobami IT oraz zmniejszenie kosztów obsługi.
Intel AMT to nowe rozwiązanie umożliwiające zdalne diagnozowanie i naprawy wielu usterek komputerów, które do tej pory wymagały wizyt serwisowych. Informatyk może dzięki niemu zdalnie konfigurować nowe komputery, uaktualniać oprogramowanie, dokonywać inwentaryzacji oraz wykrywać i rozwiązywać wiele problemów. Może to robić również wtedy, gdy sprzęt jest wyłączony, systemy operacyjne są zamknięte, a nawet, gdy uszkodzony jest twardy dysk.
Nowa technologia to część inicjatywy Intela Digital Office, która ma na celu opracowywanie nowych sposobów użytkowania sprzętu przez pracowników biurowych.
Technologia Intel AMT będzie zastosowana w platformie desktopowej „Lyndon”, która pojawi się w 2005 roku. W roku 2006 rozwiązanie zostanie wykorzystane w platformie serwerowej „Bensley”.
„Intel AMT znacznie usprawni zarządzanie zasobami oraz pomoże w ograniczeniu przestojów systemu, wizyt technicznych oraz kosztów operacyjnych” – powiedział Abhi Talwalkar, wiceprezes i dyrektor generalny Intel Digital Enterprise Group. „To doskonały przykład pokazujący jak Intel integruje innowacje platform w elementy krzemowe w celu ułatwienia zarządzania i zwiększenia bezpieczeństwa dzisiejszych sieci komputerowych”.
Ogłoszona dzisiaj specyfikacja opisuje specyficzne interfejsy umożliwiające współpracę Intel AMT z odpowiednim oprogramowaniem oraz wykorzystanie zintegrowanych możliwości z zakresu monitorowania i kontroli przy użyciu platformy klienta. Intel AMT będzie podsystemem zupełnie oddzielonym od systemu operacyjnego. Taka niezależność pomoże w rozwiązaniu jednego z najpoważniejszych problemów, z jakim borykają się szefowie IT – celowego lub przypadkowego zablokowania w komputerach funkcji związanych z zarządzaniem i bezpieczeństwem.
Specyfikacja Intel AMT zapewni kontrolę dostępu do odpowiednich funkcji dzięki zastosowaniu branżowych standardów bezpieczeństwa.
W 2006 roku Intel AMT będzie korzystać ze specyfikacji Web Services Management (WS-Management), która zapewnia połączonym w sieć systemom wspólną drogę dostępu i wymiany informacji niezbędnych do zarządzania. WS-Management jest doskonałym fundamentem dla nowej generacji aplikacji do zarządzania ze względu na ogromną funkcjonalność połączoną z możliwościami czerpania korzyści związanych z bezpieczeństwem i stabilnością architektury usług internetowych.
Specyfikacja opisuje również aplikacje uzupełniające Intel AMT z innymi technologiami, m.in.: Intel Virtualization Technology oraz technologia LaGrande, a także Extensible Firmware Interface (EFI).
Technologia Vanderpool umożliwia szefom IT wyodrębnienie części komputera w celu umożliwienia niezauważalnego dla użytkownika serwisowania i uaktualniania oprogramowania. W połączeniu z Intel AMT operacje te mogą być przeprowadzane na systemie, który jest wyłączony, lub który posiada uszkodzony twardy dysk.
Technologia LaGrande oraz Intel AMT uzupełniają się wzajemnie tworząc bezpieczne środowisko dla kompletnej platformy. LaGrande zwiększa bezpieczeństwo platformy, podczas gdy Intel AMT zapewnia bezpieczne, działające niezależnie środowisko zarządzania. EFI.
Intel poinformował, że ekosystem oprogramowania obsługującego Intel AMT wciąż się rozrasta. Odpowiednie produkty zapowiedziały m.in. firmy: Altiris Inc, BMC Software, Check Point Software Technologies, Computer Associates, LANDesk Software, Novell, Symantec, StarSoftComm oraz Trend Micro.
Dodatkowe informacje o specyfikacji można znaleźć w Internecie, pod adresem: www.intel.com/technology/manage. Pełna specyfikacje jest dostępna pod embargiem informacyjnym. Producenci mogą zdobyć dodatkowe informacje od przedstawicieli Intela lub w lokalnej siedzibie korporacji.
jak dlamnie juz znalazlem odpowiedz na moje wczesniejsze przemyslenia
Normlanie przez chwile odnioslem wrażenie że ITanium ma być na komputery średnio-biurkowe
no to chyba juz wszystko
http://endian.net/details.asp?tag=CedarMill
Nehelame umrał już dawno. Czyli co... Zostaje na polu bitwy Pentium M i ITanium skoro już ktoś bardzo upiera sie na zupełnie nową architekture..
oo a to tez ciekawa stronka
Nie jest to prawdą, w każdym razie nie do końca. Ściągnij sobię film z thg z porównaniem procesorów 3,6ghz i 3,06 z ht. Ten wolniejszy lepiej sobię radził z paroma wątkami, awięc napewno ht dawało więcej aniżeli dodatkowe mhz (czytaj szybszy procesor).
VT było już w czasach 386 - taka karta na cztery zestawy myszek, klawiatur i monitorów (może Piła pamięta), robiąca z jednego cztery niezależne kompy. Jakoś się nie przyjęło
Jeśli chcecie "ukryewać" swoje grzeszne rozrywki i udawać pracę to macie przecież wirtualne pulpity, zainstalować któryś z dodatków do sterowników i się bawić.
W domku widzę raczej jeden pałerny komp ze wszsytkim i kilka słabszych (czytaj: starszych) końcówek, kóre prawie nic nie robią - wszystko łącznie z grafiką w grach liczone jest na serwerku a one dostają gotowe dane do wyświetlenia. Wtedy wystarczy odpowiednio dobry ssytem i "wsparcie" sterownikowe. Macie kilka osób robiących jednocześnei różne rzeczy. Tylko trzeba jeszcze chcieć.
-działać na tym samym sockecie co Xeon (najprawdopodbniej będzie to LGA...)
-cena ma być taka sama jak Xeona (hmmm)
-nic nigdzie nie jest wspomniane o jakiej kolwiek zgodności z x86 czy też sprzętowe mulacji takowego
-chipsety obsługujące następne generacje ITanium od TUkwilla mają być takie same dla Xeonów i ITanium
Czyżby Intel szykował sie do ataku na Desktopy, w niedalkiej przyszłości ?
grid nie gird - dlatego Ci się to nie podoba - bo by trzeba było ogromne ilości informacji przesyłać tam i z powrotem (video) z niesłychanie małymi opóźnieniami- a coś takiego nie ma racji bytu; dodatkowo - wszyscy na świecie odeszli już od zcentralizowanych monstrów na korzyść bardziej rozproszonych(ale to już na marginesie) - kolega PO. miał dobre intencje, ale pomysł im jakością nie dorównał
jeśli nie wiesz co to znaczy wirtualny pulpit, to dlaczego jesteś "za" ?
to się będzie mogło znaleźć w każdym komputerze i jestem przekonany, że będzie sprawnie działać
bez związku - nie zrozumiałeś idei za tym stojącej, nie czytasz postów, a sam postujesz bez namysłu - paskudny zwyczaj
Chyba troche zawile to napisałem, ale ciągle chodzi mi dokładnie o to ..
Bo nie potrafią zrobićszybkiego rdzenia i prędzej czy później zrobią procka 4 rdzeniowego? A do czego komuś4 rdzeniowy procek? Żeby mu dobrze VP działał. A Po co komu VP? Po nic!
co do pierwszego to mas rację ale co do 64 bit. to żes strzelił jak ślepy w tekturowe pudło, może od razu powróćmy do 8 bitów? i programowania w jezyku maszynowym?
Komputer ma swoją przestrzeń adresową. W przypadku 32bitów 4GB. (jeśli nawet masz mniej RAMu to i tak taka jest przestrzeńwirtualna)
...
To że coś niema zastosowania w twoim ogródku nieznaczy że tak będzie w każdym. Wirtualizacja jest potrzebna jednak dziś jest ona okupiona bardzo dużym spadkiem wydajności.
Do czego?
Założmy że mamy Komputer 2x Intel Xeon 2.4 Mhz do niego podpiętych jest np $x developerów na "cieńkich klientach" a wirtualizowany jest komputer testowy to idealne rozwiązanie do testowania systemów, sterowników niskiego poziomu itp W porównaniu do łączenia komputerów jest o wiele prostsze logistycznie. Kwestia wydajności już została w pewnych przypadkach rozwiązania.
Kolejne zastosowanie np w pełni bezpieczne konta udostępniane jako komputery osobiste
Widziałeś jak działa XEN? Zapewne wiesz jakie ma wady teraz nie będzie to problem.
HT to moim zdaniem naprawdę kiepski wynalazek nie wiem na jakiej podstawie twierdzisz że przyspiesza przełączanie się wątków bo zadanie to należy do systemu. HT tylko umożliwia rozpoczęcie wykonywania pewnych zadań nieco szybciej bez czekania na zakończenie innych operacji JEŻELI odpowiednie rejestry i jednostki wykonywania nie są zajęte. Wyniki testów pokazują jak bardzo rozdmuchane są tego efekty w stosunku do założeń. To że AMD się w HT nie bawi to jeszcze 1 powód.
Co innego internet a co innego lan. Mamy już gigabitówki i spokojnie można na czymś takim kilka kompletnych kompów obsłużyć. Ok, może nie pulpit, ale rendrting 3d, dekompresja, deszyfracja - to pies? Opóźnienia będą wystarczajaco małe. To jest idea serwerka domowego, jeśli są dwa kompy w domu to i tak jest potrzebny router - takie coś mozę robić za bramę z odpowinednio silnym fajerłolem, antywirusem i odrobaczaczem dodatkowo, bez martwienia sięo lagi w czasie gry. Magazyn plikóów, dostępny ze wszsytkich kompów. Hosta, na korego tak naprawdęsielogujesz i wszędzie masz te same ustawienia.
Życie trzeba upraszczać a nie utrudniać
VT ma zastosowanie w serwerach - bo tam przydzielasz zamiast konta całą maszynę i nie martwisz się, co klient sobie psuje, instaluje itp... Że będzie sprawnie działać - jasne. Tylko nie będzie miało zastosowania, po prostu będzie "działać".