Podsumowanie
Core 2 Quad Q9300 wprowadza czterordzeniowe, 45-nanometrowe procesory pod strzechy. Przy zegarze 2,5 GHz i 6 MB pamięci cache L2 procesor oferuje wydajność ciut niższą niż procesor Core 2 Quad Q6700 (2,66 GHz, 8 MB L2). Zdarzają się jednak wyjątki, w których Penryn rozkłada Kentsfielda na łopatki. Na razie to tylko konwersja plików wideo do formatu DivX 6.8. Wkrótce aplikacji wykorzystujących SSE4 może się pojawić więcej, więc przewaga Penryna nad procesorami 65 nm będzie rosła.
Q9300 trochę nas zawiódł pod kątem podkręcania. Spodziewaliśmy się, że przetaktujemy testowany procesor z 2,5 do 4 GHz. Nie udało nam się jednak przekroczyć poziomu 3,5 GHz. Nie chcemy sugerować, że to zła wartość, zwłaszcza że dla Kentsfieldów takie zegary są naprawdę trudno osiągalne. Liczyliśmy jednak na nieco więcej.
Core 2 Quad Q9300 ma jednak dwie bardzo istotne zalety: po pierwsze, niskie zapotrzebowanie na prąd. To naprawdę dobra informacja, zwłaszcza na tle ostatnich podwyżek cen energii elektrycznej. Po drugie, Q9300 jest przystępny cenowo. Gdy trafi do polskich sklepów (oficjalnie za kilka dni), powinien kosztować około 850 złotych. Na razie udało nam się znaleźć procesor w cennikach dwóch sklepów internetowych, ale wystawiły one układ za przeszło 1000 złotych.
850 złotych za czterodzeniowy procesor, który dodatkowo bez większych problemów można podkręcić do 3,5 GHz, to naprawdę warta rozważenia propozycja.

- Przystępna cena
- Bardzo dobra wydajność
- Niski pobór mocy
- Dobra podatność na podkręcanie
- Nie podkręca się aż tak dobrze, jak układy Penryn z serii Core 2 Extreme

A uwaga wiele płyt go nie łąpie i trzeba wczesniej aktualizować bios niektóre nawet łaskawie nie wstanaalbo robiąwieczny restart !!! (o dziwo w artykule tego nikt nie napisał)
~12~
Jeśli ktoś opracuje jakiś program, który będzie potrafił odznaczyć się kilkukrotnie większą wydajnością po przez GPU w stosunku do CPU to opantenuje taki program, a później z czasem sprzeda wielkim koncerną. Ciekawe iel projektów już jest w trakcie realizacji?
~kobr~
Masz racje, trzeba poszerzyć testy o takie, które są mniejpowszechne, aby testować procesory na większym polu, wtedy i inzynierowie i polityka firm produkujących akcelatory zmieni się. Dzisiaj wyznacznikiem jest zawsze jakiś shooter popularny(ze względu an serwisy testujące i graczy) + firmy trzecie od 3DMarków. Niech jakaś firma opracuje nowe Benchmarki, wtedy i inzynierowie będą chciel zaspokoić prym swoich cudeniek na wykresach, a klienci skorzystają. Takie serwisy jak PCLab.ppl są świetne, ponieważ mogę nadać zmiane, która zapoczątkuej na innych serwisach, a zczasem dotrze to do projektantów.
Jak firma widzi, że coś źle idzie w jakiś testach to starają się bardziej poprawić wyniki, czasem ksoztem oszustw, ale starają.
Pzdr.
Kwestia projektu. Nie, nie mowie ze to jest latwe. Ale pisanie silników, nigdy nie było, nie jest i nie bedzie latwe
Pozdrawiam.
Chodzi o fakt, tego ze zeby wrzucic jedno polowe programu do jednego watku druga do drugiego, potrzeba jednej linijki kodu. W przypadku silnika do gry, mozna by rodzielic na przyklad fizyke na kilka klas, Czesc by odpowiada za obiekty wzglednie statyczne (umeblowanie, szyby, drzewa), a czesc za dynamiczne (postacie, ubrania itd), dzieki temu w czasie kiedy postacia gracza wkarcza m-90 jeden rdzen zajmuje sie sledzeniem trajektorii lotow pociskow, i np. ich udzezaniem w sicany itd, drugi zajmuje sie poruszaniem postaci, zachowaniem tego co ma na sobie itd.
Kwestia projektu. Nie, nie mowie ze to jest latwe. Ale pisanie silników, nigdy nie było, nie jest i nie bedzie latwe
A tu system error
A jednak ciagle sie nad nia pracuje. Problemem jest na przyklad, mala wydajnosc produkcji fulerenow, ktore skutecznie moglyby zastapic krzem, a ktore sa w stanie wytrzymac naprawde ekstremalne warunki.
Powiedz to inżynierom NVIDII, biedacy opracowali cos takiego, ze ich karty potrafia prowadzic obliczenia zwizane z fizyka obiektów i w dalszym ciagu draza temat. No ale przeciez sie nie da :<
Nowoczesne procesory x86, sa x86 tylko z nazwy i tylko z zewnątrz. Wenwatrz takie procesora siedzi conajmniej kilka wyspecjalizowanych jednostek RISC, gdyby zmienic archikteture na taka jaka maja karty graficzne i zostawic zgodnosc z X86 mniej wiecej tak jak to wyglada aktualnie to nikt by nie zauwazyl roznicy. To sie da zrobic, tylko po co ? Koszty, projekty, wdrazanie, a firmy niechetnie dziela sie projektami i ujawnia swoje plany na najblizsze 10 lat. Moge powiedziec ze 100% pewnoscia ze np. Intel, IBM, NVIDIa prowadzi prace rozwojowe w kilku roznych kierunkach, czesc na poziomie czystej teorii (brak odpowiedniej technologii), czesc jako ulepszanie starej archiketury, wszystko po to aby zachowac gotowosc uderzenia czyms w przeciwnika.
Dzieki programowalnym "procesorom" strumieniowym zawartym w takim GPU, mozna go zmusic do wszystkiego. Oczywiscie, zadna firma programistyczna tego nie zrobi. Zadanie raczej dla pasjonatów i projektow naukowych. (wysokie koszta).
Ba, wystarczy głupi server WWW, zeby skutecznie zajechac taki 4 rdzeniowy procesor.
Tak osiagnieto by. Tak AFAIR juz to kiedys robili. Nie mowie to był winrar, wlasciwie nie pamietam co to było, trzeba by poszukać
Wielowątkowa.. Cóż w tym dziwnego ? W tych czasach, trzeba sie nauczyć rodzielac program na wiele wątków(zreszta np. w .NET i javie to jest jedna linijka kodu).
No rozwija sie elektronika samachodowa, bo jest w tyle za pc. Aha i mam tu namysli wydajnosc/zastaosowania ogolne. Bo procesory DSP to zupelnie inna bajka
Tu niechodzi o wdrozenie tu chodzi o ich opracowanie. Rzeczone fulereny sa znane od ilu ? ponad 20 lat.. Nanotechnologia jest w parze z fulerenami. Problem nie jest wdrazanie, tylko opracowanie masowego sposoby ich produkcji. Pytanie tylko czy ktos chce miec procesor bedacy w stanie wytrzymac 1000 TDP i majacy 40GHz ? ;p No moze z tym TDP przesadzilem. Prawdopdobnie dalo by sie osiagnac jakies 10Ghz przy 90W.
Dyski twarde w ogóle stoją w miejscu, ale na szczęście tu jesteśmy w pierwszym etapie zmiany technologii pamięci masowej (SSD). Owszem takiego RAR można by zmusić by spożytkował moc GPU (ale trzeba by go napisać od nowa).
Jest jednak cała masa zastosowań, gdzie wydajność I/O jest bez wpływu na wydajność, a wąskim gardłem pozostaje proc, zresztą to jest komentarz do testu procesora, a nie dysku twardego. Tak czy inaczej o co innego mi chodziło. Stwierdziłem jedynie fakt, że mamy totalną stagnację od paru lat i podniecanie się tymi paroma procentami wzrostu wydajności jest trochę nie na miejscu. Jeśli Ty nie potrafisz wyobrazić sobie zastosowań dla większej mocy CPU, to na prawdę nie moja sprawa. Uwierz mi że znajdzie się dość ludzi którzy tę moc będą w stanie wykorzystać.
Rozumiem kolego. Problem w tym, że obaj mamy rację
Trochę programuję, więc napiszę co myślę o RARze na GPU. Owszem można by oprogramować shadery czy inne jednostki, ale obawiam się dwóch rzeczy: taka aplikacja musiałaby być bardzo wielo wątkowa, a na dodatek zźarłaby całą moc GPU i nie wiem czy osiągnęłaby wydajność przeciętnego procesora. A trzeba jeszcze mieć na uwadze pobór mocy przeciętnego CPU (np: 50W) i odpowiednio szybkiej grafiki (np: 150W).Na razie skórka wyprawki nie warta i dlatego o tym się tylko gada
Cała masa zastosowań, gdzie wydajność I/O jest bez wpływu na wydajność to inna bajka i nie warto nam zwykłym ludziom się nad tym rozwodzić (a zastosowania znam, ale te zastosowania mnie już nie obchodzą - niech się martwią o to Ci, którzy się tym zajmują). Co do stagnacji to ja tylko sugerowałem, że dość często wynika z coraz większych kosztów wdrożenia nowych technologii i tu poprawy nie będzie, ale znów inne dziedziny (jak np: elektronika samochodowa) rozwijają się w błyskawicznym tempie.