Jest. Jeżeli mówimy tu o tym nowym quadzie to na początku nikt go nie ma, więc zapomnij o złożeniu nowego kompa od ręki. Jak musisz coś kupić to kupujesz co jest, jak nie musisz to zamawiasz i czekasz na swoją kolej - wcześniej zamówisz, wcześniej dostaniesz - chyba proste, nie?
Nie zachowujmy się tak, jakby to był jakiś raryras i trafił do nas zaledwie w jednej partii, sztuk 10. Q9300 już latają po allegro ...
I nadal uważam, że dziwna to sytuacja, gdy pracownik sklepu nie potrafi odpowiedzieć na proste pytanie. Dla mnie coś takiego zawsze będzie niepoważne i tyle.
1 Nie było, bo nie było takiej potrzeby. Popularność rozwiązań wieloprocesorowych była nikła. To brak rozwoju wydajności procesorów i namiastka tejże w postaci wieloprocesorowości wymusiła dostosowywanie się oprogramowania. Natomiast takie aplikacje jak 3Dstudio były wielowątkowe i przynosiły znaczny wzrost wydajności na systemach wieloprocesorowych. Tak czy inaczej trudno traktować dokładanie kolejnych rdzeni jako sensowną drogę rozwuj.
Nie chodzi o sens tylko o możliwości - na razie nie ma innych _skuteczniejszych_ rozwiązań. Alpha forsowała kiedyś pojedyncze procesory - pamiętam, że przykręcało je się do chłodzenia śrubą 13
CYTAT
2. Dlatego może pora zmienić technologię?
Łatwo powiedzieć
CYTAT
3. A kto powiedział, że odpowiednio droższy? Jak pamiętam swego czasu przeciętne PII 333 MHz kosztowało ponad 1000zł (taki odpowiednik dziesiejszego procesora z testu j.w) przyszła konkurencja w postaci K7 i ceny spadły mimo wzrostu wydajności.. Nie możesz procka obciążyć, albo to wina architektury (wielordzeniowość jest problemem), albo Twoich potrzeb.
A to komputer składa się tylko z procesora? Nie ma dysków, pamięci i innych co mogą spowolnić procka?
CYTAT
Zawsze możesz sobie kupić semprona za 100PLN jak Ci mocy wiecej nie trzeba. Wyobraź sobie jednak, że są ludzie którym mocy brakuje. Czekają kilka dni na wyniki działania procka (albo i dłużej).
Jasne. SETI, RC5, United Devices i inne. Bawiłem się jak jeszcze byłem młody i głupi. Renderfarmy? Tu zawsze będzie za mało mocy.
CYTAT
Wątpię prawdę mówiąc w rozwój CPU. Raczej należy oczekiwać rozwoju uniwersalnej architektury GPU.
A co ma jedno do drugiego? Jak GPU ma mi pomóc w kompresji RARem? CPU i GPU to inne rodzaje procesorów i inny rodzaj programowania. W niektórych zastosowaniach da się wykorzystać GPU ale to jest mały %.
CYTAT
Tu jakoś stagnacji nie ma, a możliwości obliczeniowe dawno przerosły to co oferuje CPU (fakt, że dzięki zrównoleglaniu, choć nie tylko).
Ale to jest moc obliczeniowa ściśle ukierunkowana...
CYTAT
Odnośnie samochodów, tak w porównaniu z elektroniką to tam rozwoju nie ma.
Ech kolego.... Udajesz czy.... Poczytaj jak poprawiło się bezpieczeństwo obecnych samochodów, o ile mniej zużywają paliwa, o ile mniej zanieczyszczają środowisko, o ile dłużej można je eksploatować (np: aluminowe nadwozia), jak poprawił się komfort podróżowania, wyposażenie, ergonomia - to jest nic? O elektronice i całości spraw z nią związanych nie wspominam, bo to raczyłeś zauważyć....
Nie chodzi o sens tylko o możliwości - na razie nie ma innych _skuteczniejszych_ rozwiązań. Alpha forsowała kiedyś pojedyncze procesory - pamiętam, że przykręcało je się do chłodzenia śrubą 13
Łatwo powiedzieć
A to komputer składa się tylko z procesora? Nie ma dysków, pamięci i innych co mogą spowolnić procka?
Jasne. SETI, RC5, United Devices i inne. Bawiłem się jak jeszcze byłem młody i głupi. Renderfarmy? Tu zawsze będzie za mało mocy.
A co ma jedno do drugiego? Jak GPU ma mi pomóc w kompresji RARem? CPU i GPU to inne rodzaje procesorów i inny rodzaj programowania. W niektórych zastosowaniach da się wykorzystać GPU ale to jest mały %.
Ale to jest moc obliczeniowa ściśle ukierunkowana...
Ech kolego.... Udajesz czy.... Poczytaj jak poprawiło się bezpieczeństwo obecnych samochodów, o ile mniej zużywają paliwa, o ile mniej zanieczyszczają środowisko, o ile dłużej można je eksploatować (np: aluminowe nadwozia), jak poprawił się komfort podróżowania, wyposażenie, ergonomia - to jest nic? O elektronice i całości spraw z nią związanych nie wspominam, bo to raczyłeś zauważyć....
Coś kolego chyba nie czytasz tego o czym ja piszę, albo nie rozumiesz. Tak, postęp w zakresie motoryzacji praktycznie nie istnieje jeśli porównamy go do rozwoju w zakresie elektroniki. Ktoś zresztą kiedyś zrobił takie porównanie jak jeździłby samochód gdyby rozwijał się w takim tempie jak leketronika. Dyski twarde w ogóle stoją w miejscu, ale na szczęście tu jesteśmy w pierwszym etapie zmiany technologii pamięci masowej (SSD). Owszem takiego RAR można by zmusić by spożytkował moc GPU (ale trzeba by go napisać od nowa).
Jest jednak cała masa zastosowań, gdzie wydajność I/O jest bez wpływu na wydajność, a wąskim gardłem pozostaje proc, zresztą to jest komentarz do testu procesora, a nie dysku twardego. Tak czy inaczej o co innego mi chodziło. Stwierdziłem jedynie fakt, że mamy totalną stagnację od paru lat i podniecanie się tymi paroma procentami wzrostu wydajności jest trochę nie na miejscu. Jeśli Ty nie potrafisz wyobrazić sobie zastosowań dla większej mocy CPU, to na prawdę nie moja sprawa. Uwierz mi że znajdzie się dość ludzi którzy tę moc będą w stanie wykorzystać.
Coś kolego chyba nie czytasz tego o czym ja piszę, albo nie rozumiesz. Tak, postęp w zakresie motoryzacji praktycznie nie istnieje jeśli porównamy go do rozwoju w zakresie elektroniki. Ktoś zresztą kiedyś zrobił takie porównanie jak jeździłby samochód gdyby rozwijał się w takim tempie jak leketronika. Dyski twarde w ogóle stoją w miejscu, ale na szczęście tu jesteśmy w pierwszym etapie zmiany technologii pamięci masowej (SSD). Owszem takiego RAR można by zmusić by spożytkował moc GPU (ale trzeba by go napisać od nowa).
Jest jednak cała masa zastosowań, gdzie wydajność I/O jest bez wpływu na wydajność, a wąskim gardłem pozostaje proc, zresztą to jest komentarz do testu procesora, a nie dysku twardego. Tak czy inaczej o co innego mi chodziło. Stwierdziłem jedynie fakt, że mamy totalną stagnację od paru lat i podniecanie się tymi paroma procentami wzrostu wydajności jest trochę nie na miejscu. Jeśli Ty nie potrafisz wyobrazić sobie zastosowań dla większej mocy CPU, to na prawdę nie moja sprawa. Uwierz mi że znajdzie się dość ludzi którzy tę moc będą w stanie wykorzystać.
Rozumiem kolego. Problem w tym, że obaj mamy rację Dawniej wynalazkami parali się zapaleńcy i dla nich najważniejsze było, żeby coś wynaleźć, udoskonalić, ulepszyć. Postęp był ogromny. Teraz wynalazkami czy ulepszaniem technologii zajmują się duże koncerny dla których priorytetem są interesy własne a nie klienta. Oczywiście są pewne wyjątki, gdzie nowa technologia jest naprawdę droga i pracochłonna, akurat procesory to jedna z droższych technologii i dlatego postęp jest tak marny (o tym pisałem). Tak samo samochody, nie wiem czy zdajesz sobie sprawę jaka teraz jest elektronika w samochodzie i co robi - tego nie widać ale postęp jest i to duży. Wiem, że chciałbyś abyśmy jeździli na wodorze lub nawet wodzie (wtedy byłby postęp, nie ), ale tu jest konflikt interesów z lobby naftowym i dlatego to za szybko nie wejdzie. Trochę programuję, więc napiszę co myślę o RARze na GPU. Owszem można by oprogramować shadery czy inne jednostki, ale obawiam się dwóch rzeczy: taka aplikacja musiałaby być bardzo wielo wątkowa, a na dodatek zźarłaby całą moc GPU i nie wiem czy osiągnęłaby wydajność przeciętnego procesora. A trzeba jeszcze mieć na uwadze pobór mocy przeciętnego CPU (np: 50W) i odpowiednio szybkiej grafiki (np: 150W).Na razie skórka wyprawki nie warta i dlatego o tym się tylko gada Cała masa zastosowań, gdzie wydajność I/O jest bez wpływu na wydajność to inna bajka i nie warto nam zwykłym ludziom się nad tym rozwodzić (a zastosowania znam, ale te zastosowania mnie już nie obchodzą - niech się martwią o to Ci, którzy się tym zajmują). Co do stagnacji to ja tylko sugerowałem, że dość często wynika z coraz większych kosztów wdrożenia nowych technologii i tu poprawy nie będzie, ale znów inne dziedziny (jak np: elektronika samochodowa) rozwijają się w błyskawicznym tempie.
Dziwią mnie trochę pomiary zapotrzebowania na energię, na innych portalach c2d E8xxx ma mniejsze zapotrzebowanie na prąd od q9300... pozatym cały zestaw pobierał 130W w stresie... ciekawi mnie jak są wykonywane pomiary poboru prądu? Zastanawiam się po co kupiłem 450W zasilacz jakiś czas temu do niewiele mocniejszego zestawu...
A jednak ciagle sie nad nia pracuje. Problemem jest na przyklad, mala wydajnosc produkcji fulerenow, ktore skutecznie moglyby zastapic krzem, a ktore sa w stanie wytrzymac naprawde ekstremalne warunki.
CYTAT
Ale to jest moc obliczeniowa ściśle ukierunkowana...
Powiedz to inżynierom NVIDII, biedacy opracowali cos takiego, ze ich karty potrafia prowadzic obliczenia zwizane z fizyka obiektów i w dalszym ciagu draza temat. No ale przeciez sie nie da :< Nowoczesne procesory x86, sa x86 tylko z nazwy i tylko z zewnątrz. Wenwatrz takie procesora siedzi conajmniej kilka wyspecjalizowanych jednostek RISC, gdyby zmienic archikteture na taka jaka maja karty graficzne i zostawic zgodnosc z X86 mniej wiecej tak jak to wyglada aktualnie to nikt by nie zauwazyl roznicy. To sie da zrobic, tylko po co ? Koszty, projekty, wdrazanie, a firmy niechetnie dziela sie projektami i ujawnia swoje plany na najblizsze 10 lat. Moge powiedziec ze 100% pewnoscia ze np. Intel, IBM, NVIDIa prowadzi prace rozwojowe w kilku roznych kierunkach, czesc na poziomie czystej teorii (brak odpowiedniej technologii), czesc jako ulepszanie starej archiketury, wszystko po to aby zachowac gotowosc uderzenia czyms w przeciwnika.
CYTAT
A co ma jedno do drugiego? Jak GPU ma mi pomóc w kompresji RARem? CPU i GPU to inne rodzaje procesorów i inny rodzaj programowania. W niektórych zastosowaniach da się wykorzystać GPU ale to jest mały %.
Dzieki programowalnym "procesorom" strumieniowym zawartym w takim GPU, mozna go zmusic do wszystkiego. Oczywiscie, zadna firma programistyczna tego nie zrobi. Zadanie raczej dla pasjonatów i projektow naukowych. (wysokie koszta).
CYTAT
Uwierz mi że znajdzie się dość ludzi którzy tę moc będą w stanie wykorzystać.
Ba, wystarczy głupi server WWW, zeby skutecznie zajechac taki 4 rdzeniowy procesor.
CYTAT
ale obawiam się dwóch rzeczy: taka aplikacja musiałaby być bardzo wielo wątkowa, a na dodatek zźarłaby całą moc GPU i nie wiem czy osiągnęłaby wydajność przeciętnego procesora.
Tak osiagnieto by. Tak AFAIR juz to kiedys robili. Nie mowie to był winrar, wlasciwie nie pamietam co to było, trzeba by poszukać . Wielowątkowa.. Cóż w tym dziwnego ? W tych czasach, trzeba sie nauczyć rodzielac program na wiele wątków(zreszta np. w .NET i javie to jest jedna linijka kodu).
CYTAT
Co do stagnacji to ja tylko sugerowałem, że dość często wynika z coraz większych kosztów wdrożenia nowych technologii i tu poprawy nie będzie, ale znów inne dziedziny (jak np: elektronika samochodowa
No rozwija sie elektronika samachodowa, bo jest w tyle za pc. Aha i mam tu namysli wydajnosc/zastaosowania ogolne. Bo procesory DSP to zupelnie inna bajka . Tu niechodzi o wdrozenie tu chodzi o ich opracowanie. Rzeczone fulereny sa znane od ilu ? ponad 20 lat.. Nanotechnologia jest w parze z fulerenami. Problem nie jest wdrazanie, tylko opracowanie masowego sposoby ich produkcji. Pytanie tylko czy ktos chce miec procesor bedacy w stanie wytrzymac 1000 TDP i majacy 40GHz ? ;p No moze z tym TDP przesadzilem. Prawdopdobnie dalo by sie osiagnac jakies 10Ghz przy 90W.
Powiedz to inżynierom NVIDII, biedacy opracowali cos takiego, ze ich karty potrafia prowadzic obliczenia zwizane z fizyka obiektów i w dalszym ciagu draza temat. No ale przeciez sie nie da :<
Nie pisałem, że się nie da tylko, że na razie się to nie opłaci (nie będzie z tego zysku itp.)
CYTAT
Moge powiedziec ze 100% pewnoscia ze np. Intel, IBM, NVIDIa prowadzi prace rozwojowe w kilku roznych kierunkach, czesc na poziomie czystej teorii (brak odpowiedniej technologii), czesc jako ulepszanie starej archiketury, wszystko po to aby zachowac gotowosc uderzenia czyms w przeciwnika.
To jest oczywiste.
CYTAT
Ba, wystarczy głupi server WWW, zeby skutecznie zajechac taki 4 rdzeniowy procesor.
Tam chodziło o procesor w zastosowaniach domowych (tu już nie tak łatwo go obciążyć na 100% i na dłuższy czas - oczywiście pomijając jakieś SETI).
CYTAT
Wielowątkowa.. Cóż w tym dziwnego ? W tych czasach, trzeba sie nauczyć rodzielac program na wiele wątków(zreszta np. w .NET i javie to jest jedna linijka kodu).
Nie chodzi o to, żeby włączyć wielowątkowość tylko efektywnie ją wykorzystać, a to oznacza, że programista musi się nieźle napocić, żeby rozłożyć zadanie na kilka wątków i żeby jak najmniej wątki od siebie zależały. To trzeba wykonać ręcznie, żadan automat tego dobrze nie zrobi.
CYTAT
No rozwija sie elektronika samachodowa, bo jest w tyle za pc. Aha i mam tu namysli wydajnosc/zastaosowania ogolne. Bo procesory DSP to zupelnie inna bajka .
Nie jest już tak źle, wyobrażasz sobie, że podpinasz net do auta, a ono wyszukuje aktualizacje oprogramowania do wszystkich urządzeń elektronicznych w samochodzie i je ładuje? No to sobie nie wyobrażaj bo to już jest. Diagnostyka nowoczesnego auta to bajka - brakuje już chyba tylko, żeby samo się potrafiło naprawić.
CYTAT
Tu niechodzi o wdrozenie tu chodzi o ich opracowanie.
Ja to ująłem ogólnie, miałem na myśli opracowanie i wdrożenie.
Nie chodzi o to, żeby włączyć wielowątkowość tylko efektywnie ją wykorzystać, a to oznacza, że programista musi się nieźle napocić, żeby rozłożyć zadanie na kilka wątków i żeby jak najmniej wątki od siebie zależały. To trzeba wykonać ręcznie, żadan automat tego dobrze nie zrobi.
Chodzi o fakt, tego ze zeby wrzucic jedno polowe programu do jednego watku druga do drugiego, potrzeba jednej linijki kodu. W przypadku silnika do gry, mozna by rodzielic na przyklad fizyke na kilka klas, Czesc by odpowiada za obiekty wzglednie statyczne (umeblowanie, szyby, drzewa), a czesc za dynamiczne (postacie, ubrania itd), dzieki temu w czasie kiedy postacia gracza wkarcza m-90 jeden rdzen zajmuje sie sledzeniem trajektorii lotow pociskow, i np. ich udzezaniem w sicany itd, drugi zajmuje sie poruszaniem postaci, zachowaniem tego co ma na sobie itd. Kwestia projektu. Nie, nie mowie ze to jest latwe. Ale pisanie silników, nigdy nie było, nie jest i nie bedzie latwe
CYTAT
Nie jest już tak źle, wyobrażasz sobie, że podpinasz net do auta, a ono wyszukuje aktualizacje oprogramowania do wszystkich urządzeń elektronicznych w samochodzie i je ładuje?
A tu system error prosze wysiasc i wsiasc do samochodu
..zainteresowałem się artykułem, ponieważ szukam wydajnej platformy pod MS Flight Simulator X. Niestety podobnie jak na innych tego typu witrynach na bazie tej gry nie są przeprowadzane żadne testy. Zdaje sobie sprawę, że rzesza fanów tego symulatora nie jest tak liczna jak gier typu Shoter, ale chyba i nie aż tak znowu do pominięcia, a gra wydaje mi się z samej swojej 'natury' może być wdzięcznym benchmarkiem -np. o fakcie, że dołożenie drugiej karty graficznej (w SLI) daje zerowy przyrost wydajności dowiedziałem się dopiero po jej zakupie i montażu (gdybym znalazł takie info wcześniej pewnie bym te pieniądze lepiej spożytkował. Idąc tym tropem za wydajność w FSX wydaje się odpowiadać procesor ...jak się ona zmienia w zależności od liczby rdzeni, częstotliwości taktowania czy producenta jest tematem chyba dotąd niezbadanym (na żadnym forum FS nie znalazłem potwierdzonych jakimiś testami informacji) Może warto to zrobić, w końcu nie wszyscy chyba grają tylko w FPS-y? Dodam też, że jak dotąd nie znalazłem opisu platformy sprzętowej (za dowolne pieniądze) bedącej w stanie udźwignąć tę grę z sensowną liczbą klatek/s przy ustawieniu na tzw. 'full' ...nawet dla Crysis jest łatwiej taki konfig znaleźć.. Pozdrawiam.
Chodzi o fakt, tego ze zeby wrzucic jedno polowe programu do jednego watku druga do drugiego, potrzeba jednej linijki kodu. W przypadku silnika do gry, mozna by rodzielic na przyklad fizyke na kilka klas, Czesc by odpowiada za obiekty wzglednie statyczne (umeblowanie, szyby, drzewa), a czesc za dynamiczne (postacie, ubrania itd), dzieki temu w czasie kiedy postacia gracza wkarcza m-90 jeden rdzen zajmuje sie sledzeniem trajektorii lotow pociskow, i np. ich udzezaniem w sicany itd, drugi zajmuje sie poruszaniem postaci, zachowaniem tego co ma na sobie itd. Kwestia projektu. Nie, nie mowie ze to jest latwe. Ale pisanie silników, nigdy nie było, nie jest i nie bedzie latwe
Powiedzmy tak: pisanie nie jest trudne - natomiast spowodowanie, żeby działało tak jak powinno to już kupa ślęczenia, poprawiania, przerabiania (bo w praktyce zawsze działa inaczej niż wskazuje teoria ). Programista mając projekt "w głowie" mógłby to wszystko zrobić - kwestia czasu - jednak pracodawca nigdy nie daje tyle czasu ile potrzeba i efekty są takie jakie są - wszystko po najmniejszej linii oporu.
CYTAT
A tu system error prosze wysiasc i wsiasc do samochodu
Eeeee, nie - to nie windows . Każde urządzenie ma swój identyfikator i dostanie ściśle do niego przeznaczony soft. Co kilkadziesiąt bajtów suma kontrolna - to musi zadziałać. A jak już nie zadziała to zawsze można poprawić - ostatecznie wymienić moduł.
Program wgrany do samochodu jest na tyle dobrze dopracowany i krótszy w porównaniu do kodu systemu operacyjnego, że teoretycznie i jak narazie praktycznie nie da się tego zepsuć. Łatwiej jest zarządzać kodem, który ma za zadanie przeprowadzać kilka ściśle określonych operacji, niż system operacyjnym, który jest tak zaśmiecony, że czas najwyższy podzielić go na osobne moduły, aby każdy mógłbyć projektowany osobno.
~12~ Jeśli ktoś opracuje jakiś program, który będzie potrafił odznaczyć się kilkukrotnie większą wydajnością po przez GPU w stosunku do CPU to opantenuje taki program, a później z czasem sprzeda wielkim koncerną. Ciekawe iel projektów już jest w trakcie realizacji?
~kobr~ Masz racje, trzeba poszerzyć testy o takie, które są mniejpowszechne, aby testować procesory na większym polu, wtedy i inzynierowie i polityka firm produkujących akcelatory zmieni się. Dzisiaj wyznacznikiem jest zawsze jakiś shooter popularny(ze względu an serwisy testujące i graczy) + firmy trzecie od 3DMarków. Niech jakaś firma opracuje nowe Benchmarki, wtedy i inzynierowie będą chciel zaspokoić prym swoich cudeniek na wykresach, a klienci skorzystają. Takie serwisy jak PCLab.ppl są świetne, ponieważ mogę nadać zmiane, która zapoczątkuej na innych serwisach, a zczasem dotrze to do projektantów. Jak firma widzi, że coś źle idzie w jakiś testach to starają się bardziej poprawić wyniki, czasem ksoztem oszustw, ale starają.
no i mam to cudo kupoiłem za 830 czyli dobra cena A uwaga wiele płyt go nie łąpie i trzeba wczesniej aktualizować bios niektóre nawet łaskawie nie wstanaalbo robiąwieczny restart !!! (o dziwo w artykule tego nikt nie napisał)
Czy ja dobrze widze na tych testach czy Intele 8*** (a więc także mój 8200) wypadają lepiej od tanich czterordzeniowców intela nie mówiąc o amd? Hmmm myślałem że jest odwrotnie właśnie....
Jeżeli mówimy tu o tym nowym quadzie to na początku nikt go nie ma, więc zapomnij o złożeniu nowego kompa od ręki. Jak musisz coś kupić to kupujesz co jest, jak nie musisz to zamawiasz i czekasz na swoją kolej - wcześniej zamówisz, wcześniej dostaniesz - chyba proste, nie?
Nie zachowujmy się tak, jakby to był jakiś raryras i trafił do nas zaledwie w jednej partii, sztuk 10. Q9300 już latają po allegro ...
I nadal uważam, że dziwna to sytuacja, gdy pracownik sklepu nie potrafi odpowiedzieć na proste pytanie. Dla mnie coś takiego zawsze będzie niepoważne i tyle.
Nie chodzi o sens tylko o możliwości - na razie nie ma innych _skuteczniejszych_ rozwiązań. Alpha forsowała kiedyś pojedyncze procesory - pamiętam, że przykręcało je się do chłodzenia śrubą 13
Łatwo powiedzieć
A to komputer składa się tylko z procesora? Nie ma dysków, pamięci i innych co mogą spowolnić procka?
Jasne. SETI, RC5, United Devices i inne. Bawiłem się jak jeszcze byłem młody i głupi. Renderfarmy? Tu zawsze będzie za mało mocy.
A co ma jedno do drugiego? Jak GPU ma mi pomóc w kompresji RARem? CPU i GPU to inne rodzaje procesorów i inny rodzaj programowania. W niektórych zastosowaniach da się wykorzystać GPU ale to jest mały %.
Ale to jest moc obliczeniowa ściśle ukierunkowana...
Ech kolego.... Udajesz czy....
Poczytaj jak poprawiło się bezpieczeństwo obecnych samochodów, o ile mniej zużywają paliwa, o ile mniej zanieczyszczają środowisko, o ile dłużej można je eksploatować (np: aluminowe nadwozia), jak poprawił się komfort podróżowania, wyposażenie, ergonomia - to jest nic? O elektronice i całości spraw z nią związanych nie wspominam, bo to raczyłeś zauważyć....
Łatwo powiedzieć
A to komputer składa się tylko z procesora? Nie ma dysków, pamięci i innych co mogą spowolnić procka?
Jasne. SETI, RC5, United Devices i inne. Bawiłem się jak jeszcze byłem młody i głupi. Renderfarmy? Tu zawsze będzie za mało mocy.
A co ma jedno do drugiego? Jak GPU ma mi pomóc w kompresji RARem? CPU i GPU to inne rodzaje procesorów i inny rodzaj programowania. W niektórych zastosowaniach da się wykorzystać GPU ale to jest mały %.
Ale to jest moc obliczeniowa ściśle ukierunkowana...
Ech kolego.... Udajesz czy....
Poczytaj jak poprawiło się bezpieczeństwo obecnych samochodów, o ile mniej zużywają paliwa, o ile mniej zanieczyszczają środowisko, o ile dłużej można je eksploatować (np: aluminowe nadwozia), jak poprawił się komfort podróżowania, wyposażenie, ergonomia - to jest nic? O elektronice i całości spraw z nią związanych nie wspominam, bo to raczyłeś zauważyć....
Coś kolego chyba nie czytasz tego o czym ja piszę, albo nie rozumiesz. Tak, postęp w zakresie motoryzacji praktycznie nie istnieje jeśli porównamy go do rozwoju w zakresie elektroniki. Ktoś zresztą kiedyś zrobił takie porównanie jak jeździłby samochód gdyby rozwijał się w takim tempie jak leketronika.
Dyski twarde w ogóle stoją w miejscu, ale na szczęście tu jesteśmy w pierwszym etapie zmiany technologii pamięci masowej (SSD). Owszem takiego RAR można by zmusić by spożytkował moc GPU (ale trzeba by go napisać od nowa).
Jest jednak cała masa zastosowań, gdzie wydajność I/O jest bez wpływu na wydajność, a wąskim gardłem pozostaje proc, zresztą to jest komentarz do testu procesora, a nie dysku twardego. Tak czy inaczej o co innego mi chodziło. Stwierdziłem jedynie fakt, że mamy totalną stagnację od paru lat i podniecanie się tymi paroma procentami wzrostu wydajności jest trochę nie na miejscu. Jeśli Ty nie potrafisz wyobrazić sobie zastosowań dla większej mocy CPU, to na prawdę nie moja sprawa. Uwierz mi że znajdzie się dość ludzi którzy tę moc będą w stanie wykorzystać.
Dyski twarde w ogóle stoją w miejscu, ale na szczęście tu jesteśmy w pierwszym etapie zmiany technologii pamięci masowej (SSD). Owszem takiego RAR można by zmusić by spożytkował moc GPU (ale trzeba by go napisać od nowa).
Jest jednak cała masa zastosowań, gdzie wydajność I/O jest bez wpływu na wydajność, a wąskim gardłem pozostaje proc, zresztą to jest komentarz do testu procesora, a nie dysku twardego. Tak czy inaczej o co innego mi chodziło. Stwierdziłem jedynie fakt, że mamy totalną stagnację od paru lat i podniecanie się tymi paroma procentami wzrostu wydajności jest trochę nie na miejscu. Jeśli Ty nie potrafisz wyobrazić sobie zastosowań dla większej mocy CPU, to na prawdę nie moja sprawa. Uwierz mi że znajdzie się dość ludzi którzy tę moc będą w stanie wykorzystać.
Rozumiem kolego. Problem w tym, że obaj mamy rację
Trochę programuję, więc napiszę co myślę o RARze na GPU. Owszem można by oprogramować shadery czy inne jednostki, ale obawiam się dwóch rzeczy: taka aplikacja musiałaby być bardzo wielo wątkowa, a na dodatek zźarłaby całą moc GPU i nie wiem czy osiągnęłaby wydajność przeciętnego procesora. A trzeba jeszcze mieć na uwadze pobór mocy przeciętnego CPU (np: 50W) i odpowiednio szybkiej grafiki (np: 150W).Na razie skórka wyprawki nie warta i dlatego o tym się tylko gada
Cała masa zastosowań, gdzie wydajność I/O jest bez wpływu na wydajność to inna bajka i nie warto nam zwykłym ludziom się nad tym rozwodzić (a zastosowania znam, ale te zastosowania mnie już nie obchodzą - niech się martwią o to Ci, którzy się tym zajmują). Co do stagnacji to ja tylko sugerowałem, że dość często wynika z coraz większych kosztów wdrożenia nowych technologii i tu poprawy nie będzie, ale znów inne dziedziny (jak np: elektronika samochodowa) rozwijają się w błyskawicznym tempie.
A jednak ciagle sie nad nia pracuje. Problemem jest na przyklad, mala wydajnosc produkcji fulerenow, ktore skutecznie moglyby zastapic krzem, a ktore sa w stanie wytrzymac naprawde ekstremalne warunki.
Powiedz to inżynierom NVIDII, biedacy opracowali cos takiego, ze ich karty potrafia prowadzic obliczenia zwizane z fizyka obiektów i w dalszym ciagu draza temat. No ale przeciez sie nie da :<
Nowoczesne procesory x86, sa x86 tylko z nazwy i tylko z zewnątrz. Wenwatrz takie procesora siedzi conajmniej kilka wyspecjalizowanych jednostek RISC, gdyby zmienic archikteture na taka jaka maja karty graficzne i zostawic zgodnosc z X86 mniej wiecej tak jak to wyglada aktualnie to nikt by nie zauwazyl roznicy. To sie da zrobic, tylko po co ? Koszty, projekty, wdrazanie, a firmy niechetnie dziela sie projektami i ujawnia swoje plany na najblizsze 10 lat. Moge powiedziec ze 100% pewnoscia ze np. Intel, IBM, NVIDIa prowadzi prace rozwojowe w kilku roznych kierunkach, czesc na poziomie czystej teorii (brak odpowiedniej technologii), czesc jako ulepszanie starej archiketury, wszystko po to aby zachowac gotowosc uderzenia czyms w przeciwnika.
Dzieki programowalnym "procesorom" strumieniowym zawartym w takim GPU, mozna go zmusic do wszystkiego. Oczywiscie, zadna firma programistyczna tego nie zrobi. Zadanie raczej dla pasjonatów i projektow naukowych. (wysokie koszta).
Ba, wystarczy głupi server WWW, zeby skutecznie zajechac taki 4 rdzeniowy procesor.
Tak osiagnieto by. Tak AFAIR juz to kiedys robili. Nie mowie to był winrar, wlasciwie nie pamietam co to było, trzeba by poszukać
Wielowątkowa.. Cóż w tym dziwnego ? W tych czasach, trzeba sie nauczyć rodzielac program na wiele wątków(zreszta np. w .NET i javie to jest jedna linijka kodu).
No rozwija sie elektronika samachodowa, bo jest w tyle za pc. Aha i mam tu namysli wydajnosc/zastaosowania ogolne. Bo procesory DSP to zupelnie inna bajka
Tu niechodzi o wdrozenie tu chodzi o ich opracowanie. Rzeczone fulereny sa znane od ilu ? ponad 20 lat.. Nanotechnologia jest w parze z fulerenami. Problem nie jest wdrazanie, tylko opracowanie masowego sposoby ich produkcji. Pytanie tylko czy ktos chce miec procesor bedacy w stanie wytrzymac 1000 TDP i majacy 40GHz ? ;p No moze z tym TDP przesadzilem. Prawdopdobnie dalo by sie osiagnac jakies 10Ghz przy 90W.
Chodzi o fakt, tego ze zeby wrzucic jedno polowe programu do jednego watku druga do drugiego, potrzeba jednej linijki kodu. W przypadku silnika do gry, mozna by rodzielic na przyklad fizyke na kilka klas, Czesc by odpowiada za obiekty wzglednie statyczne (umeblowanie, szyby, drzewa), a czesc za dynamiczne (postacie, ubrania itd), dzieki temu w czasie kiedy postacia gracza wkarcza m-90 jeden rdzen zajmuje sie sledzeniem trajektorii lotow pociskow, i np. ich udzezaniem w sicany itd, drugi zajmuje sie poruszaniem postaci, zachowaniem tego co ma na sobie itd.
Kwestia projektu. Nie, nie mowie ze to jest latwe. Ale pisanie silników, nigdy nie było, nie jest i nie bedzie latwe
A tu system error
Pozdrawiam.
Kwestia projektu. Nie, nie mowie ze to jest latwe. Ale pisanie silników, nigdy nie było, nie jest i nie bedzie latwe
~12~
Jeśli ktoś opracuje jakiś program, który będzie potrafił odznaczyć się kilkukrotnie większą wydajnością po przez GPU w stosunku do CPU to opantenuje taki program, a później z czasem sprzeda wielkim koncerną. Ciekawe iel projektów już jest w trakcie realizacji?
~kobr~
Masz racje, trzeba poszerzyć testy o takie, które są mniejpowszechne, aby testować procesory na większym polu, wtedy i inzynierowie i polityka firm produkujących akcelatory zmieni się. Dzisiaj wyznacznikiem jest zawsze jakiś shooter popularny(ze względu an serwisy testujące i graczy) + firmy trzecie od 3DMarków. Niech jakaś firma opracuje nowe Benchmarki, wtedy i inzynierowie będą chciel zaspokoić prym swoich cudeniek na wykresach, a klienci skorzystają. Takie serwisy jak PCLab.ppl są świetne, ponieważ mogę nadać zmiane, która zapoczątkuej na innych serwisach, a zczasem dotrze to do projektantów.
Jak firma widzi, że coś źle idzie w jakiś testach to starają się bardziej poprawić wyniki, czasem ksoztem oszustw, ale starają.
Pzdr.
A uwaga wiele płyt go nie łąpie i trzeba wczesniej aktualizować bios niektóre nawet łaskawie nie wstanaalbo robiąwieczny restart !!! (o dziwo w artykule tego nikt nie napisał)