komentarze
BeHQZobacz profil
Poziom ostrzeżenia: 0%
BeHQ2009.08.28, 14:08
Jak tak dalej pójdzie, to tylko CUDA będzie obsługiwana w grach a co za tym idzie usersi ATi bedą mogli pomażyć o efektach. Swoją drogą dośc bezinwazyjną politykę wprowadza Nvidia aby promować swoje rozwiązanie.
KrzysiekcycuZobacz profil
Poziom ostrzeżenia: 0%
Krzysiekcycu2009.08.28, 14:09
jak zobaczyłem temat , to pomyślałem że Nvidia robi konkurs dla superbohatera umiejącego robić CUDA <lol2>
HabibZobacz profil
Poziom ostrzeżenia: 0%
Habib2009.08.28, 14:10
Mnie ciekawi kiedy będzie w końcu WinRar obsługujący CUDA.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2009.08.28, 14:18
BeHQ @ 2009.08.28 14:08  Post: 290597
Jak tak dalej pójdzie, to tylko CUDA będzie obsługiwana w grach a co za tym idzie usersi ATi bedą mogli pomażyć o efektach. Swoją drogą dośc bezinwazyjną politykę wprowadza Nvidia aby promować swoje rozwiązanie.


Nie martw się.
Producenci mogliby wykorzystać CUDA tylko w PS3 oraz kartach NV, czyli rynek Xboxa oraz ATI odpada, żaden producent nie pozwoli sobie na taką staratę.

Zrobinie gry wykorzystującej wszystkie rdzenia w procesorze jest bardzo kosztowane. W dodatku GTA4 podobno wykorzystuję rdzenia itd. ale jak daleko mu do GRID.

Producenci mają duże pole do popisu, patrząc po grach jak GRID wierze, że się da i 'cuda' nie są potrzebne.
s.liponogaZobacz profil
Poziom ostrzeżenia: 0%
s.liponoga2009.08.28, 14:22

Nagrody o łącznej wartości 5 tysięcy dolarów zostaną przyznane pięciu zwycięzcom podczas organizowanej przez NVIDIA imprezy GPU Technology Conference...

To jest chyba jakiś żart :hmm:. Czy NVIDIA dorzuci na zachętę czekoladki z prawdziwego, alpejskiego mleka :E? Ile NVIDIA ma zamiar przeznaczyć na pierwszą nagrodę? 1 500 USD :lol2: Pies z kulawą nogą nie zainteresuje się tym konkursem.
XGwizdekXZobacz profil
Poziom ostrzeżenia: 0%
XGwizdekX2009.08.28, 14:33
s.liponoga @ 2009.08.28 14:22  Post: 290605

Nagrody o łącznej wartości 5 tysięcy dolarów zostaną przyznane pięciu zwycięzcom podczas organizowanej przez NVIDIA imprezy GPU Technology Conference...

To jest chyba jakiś żart :hmm:. Czy NVIDIA dorzuci za zachętę czekoladki z prawdziwego, alpejskiego mleka :E? Ile NVIDIA ma zamiar przeznaczyć na pierwszą nagrodę? 1 500 USD :lol2: Pies z kulawą nogą nie zainteresuje się tym konkursem.


Chyba mało kto przyjedzie na ten konkurs. xDDDD
LoofahZobacz profil
Poziom ostrzeżenia: 0%
Loofah2009.08.28, 14:46
Ale to naprawę jakiś żart... 5 tysięcy? W polsce to moze i by anwet przeszło, bo dobrzy programiści czesto nie siedza na kasie tym bardziej młodzi, ale w innych krajach? 50 tyś za pierwsze miejsce wydawałoby się raczej optymalne, chyba ze to jakaś zabawa a nie konkurs.
grzels0Zobacz profil
Poziom ostrzeżenia: 0%
grzels02009.08.28, 14:49
Cóż, mamy kryzys podobno :P <oni też>
cdarekZobacz profil
Poziom ostrzeżenia: 0%
cdarek2009.08.28, 14:52
ordeon12 @ 2009.08.28 14:10  Post: 290599
Mnie ciekawi kiedy będzie w końcu WinRar obsługujący CUDA.


W tej dziedzinie CUDA nie ma nic do pokazania.
robgrabZobacz profil
Poziom ostrzeżenia: 0%
robgrab2009.08.28, 14:54
BeHQ @ 2009.08.28 14:08  Post: 290597
Jak tak dalej pójdzie, to tylko CUDA będzie obsługiwana w grach a co za tym idzie usersi ATi bedą mogli pomażyć o efektach. Swoją drogą dośc bezinwazyjną politykę wprowadza Nvidia aby promować swoje rozwiązanie.

No akurat niewiem skad taki dziwny wniosek, w aplikacjach dla linuxa to faktycznie cuda rzadzi,ale w win i to w grach?? Przeciez kazdy bedzie uzywac compute shader ktory jest uniwersalny a nie cuda ktore dziala tylko na nvidia bo sie to poprostu niebedzie oplacalo.
sesefZobacz profil
Poziom ostrzeżenia: 0%
sesef2009.08.28, 15:22
BeHQ @ 2009.08.28 14:08  Post: 290597
Jak tak dalej pójdzie, to tylko CUDA będzie obsługiwana w grach a co za tym idzie usersi ATi bedą mogli pomażyć o efektach. Swoją drogą dośc bezinwazyjną politykę wprowadza Nvidia aby promować swoje rozwiązanie.


Trzeba promować jakoś syfiaste karty graficzne, dlatego tak wszędzie pchają CUDA i pokazują jakie to one jest 'wydajne'.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482009.08.28, 15:56
SunTzu @ 2009.08.28 14:18  Post: 290602

Nie martw się.
Producenci mogliby wykorzystać CUDA tylko w PS3 oraz kartach NV, czyli rynek Xboxa oraz ATI odpada, żaden producent nie pozwoli sobie na taką staratę.

Ale może pozwolić sobie na zrobienie 2x wersji i straty nie będzie, na ati i xbox, a jedynie zysk na nvidii i ps3.
Jednak nie ma co się martwić bo programiści wybiorą OpenCL (zarówno na ati jak i nvidii, a na PS3 można w OpenCL załatwić obliczenia zarówno na karcie graficznej, jak i procesorze Cell).

robgrab @ 2009.08.28 14:54  Post: 290611
No akurat niewiem skad taki dziwny wniosek, w aplikacjach dla linuxa to faktycznie cuda rzadzi,ale w win i to w grach?? Przeciez kazdy bedzie uzywac compute shader ktory jest uniwersalny a nie cuda ktore dziala tylko na nvidia bo sie to poprostu niebedzie oplacalo.

Cuda w tej chwili rządzi zarówno na windowsie, jak i na linuksie (oraz mac). Ale w przyszłości rządzić nie będzie bo prym przejmie w programach OpenCL (na wszystkich systemach i konsolach, czy nawet telefonach komórkowych), a w grach podzieli się OpenCL rynkiem z shaderami obliczeniowymi Dx (z tym, że raczej na korzyść OpenCL w grach które będą wydawane również na konsole (chyba, że tylko xbox i win to mogą wybrać shadery z dx).
znafcaZobacz profil
Poziom ostrzeżenia: 33%
znafca2009.08.28, 16:23
Cuda rządzi... :E a już myślałem że ten dzien będzie stracony.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482009.08.28, 16:48
znafca @ 2009.08.28 16:23  Post: 290621
Cuda rządzi... :E a już myślałem że ten dzien będzie stracony.

Jakiego by nie mieć zdania o nvidii i cuda to teraz w obliczeniach na gpu rządzi (produkty adobe, physx, bullet... i wiele innego softu który wykorzystuje gpu używają właśnie cuda (nikomu nie chce się pisać w stream, bo tam kernele piszesz w asm, a nie w C + dodatki ułatwiające prace (tak jak w cuda/opencl))). Mam nadzieje (jak i inni programiści), że zmieni się to razem z wyjściem nowego Mac'a (OpenCL), nowych kart Ati (obsługa OpenCL i shaderów obliczeniowych Dx), oraz wypuszczeniem dla zwykłych osób sterowników z OpenCL do kart 8k+ przez nVidię (co z tego że ja mam do takich dostęp i mogę pisać, jak nie mogę wydać, bo będzie działać tylko u zarejestrowanych programistów, którzy zainstalują sterowniki dostępne tylko dla nich).
sesefZobacz profil
Poziom ostrzeżenia: 0%
sesef2009.08.28, 17:31
skoti48 @ 2009.08.28 16:48  Post: 290624
bo tam kernele piszesz w asm, a nie w C +


Zastanów się co ty piszesz, bo chyba nie widziałeś programu w ATI Stream. Fragment mojego programu

kernel int
Rem(double a, double n)
{
double c1;
double db;

double ga = a / n;
float gp = floor((float)a /(float) n);
double gd = ga - (double)gp;
int ab = (int)gd;
double ac = gp + (double)ab;
double ba = ac - ga;

if(ba >= 0.0)
{
ac -= 1.0;
}

db = n * ac;
c1 = a - db;

return (int)c1;
}

Do asma temu jeszcze daleko.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482009.08.28, 18:11
sesef @ 2009.08.28 17:31  Post: 290631
Zastanów się co ty piszesz, bo chyba nie widziałeś programu w ATI Stream. Fragment mojego programu
...
Do asma temu jeszcze daleko.

No fajnie tylko nie pokazałeś kernela w Ati Stream (dokładniej ATI Compute Abstraction Layer - taki prawdziwy odpowiednik NVIDIA’s CUDA C extensions i OpenCL, zamiast rozszerzenia starego rozwiązania ze Stanford BrookGPU, który ma api ~C, ale działa na zupełnie innej zasadzie) tylko w brook+ (coś co ati samo chciało uśmiercić po wydaniu CAL, ale strzeliliby sobie w stopę to dalej istnieje)
sesefZobacz profil
Poziom ostrzeżenia: 0%
sesef2009.08.28, 18:39
skoti48 @ 2009.08.28 18:11  Post: 290648
sesef @ 2009.08.28 17:31  Post: 290631
Zastanów się co ty piszesz, bo chyba nie widziałeś programu w ATI Stream. Fragment mojego programu
...
Do asma temu jeszcze daleko.

No fajnie tylko nie pokazałeś kernela w Ati Stream (dokładniej ATI Compute Abstraction Layer - taki prawdziwy odpowiednik NVIDIA’s CUDA C extensions i OpenCL, zamiast rozszerzenia starego rozwiązania ze Stanford BrookGPU, który ma api ~C, ale działa na zupełnie innej zasadzie) tylko w brook+ (coś co ati samo chciało uśmiercić po wydaniu CAL, ale strzeliliby sobie w stopę to dalej istnieje)


ATI Stream zawiera zarówno Brook+ jak i CAL więc kod jest jak najbardziej w ATI Stream.

Zobacz sobie sample z CAL bo to tez jest C++ tylko trochę trudniej to ogarnąć niż Brook+, a wydajność samego CAL jest większa niż CUDA więc prędzej można by porównywać właśnie Brook+ z CUDA. Minusem Brook jest to, że wielu rzeczy nie ma zrobionych dla typów double :(
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482009.08.28, 19:17
sesef @ 2009.08.28 18:39  Post: 290657

ATI Stream zawiera zarówno Brook+ jak i CAL więc kod jest jak najbardziej w ATI Stream.

Zobacz sobie sample z CAL bo to tez jest C++ tylko trochę trudniej to ogarnąć niż Brook+, a wydajność samego CAL jest większa niż CUDA więc prędzej można by porównywać właśnie Brook+ z CUDA. Minusem Brook jest to, że wielu rzeczy nie ma zrobionych dla typów double :(

Brook+ został raczej ze względów kompatybilności z wcześniejszymi programami napisanymi już w Brook+, a nie żeby nowe z nim rozwijać (bo jest zbudowany nie na arch amd stream tylko do obliczeń korzysta z renderowania do tekstury w opengl i odczycie wyników po kolorze piksea - tak jak to się robiło przed przygotowaniem kart graficznych do obliczeń (arch cuda i stream)).
CAL to może się coś zmieniło, w ostatniej wersji (chyba, że mówisz to po tym, że są pliki C++, a nie kernele w C++) - Cal to właśnie coś w stylu CUDA C ext. i OpenCL czyli piszesz aplikację w C/C++, a kernele (mogą być osadzone w kodzie w stringu lub char[]) są odpalone przez api dla C/C++ (jednak tu C/C++ nie ma nic wspólnego z językiem kerneli)... co do wydajności to śmiała teza gdy nie można przetestować na tym samym sprzęcie, a karty ati mimo 800 procesorów strumieniowych obliczają wolniej (w ati stream (cal)) niż nvidii (cuda) z 240 (spowodowane jest to tym, że procesory nVidii są wyżej taktowane i te 800 rdzeni jest podzielone po 80 na tylko 10 rdzeni, a nvidia ma tych rdzeni aż 32 rdzeni po 8 procesorów na rdzeń).
NyatZobacz profil
Poziom ostrzeżenia: 0%
Nyat2009.08.28, 21:34
SunTzu @ 2009.08.28 14:18  Post: 290602

Nie martw się.
Producenci mogliby wykorzystać CUDA tylko w PS3 oraz kartach NV, czyli rynek Xboxa oraz ATI odpada, żaden producent nie pozwoli sobie na taką staratę.

WoW! Czyli wychodzi na na to, że podrasowany GF7600GT znany też jako RSX 'Reality Synthesizer' nagle zaczął obsługiwać CUDA. Bez wątpienia to wspaniała wiadomość. Radzę powiadomić Sony i NVIDIĘ. Biedacy nie wiedzą nawet, że to super GPU obsługuje takie technologie...
sesefZobacz profil
Poziom ostrzeżenia: 0%
sesef2009.08.28, 22:54
skoti48 @ 2009.08.28 19:17  Post: 290665
sesef @ 2009.08.28 18:39  Post: 290657

ATI Stream zawiera zarówno Brook+ jak i CAL więc kod jest jak najbardziej w ATI Stream.

Zobacz sobie sample z CAL bo to tez jest C++ tylko trochę trudniej to ogarnąć niż Brook+, a wydajność samego CAL jest większa niż CUDA więc prędzej można by porównywać właśnie Brook+ z CUDA. Minusem Brook jest to, że wielu rzeczy nie ma zrobionych dla typów double :(

Brook+ został raczej ze względów kompatybilności z wcześniejszymi programami napisanymi już w Brook+, a nie żeby nowe z nim rozwijać (bo jest zbudowany nie na arch amd stream tylko do obliczeń korzysta z renderowania do tekstury w opengl i odczycie wyników po kolorze piksea - tak jak to się robiło przed przygotowaniem kart graficznych do obliczeń (arch cuda i stream)).
CAL to może się coś zmieniło, w ostatniej wersji (chyba, że mówisz to po tym, że są pliki C++, a nie kernele w C++) - Cal to właśnie coś w stylu CUDA C ext. i OpenCL czyli piszesz aplikację w C/C++, a kernele (mogą być osadzone w kodzie w stringu lub char[]) są odpalone przez api dla C/C++ (jednak tu C/C++ nie ma nic wspólnego z językiem kerneli)... co do wydajności to śmiała teza gdy nie można przetestować na tym samym sprzęcie, a karty ati mimo 800 procesorów strumieniowych obliczają wolniej (w ati stream (cal)) niż nvidii (cuda) z 240 (spowodowane jest to tym, że procesory nVidii są wyżej taktowane i te 800 rdzeni jest podzielone po 80 na tylko 10 rdzeni, a nvidia ma tych rdzeni aż 32 rdzeni po 8 procesorów na rdzeń).


Zwracam honory, plików asmem nie ma dodawanych do projektu, odpaliłem sln i przejrzałem kod, dopiero jak zajrzałem do samych katalogów na dysku to znalazłem asm w plikach nagłówkowych, które nie są dołączone do plików projektu.

Co do samego porównania CAL do CUDA to CAL będzie szybszy bo to co napiszesz to będzie, a w CUDA niekoniecznie kompilator wygeneruje to co ty byś chciał (w sensie optymalnego kodu) . Jak już porównujesz architektury można pokazać przykład double precision gdzie moja 4770 podkręcona na 830 jest szybsza niż GTX295, akurat w przypadku ATI większe rozdrobnienia daje lepszy efekt niż w wypadku NV mniej a szybciej.

Z tego co przyjrzałem się teraz to kompilator brook+ generuje asma CALa.
Zaloguj się, by móc komentować