komentarze
*Konto usunięte*2014.01.15, 17:17
Hashi @ 2014.01.15 17:14  Post: 716179
SunTzu @ 2014.01.15 17:12  Post: 716175
(...)

też z tego samego wyszedłem nikt nie będzie pisał lini kodu dla 0,x% komputerów.

Ale bierzesz pod uwagę, ze jeśli chodzi o gry to APU siedzi w X1 i PS4? Kod pod tą architekturę już się pisze i to jest fakt, a nie gdybanie.

APU w PS4 nie ma HSA takiego jak Kaveri. Te układy mają odrębną szynę nawet.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.01.15, 17:14
SunTzu @ 2014.01.15 17:12  Post: 716175
Promilus1984 @ 2014.01.15 17:01  Post: 716172
Większość kerneli cl jest online kompilowana (w trakcie uruchomienia). Część rzeczy będzie działać out-of-the-box, bardziej zaawansowane będą wymagały odpowiednio napisanego kodu. Tyle, że ten kod będzie działał tylko na HSA więc jak ktoś będzie chciał uniwersalną aplikację zrobić będzie musiał kilka wersji tego samego zrobić. I tego nie przeskoczysz. Stąd moje powątpiewanie jeśli chodzi o rychłe wykorzystanie dobrodziejstw kaveri w domowych PC. A bolt to tylko takie szablony paru funkcji akcelerowane na gpu i nic poza tym. Żadne cudowne narzędzie do 'napisz się sam na gpu'.

też z tego samego wyszedłem nikt nie będzie pisał lini kodu dla 0,x% komputerów.

Ale bierzesz pod uwagę, ze jeśli chodzi o gry to APU siedzi w X1 i PS4? Kod pod tą architekturę już się pisze i to jest fakt, a nie gdybanie.
*Konto usunięte*2014.01.15, 17:13
focus @ 2014.01.15 17:08  Post: 716174
Suchy211 @ 2014.01.15 16:41  Post: 716166
Kiedy testy z dedykowaną kartą graficzną?

Niebawem :)


Gdzie i5 4670k? AMD przekonywało, że taka będzie wydajność :P
.... a wiem,
*Konto usunięte*2014.01.15, 17:12
Promilus1984 @ 2014.01.15 17:01  Post: 716172
Większość kerneli cl jest online kompilowana (w trakcie uruchomienia). Część rzeczy będzie działać out-of-the-box, bardziej zaawansowane będą wymagały odpowiednio napisanego kodu. Tyle, że ten kod będzie działał tylko na HSA więc jak ktoś będzie chciał uniwersalną aplikację zrobić będzie musiał kilka wersji tego samego zrobić. I tego nie przeskoczysz. Stąd moje powątpiewanie jeśli chodzi o rychłe wykorzystanie dobrodziejstw kaveri w domowych PC. A bolt to tylko takie szablony paru funkcji akcelerowane na gpu i nic poza tym. Żadne cudowne narzędzie do 'napisz się sam na gpu'.

też z tego samego wyszedłem nikt nie będzie pisał lini kodu dla 0,x% komputerów. Hrr nie miałem czasu tego bardziej szczegółowo przeglądać. Ale jest progres o ile Intel coś takiego wpakuje, Kabini, SoC-i to będzie można naprawdę zrobić kopa.
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2014.01.15, 17:08
Suchy211 @ 2014.01.15 16:41  Post: 716166
Kiedy testy z dedykowaną kartą graficzną?

Niebawem :)

HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.01.15, 17:02
Promilus1984 @ 2014.01.15 16:42  Post: 716167
@SunTzu - HSA (a ogółem teraz kaveri) ma o tyle komfortową sytuację, że GPU może zlecić zadania do CPU (i vice versa) gdy wcześniej CPU wszystkim musiał zarządzać - inicjować transfery CPU->GPU, zadania wykonywane na GPU i transfery GPU->CPU. Teraz nie musi. Teraz GPU potrafi samo dużo rzeczy zrobić. Ale nadal całość opiera się o wsparcie w OpenCL. I właśnie dzięki tym kilku rozwiązaniom (i odpowiedniej implementacji opencl w driverze) ma przynieść coś nowego. Natomiast nadal nie będzie to specjalnie łatwe ani nie będzie specjalnie wydajne. Kwestia jest taka, że tam gdzie 'combined mode' obrywało za transfery, inicjacje itp. tam już powinno być lepiej, natomiast i tak wymaga to odpowiedniego przygotowania softu.

Przypomina mi się publikacja w której czytałem jak RSX może startować rdzenie w CPU w PS3. Nie jest to moze to samo ale widać pewne podobieństwa.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842014.01.15, 17:01
Większość kerneli cl jest online kompilowana (w trakcie uruchomienia). Część rzeczy będzie działać out-of-the-box, bardziej zaawansowane będą wymagały odpowiednio napisanego kodu. Tyle, że ten kod będzie działał tylko na HSA więc jak ktoś będzie chciał uniwersalną aplikację zrobić będzie musiał kilka wersji tego samego zrobić. I tego nie przeskoczysz. Stąd moje powątpiewanie jeśli chodzi o rychłe wykorzystanie dobrodziejstw kaveri w domowych PC. A bolt to tylko takie szablony paru funkcji akcelerowane na gpu i nic poza tym. Żadne cudowne narzędzie do 'napisz się sam na gpu'.
*Konto usunięte*2014.01.15, 16:54
Czyli nie trzeba przekompilować aplikacji, a wszystko będzie działać natywnie tylko trzeba w grać najnowsze catalyst-y.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842014.01.15, 16:42
@SunTzu - HSA (a ogółem teraz kaveri) ma o tyle komfortową sytuację, że GPU może zlecić zadania do CPU (i vice versa) gdy wcześniej CPU wszystkim musiał zarządzać - inicjować transfery CPU->GPU, zadania wykonywane na GPU i transfery GPU->CPU. Teraz nie musi. Teraz GPU potrafi samo dużo rzeczy zrobić. Ale nadal całość opiera się o wsparcie w OpenCL. I właśnie dzięki tym kilku rozwiązaniom (i odpowiedniej implementacji opencl w driverze) ma przynieść coś nowego. Natomiast nadal nie będzie to specjalnie łatwe ani nie będzie specjalnie wydajne. Kwestia jest taka, że tam gdzie 'combined mode' obrywało za transfery, inicjacje itp. tam już powinno być lepiej, natomiast i tak wymaga to odpowiedniego przygotowania softu.
Suchy211Zobacz profil
Poziom ostrzeżenia: 0%
Suchy2112014.01.15, 16:41
Kiedy testy z dedykowaną kartą graficzną?
*Konto usunięte*2014.01.15, 16:37
Ano spoczywa na barkach programisty o AI rzecz jasna nie pisałem. Ale jak dobrze rozumiem w Kaveri CPU nie musi zlecać zadań do GPU, można to zrobić wcześniej z pominięciem CPU co znacząco przyśpieszy działanie aplikacji. W OpenCL używanie równocześnie CPU+GPU powodowało nawet spadek wydajności, tu tego nie powinno być dzięki Kaveri.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842014.01.15, 16:24
Ty jesteś nienormalny? http://developer.amd.com/tools-and-sdks/he...mplate-library/
Teraz wybrany fragment:
Bolt supports C++ AMP in addition to OpenCL™ as underlying supported compute technologies.

Nie masz pojęcia o czym piszesz, myślisz, że AMD kombinuje z jakimś super cudownym językiem czy narzędziem co samo za programistę rozdzieli zadania między CPU i GPU. Bzdura. Jak będzie takie AI na świecie co będzie potrafiło tworzyć i się rozwijać to się może doczekasz takiego kompilatora. Teraz wszystko spoczywa na barkach programisty i HSA na tym polu nic nie wnosi. Nadal jest stary dobry OpenCL i nowy nie do końca jeszcze ogarnięty przez AMD C++ AMP. I w tym pod HSA będą developerzy pisać, a różnica będzie taka, że pewne fragmenty kodu będą kompilowane lub wykonywane (zależy czy offline compilation, czy online) w zależności czy arch. systemu jest HSA, czy nie.
*Konto usunięte*2014.01.15, 16:13
@up
2. AMD wyraźnie pisze o OpenCL, C++ AMP, Sumatra (java z gpu) - bo np. aparapi to java z wrapperem opencl więc nadal OpenCL. Nie ma mowy o żadnych innych językach.

https://github.com/HSA-Libraries/Bolt
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842014.01.15, 16:11
Dobra, to mnie rozeźliłeś.
1. OpenCL jest wspieranym przez wszystkich znaczących producentów cpu/gpu standardem. Jest teraz, jest już, jest dojrzały. Jest rozwijany. Ma dobre narzędzia i możliwości. Wspiera C (i chyba już częściowo C++).
2. AMD wyraźnie pisze o OpenCL, C++ AMP, Sumatra (java z gpu) - bo np. aparapi to java z wrapperem opencl więc nadal OpenCL. Nie ma mowy o żadnych innych językach.
3. Chcesz pisać w HSAIL? to IL, kojarzysz? CAL/IL? To właśnie coś w tym stylu! Tylko bardziej uniwersalne (tj. nie wiążące się z konkretną architekturą, a raczej będące niskopoziomowym pomostem między językami wysokiego poziomu, a samym sprzętem zgodnym z HSA). Nikt w tym pisał nie będzie, chyba że się uprze (ale to tak jak pisanie w ASM na x86 albo PTX na NV). Nie wierzysz? Przejrzyj co to jest i do czego służy (i jak wygląda): https://hsafoundation.app.box.com/s/m6mrsjv8b7r50kqeyyal
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.01.15, 16:04
SunTzu @ 2014.01.15 15:57  Post: 716150
moduły Peltiera pobierają zbyt dużo energii. Układ musiałby być np. bardzo wydajny i pobierać mało energii... do 45W miałoby to może jakiś sens.

To wszytko są pytania na przyszłość, może dzięki grafenowi, powstaną wydajniejsze moduły, inne lepsze rozwiązania. Na dzień dzisiejszy to tylko takie nasze gdybanie.
UP. kwestia kalkulacji zysków i strat. jeżeli poluzowałbyś tylko newralgiczne sekcje CPU, jak FPU i ALU, to zwiększysz powierzchnię tylko części CPU.
Ale jak mówiłem to jest gdybanie, i pytania na które musi sobie odpowiedzieć Intel nie my. Nas interesuje żeby dostać, dobre CPU, z dobrymi temperaturami, a jak sobie to zrobię to ich problem.
[
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2014.01.15, 16:03
CortexM3 @ 2014.01.15 15:54  Post: 716147

To nie projekt, to fizyka, tranzystory są mniejsze, ale działają na podobnych napięciach, wydzielają podobnej wielkości ciepło ze znacznie mniejszej powierzchni. To wyzwanie na przyszłość i będzie z tym gorzej, dlatego kombinują z bramkami 3d, nanorurkami i domieszkowaniem III-V.

Zgoda. Ja się nawet nie zdziwię jak za kilka lat na wierzchu chipów będą dawali moduły
Peltiera aby transportowały ciepło z chipu do IHSa.
Natomiast nie myl Fizyki, z projektowaniem układu. To że tranzystor jest mniejszy, nie definiuje powierzchni chipu w żaden sposób. Tranzystory można przecież dać dalej od siebie, wtedy będą miały wokół powierzchnię do oddawania i transportu ciepła. Chip będzie przez to większy. To akurat nie jest jakiś tragicznie wielki problem, zresztą nie musisz rozsuwać jednakowo daleko od siebie wszystkich tranzystorów w chipie.
Wszystko jest kwestią opracowania rozwiązań, ich skuteczności i opłacalności.
Fizyka oczywiście ogranicza pewne aspekty projektu, ale to nie znaczy, że nie da sie wypracować rozwiązań.

intel i tak nieco rozbudował rdzeń jako jednostkę zbiorczą do obliczeń, więcej alu i większe fpu, to dodaje tranzystorów i powierzchni, ale w projekcie są określone parametry dla procesu, czyli gęstość upakowania, poluzowanie tego nie ma sensu ekonomicznego.
*Konto usunięte*2014.01.15, 15:57
moduły Peltiera pobierają zbyt dużo energii. Układ musiałby być np. bardzo wydajny i pobierać mało energii... do 45W miałoby to może jakiś sens.

Promilus1984 @ 2014.01.15 15:55  Post: 716148
@SunTzu - bzdura, idea jest właśnie taka. W OpenCL masz różne typy compute device, nie zmienia to faktu, że CPU to 1 device z np. 4 units, a gpu to drugi device z np. 8 units. Wklepuję clinfo i mam wyraźnie: number of devices: 2, device type cl_device_type_gpu, max compute units 8; device type: cl_device_type_cpu, max compute units: 3. HSA nic do tego nie wnosi i jeśli dobrze poczytasz różne recenzje odnośnie tego to zauważysz, że pod tym względem zupełnie nic AMD nie zamierza zmieniać, dodawać. To zawsze będą 2 różne urządzenia (devices) z zupełnie różnymi możliwościami, kwestia jest tego jak dobrze ZE SOBĄ będą działać. Kaveri ma tą współpracę (i TYLKO JĄ) polepszać tak by te algorytmy, które muszą iść zarówno na CPU jak i GPU nie musiały tracić czasu i pamięci na żmudne kopiowanie i inne sztuczki o ograniczonych możliwościach (np. zero copy path). I nic innego. Żadnego pisania sobie byle jak kodu i magicznego kompilatorka co sobie sam będzie przerzucał - a to wrzuci do gpu, a to do cpu.


Czemu upierasz się przy tym OpenCL? Po co chcesz pisać w OpenCL? Tak jakby PS4 pisać PSGL.
Tak jest OpenCL masz rację i to Ci pisałem wcześniej.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842014.01.15, 15:55
@SunTzu - bzdura, idea jest właśnie taka. W OpenCL masz różne typy compute device, nie zmienia to faktu, że CPU to 1 device z np. 4 units, a gpu to drugi device z np. 8 units. Wklepuję clinfo i mam wyraźnie: number of devices: 2, device type cl_device_type_gpu, max compute units 8; device type: cl_device_type_cpu, max compute units: 3. HSA nic do tego nie wnosi i jeśli dobrze poczytasz różne recenzje odnośnie tego to zauważysz, że pod tym względem zupełnie nic AMD nie zamierza zmieniać, dodawać. To zawsze będą 2 różne urządzenia (devices) z zupełnie różnymi możliwościami, kwestia jest tego jak dobrze ZE SOBĄ będą działać. Kaveri ma tą współpracę (i TYLKO JĄ) polepszać tak by te algorytmy, które muszą iść zarówno na CPU jak i GPU nie musiały tracić czasu i pamięci na żmudne kopiowanie i inne sztuczki o ograniczonych możliwościach (np. zero copy path). I nic innego. Żadnego pisania sobie byle jak kodu i magicznego kompilatorka co sobie sam będzie przerzucał - a to wrzuci do gpu, a to do cpu.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.01.15, 15:54

To nie projekt, to fizyka, tranzystory są mniejsze, ale działają na podobnych napięciach, wydzielają podobnej wielkości ciepło ze znacznie mniejszej powierzchni. To wyzwanie na przyszłość i będzie z tym gorzej, dlatego kombinują z bramkami 3d, nanorurkami i domieszkowaniem III-V.

Zgoda. Ja się nawet nie zdziwię jak za kilka lat na wierzchu chipów będą dawali moduły
Peltiera aby transportowały ciepło z chipu do IHSa.
Natomiast nie myl Fizyki, z projektowaniem układu. To że tranzystor jest mniejszy, nie definiuje powierzchni chipu w żaden sposób. Tranzystory można przecież dać dalej od siebie, wtedy będą miały wokół powierzchnię do oddawania i transportu ciepła. Chip będzie przez to większy. To akurat nie jest jakiś tragicznie wielki problem, zresztą nie musisz rozsuwać jednakowo daleko od siebie wszystkich tranzystorów w chipie.
Wszystko jest kwestią opracowania rozwiązań, ich skuteczności i opłacalności.
Fizyka oczywiście ogranicza pewne aspekty projektu, ale to nie znaczy, że nie da sie wypracować rozwiązań.
*Konto usunięte*2014.01.15, 15:50
motiff @ 2014.01.15 15:16  Post: 716128
SunTzu @ 2014.01.15 14:34  Post: 716105

Przewaga AMD będzie przy użyciu bibliotek HSA, trzeba program przepisać, przekompilować...
Ale w tym momencie program nie będzie działał zdaję się na niczym innym poza kaveri. Nikt w to się nie bawił, nie ma poważnych programów, nie ma poważnych testów

Jaka przewaga, przecież to gcn potrzebuje na gwałt mocnego rdzenia, tego w tym kaveri nie ma, więc pokombinują nad kodami. Rzecz w tym, że ja od wielu lat słyszę, że gpgpu to super sprawa, ale nightmare do programowania, w dodatku AMD pcha swoje rozwiązania, intel swoje, Nvidia swoje.
Każde w innej konfiguracji cpu z gpu, to bałagan i nie widzę tego w przyszłości jako siła napędowa, bo dlaczego hsa ma być lepsze.

Dokładnie GCN potrzebuje mocnego rdzenia jakim jest teoretycznie Kaveri o ile program wykorzystuje nowe biblioteki HSA.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.