komentarze
nowosci2014Zobacz profil
Poziom ostrzeżenia: 0%
nowosci20142014.01.01, 10:49
Szukasz najnowszych seriali, filmów w wysokiej jakości i lektorem ? Albo szukasz najnowszych gier też po polsku ?
Boisz się torrentów albo płatne premki padły ???

ŚCIĄGAJ BEZPIECZNIE, ANONIMOWO I LEGALNIE !
Dlaczego ? Bo p2m (peer 2 mail) symuluje pobieranie poczty mailowej z bardzo dużymi załącznikami .
Nic nie wysyłasz. Nic , nikomu nie udostępniasz. A w przypadku gdyby ktoś monitorował Twoją sieć, to nie widzi nic, poza duuużą ilością maili. A maile są objęte tajemnicą korespondencji :)

TYLKO na http://tiny.pl/qdk5w (strona polskiego forum p2m)
*Konto usunięte*2014.01.01, 01:23
Porównywałem gołego maxa z gołą majką. Do majki masz multum narzędzi do modelowania, więc nie ma co tu wywyższać maxa...

To akurat nie jest zasługa/wina Autodesku - Nvidia zrobiła tylko plugin dla 3ds Max, a Autodesk produkty Nvidii tylko dokłada do swoich (Mentalray/iray).

Wątpię by NV dawało z dobrej woli mentala, jest plugin do maya w wersji standalone mentala za podaj 4k zł.

Możesz mi powiedzieć, po co Ci wypalanie map w viewporcie? Trąci to niesłychanym bezsensem.

Szczerze nie mam pojęcia... autodesk chce by było wydajnie i realistycznie jak w grach w viewporcie

Co mam ci dalej powiedzieć, mnie to też nie rusza dlatego korzystam z maya, a nie 3dsa. Dodatkowe funkcje też mnie nie ruszają, dlatego korzystam z tak starej majki, że aż wstyd i do tego sporo pluginów, skryptów w py....
Wgrywam tylko w celach testowych 30 dniówkę i zawsze się utwierdzam w przekonaniu, a nawet mam zawód bodaj w 2011 wyszła tak niestabilna...
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.01.01, 01:00
SunTzu @ 2013.12.31 18:49  Post: 712731

Tak tak... vizki robią często w maxie.

Wizualizacje nie są robione przez projektantów. Zazwyczaj są one zlecane grafikowi (projektant projektuje), kilka osób ponoć robi w maxie, ale częściej słyszałem w polsce o wykorzystywaniu Blendera, Modo, Silo, Softimage czy Cinema4D... Maya faktycznie nie bardzo się tu nadaje dla grafików tworzących statyczne rendery, bo to pakiet bardziej nakierowany na animację i ma dosyć ubogie narzędzia do modelowania (dlatego często modele do pracy w Mayi powstają poza nią).

SunTzu @ 2013.12.31 18:49  Post: 712731
iRay wbudowany, którego próżno szukać w majce można portować, ale coś tam zwykle nie działało.

To akurat nie jest zasługa/wina Autodesku - Nvidia zrobiła tylko plugin dla 3ds Max, a Autodesk produkty Nvidii tylko dokłada do swoich (Mentalray/iray).

SunTzu @ 2013.12.31 18:49  Post: 712731
Autobackup

Na szczęście Maya od kilku lat posiada tą niezbędną opcję (chociaż nie wiem, po co wymagają ręcznego włączenia jej w opcjach)


SunTzu @ 2013.12.31 18:49  Post: 712731
Więszke możliwości viewportu np. wypalanie map.

Możesz mi powiedzieć, po co Ci wypalanie map w viewporcie? Trąci to niesłychanym bezsensem.

SunTzu @ 2013.12.31 18:49  Post: 712731
Populate

Bawi mnie trochę ta nazwa i przedstawianie tego jako wielka nowość (zwykłe bilbordowe cząsteczki dostępne w każdym najprostszym programie, z jedyną różnicą, że nazwali to tak, aby osoby nie wiedzące jak wykorzystać cząsteczki mogły też osiągnąć taki efekt)

SunTzu @ 2013.12.31 18:49  Post: 712731
MassFX

Nie żartuj, że wolisz MassFX od pluginów Nvidii dla PhysX czy pluginu Disneya (używanego przez nich) do Bullet https://code.google.com/p/dynamica/
SunTzu @ 2013.12.31 18:49  Post: 712731
Perspective Match, w ręcznie bawienie się z tym hrrr moja zmorka:)

Darmowy plugin do Mayi mający już kilka lat czyli SanctusMatchCamera nazwany jako nowość w 3ds max 2014 i ochrzczony Perspective Match... szkoda, że Maya go nie ma... czekaj coś mi tu nie pasuje ;p.

SunTzu @ 2013.12.31 18:49  Post: 712731
System cząsteczkowy w maxie jest dla mnie łatwiejszy w obsłudze... brakuje paru narzędzi modelowania....

System cząsteczkowy w maxie jest po prostu bardzo ubogi (więc nic dziwnego, że stosunkowo prosty). Maya ma system cząsteczkowy rozwinięty i daje dużo większe możliwości.
*Konto usunięte*2013.12.31, 18:49
@up
Zaczne od końca. Nie pamiętam jakie quadro coś na bazie chyba 9600 vs 640 vs 4850 testowałem.

Dla projektantów jest masa narzędzi przeznaczonych dla nich... 3ds max jest zupełnie nie dla tego odbiorcy. Generator tłumu z 3ds max (Character Studio) to coś czego nikt od lat nie chce kijem tknąć i jest już przez branże zapomnianym produktem (już nie mówiąc o tym, że Autodesk od lat już go olał). Jeśli ktoś używa produktów Autodesku to do symulacji tłumu wykorzystuje Autodesk MotionBuilder, a z pewnością nie character studio.

Tak tak... vizki robią często w maxie.


Hmmm... jakie? Jak oglądam filmiki w których przedstawiają nowości od conajmniej kilku lat to brzy to raczej: Patrzcie też mamy teraz to co Maya/Blender/Modo/Houdini... mają od niepamiętnych czasów i wcale 3ds max nie jest tak zacofany (jednak nic faktycznie nowego się tam nie pojawia).

Hehe, nie ma co jednak 3ds w PL dominuje... kij z tym. Houdini to w ogóle jakiś kosmos dla mnie....
Blender wiadomo, że najszybciej się rozwija i dobrze go umieć.

3ds natomiast co ma vs Maya?
iRay wbudowany, którego próżno szukać w majce można portować, ale coś tam zwykle nie działało. Trzeba $$$ na standalone
Autobackup
Więszke możliwości viewportu np. wypalanie map.
Populate/MassFX
Perspective Match, w ręcznie bawienie się z tym hrrr moja zmorka:)
Lepsza obsługa formatu Autocad-a

Szczerze mi to genealnie brakuje iRay-a. System cząsteczkowy w maxie jest dla mnie łatwiejszy w obsłudze... brakuje paru narzędzi modelowania....

skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.12.31, 17:23
SunTzu @ 2013.12.31 12:36  Post: 712631
@up
No pewnie w OGL wielowątkowo da się, ale tego się nie robi z wiadomych przeczyn... ALe dalej OGLem bez problemu można było pakować nawet na P4 100k drawcalls.

Tak. W wypadku nowych wersji OpenGL i najnowszych sterowników i na Atomie da się więcej wycisnąć.

SunTzu @ 2013.12.31 12:36  Post: 712631
Hmm to czemu w Maya wprowadzają rewolucję viewport-> DX?

Viewport 2.0 to wersja OpenGL i DirectX 11 do wyboru (jednak z tego co pamiętam OpenGL jest domyślna). Wybierasz tu raczej między tym co robisz - czy masz scenę z dużą ilością obiektów (dużo drawcalli) czy mało obiektów, ale ze skomplikowanymi shaderami (kompilacja offline w DX pozwoli na lepszą optymalizację shaderów niż kompilatory w sterownikach OpenGL, które optymalizują w locie (coś co Dx11.2 wprowadził właśnie) i mają mniej czasu na analizę).

SunTzu @ 2013.12.31 12:36  Post: 712631
Wręcz przeciwnie, 3ds ma wiele, wiele coraz więcej nowych funkcji, których nie ma w maya.

Hmmm... jakie? Jak oglądam filmiki w których przedstawiają nowości od conajmniej kilku lat to brzy to raczej: Patrzcie też mamy teraz to co Maya/Blender/Modo/Houdini... mają od niepamiętnych czasów i wcale 3ds max nie jest tak zacofany (jednak nic faktycznie nowego się tam nie pojawia).

SunTzu @ 2013.12.31 12:36  Post: 712631
3ds to soft idealny dla projektantów, bo próżno szukać np. generowania tłumu w maya...

Dla projektantów jest masa narzędzi przeznaczonych dla nich... 3ds max jest zupełnie nie dla tego odbiorcy. Generator tłumu z 3ds max (Character Studio) to coś czego nikt od lat nie chce kijem tknąć i jest już przez branże zapomnianym produktem (już nie mówiąc o tym, że Autodesk od lat już go olał). Jeśli ktoś używa produktów Autodesku to do symulacji tłumu wykorzystuje Autodesk MotionBuilder, a z pewnością nie character studio.

SunTzu @ 2013.12.31 12:36  Post: 712631
W teorii to co piszesz o Quadro i sterach OGL miałoby rację bytu gdyby nie....
Wydajność viewportów w Maya maleje w Quadro. 3dsie też.

Mam w Quadro Viewport 1.0 120FPSów, w Viewport 2.0 spada do 30FPSów

A jakie jest to Quadro? Viewport 2.0 robi dużo więcej niż 1.0 i spadek na starszych kartach nie powinien dziwić. Na nowych Quadro i GeForce jest inaczej (tzn wykorzystuje się nowe możliwości kart i mimo tego, że viewport jest dużo bardziej zaawansowany to nie wygląda to nadrabia nowoczesnością).
AvitrZobacz profil
Poziom ostrzeżenia: 0%
Avitr2013.12.31, 15:34
Nawet jak Mantle w BF4 zaliczy kolejna obsuwę to w lutym wychodzi Thief, który będzie miał i Mantle i Trueaudio.
Swoją drogą to akurat patch dodający Mantle do BF4 mógłby pojawić się wcześniej w wersji beta. To tylko darmowy dodatek, więc nie ma obowiązku żeby odrazu był w stabilnej wersji (a kto chciałby mieć stable to by sobie poczekał ten miesiąc czy dwa).
*Konto usunięte*2013.12.31, 12:36
@up
No pewnie w OGL wielowątkowo da się, ale tego się nie robi z wiadomych przeczyn... ALe dalej OGLem bez problemu można było pakować nawet na P4 100k drawcalls.
---------------
Hmm to czemu w Maya wprowadzają rewolucję viewport-> DX?
Wręcz przeciwnie, 3ds ma wiele, wiele coraz więcej nowych funkcji, których nie ma w maya. 3ds to soft idealny dla projektantów, bo próżno szukać np. generowania tłumu w maya... Ma też niby lepsze narzędzia do modelowania, ale modeling w maya trzyma mnie w ryzach-> siatka jest czysta:). Plusem maya jest wieloplatformowość, szybkość, modularność, UI, te ostatnie niby uwspólnione, ale dalej jak nacisnę spację w 3dsie nie mam całego menu, a w maya mogę dwoma kliknięciami zmienić UI z modelowania do animowania...

---------------
W teorii to co piszesz o Quadro i sterach OGL miałoby rację bytu gdyby nie....
Wydajność viewportów w Maya maleje w Quadro. 3dsie też.

Mam w Quadro Viewport 1.0 120FPSów, w Viewport 2.0 spada do 30FPSów
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.12.31, 12:10
SunTzu @ 2013.12.31 09:13  Post: 712607

Przysiągłbym, że w DX10 już to było....

W Dx10 mogłeś jedynie wielowątkowo ładować dane, ale wszystko co odnosiło się do kontekstu musiałeś robić w wątku na którym był kontekst (coś co jest w OpenGL od niepamiętnych czasów czyli wykorzystanie MakeCurrent... co raczej jest niezbyt przydatne w wydajności rozgrywki). DX11 wprowadza wielowątkowy rendering (z wielu wątków można używać funkcji działających na kontekście (a dx dba, o to aby nie się nie pozabijały... zwiększając jeszcze narzut ;p)) - jest to możliwe w niektórych implementacjach OpenGL, ale jest to wolniejsze rozwiązanie niż wykorzystanie jednego wątku dla OpenGL, a innych dla innych obliczeń (bo nie jest to tak, że GPU czeka na CPU, bo funkcje OpenGL są wykonywane na CPU podczas gdy GPU liczy poprzednią klatkę, i jak skończy to akurat ma nowe dane z CPU, a ten może sobie pracować nad następną klatką).

SunTzu @ 2013.12.31 09:13  Post: 712607
3ds max to 'jedyny produkt' całą resztę kupili:P

Nowe ich produkty już są pisane zdaje się tylko z viewportem OpenGL (jak Mudbox...). Trochę ostatnio w ich poczynaniach widać trend w stylu - olejcie 3ds/softimage i przenieście się na Maye, bo nie chce nam się już 3ds/softimage rozwijać.

SunTzu @ 2013.12.31 09:13  Post: 712607
Tak na poważnie to bardzo dziwne, że autodesk taką drogą idzie, o ile wydajnośćna desktopowych kartach ładnie rośnie to sens quadro maleje. Wydajność Viewportów na quadro sprzed bodaj 4 lat jest krotnie większa od tej dziś.

Cała magia Quadro to sterowniki OpenGL i patche poprawiające wydajność (czasami wręcz przepisujące viewporty) w programach graficznych (w grach które są dobrze napisane, potrafi to być wręcz przeciwnie). Im lepiej viewport napisany jest przez producenta programu, tym mniej quadro nadrobi.
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2013.12.31, 11:46
karlito123 @ 2013.12.31 11:09  Post: 712620
motiff @ 2013.12.30 13:12  Post: 712374
Jeśli to Mantle spowoduje, że w cudowny sposób przyspieszy ewolucja procków i będziemy cieszyć grafiką odstawiona na 1080 nawet na maszynce za 1000 plnów to jazda z tym koksem, ale pomarzyć nikt nie zabroni.

Przyspieszy ewolucja procków? Chyba odwrotnie. Firmy muszą sprzedać sprzęt w danej ilości po danych cenach i jeśli taka technologia obniży próg mocy obliczeniowej przy której pograsz spokojnie w 1080p, to raczej stawiałbym na dłuższe cykle wydawnicze kolejnych układów, bo i zapotrzebowanie się zmniejszy. Chyba, że rozpędzi się machina, która wszędzie będzie wciskać rozdzielczość 4K :). Zresztą w software też się rozchodzi o koszty i jak ktoś będzie musiał stworzyć team ludzi grzebiących w Mantle to nie raz okaże się to nieopłacalne, bo powiedzmy sobie szczerze, że to na sprzedaż danej gry specjalnie nie wpłynie.

Ee przyspieszy, po prostu skończą z produkcją Core i modułów do pecetów, będą Atomy i army przynajmniej w dużej ilości rdzeni. Ja wolałbym taki krok, skoro nie mogą uwolnić się od cpu jako takiego i przerzucić wszystko na gpu.
karlito123Zobacz profil
Poziom ostrzeżenia: 0%
karlito1232013.12.31, 11:09
motiff @ 2013.12.30 13:12  Post: 712374
Jeśli to Mantle spowoduje, że w cudowny sposób przyspieszy ewolucja procków i będziemy cieszyć grafiką odstawiona na 1080 nawet na maszynce za 1000 plnów to jazda z tym koksem, ale pomarzyć nikt nie zabroni.

Przyspieszy ewolucja procków? Chyba odwrotnie. Firmy muszą sprzedać sprzęt w danej ilości po danych cenach i jeśli taka technologia obniży próg mocy obliczeniowej przy której pograsz spokojnie w 1080p, to raczej stawiałbym na dłuższe cykle wydawnicze kolejnych układów, bo i zapotrzebowanie się zmniejszy. Chyba, że rozpędzi się machina, która wszędzie będzie wciskać rozdzielczość 4K :). Zresztą w software też się rozchodzi o koszty i jak ktoś będzie musiał stworzyć team ludzi grzebiących w Mantle to nie raz okaże się to nieopłacalne, bo powiedzmy sobie szczerze, że to na sprzedaż danej gry specjalnie nie wpłynie.
*Konto usunięte*2013.12.31, 09:13
skoti48 @ 2013.12.31 01:26  Post: 712588
SunTzu @ 2013.12.31 00:42  Post: 712582
@UP
No też się dziwię, że wielkie halo o te 10k draw calli, a na OGLu pykałem 20-30k bez problemu. Wiesz dlaczego taka różnica? Zwłaszcza, że DX może przenieść na wiele wątków drawcalle choć ja w praktyce widzę odwrotną sytuację.

DirectX to od wersji 10 bardzo napakowane API, które pod warstwą dostępną dla programisty robi mnóstwo rzeczy... często niepotrzebnych. Ten narzut był w DX10 tak olbrzymi, że w DX11 postanowiono pozwolić dostarczać wielowątkowo dane (w wypadku OpenGL niektóre implementacje pozwalają na wielowątkowy rendering, ale ze względu na charakter rozmów między CPU i GPU, bardziej prawdopodobne, że wielowątkowe renderowanie będzie działać wielokrotnie wolniej (ze względu, na to, że narzuty w OpenGL są niskie, a synchronizacja i przełączanie się wątków to spory dodatkowy natrzut)).
W OpenGL 20/30k to żaden problem - korzystając z multidrawindirect (dostępne na Intel/AMD/Nvidia) nawet na średnim/niskim segmencie 1M drawcalli jest osiągalny, a przy odrzuceniu zupełnie bindowania (Nvidia) może być to znacznie więcej.

Co do 3ds Max to jeszcze ma obsługę OpenGL, ale jest to chyba jedyny produkt Autodesku, w którym nie ruszano implementacji OpenGL od wieków i jest tak kiepska, że dużo lepszym wyborem jest już DirectX.http://docs.autodesk.com/3DSMAX/16/ENU/3ds...Help/index.html
Przysiągłbym, że w DX10 już to było.... Dalej kasa kasa kasa, przepisywanie wszystkiego na OGL-a potrzeba czasu, ale developerzy chyba zaczną odchodzić od DX-a. Zwłaszcza, że GPU bardzo przyśpieszyły relatywnie do CPU, które jakby zatrzymały się w rozwoju.

3ds max to 'jedyny produkt' całą resztę kupili:P
Tak na poważnie to bardzo dziwne, że autodesk taką drogą idzie, o ile wydajnośćna desktopowych kartach ładnie rośnie to sens quadro maleje. Wydajność Viewportów na quadro sprzed bodaj 4 lat jest krotnie większa od tej dziś.
Ale nigdy nie chciało mi się sprawdzać bo używam majki, gdzie widać podobny trend, viewport 2.0 (jeszcze OGL), działał krtoności szybciej na GFie/Radeonie, 2x wolniej na Quadro vs Viewport 1.0. To jest zdaję się dalej OGL, bo dopiero jakoś w ostatniej wersji dali viewport na DX.
ghs2013.12.31, 08:39
-4#70
McMenel @ 2013.12.30 19:46  Post: 712502

EA Dice ma większe problemy aniżeli implementacja Mantle. Wszak nie ma sensu jeszcze bawić się z innym API skoro gra zmienia powoli nazwę na Buggerfield 4


Istnieje niezerowe prawdopodobieństwo że to właśnie za sprawą prób implementacji tego Mantle Battlefield 4 stał się Buggerfield'em 4
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.12.31, 01:26
SunTzu @ 2013.12.31 00:42  Post: 712582
@UP
No też się dziwię, że wielkie halo o te 10k draw calli, a na OGLu pykałem 20-30k bez problemu. Wiesz dlaczego taka różnica? Zwłaszcza, że DX może przenieść na wiele wątków drawcalle choć ja w praktyce widzę odwrotną sytuację.

DirectX to od wersji 10 bardzo napakowane API, które pod warstwą dostępną dla programisty robi mnóstwo rzeczy... często niepotrzebnych. Ten narzut był w DX10 tak olbrzymi, że w DX11 postanowiono pozwolić dostarczać wielowątkowo dane (w wypadku OpenGL niektóre implementacje pozwalają na wielowątkowy rendering, ale ze względu na charakter rozmów między CPU i GPU, bardziej prawdopodobne, że wielowątkowe renderowanie będzie działać wielokrotnie wolniej (ze względu, na to, że narzuty w OpenGL są niskie, a synchronizacja i przełączanie się wątków to spory dodatkowy natrzut)).
W OpenGL 20/30k to żaden problem - korzystając z multidrawindirect (dostępne na Intel/AMD/Nvidia) nawet na średnim/niskim segmencie 1M drawcalli jest osiągalny, a przy odrzuceniu zupełnie bindowania (Nvidia) może być to znacznie więcej.

Co do 3ds Max to jeszcze ma obsługę OpenGL, ale jest to chyba jedyny produkt Autodesku, w którym nie ruszano implementacji OpenGL od wieków i jest tak kiepska, że dużo lepszym wyborem jest już DirectX.http://docs.autodesk.com/3DSMAX/16/ENU/3ds...Help/index.html
*Konto usunięte*2013.12.31, 00:42
@UP
No też się dziwię, że wielkie halo o te 10k draw calli, a na OGLu pykałem 20-30k bez problemu. Wiesz dlaczego taka różnica? Zwłaszcza, że DX może przenieść na wiele wątków drawcalle choć ja w praktyce widzę odwrotną sytuację.

Swoją drogą 3dsmax chyba nie ma już viewporta na OGL-a... Ciekawe jak sobie radzą tutaj karty. Właśnie lata temu przeszedłem z tego powodu do maya, gdzie wygodniej mi się pracowało i wydajność lepsza.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.12.31, 00:08
HΛЯPΛGŌN @ 2013.12.30 14:59  Post: 712406
Z założenia, to jest niemożliwe, bo mantle to api bez narzutu. Powinno być zawsze szybsze.

Bzdura. Nie ma czegoś takiego jak 'API bez narzutu' - każde wywołania bzdurnej funkcji ma swój narzut. Mantle ma niski narzut, ale ma, przez co więcej jak 100k draw calli nie bardzo osiągniesz (dla DirectX 10k to spory problem... jednak przy wykorzystaniu nowych OpenGL nawet milion nie stanowi problemu, a da się więcej jeśli wykorzysta się specyficzne dla Nvidii rozszerzenia).

KazH @ 2013.12.30 15:20  Post: 712414
Ale takie same lub podobne biblioteki mogą stworzyć twórcy OpenGL lub DirectX.

Nie do końca... bo o ile OpenGL i DirectX są uniwersalne to w standardzie mogą jedynie wykorzystywać wspólne możliwości, więc nie mogą osiągnąć tego co niskopoziomowe API... OFC w standardzie. DirectX wraz z wersją 10 został pozbawiony wszystkiego ponad standard (rozszerzenia z dx9 nie istnieją), ale z OpenGL jest wręcz przeciwnie i każdy producent może dodać wsparcie do najbardziej niskopoziomowych funkcji, a samo API w nowych wersjach jest super niskonarzutowe... chociaż cały narzut i implementacja jest zależna od producenta sterownika (czytaj Nvidia/AMD/...), ale specyfikacja nowych wersji wręcz zmusza do dobrego zaimplementowania (i twórca sterowników AMD mówi o milionach drawcali, podczas gdy w wypadku mantle mówi się o 100 tysiącach).
Raphael1 @ 2013.12.30 14:03  Post: 712385

John Carmack,
Editors Day 2013

'Powiem szczerze, że tego też nie sprawdzałem, bo raczej nie zajmuję się takimi rzeczami. Oczywiście masz rację co do minimalnej wydajności z Mantle - ta na pewno nie będzie gorsza niż to co zaprezentuje 'czysty' Battlefield bez obsługi nowego API. Jeśli zaś chodzi o maksymalną możliwą wydajność to ciężko powiedzieć. Nie jestem żadnym PR-owcem więc odpowiem uczciwie. Mantle w przypadku Battlefielda 4 to głównie funkcje związane z cieniowaniem, a samą wydajność będziecie musieli ocenić Wy - dziennikarze. Chciałbym tylko od Was jednego - nie oceniajcie Mantle po Battlefieldzie 4.'

Nie dość, że to nie jest wypowiedź Carmacka (on nie ma pojęcia jak będzie wyglądało wsparcie w BF4, dla Mantle), to Carmack otwarcie mówi, że o ile Mantle to dla AMD dobry krok, to nie jest to nic wielkiego:

'9x draw calls is credible over stock D3D, but Nvidia OpenGL extensions can give similar I mprocements.'
https://twitter.com/ID_AA_Carmack/status/386899206163554304
PS. pod twittem możesz też poczytać posty Grahama Sellersa - pracownika AMD i twórcy sterowników OpenGL u AMD, który pokazuje, że milion drawcalli na nienajszybszym sprzęcie jest możliwy u nich (u Nvidii więcej) http://www.openglsuperbible.com/2013/10/16...-million-draws/
Podczas gdy Mantle chwali się że można osiągnąć do 100 tysięcy drawcalli (ograniczane są przez narzut na CPU).
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.12.30, 23:31
-2#66
Raphael1 @ 2013.12.30 19:27  Post: 712500
SunTzu @ 2013.12.30 19:22  Post: 712495
@up
1. NV nie będzie wspierać mantle, bo to język niskopoziomowy... To tak jak byś wziął sterownik AMD i próbował nim odpalić kartę NV...
2. Nie ma znaczenia, że GCN siedzi w konsolach. Mantle będzie tylko na PC. MS nie wprowadzi nie swoje API, bo MS ma fobię na punkcie DX-a... Można o tym zapomnieć.
Sony natomiast ma własny tutaj niskopoziomowy język i o ile są jakieś szanse to raczej po prostu nie pozwoli....


Powiedzmy że droga do obsługi Mantle przez GPU nV i Intela jest otwarta ale wymaga tak dalekich modyfikacji że nie dojdzie do tego o ile Mantle nie stało by się kiedyś wiodącym standardem.


Jeżeli Mantle rzeczywiście jest niskopoziomowym API z prawdziwego zdarzenia to z samego tego faktu może działać tylko i wyłącznie na GPU AMD i tylko i wyłącznie na GPU AMD na bazie GCN.

Tylko coś takiego po prostu nie ma szans przejść na rynku z uwagi na PC, gdzie grubo ponad połowa dedykowanych kart graficznych jest od Nvidii, a niemal 2/3 IGP od Intela.

AMD ma o wieeele za słabą pozycję na rynku, żeby narzucić pisanie gier pod własne niskopoziomowe API siłą rzeczy zamknięte i niekompatybilne z niczym poza sprzętem AMD.

Chyba że AMD zamierza za każdym razem wykładać pieniądze na tworzenie dodatkowej wersji danej gry pod Mantle wtedy to jest jako tako wykonalne, ale... kasa szybko by się skończyła :P
NożownikNHZobacz profil
Poziom ostrzeżenia: 0%
NożownikNH2013.12.30, 22:52
-1#65
To ja pytam

szampanskiZobacz profil
Poziom ostrzeżenia: 0%
szampanski2013.12.30, 22:23
-1#64
Szukasz najnowszych seriali, filmów w wysokiej jakości i lektorem ? Albo szukasz najnowszych gier też po polsku ?
Boisz się torrentów albo płatne premki padły ???

ŚCIĄGAJ BEZPIECZNIE, ANONIMOWO I LEGALNIE !
Dlaczego ? Bo p2m (peer 2 mail) symuluje pobieranie poczty mailowej z bardzo dużymi załącznikami .
Nic nie wysyłasz. Nic , nikomu nie udostępniasz. A w przypadku gdyby ktoś monitorował Twoją sieć, to nie widzi nic, poza duuużą ilością maili. A maile są objęte tajemnicą korespondencji :)

Tylko na http://www.p2m.org.pl
*Konto usunięte*2013.12.30, 21:55
-1#63
Bruno@Home @ 2013.12.30 20:44  Post: 712527
SunTzu @ 2013.12.30 17:47  Post: 712468
(...)

WoW, AMD ma to łeb do testowania. Po prostu tak dobrego testu nigdy nie widziałem.

Oddam FX-a za 4770k, wiem, że się mi nie opłaca totalnie, a jednak


(...)


Chcesz powiedzieć, że Kaveri będzie szybsze, bo będzie mieć więcej tranzystorów? Mało prawdopodobne, a jednak...
Haswell to 1.3mld, a Richland to 1.3mld, ale richland. Jak wiadomo 1GCN>1SIMD VLIW pod względem liczby tranzystorów. Kaveri ma mieć ich 8 vs 6 w Richlandzie, znamy też mniej więcej proporcje CPU/GPU w Kaveri... Tak, więc nie ma siły...
Richland jest tak samo szybki co haswell, a Kaveri wgniecie w fotel!!!

Ciekawe, że PRowiec AMD takich rzeczy nie wie:)
Bo pomijam detale techniczne, wiedzę jak działa procesor, jak działają kompilatory, różnice pomiędzy konstrukcjami.... To prosta informacja techniczna ilość tranzystorów. Mamy bodaj desktop+laptop 15 układów w sumie (od socket 2011 przez kaveri po brazos)!!! Nie orientować się w tak prostych liczbach...
To nie jest tak, że te układy powstały z dnia na dzień, to horyzont czasu to bodaj 2 lata.


Suntzu ciekawy w tym wszystkim jest jedynie fakt, że mocno dowolnie interpretujesz wypowiedzi innych, stawiasz do tego własne pytania i sam sobie na nie odpowiadasz zarzucając innym niewiedze wynikającą z Twojego dość osobliwego toku myślenia.

Wiec reasumując chodziło mi o oczywisty fakt, że jedno APU (CPU + GPU na jednej kostce krzemowej) nie może być szybsze niż high-endowe chipy zbudowane z ogromnej liczby tranzystorów oraz pobierające 300+ Wat mocy łącznie. Jak wspomniałem w takim wypadku jeden układ o standardowym TDP nie może być szybszy bez zmian fizyki na naszej planecie to raz.

Dwa już Ci wielokrotnie sygnalizowałem, że nie uczestniczę w daleko idących dysputach technologicznych bo wiedza którą posiadam na dany temat często przekracza publicznie ujawnione informacje. Dlatego przestań ciągle uderzać w ten ton, bo najwyraźniej na mnie to nie działa, ani nie spowoduje że przypadkiem napiszę coś więcej. :-)


Ps. Chyba też nie zauważyłeś, że to nie 'AMD testowało' jak sugerujesz, ale developer Oxide przedstawił swoje wnioski w prezentacji, którą najwyraźniej dokładnie nie przeglądałeś zanim skomentowałeś. Taki mały szczegół, a różnica ogromna.

Ale ja chcę tutaj byś dyskutował na bazie tylko tego co zostało już opublikowane w sieci. Przecież nie biorę tych informacji z palca... wszystko zostało już publikowane. Teraz taka sytuacja akurat i przyznaje rację, że wcześniej faktycznie czasem chciałem byś po prostu uciął te spekulacyjne bzdury jakie się czasem pisze... Ale nie reagujecie (PR AMD), na błędy w artach o waszych produtkach.

Intel o TDP 35W 1.4MLD tranzystorów będzie szybszy w CPU od AMD o TDP bodaj 100W 1.3MLD. Różnica 100mln mniejsza niż 10%!

APU Intel-a o TDP 17W@1.3mld tranzystorów może osiągnąć wydajność GPU tego samego rzędu co AMD o TDP 35W 1.3mld tranzystorów, ale rzecz jasna wydajność CPU Intel-a tutaj miażdży AMD...


Ps. Chyba też nie zauważyłeś, że to nie 'AMD testowało' jak sugerujesz, ale developer Oxide przedstawił swoje wnioski w prezentacji, którą najwyraźniej dokładnie nie przeglądałeś zanim skomentowałeś. Taki mały szczegół, a różnica ogromna

Dziś i jutro mam robotę, ale po jutrze całą prezentacje prześledze z należytą jej uwagą:)
Bruno@HomeZobacz profil
Poziom ostrzeżenia: 0%
Bruno@Home2013.12.30, 20:44
SunTzu @ 2013.12.30 17:47  Post: 712468
Bruno@Home @ 2013.12.30 14:20  Post: 712389
(...)


Korzyści z zastosowania Mantle można zobaczyć tutaj.

http://www.youtube.com/watch?v=QIWyf8Hyjbg (wnioski: 39:15, choć polecam całość zainteresowanym)

Mnie najbardziej cieszy wykorzystanie całej mocy posiadanego sprzętu zarówno dla GPU i co ciekawe też CPU, gdzie rdzenie 'nie śpią' z powodu braku wielowątkowości w aplikacjach/grach.

WoW, AMD ma to łeb do testowania. Po prostu tak dobrego testu nigdy nie widziałem.

Oddam FX-a za 4770k, wiem, że się mi nie opłaca totalnie, a jednak


Bruno@Home @ 2013.12.30 14:49  Post: 712404
(...)


Oczywiście jak tylko zmienimy prawa fizyki na naszej planecie (patrz liczba tranzystorów, całkowite TDP itp.). ;-)

W każdym bądź razie warto się zapoznać z materiałami, co by nie sypać sucharami podczas dyskusji.


Chcesz powiedzieć, że Kaveri będzie szybsze, bo będzie mieć więcej tranzystorów? Mało prawdopodobne, a jednak...
Haswell to 1.3mld, a Richland to 1.3mld, ale richland. Jak wiadomo 1GCN>1SIMD VLIW pod względem liczby tranzystorów. Kaveri ma mieć ich 8 vs 6 w Richlandzie, znamy też mniej więcej proporcje CPU/GPU w Kaveri... Tak, więc nie ma siły...
Richland jest tak samo szybki co haswell, a Kaveri wgniecie w fotel!!!

Ciekawe, że PRowiec AMD takich rzeczy nie wie:)
Bo pomijam detale techniczne, wiedzę jak działa procesor, jak działają kompilatory, różnice pomiędzy konstrukcjami.... To prosta informacja techniczna ilość tranzystorów. Mamy bodaj desktop+laptop 15 układów w sumie (od socket 2011 przez kaveri po brazos)!!! Nie orientować się w tak prostych liczbach...
To nie jest tak, że te układy powstały z dnia na dzień, to horyzont czasu to bodaj 2 lata.


Suntzu ciekawy w tym wszystkim jest jedynie fakt, że mocno dowolnie interpretujesz wypowiedzi innych, stawiasz do tego własne pytania i sam sobie na nie odpowiadasz zarzucając innym niewiedze wynikającą z Twojego dość osobliwego toku myślenia.

Wiec reasumując chodziło mi o oczywisty fakt, że jedno APU (CPU + GPU na jednej kostce krzemowej) nie może być szybsze niż high-endowe chipy zbudowane z ogromnej liczby tranzystorów oraz pobierające 300+ Wat mocy łącznie. Jak wspomniałem w takim wypadku jeden układ o standardowym TDP nie może być szybszy bez zmian fizyki na naszej planecie to raz.

Dwa już Ci wielokrotnie sygnalizowałem, że nie uczestniczę w daleko idących dysputach technologicznych bo wiedza którą posiadam na dany temat często przekracza publicznie ujawnione informacje. Dlatego przestań ciągle uderzać w ten ton, bo najwyraźniej na mnie to nie działa, ani nie spowoduje że przypadkiem napiszę coś więcej. :-)


Ps. Chyba też nie zauważyłeś, że to nie 'AMD testowało' jak sugerujesz, ale developer Oxide przedstawił swoje wnioski w prezentacji, którą najwyraźniej dokładnie nie przeglądałeś zanim skomentowałeś. Taki mały szczegół, a różnica ogromna.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.