Tak apropo DX12, Microsoft dziś ujawnił, że będzie działał on na PC i XBox. Daje to wysokie prawdopodobieństwo, że dx12 będzie działał na kartach z dx11.2, wkońcu taka siedzi w XBoxie.
Niemniej Hashi też ma rację. XDR to takty 400-900MHz base clock, a XDR2 od 800 wzwyż przy efektywnym taktowaniu 8x base clock (dokładnie tak samo przeplatał się LPDDR2 z DDR1 oraz LPDDR3 z DDR2 i wreszcie DDR3 z DDR4) zaś w samym PS3 ponoć jest 3.2GHz clock zarówno do proca jak i pamięci co daje 3.2GHz/8=400MHz, piszę ponoć bo obok 'PS3 has also 256MB of Rambus XDR DRAM clocked at CPU die speek' jest odnośnik do jakiejś publikacji dot. IBM Cell BE and it's first implementation - nie miałem okazji zweryfikować tego i prawdę mówiąc mi się nawet nie chce. Hashi - kolego - w momencie kiedy pewni panowie z dumą ogłosili na PS3 implementację 'nowego super zajebiaszczego i taniego AA' intel od kilku lat miał już teren zbadany i na jego badaniach ów Morphological Anti-Aliasing z PS3 został zbudowany. Nie ma w playu praktycznie żadnej super innowacyjnej technologii której nie byłoby na PC, natomiast dla każdego jest jasne, że tu i ówdzie pojawiają się upraszczające sprawę sztuczki dające wizualnie podobny poziom do innych rozwiązań na PC. Podobny przy zdecydowanie mniejszym koszcie obliczeniowym. Ale wracając do tego o czym była mowa dużo, dużo wcześniej - wcale nie oznacza to, że sprzęt w konsoli dorównuje mocą sprzętowi w PC. Tutaj też można 'kombinować' - ale jest o tyle dobrze (w znaczeniu jest co chwilę szybszy sprzęt i większe możliwości) - że zdaniem producentów gier - wcale nie trzeba. Ot cała filozofia jeśli chodzi o różnice PC vs konsole.
Pozawala on na oszczędność miejsca i czasu wiec może być defakto użyty przez SONY przy tworzeniu gier.
Oj chłopie tu to mnie rozbawiłeś do łez. Jeśli by stworzyć listę jaki format plików jest najgorszy do gier to alembic by rozpoczynał listę, bo się kompletnie tu nie nadaje. Miejsca zajmuje więcej niż, formaty binarne, nie jest dostosowany do GPU, nie zawiera obiektów jakie są w grach niezbędne, a ma tylko wypieczoną animację.
Hashi @ 2014.03.06 10:57
Prosze państwa, ogłaszam oficjalnie - odnalazłem omnibusa.
Omnibusem zdecydowanie nie jestem, ale akurat w dziedzinie grafiki 3D siedzę od ubiegłego wieku i wiem sporo.
Opierasz swoje sądy na podstawie słów SemiAccurate, które brzmią 'na podstawie zebranych danych wydaje nam się, że powinno być około 40W' - czytaj GPU około 35W... chciałem Ci przypomnieć, że GeForce GT 740M ma TDP na poziomie 19W, a ma 2x więcej rdzeni i ma kontroler pamięci, IO, więcej jednostek teksturujących, więcej RoP... (czyli wszystko to, czego GPU w K1 jest pozbawione, bo jest to w SoC).
Podam Ci dla równowagi analizę konkurencyjnego AnandTech:
'If you take a GeForce 740M (2 SMX/384 CUDA core design), you’re looking at roughly a 19W GPU. Of that 19W, around 3W is memory IO, PCIe and other non-GPU things. You can subtract another 6W for leakage, bringing you down to 10W. Now that’s a 2 SMX design, so divide it in half and now you’re down to 5W.'
@skoti48
Chłopie powinieneś kabaret stworzyć 'Ja i mój świat'. Co mnie to ze pracujesz w Almebic? Pozawala on na oszczędność miejsca i czasu wiec może być defakto użyty przez SONY przy tworzeniu gier. Oszczędność miejsca i pieniędzy, a to może wpływać na końcowy produkt = więcej kasy = lepsze gry.
Mnie się wydaje ze ty jednak bajki piszesz. Pracowałeś przy SW, z ILM tez, Alembic masz w jednym palcu, ba nawet w Rambus pomagałeś przy XDR ale twojego pomysłu na 800MHz nie przyjeli Prosze państwa, ogłaszam oficjalnie - odnalazłem omnibusa.
Masz swoją Tegre co ciągnie 5W: http://pclab.pl/kom70933---n.html#c729946
Mówiłem Ci ze to ściema to ty mi tłumaczyłeś jak wpływa nm na pobór prądu. zabawny jesteś. Weź mi wyjaśnij co to koło i do czego służy. Układ z PS3 (cała konsola ciągnie 70W@3,2GHz@45nm) jakby był w 22nm i miał taktowanie tej tegry to by ten układ zdewastował. Tak po prostu. Łykasz bajki CEO Nv jak pelikan.
Kiedyś wspomnisz moje słowa o focal blur w U2. Nie wciskaj więcej kitów ze widziałeś takie coś wcześniej bo to jest aktualnie jedyna gra która posiada taki bajer. Miksuj sobie tekstury swoim smart blurem nadal.
Widze ze pracowałes przy SW i śledzisz niektórych ludzi.
Umiem czytać wywiady z autorami efektów.
Hashi @ 2014.03.06 06:34
Alembic kolego to zmniejszenie przede wszystkim ilości danych, mniej danych = szybszy odczyt (ZAWSZE) = szybsza praca. Coś chcesz dodać ekspercie?
Grafikę Optimusa Prime zmniejszono z kilkuset (czy kilkudziesięciu) GB do 300MB. Coś Ci świta w głowie?
Mam nadzieje, że wiesz, że Alembic to bakeowany format i w praktyce jest on tylko do odczytu. Wywalane są wszystkie dane przydatne przy pracy i zostawiany jest tylko bake danych z którymi pracować się nie da, ale łatwiej przenosić do dalszego etapu prac.
Przykladomo modeluje dana osoba i przy edycji musi mieć stos modyfikatorów i całą historię prac na pliku, a bez tego edytowanie jest bulem w tyłku. Dalej się eksportowało mesh do innego formatu (aby do animatora przesłać tylko siatkę), ale Alembic też się tu nadaje, dalej animator robił serię animacji (animację chodu, animację...), które później są łączone w sekwencję (wszystkie te dane są niezbędne do pracy), kiedy wysyła do renderingu to te dane są zbędne (fizyka, animacje, modyfikatory...) - wypala się tylko to co potrzebne dalej - czyli animację wypaloną końcową (bez możliwości zmiany animacji chodu przykładowo po wyeksportowaniu, bo na alembic nie da się pracować, bo zamiast jednej zmiany klatki animacji cyklu wpływającej na cały chód w całej animacji, musisz poprawiać co krok i to w dziwnych przemieszczeniach i obrotach już po bake (alembic)).
Alembic pozwala na tak oszczędny zapis właśnie ze względu, że nie jest to format na którym się pracuje, a format do którego się zapisuje, kiedy wszystko jest już gotowe i wyrzuca się informacje niezbędne do pracy i tylko wypalany (bake) do alembic jest efekt prac.
Ogólnie chciałem Cię ekspercie powiadomić, że na plikach Alembic pracuję i w przeciwieństwie do Ciebie wiem do czego służą - na nich się nie pracuje, a ułatwiają one przenoszenie gotowej już pracy do kolejnego etapu prac.
Nie interesuje mnie to. Wtrąciłem bo wtrącasz tak samo rzeczy które mnie nie interesują - ze ktoś tam kiedyś na uniwersytecie coś wymyślił. Widze ze pracowałes przy SW i śledzisz niektórych ludzi. Alembic kolego to zmniejszenie przede wszystkim ilości danych, mniej danych = szybszy odczyt (ZAWSZE) = szybsza praca. Coś chcesz dodać ekspercie?
Grafikę Optimusa Prime zmniejszono z kilkuset (czy kilkudziesięciu) GB do 300MB. Coś Ci świta w głowie?
Nie - Nelson Shin używał zwykłego skalpela jeśli chcesz wiedzieć dosłownie traktując wytnij i wklej, a wybuchy nakładano sklejając 2 klatki i tworząc nową naświetlając 2x dłużej.
Hashi @ 2014.03.06 05:24
Polecam filmik pt Alembic na YT - technologia opracowana przez ILM i SONY Pictures. Zmniejsza ilość danych kilkakrotnie. Np Optimus Prime standardowo zajmował kilkaset GB, pod Alembic 300MB.
Co ma do rozmowy wypiekany format animacji do przenoszenia danych pomiędzy programem 3D, a zewnętrznym rendererem to już zupełnie nie mam pojęcia. Ani nie chodzi Ci o wpływie na jakość grafiki, ani o rewolucyjną zmianę, a po prostu ułatwienie przy przenoszeniu danych. Tak wtrącona informacja wygląda jakby tylko po to, że wiesz o firmie coś, tylko nie do końca wiesz co. Jeśli już chcesz coś ciekawego i na temat to ILM jako pierwsze wykorzystało w filmie (nie animowanej bajce, bo tu pierwsze było sony) point-based GI (piraci z karaibów), który jest koncepcyjnie podobny do Voxel Cone Tracing z nowych silników gier.
RGBA via wiki: RGBA stands for red green blue alpha. While it is sometimes described as a color space, it is actually simply a use of the RGB color model, with extra information. The color is RGB, and may belong to any RGB color space, but an integral alpha value as invented by Catmull and Smith between 1971 and 1972 enables alpha compositing.
Pixar via wiki: Pixar began in 1979 as the Graphics Group, part of the computer division of Lucasfilm before its spin-out as a corporation in 1986 Pixar was founded as The Graphics Group, which was one third of the Computer Division of Lucasfilm that was launched in 1979 with the hiring of Dr. Ed Catmull from the New York Institute of Technology (NYIT),[6] where he was in charge of the Computer Graphics Lab (CGL). At NYIT, the researchers pioneered many of the CG foundation techniques—in particular the invention of the 'alpha channel' (by Catmull and Alvy Ray Smith)
Star Wars kolego część IV-VI to 1977-1983.
Aha laserki blasterki nakładano farbkami..
ILM mi nie tłumacz kolego bo doskonale wiem co to za firma (Transoformers itd). Polecam filmik pt Alembic na YT - technologia opracowana przez ILM i SONY Pictures. Zmniejsza ilość danych kilkakrotnie. Np Optimus Prime standardowo zajmował kilkaset GB, pod Alembic 300MB.
Proszę Cię nie męcz mnie
Nie mogę teraz tego znaleźć ale był ciekawa konfa SONY i ILM o Alembic (filmik miał tytuł chyba Alembic mp4).
Tutaj inne: http://www.youtube.com/watch?v=bWN7gmTVQCY http://www.youtube.com/watch?v=I_UEd8dcPL8 http://www.youtube.com/watch?v=jRgbO6fnDDI http://www.alembic.io/
Mnie naprawdę nie obchodzi za bardzo kiedy co wynaleziono. Chodzi o to by daną technologię uzyć w filmie/grze, z odpowiednią jakością, wydajnością, a najlepiej w połączeniu z innymi niestandardowymi technologiami i by to powodowało opad szczęki. Takim ludziom się należy nagroda - uznanie i kasa z portfela.
RGBA było w pierwszych SW, po to by nakładać właśnie te makiety (choć bardziej chodziło o efekty specjalne, wybuchy, laserki-blasterki i inne gówna) na klisze i by to jakoś wyglądało.
ILM robił to wszystko wtedy 'analogowo', bez użycia komputerów.
Hashi @ 2014.03.05 20:11
Pixar (1979) założyli goście którzy pracowali w LucasFilm (był to najpierw dział efektów w LF i działał od 79 kolego, a nie kilkanaście lat potem)
Industrial Light & Magic to ludzie którzy pracowali nad efektami w LucasFilm (i jest to największe studio efektów specjalnych do dziś), a jego podgrupa CG (która została założona w 79r) i ich praca w SW nie była wykorzystana, a częściowo została sprzedana Jobsowi i powstał Pixar (1986). Pixar nie powstał w 79 roku, a w 86, ILM zatrzymało wielu pracowników i teraz mamy dwie firmy które pochodzą od grupy CG - ILM i Pixar jednak żadna z nich bezpośrednią kontynuacją nie jest.
Hashi @ 2014.03.05 20:11
Mój przekaz jest jasny i klarowny nie wiem po co mi wrzucasz informacje na jakiej on uczelni i gdzie coś tam wymyślił. Po co mi to? Kogo to?
Po prostu chciałem aby było jasne, że RGBA (71), Catmull-Rom (74), Catmull-Clark (78) nie były wymyślone dla filmów, a podczas pracy naukowej. Z LucasFilm współpracował od 79 roku, ale przy SW, nie wykorzystano tej pracy. Takie informacje, aby przekaz był jasny i klarowny, a nie mglisty i pełen domysłów.
RGBA było w pierwszych SW, po to by nakładać właśnie te makiety (choć bardziej chodziło o efekty specjalne, wybuchy, laserki-blasterki i inne gówna) na klisze i by to jakoś wyglądało. Pixar (1979) założyli goście którzy pracowali w LucasFilm (był to najpierw dział efektów w LF i działał od 79 kolego, a nie kilkanaście lat potem), potem sprzedali Pixar Jobsowi. Mój przekaz jest jasny i klarowny nie wiem po co mi wrzucasz informacje na jakiej on uczelni i gdzie coś tam wymyślił. Po co mi to? Kogo to?
Naprawdę nie chce mi się z tobą już gadać. Ciężki jesteś, współczuje twojemu partnerce, musisz mieć charakter nie do zniesienia. Pzdr.
RGBA było w pierwszych SW, po to by nakładać właśnie te makiety (choć bardziej chodziło o efekty specjalne, wybuchy, laserki-blasterki i inne gówna) na klisze i by to jakoś wyglądało. Pixar (1979) założyli goście którzy pracowali w LucasFilm (był to najpierw dział efektów w LF i działał od 79 kolego, a nie kilkanaście lat potem), potem sprzedali Pixar Jobsowi. Mój przekaz jest jasny i klarowny nie wiem po co mi wrzucasz informacje na jakiej on uczelni i gdzie coś tam wymyślił. Po co mi to? Kogo to?
Naprawdę nie chce mi się z tobą już gadać. Ciężki jesteś, współczuje twojemu partnerce, musisz mieć charakter nie do zniesienia. Pzdr.
Widzę ze ty masz straszne ale to straszne parcie na udowadnianie ze ktoś tam coś kiedyś wymyślił i to jest od zawsze na PC ale nikt tego nie użył w grze.
Widzę, że ty masz straszne parcie, aby ulubioną grę pokazać, że wszystko tam jest niesamowicie odkrywcze. Ja Ci podaję przykłady, że to wszystko było to w konsolach Nintendo i Super Mario 64, to w PC, to w matematyce i graficę od 40 lat... to w PC (i rendererach rasteryzujących jak RenderMan). U2 to super gra i ma duże nagromadzenie fajnych rozwiązań... ale nie rewolucyjnych czy odkrywczych.
Ja nie mówię, że jest od zawsze na PC... tylko jak piejesz z zachwytu nad innowacyjnością mówię Ci gdzie już było i kiedy (i PC było jednym z przykładów).
U2 to kawał dobrej, ładnej i solidnej gry, ale odkrywcza pod względem technologii nie jest (i mało jaka gra jest, bo znane już dziś są technologie, które wejdą do gier w przyszłej dekadzie, a nawet dalej). Ostatnie z odkrywczych rzeczy w grach to było SSAO, bo AO ofc było znane od lat, ale w realtime się tego zrobić nie dało, aż Crytek wpadł na sposób w przestrzeni ekranu. No dobra - fajne też było ostatnio Subsurface Scatering w przestrzeni ekranu od Activision, a tak to raczej jest odtwórczo.
Deferred to nie było, żadne zaskoczenie (świat gier czekał na MRT 8x, aby wydajnie to zrobić, bo deferred wymyślono w 1988 i korzystano w rasteryzerach CPU),
Hashi @ 2014.03.05 18:46
Catmull to przypadkiem nie był jednym od efektów w Starwars (pixar) i jednym co wymyślił RGBA - o czym wspominałem wcześniej? Przewiń sobie rozmowę i poszukaj..
Efekty w StarWars były 'makietowe' i CGI tam nie było (Catmull współpracował i wykonali 3d model X-Winga, ale Lucas nie wykorzystał tego), a pixar wtedy nie istniał (był współzałożycielem Pixara kilkanaście lat później), a nad nowszymi SW pracowało z tego co pamiętam ILM, a nie Pixar. Te rozwiązania o których tu mówimy były przez niego tworzone gdy pracował na politechnice w nowym jorku.
Naprawdę polecam Ci się pobawić tą grą na dobrze skalibrowanej plazmie [najlepiej 1080@42' ]powybierać różne bronie, w multi samemu można odpalić mapę i na niej się pobawić, ponadto silnik nagrywa każdy mecz multiplayer (do 20 można zapisać na dysku) i można go potem obejrzeć z rożnych kamer, lub nawet odczepić kamerę i polatać po całej mapie (pomimo użycia Occlusion Culling) pod rożnymi kątami/wysokościami. Odczepioną kamerą mozna obserwować nawet całą mapę z pełnej wysokości.
Teraz ta gra to 35pln w PSN (singiel + darmowe multi). Wielu gier TPP nie ma i kamera w U2 jest troszkę inna. Nie wiem czy to zastosowanie holenderskiego kąta czy jej lekkie odczepienie, ale dość fajnie zachowuje się geometria w przestrzeni gdy człowiek nauczy się nią płynnie operować (stojące bloki, kolumny itp fajnie symulują to coś co jest właśnie w parallaxS - postrzeganie przestrzeni).
Naprawdę czekam na ten silnik na PS4. Wtedy skuszę sie chyba na zakup.
Jest ona dość specyficzna (o czym widzę wspomniałeś) i w grach TPP nie widziałem podobnej przed U2.
Była podobna w wielu grach (jednak zazwyczaj nie z realistyczna grafiką), jednak zazwyczaj nie zwraca się na to uwagi aż takiej i po prostu jest albo na sztywno jak na drucie przyspawana, albo minimalnie zmiękczona (z opóźnieniem o kilka klatek zamiast miękko prowadzona po krzywej).
Hashi @ 2014.03.05 18:46
Ja nadal obstawiam za tym, ze ten engine potrafi rozmazywać obiekt B za obiektem A. Jest niemozliwe z taką precyzją rozmywanie obiektu za obiektem bez artefaktów (w sposób który mi nakreśliłeś).
Ofc, że jest możliwe z taką precyzją i jest to stosowane od początku wykorzystania DoF w grach. Nazywa się to często smartblurem czyli przy rozmywaniu punktu korzysta się tylko z punktów które mogą mieć wspływ na DoF, a pomija się te odległe. Nie ma to żadnego związku z obiektami. Obiekt A może sam siebie przesłaniać (część obiektu jest przed kamerą blisko, ale jest długi i reszta jest w focusie) i też efekt będzie taki sam (na jednym obiekcie). Silnik nie robi tego przez rozmywanie obiektu B za obiektem A... robi to znacznie lepiej, rozmywając obiekt A, tak, żeby nie rozmył się z inną odległą częścią tego samego obiektu A.
Hashi @ 2014.03.05 18:46
Ciekawie tez to wygląda jak w drodze jednego z rozmyć pojawia się np gorące powietrze z nad ognia (jest taki jeden level).
Zapewne raycasting wykrywa miękkie cząsteczki (bilbordowe czworokąty z teksturą) z systemu cząsteczkowego tworzącego efekt gorącego powietrza/ognia.
Nie napisałem ze to jest ParallaxS ale porównałem właśnie kamerę w U2 do tego. Jest ona dość specyficzna (o czym widzę wspomniałeś) i w grach TPP nie widziałem podobnej przed U2. Ja nadal obstawiam za tym, ze ten engine potrafi rozmazywać obiekt B za obiektem A. Jest niemozliwe z taką precyzją rozmywanie obiektu za obiektem bez artefaktów (w sposób który mi nakreśliłeś). Przyglądałem się temu dokładnie z bliska na ekranie 1080p (dodatkowo 'poruszając focusem' ). Ciekawie tez to wygląda jak w drodze jednego z rozmyć pojawia się np gorące powietrze z nad ognia (jest taki jeden level).
Czyli nie grałeś w tą grę (w domyśle pdp) ale widziałeś ją na Youtube? Okeeeeeeeeeeeeeeej.
Widzę ze ty masz straszne ale to straszne parcie na udowadnianie ze ktoś tam coś kiedyś wymyślił i to jest od zawsze na PC ale nikt tego nie użył w grze. Prawda jest taka ze NaughtyDog w wielu kwestiach poszło pod górę, bo tak chcieli. Chcieli pokazać coś czego w grze nigdy nie było i to zrobili, na sprzęcie z 256MB mainRAM i kartą pokroju GTX7800.
Tak chodziło mi o stronę 'od 120' ale tez 59-60, 75-82.
Catmull to przypadkiem nie był jednym od efektów w Starwars (pixar) i jednym co wymyślił RGBA - o czym wspominałem wcześniej? Przewiń sobie rozmowę i poszukaj..
Nie widziałeś na oczy U2 więc twoje wypowiedzi są NIC NIE WARTE i weź to w końcu przekmiń.
Ile razy trzeba Ci mówić, że widziałem wszystko co trzeba było zobaczyć (na filmach z gameplay) tylko, że zamiast 'wow to magia', mam wiedzę na temat i wiem co się tam dzieje.
Hashi @ 2014.03.05 10:21
Część ściany za tym zadaszeniem jest rozmyta i to zadaszenie jest nałożone na to rozmycie.
Nie nałożone, a zmiksowane. Spora różnica
Hashi @ 2014.03.05 10:21
Tam są warstwy, muszą być bo to gra z 3 osoby i tło/i obiekty porusza się często na 'zasadzie' Parallax scrolling (nie jest to dokładnie to ale geometria w tej grze + holenderski kąt jest specyficzna, kamera jak i tło porusza się w dość specyficzny sposób), nawet jak biegniesz po schodach to widać to (wystarczy podczas biegu po schodach ustawić kamerę w bok i obserwować otoczenie).
Znowu bzdury gadasz. Parallax scrolling jest robiony w grach 2d, aby symulować przestrzeń 3d (perspektywę). W gre 3D jest to zupełnie zbędne, bo takie zachowanie (inne szybkości/kierunki ruchów bliskich i odległych planów) jest naturalne w 3D. To co mocniej ukazuje to w U2 to ruch kamery, który nie jest sztywny, a jakby na elastycznej linie za graczem (pierwszy raz takie coś widzialem w Super Mario 64 z 96 roku), przez co ten naturalny dla 3D ruch wynikający z perspektywy jest widoczny.
Hashi @ 2014.03.05 10:21
Poczytaj sobie chociażby o levelu z pociągiem w U2, który jest jako pierwszy w grze zrobiony dynamicznie, a nie statycznie, czyli to pociąg się porusza po krzywej, a nie tło się przesuwa, a pociąg stoi. Ja wiem ty mi tu napiszesz, ze to nie robi na tobie wrażenia, ze z chłopakami robiliście to na polibudzie na comodore64 w 1970.
Z pociągiem zdaje się, że faktycznie pierwszy raz zrobiono tak (z samochodami czy autobusami to już było wcześniej). Ogólnie nie jest problemem to, że pociąg przesuwa się po krzywej (to, żaden wielki problem, bo kochanek-bartels, cutmull-rom (edit: w slajdzie o którym pisałeś zaznaczyli, że użyli tych krzywych wymyślonych w 74 roku i bardzo popularnych w grafice komputerowej ('w wersji 3D' czyli powierzchnie Catmull-Clark ('78r.) są używane przez Pixara, Dreamworks od lat, a od kilku lat w grach z teselacją)) czy inne krzywe załatwią sprawę w zupełności (każdy silnik ma zaimplementowany ruch po krzywej - nawet sama kamera tak musi się poruszać w cutscenkach)), a to, żeby obraz widoczny na zewnątrz był odpowiednio dopracowany - tu trzeba mocno streamować dane raczej, jeśli ta scena jest długa i środowisko urozmaicone. Zazwyczaj jednak powodem wykorzystania parallax mapek za oknami z animacją jest obraniczenie budrzetowe gry, a nie przeszkoda technologiczna.
Hashi @ 2014.03.05 10:21
Tam nawet ray-cast użyto do lokalizacji broni która upada przeciwnikowi.
Powiem Ci więcej - Ray-cast użyto do kamery, aby sprawdzić czy coś nie zasłania i nie zmienić pozycji, do tego aby sprawdzić czy trafiłeś przeciwnika kulą, do wyznaczenia śladu zostawianego na ścianie po kuli... nie chcę Cię martwić, ale to nie jakaś hipertechnologia, a po prostu tak działają silniki fizyki w grach, że raycasting jest wykorzystywany na masową skalę.
Hashi @ 2014.03.05 17:27
Jak tam skoti48 przeczytałeś slajdzik? http://www.slideshare.net/naughty_dog/mult...2-among-thieves
To co oni wyprawiają z tymi podczepionymi rdzeniami jest dość ciekawe. Prawda?
Koszyczki wypełnione obiektami. A czerwony kapturek bał się wilka.
Zapewne mówisz o tym co jest od strony 120. Jeśli tak to jest to dobra droga (tzn robienie tylko tych (fizyki - czytaj ray cast, broadphase i sprawdzanie widoczności obiektów fizycznych w bryle widoku) rzeczy w SPU co tam podali, bo audio, języka skryptowego czy logiki przerzucać na SPU nie bardzo jest sens i to powinno pozostać dalej na wątkach CPU normalnie forkując i łącząc je później tak jak zawsze się robiło). Tylko teraz nie przerzuca się na SIMD SPU, a na GPU, dlatego właśnie tak jak opisali działają technologie Nvidii, tak działa silnik Bullet w wersji 3... (i Bullet 2.x, PhysX czy Havok pod Cell... tam wrzucając na SPU obliczenia, zamiast na GPU).
Jak tam skoti48 przeczytałeś slajdzik? http://www.slideshare.net/naughty_dog/mult...2-among-thieves
To co oni wyprawiają z tymi podczepionymi rdzeniami jest dość ciekawe. Prawda?
Koszyczki wypełnione obiektami. A czerwony kapturek bał się wilka.
Obvious troll is obvious...
A ja tu widzę grafikę rodem z Quake 3 o.O Wszystko maksymalnie rozmydlone i kanciaste..
Zrzut ekranu z Crysis 1 na konsole zresztą niewiele lepszy. Mnie od grania na konsoli (poza oczywistym dyskomfortem związanym z graniem w FPS na padzie) odrzucił KZ3 którego demko sobie pobrałem na PS3 (kupione dla dzieciaków pod gry typu Buzz czy wszystko z Move - do tego jedynie te konsole sie chyba nadają). Jak zobaczyłem nieprzeźroczystą niemalże prostokątną wodę w misji z dema to aż nie dowierzałem że to ten legendarny EX na PS3 nad którym wszyscy się tak rozwodzą o.O
Gry na PC mają to do siebie że nikt się tu nie bawi w super optymalizacje, równa się do najlepszej karty, tak aby ona była w stanie wygenerować płynny obraz przy podobnej jakości jak konsole obecnej generacji i tyle. Niebawem znowu next-geny na tyle będą odstawać od PC za 1000zł że graficznie PC ponownie wyjdzie na prowadzenie i nawet sztuczki optymalizacyjne w niczym nie pomogą. Tymczasem posiadacze konsol mogą się jeszcze cieszyć jakością PC w cenie konsoli
@skoti48 Podziwiam opanowanie
Większych głupot już nie mogłeś napisać za 1000zł to piec nie ma startu do PS3 jeszcze. Czy ty widziałeś takie gry jak Uncharted God of War The Last of us Beyond Two Souls GT6 itd..... piec do tej pory nie ma ładniejszej ścigałki od GT6 a ty pierniczysz o jakimś odstawaniu ogarnij się i przestańcie pierdoły opowiadać.
Zapytam się jeszcze raz czy graliście w te gry widzieliście je na dobrym tv itd..... bo inaczej dyskusja nie ma sensu.
Co do Uncharted to focus blur tam jest tak specyficzny że nie ma czegoś takiego w żadnej grze to potwierdzam a teorie i cyferki możecie w buty sobie wsadzić.
I zrozumcie jedno bo ile można powtarzać Crysis1 z 2007 roku nie był najładniejszym tytułem tylko Uncharted1 co wyszedł w tym samym roku 2007 ale co wy możecie wiedzieć jak żeście wtedy nie mieli pojęcia że wyszedł taki tytuł na PS3. A chodzi przede wszystkim o oświetlenie tekstury i efekty.
Crysis mógł wtedy pomarzyć o takich teksturach w grze macie przykład na zdjęciu.
Tak kiedyś wyglądał Crysis przy U1.
@Hashi ale co się dziwisz pc-towcy żyją teoriami i cyferkami a komentarze typu bo ja mam 2x mocniejszego titana w pc od PS4 i dla niego konsola już jest przestarzała i 2 lata za pc-tami itp. Żenada. A w ogóle po co to tłumaczyć Uncharted2/3 dostał nagrody za technologie i grafikę roku o tym też pc-towcy nie wiedzą
Masz tu gościu jeszcze kawałek z gameplaya z Beyond Two Souls widziałeś na swoim piecyku takie wymodelowane postacie i animacje a to jeszcze jest na poczciwej PS3 która ma 8 lat zdajesz sobie sprawę 8 LAT!.
https://www.youtube.com/watch?v=z3CckWqZm7Q
Infamous Second Son już robi destrukcję pc-ta z titanami na pokładzie
Gra z otwartym światem czy ktoś ma jeszcze wątpliwości o przestarzałej i słabej PS4
@skoti48
Nie gadam z tobą człowieku bo gadasz bzdury. Nie widziałeś na oczy U2 więc twoje wypowiedzi są NIC NIE WARTE i weź to w końcu przekmiń. Część ściany za tym zadaszeniem jest rozmyta i to zadaszenie jest nałożone na to rozmycie. Nie gadam z tobą chłopie. Po prostu. Dynda mi co wiesz, co umiesz. Wiele razy kłamałeś i twoja wiedza w ogóle nie nie imponuje bo wypowiadasz się o rzeczach których nie widziałeś na oczy. Tam są warstwy, muszą być bo to gra z 3 osoby i tło/i obiekty porusza się często na 'zasadzie' Parallax scrolling (nie jest to dokładnie to ale geometria w tej grze + holenderski kąt jest specyficzna, kamera jak i tło porusza się w dość specyficzny sposób), nawet jak biegniesz po schodach to widać to (wystarczy podczas biegu po schodach ustawić kamerę w bok i obserwować otoczenie).
Poczytaj sobie chociażby o levelu z pociągiem w U2, który jest jako pierwszy w grze zrobiony dynamicznie, a nie statycznie, czyli to pociąg się porusza po krzywej, a nie tło się przesuwa, a pociąg stoi. Ja wiem ty mi tu napiszesz, ze to nie robi na tobie wrażenia, ze z chłopakami robiliście to na polibudzie na comodore64 w 1970.
Tam nawet ray-cast użyto do lokalizacji broni która upada przeciwnikowi. http://www.slideshare.net/naughty_dog/mult...2-among-thieves http://www.escapistmagazine.com/news/view/...oke-Uncharted-2
Dzięki 'dynamic object traversal system' postacie mogą robić wszystko to co na statycznym levelu, łącznie z pełna paletą 150 animacji, na obiektach które rzeczywiście się poruszają, a nie udają ze to robią.
Nie gadam z tobą. PS Z miłą chęcią kupie od ciebie PS3 na XDR 800MHz jak znajdziesz to podeślij link. Kupuje od ręki. Widocznie ty nie kumasz ze Cell wyrósł właśnie na architekturze tej pamięci. Mała ilość dużych zadań bo ta pamięć podaje więcej na cykl. Dlatego dane do transportu po EIB muszą być odpowiedniej 'wielkości' by tą szynę wykorzystać.
nie mówiłem, że nie jest to możliwe do osiągnięcia, a jest to niemożliwe do osiągnięcia z rozsądną wydajnością..
Wysłałem ci wiadomość na PW. Sprawdź.
Nie w alembic, a z plikami alembic.
Oj chłopie tu to mnie rozbawiłeś do łez. Jeśli by stworzyć listę jaki format plików jest najgorszy do gier to alembic by rozpoczynał listę, bo się kompletnie tu nie nadaje. Miejsca zajmuje więcej niż, formaty binarne, nie jest dostosowany do GPU, nie zawiera obiektów jakie są w grach niezbędne, a ma tylko wypieczoną animację.
Omnibusem zdecydowanie nie jestem, ale akurat w dziedzinie grafiki 3D siedzę od ubiegłego wieku i wiem sporo.
http://pclab.pl/kom70933---n.html#c729946
Mówiłem Ci ze to ściema to ty mi tłumaczyłeś jak wpływa nm na pobór prądu.
Opierasz swoje sądy na podstawie słów SemiAccurate, które brzmią 'na podstawie zebranych danych wydaje nam się, że powinno być około 40W' - czytaj GPU około 35W... chciałem Ci przypomnieć, że GeForce GT 740M ma TDP na poziomie 19W, a ma 2x więcej rdzeni i ma kontroler pamięci, IO, więcej jednostek teksturujących, więcej RoP... (czyli wszystko to, czego GPU w K1 jest pozbawione, bo jest to w SoC).
Podam Ci dla równowagi analizę konkurencyjnego AnandTech:
'If you take a GeForce 740M (2 SMX/384 CUDA core design), you’re looking at roughly a 19W GPU. Of that 19W, around 3W is memory IO, PCIe and other non-GPU things. You can subtract another 6W for leakage, bringing you down to 10W. Now that’s a 2 SMX design, so divide it in half and now you’re down to 5W.'
Chłopie powinieneś kabaret stworzyć 'Ja i mój świat'. Co mnie to ze pracujesz w Almebic? Pozawala on na oszczędność miejsca i czasu wiec może być defakto użyty przez SONY przy tworzeniu gier. Oszczędność miejsca i pieniędzy, a to może wpływać na końcowy produkt = więcej kasy = lepsze gry.
Mnie się wydaje ze ty jednak bajki piszesz. Pracowałeś przy SW, z ILM tez, Alembic masz w jednym palcu, ba nawet w Rambus pomagałeś przy XDR ale twojego pomysłu na 800MHz nie przyjeli
Masz swoją Tegre co ciągnie 5W:
http://pclab.pl/kom70933---n.html#c729946
Mówiłem Ci ze to ściema to ty mi tłumaczyłeś jak wpływa nm na pobór prądu.
Kiedyś wspomnisz moje słowa o focal blur w U2. Nie wciskaj więcej kitów ze widziałeś takie coś wcześniej bo to jest aktualnie jedyna gra która posiada taki bajer. Miksuj sobie tekstury swoim smart blurem nadal.
Umiem czytać wywiady z autorami efektów.
Grafikę Optimusa Prime zmniejszono z kilkuset (czy kilkudziesięciu) GB do 300MB. Coś Ci świta w głowie?
Mam nadzieje, że wiesz, że Alembic to bakeowany format i w praktyce jest on tylko do odczytu. Wywalane są wszystkie dane przydatne przy pracy i zostawiany jest tylko bake danych z którymi pracować się nie da, ale łatwiej przenosić do dalszego etapu prac.
Przykladomo modeluje dana osoba i przy edycji musi mieć stos modyfikatorów i całą historię prac na pliku, a bez tego edytowanie jest bulem w tyłku. Dalej się eksportowało mesh do innego formatu (aby do animatora przesłać tylko siatkę), ale Alembic też się tu nadaje, dalej animator robił serię animacji (animację chodu, animację...), które później są łączone w sekwencję (wszystkie te dane są niezbędne do pracy), kiedy wysyła do renderingu to te dane są zbędne (fizyka, animacje, modyfikatory...) - wypala się tylko to co potrzebne dalej - czyli animację wypaloną końcową (bez możliwości zmiany animacji chodu przykładowo po wyeksportowaniu, bo na alembic nie da się pracować, bo zamiast jednej zmiany klatki animacji cyklu wpływającej na cały chód w całej animacji, musisz poprawiać co krok i to w dziwnych przemieszczeniach i obrotach już po bake (alembic)).
Alembic pozwala na tak oszczędny zapis właśnie ze względu, że nie jest to format na którym się pracuje, a format do którego się zapisuje, kiedy wszystko jest już gotowe i wyrzuca się informacje niezbędne do pracy i tylko wypalany (bake) do alembic jest efekt prac.
Ogólnie chciałem Cię ekspercie powiadomić, że na plikach Alembic pracuję i w przeciwieństwie do Ciebie wiem do czego służą - na nich się nie pracuje, a ułatwiają one przenoszenie gotowej już pracy do kolejnego etapu prac.
Grafikę Optimusa Prime zmniejszono z kilkuset (czy kilkudziesięciu) GB do 300MB. Coś Ci świta w głowie?
Nie - Nelson Shin używał zwykłego skalpela jeśli chcesz wiedzieć dosłownie traktując wytnij i wklej, a wybuchy nakładano sklejając 2 klatki i tworząc nową naświetlając 2x dłużej.
Co ma do rozmowy wypiekany format animacji do przenoszenia danych pomiędzy programem 3D, a zewnętrznym rendererem to już zupełnie nie mam pojęcia. Ani nie chodzi Ci o wpływie na jakość grafiki, ani o rewolucyjną zmianę, a po prostu ułatwienie przy przenoszeniu danych. Tak wtrącona informacja wygląda jakby tylko po to, że wiesz o firmie coś, tylko nie do końca wiesz co. Jeśli już chcesz coś ciekawego i na temat to ILM jako pierwsze wykorzystało w filmie (nie animowanej bajce, bo tu pierwsze było sony) point-based GI (piraci z karaibów), który jest koncepcyjnie podobny do Voxel Cone Tracing z nowych silników gier.
RGBA stands for red green blue alpha. While it is sometimes described as a color space, it is actually simply a use of the RGB color model, with extra information. The color is RGB, and may belong to any RGB color space, but an integral alpha value as invented by Catmull and Smith between 1971 and 1972 enables alpha compositing.
Pixar via wiki:
Pixar began in 1979 as the Graphics Group, part of the computer division of Lucasfilm before its spin-out as a corporation in 1986
Pixar was founded as The Graphics Group, which was one third of the Computer Division of Lucasfilm that was launched in 1979 with the hiring of Dr. Ed Catmull from the New York Institute of Technology (NYIT),[6] where he was in charge of the Computer Graphics Lab (CGL). At NYIT, the researchers pioneered many of the CG foundation techniques—in particular the invention of the 'alpha channel' (by Catmull and Alvy Ray Smith)
Star Wars kolego część IV-VI to 1977-1983.
Aha laserki blasterki nakładano farbkami..
ILM mi nie tłumacz kolego bo doskonale wiem co to za firma (Transoformers itd). Polecam filmik pt Alembic na YT - technologia opracowana przez ILM i SONY Pictures. Zmniejsza ilość danych kilkakrotnie. Np Optimus Prime standardowo zajmował kilkaset GB, pod Alembic 300MB.
Proszę Cię nie męcz mnie
Nie mogę teraz tego znaleźć ale był ciekawa konfa SONY i ILM o Alembic (filmik miał tytuł chyba Alembic mp4).
Tutaj inne:
http://www.youtube.com/watch?v=bWN7gmTVQCY
http://www.youtube.com/watch?v=I_UEd8dcPL8
http://www.youtube.com/watch?v=jRgbO6fnDDI
http://www.alembic.io/
Mnie naprawdę nie obchodzi za bardzo kiedy co wynaleziono. Chodzi o to by daną technologię uzyć w filmie/grze, z odpowiednią jakością, wydajnością, a najlepiej w połączeniu z innymi niestandardowymi technologiami i by to powodowało opad szczęki. Takim ludziom się należy nagroda - uznanie i kasa z portfela.
ILM robił to wszystko wtedy 'analogowo', bez użycia komputerów.
Industrial Light & Magic to ludzie którzy pracowali nad efektami w LucasFilm (i jest to największe studio efektów specjalnych do dziś), a jego podgrupa CG (która została założona w 79r) i ich praca w SW nie była wykorzystana, a częściowo została sprzedana Jobsowi i powstał Pixar (1986). Pixar nie powstał w 79 roku, a w 86, ILM zatrzymało wielu pracowników i teraz mamy dwie firmy które pochodzą od grupy CG - ILM i Pixar jednak żadna z nich bezpośrednią kontynuacją nie jest.
Po prostu chciałem aby było jasne, że RGBA (71), Catmull-Rom (74), Catmull-Clark (78) nie były wymyślone dla filmów, a podczas pracy naukowej. Z LucasFilm współpracował od 79 roku, ale przy SW, nie wykorzystano tej pracy. Takie informacje, aby przekaz był jasny i klarowny, a nie mglisty i pełen domysłów.
Naprawdę nie chce mi się z tobą już gadać. Ciężki jesteś, współczuje twojemu partnerce, musisz mieć charakter nie do zniesienia. Pzdr.
Przyganiał kocioł garnkowi....
Naprawdę nie chce mi się z tobą już gadać. Ciężki jesteś, współczuje twojemu partnerce, musisz mieć charakter nie do zniesienia. Pzdr.
Widzę, że ty masz straszne parcie, aby ulubioną grę pokazać, że wszystko tam jest niesamowicie odkrywcze. Ja Ci podaję przykłady, że to wszystko było to w konsolach Nintendo i Super Mario 64, to w PC, to w matematyce i graficę od 40 lat... to w PC (i rendererach rasteryzujących jak RenderMan). U2 to super gra i ma duże nagromadzenie fajnych rozwiązań... ale nie rewolucyjnych czy odkrywczych.
Ja nie mówię, że jest od zawsze na PC... tylko jak piejesz z zachwytu nad innowacyjnością mówię Ci gdzie już było i kiedy (i PC było jednym z przykładów).
U2 to kawał dobrej, ładnej i solidnej gry, ale odkrywcza pod względem technologii nie jest (i mało jaka gra jest, bo znane już dziś są technologie, które wejdą do gier w przyszłej dekadzie, a nawet dalej). Ostatnie z odkrywczych rzeczy w grach to było SSAO, bo AO ofc było znane od lat, ale w realtime się tego zrobić nie dało, aż Crytek wpadł na sposób w przestrzeni ekranu. No dobra - fajne też było ostatnio Subsurface Scatering w przestrzeni ekranu od Activision, a tak to raczej jest odtwórczo.
Deferred to nie było, żadne zaskoczenie (świat gier czekał na MRT 8x, aby wydajnie to zrobić, bo deferred wymyślono w 1988 i korzystano w rasteryzerach CPU),
Efekty w StarWars były 'makietowe' i CGI tam nie było (Catmull współpracował i wykonali 3d model X-Winga, ale Lucas nie wykorzystał tego), a pixar wtedy nie istniał (był współzałożycielem Pixara kilkanaście lat później), a nad nowszymi SW pracowało z tego co pamiętam ILM, a nie Pixar. Te rozwiązania o których tu mówimy były przez niego tworzone gdy pracował na politechnice w nowym jorku.
Teraz ta gra to 35pln w PSN (singiel + darmowe multi). Wielu gier TPP nie ma i kamera w U2 jest troszkę inna. Nie wiem czy to zastosowanie holenderskiego kąta czy jej lekkie odczepienie, ale dość fajnie zachowuje się geometria w przestrzeni gdy człowiek nauczy się nią płynnie operować (stojące bloki, kolumny itp fajnie symulują to coś co jest właśnie w parallaxS - postrzeganie przestrzeni).
Naprawdę czekam na ten silnik na PS4. Wtedy skuszę sie chyba na zakup.
Była podobna w wielu grach (jednak zazwyczaj nie z realistyczna grafiką), jednak zazwyczaj nie zwraca się na to uwagi aż takiej i po prostu jest albo na sztywno jak na drucie przyspawana, albo minimalnie zmiękczona (z opóźnieniem o kilka klatek zamiast miękko prowadzona po krzywej).
Ofc, że jest możliwe z taką precyzją i jest to stosowane od początku wykorzystania DoF w grach. Nazywa się to często smartblurem czyli przy rozmywaniu punktu korzysta się tylko z punktów które mogą mieć wspływ na DoF, a pomija się te odległe. Nie ma to żadnego związku z obiektami. Obiekt A może sam siebie przesłaniać (część obiektu jest przed kamerą blisko, ale jest długi i reszta jest w focusie) i też efekt będzie taki sam (na jednym obiekcie). Silnik nie robi tego przez rozmywanie obiektu B za obiektem A... robi to znacznie lepiej, rozmywając obiekt A, tak, żeby nie rozmył się z inną odległą częścią tego samego obiektu A.
Zapewne raycasting wykrywa miękkie cząsteczki (bilbordowe czworokąty z teksturą) z systemu cząsteczkowego tworzącego efekt gorącego powietrza/ognia.
Czyli nie grałeś w tą grę (w domyśle pdp) ale widziałeś ją na Youtube? Okeeeeeeeeeeeeeeej.
Widzę ze ty masz straszne ale to straszne parcie na udowadnianie ze ktoś tam coś kiedyś wymyślił i to jest od zawsze na PC ale nikt tego nie użył w grze. Prawda jest taka ze NaughtyDog w wielu kwestiach poszło pod górę, bo tak chcieli. Chcieli pokazać coś czego w grze nigdy nie było i to zrobili, na sprzęcie z 256MB mainRAM i kartą pokroju GTX7800.
Tak chodziło mi o stronę 'od 120' ale tez 59-60, 75-82.
Catmull to przypadkiem nie był jednym od efektów w Starwars (pixar) i jednym co wymyślił RGBA - o czym wspominałem wcześniej? Przewiń sobie rozmowę i poszukaj..
Ile razy trzeba Ci mówić, że widziałem wszystko co trzeba było zobaczyć (na filmach z gameplay) tylko, że zamiast 'wow to magia', mam wiedzę na temat i wiem co się tam dzieje.
Nie nałożone, a zmiksowane. Spora różnica
Znowu bzdury gadasz. Parallax scrolling jest robiony w grach 2d, aby symulować przestrzeń 3d (perspektywę). W gre 3D jest to zupełnie zbędne, bo takie zachowanie (inne szybkości/kierunki ruchów bliskich i odległych planów) jest naturalne w 3D. To co mocniej ukazuje to w U2 to ruch kamery, który nie jest sztywny, a jakby na elastycznej linie za graczem (pierwszy raz takie coś widzialem w Super Mario 64 z 96 roku), przez co ten naturalny dla 3D ruch wynikający z perspektywy jest widoczny.
Z pociągiem zdaje się, że faktycznie pierwszy raz zrobiono tak (z samochodami czy autobusami to już było wcześniej). Ogólnie nie jest problemem to, że pociąg przesuwa się po krzywej (to, żaden wielki problem, bo kochanek-bartels, cutmull-rom (edit: w slajdzie o którym pisałeś zaznaczyli, że użyli tych krzywych wymyślonych w 74 roku i bardzo popularnych w grafice komputerowej ('w wersji 3D' czyli powierzchnie Catmull-Clark ('78r.) są używane przez Pixara, Dreamworks od lat, a od kilku lat w grach z teselacją)) czy inne krzywe załatwią sprawę w zupełności (każdy silnik ma zaimplementowany ruch po krzywej - nawet sama kamera tak musi się poruszać w cutscenkach)), a to, żeby obraz widoczny na zewnątrz był odpowiednio dopracowany - tu trzeba mocno streamować dane raczej, jeśli ta scena jest długa i środowisko urozmaicone. Zazwyczaj jednak powodem wykorzystania parallax mapek za oknami z animacją jest obraniczenie budrzetowe gry, a nie przeszkoda technologiczna.
Powiem Ci więcej - Ray-cast użyto do kamery, aby sprawdzić czy coś nie zasłania i nie zmienić pozycji, do tego aby sprawdzić czy trafiłeś przeciwnika kulą, do wyznaczenia śladu zostawianego na ścianie po kuli... nie chcę Cię martwić, ale to nie jakaś hipertechnologia, a po prostu tak działają silniki fizyki w grach, że raycasting jest wykorzystywany na masową skalę.
http://www.slideshare.net/naughty_dog/mult...2-among-thieves
To co oni wyprawiają z tymi podczepionymi rdzeniami jest dość ciekawe. Prawda?
Koszyczki wypełnione obiektami. A czerwony kapturek bał się wilka.
Zapewne mówisz o tym co jest od strony 120. Jeśli tak to jest to dobra droga (tzn robienie tylko tych (fizyki - czytaj ray cast, broadphase i sprawdzanie widoczności obiektów fizycznych w bryle widoku) rzeczy w SPU co tam podali, bo audio, języka skryptowego czy logiki przerzucać na SPU nie bardzo jest sens i to powinno pozostać dalej na wątkach CPU normalnie forkując i łącząc je później tak jak zawsze się robiło). Tylko teraz nie przerzuca się na SIMD SPU, a na GPU, dlatego właśnie tak jak opisali działają technologie Nvidii, tak działa silnik Bullet w wersji 3... (i Bullet 2.x, PhysX czy Havok pod Cell... tam wrzucając na SPU obliczenia, zamiast na GPU).
http://www.slideshare.net/naughty_dog/mult...2-among-thieves
To co oni wyprawiają z tymi podczepionymi rdzeniami jest dość ciekawe. Prawda?
Koszyczki wypełnione obiektami. A czerwony kapturek bał się wilka.
http://i1.ytimg.com/vi/0zbLNWIA7rg/maxresdefault.jpg
http://www.electricblueskies.com/wp/wp-con...in-Wreck-01.jpg
http://www.electricblueskies.com/wp/wp-con...in-Wreck-03.jpg
.
Obvious troll is obvious...
A ja tu widzę grafikę rodem z Quake 3 o.O Wszystko maksymalnie rozmydlone i kanciaste..
Zrzut ekranu z Crysis 1 na konsole zresztą niewiele lepszy. Mnie od grania na konsoli (poza oczywistym dyskomfortem związanym z graniem w FPS na padzie) odrzucił KZ3 którego demko sobie pobrałem na PS3 (kupione dla dzieciaków pod gry typu Buzz czy wszystko z Move - do tego jedynie te konsole sie chyba nadają). Jak zobaczyłem nieprzeźroczystą niemalże prostokątną wodę w misji z dema to aż nie dowierzałem że to ten legendarny EX na PS3 nad którym wszyscy się tak rozwodzą o.O
Gry na PC mają to do siebie że nikt się tu nie bawi w super optymalizacje, równa się do najlepszej karty, tak aby ona była w stanie wygenerować płynny obraz przy podobnej jakości jak konsole obecnej generacji i tyle. Niebawem znowu next-geny na tyle będą odstawać od PC za 1000zł że graficznie PC ponownie wyjdzie na prowadzenie i nawet sztuczki optymalizacyjne w niczym nie pomogą. Tymczasem posiadacze konsol mogą się jeszcze cieszyć jakością PC w cenie konsoli
@skoti48 Podziwiam opanowanie
Większych głupot już nie mogłeś napisać
Zapytam się jeszcze raz czy graliście w te gry widzieliście je na dobrym tv itd..... bo inaczej dyskusja nie ma sensu.
Co do Uncharted to focus blur tam jest tak specyficzny że nie ma czegoś takiego w żadnej grze to potwierdzam a teorie i cyferki możecie w buty sobie wsadzić.
I zrozumcie jedno bo ile można powtarzać Crysis1 z 2007 roku nie był najładniejszym tytułem tylko Uncharted1 co wyszedł w tym samym roku 2007 ale co wy możecie wiedzieć jak żeście wtedy nie mieli pojęcia że wyszedł taki tytuł na PS3. A chodzi przede wszystkim o oświetlenie tekstury i efekty.
Crysis mógł wtedy pomarzyć o takich teksturach w grze macie przykład na zdjęciu.
Tak kiedyś wyglądał Crysis przy U1.
@Hashi ale co się dziwisz pc-towcy żyją teoriami i cyferkami a komentarze typu bo ja mam 2x mocniejszego titana w pc od PS4 i dla niego konsola już jest przestarzała i 2 lata za pc-tami itp. Żenada. A w ogóle po co to tłumaczyć Uncharted2/3 dostał nagrody za technologie i grafikę roku o tym też pc-towcy nie wiedzą
Masz tu gościu jeszcze kawałek z gameplaya z Beyond Two Souls widziałeś na swoim piecyku takie wymodelowane postacie i animacje a to jeszcze jest na poczciwej PS3 która ma 8 lat zdajesz sobie sprawę 8 LAT!.
https://www.youtube.com/watch?v=z3CckWqZm7Q
Infamous Second Son już robi destrukcję pc-ta z titanami na pokładzie
Gra z otwartym światem czy ktoś ma jeszcze wątpliwości o przestarzałej i słabej PS4
Nie gadam z tobą człowieku bo gadasz bzdury. Nie widziałeś na oczy U2 więc twoje wypowiedzi są NIC NIE WARTE i weź to w końcu przekmiń. Część ściany za tym zadaszeniem jest rozmyta i to zadaszenie jest nałożone na to rozmycie. Nie gadam z tobą chłopie. Po prostu. Dynda mi co wiesz, co umiesz. Wiele razy kłamałeś i twoja wiedza w ogóle nie nie imponuje bo wypowiadasz się o rzeczach których nie widziałeś na oczy. Tam są warstwy, muszą być bo to gra z 3 osoby i tło/i obiekty porusza się często na 'zasadzie' Parallax scrolling (nie jest to dokładnie to ale geometria w tej grze + holenderski kąt jest specyficzna, kamera jak i tło porusza się w dość specyficzny sposób), nawet jak biegniesz po schodach to widać to (wystarczy podczas biegu po schodach ustawić kamerę w bok i obserwować otoczenie).
Poczytaj sobie chociażby o levelu z pociągiem w U2, który jest jako pierwszy w grze zrobiony dynamicznie, a nie statycznie, czyli to pociąg się porusza po krzywej, a nie tło się przesuwa, a pociąg stoi. Ja wiem ty mi tu napiszesz, ze to nie robi na tobie wrażenia, ze z chłopakami robiliście to na polibudzie na comodore64 w 1970.
Tam nawet ray-cast użyto do lokalizacji broni która upada przeciwnikowi.
http://www.slideshare.net/naughty_dog/mult...2-among-thieves
http://www.escapistmagazine.com/news/view/...oke-Uncharted-2
Dzięki 'dynamic object traversal system' postacie mogą robić wszystko to co na statycznym levelu, łącznie z pełna paletą 150 animacji, na obiektach które rzeczywiście się poruszają, a nie udają ze to robią.
Nie gadam z tobą. PS Z miłą chęcią kupie od ciebie PS3 na XDR 800MHz jak znajdziesz to podeślij link. Kupuje od ręki. Widocznie ty nie kumasz ze Cell wyrósł właśnie na architekturze tej pamięci. Mała ilość dużych zadań bo ta pamięć podaje więcej na cykl. Dlatego dane do transportu po EIB muszą być odpowiedniej 'wielkości' by tą szynę wykorzystać.