komentarze
*Konto usunięte*2013.01.27, 18:03
I to jest jakaś rewolucja? PC tego nie potrzebuje.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.01.27, 17:56
kwasior500 @ 2013.01.27 17:32  Post: 632628
Hashi @ 2013.01.27 13:47  Post: 632595
Dla przykładu wipeoutHD to pierwsza gra z dynamicznym framebufferem (1080p).


Płynność jest ciągle zachowana z tego względu, że kiedy pędzimy z niewyobrażalną prędkością, gra dynamicznie przechodzi do niższych rozdzielczości, których percepcja ludzkiego oka nie jest w stanie w normalny sposób wychwycić.


Czyli oszukaństwo :D

To jest właśnie dynamiczny framebuffer. Poczytaj ciekawy artykuł (3 strony):
http://www.eurogamer.net/articles/digitalf...-fury-interview
The game is always 1080 at 60Hz. Only the horizontal resolution of the 3D render is modified, and the final framebuffer is always 1920x1080.
Poprostu gdy gra przyspiesza ekstremalnie (wipeoutHD ma 4 poziomy prędkości - przy 4 praktycznie nie da się sterować), zmienia się horyzontalna rozdziałka ale zawsze w pionie jest 1080@60p. Pojazdy do 30k poly, otoczenie do 1,5mln poly.

Świeży artykuł twórcy FXAA (o PS4).
http://timothylottes.blogspot.fr/2013/01/o...nd-durango.html
If PS4 has a real-time OS, with a libGCM style low level access to the GPU, then the PS4 1st party games will be years ahead of the PC simply because it opens up what is possible on the GPU. Note this won't happen right away on launch, but once developers tool up for the platform, this will be the case. As a PC guy who knows hardware to the metal, I spend most of my days in frustration knowing damn well what I could do with the hardware, but what I cannot do because Microsoft and IHVs wont provide low-level GPU access in PC APIs. One simple example, drawcalls on PC have easily 10x to 100x the overhead of a console with a libGCM style API.
I could continue here, but I'm not, by now you get the picture, launch titles will likely be DX11 ports, so perhaps not much better than what could be done on PC. However if Sony provides the real-time OS with libGCM v2 for GCN, one or two years out, 1st party devs and Sony's internal teams like the ICE team, will have had long enough to build up tech to really leverage the platform.


PS3 to libGCM tez. SONY ma swoje własne rozszerzenia. Na google patents mozna nawet znaleźć patenty dotyczące interpolacji krzywych i łamanych SCE:
http://en.wikipedia.org/wiki/PSGL
*Konto usunięte*2013.01.27, 17:32
Hashi @ 2013.01.27 13:47  Post: 632595
Dla przykładu wipeoutHD to pierwsza gra z dynamicznym framebufferem (1080p).


Płynność jest ciągle zachowana z tego względu, że kiedy pędzimy z niewyobrażalną prędkością, gra dynamicznie przechodzi do niższych rozdzielczości, których percepcja ludzkiego oka nie jest w stanie w normalny sposób wychwycić.


Czyli oszukaństwo :D
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.01.27, 13:47
Promilus1984 @ 2013.01.27 12:43  Post: 632584
Jako pierwsi użyli go na taka skalę - GOW, KZ3

Tak, tylko Ty nie pisałeś o tym, że gdzieś tam użyto, a o tym, jak to wspiera MLAA PS3, a później pojawia się w HD5k - z nacechowaniem jak to PS3 wyprzedza technologiicznie swoje czasy i sięga do ficzerów sprzętu DX11 gdy jest to ewidentne nadużycie.
Co realizmu to chodzi mi o animacje ruch ciał

Zmodyfikowany HAVOK, jak w AC, Bioshocku, Alan Wake itp. Niestety na PC jednak pokutuje stosowanie PhysX z ragdolls - kicha straszna.

Załóżmy że ustalamy limit 720p@30fps (w trybie3D jest to 1280x1440) czego na ps3 się nie da w deferred a co się da w Dx11? Dla przykładu wipeoutHD to pierwsza gra z dynamicznym framebufferem (1080p).
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842013.01.27, 12:43
Jako pierwsi użyli go na taka skalę - GOW, KZ3

Tak, tylko Ty nie pisałeś o tym, że gdzieś tam użyto, a o tym, jak to wspiera MLAA PS3, a później pojawia się w HD5k - z nacechowaniem jak to PS3 wyprzedza technologiicznie swoje czasy i sięga do ficzerów sprzętu DX11 gdy jest to ewidentne nadużycie.
Co realizmu to chodzi mi o animacje ruch ciał

Zmodyfikowany HAVOK, jak w AC, Bioshocku, Alan Wake itp. Niestety na PC jednak pokutuje stosowanie PhysX z ragdolls - kicha straszna.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.01.27, 09:34
Promilus1984 @ 2013.01.27 08:28  Post: 632561
@marti - masę ma tą samą, masa x prędkość = pęd, 0.5*masa * prędkość ^2= energia kinetyczna. Jak to jest realizm to pytanie - skoro po wybuchu wszyscy przeciwnicy latają jak szmaciane lalki czemu... bohater nie? :P Siła działająca na pocisk jest praktycznie taka sama jak siła działająca na ramię strzelca ;) Innymi słowy kolo jak dostanie headshota i leci na 2m do tyłu to w tym momencie strzelec powinien mieć wybity bark i leżeć 2 metry dalej ;) Proste.
Dalej - Hashi - MLAA wymyślił intel, nie sony, nie nvidia, nie amd. Intel w zasadzie najprawdopodobniej na potrzeby Larrabee, ewentualnie swoich IGP. Xenos to potrafi, nawet HD2k to potrafi. W HD5k się to pojawiło w sterownikach, bo tam u AMD robią to Compute Shadery 5.0 (sztuczne ograniczenie do nowszych kart). Gallium3D ma to samo dla całej gamy serii HD (a nawet wcześniejszych niestety aktualnie jako ciekawostka bo działa do dupy tzn. wydajność kuleje).

Czy ja powiedziałem że wymyślili MLAA? Jako pierwsi użyli go na taka skalę - GOW, KZ3. Co realizmu to chodzi mi o animacje ruch ciała. Są bardzo naturalne. Może w całym trailerze nie jest perfekcyjna ale 70% ujęć ma animacje której próżno szukać na PC i tu nie chodzi o moc, po prostu deweloper jest mega dobry i podnosi poprzeczkę w każdej odsłonie. Podobnie Uncharted 2 - tam wachlarz ruchów Drake to ponad 150 rożnych kombinacji.
marti_944Zobacz profil
Poziom ostrzeżenia: 0%
marti_9442013.01.27, 08:59
Promilus1984 @ 2013.01.27 08:28  Post: 632561
@marti - masę ma tą samą, masa x prędkość = pęd, 0.5*masa * prędkość ^2= energia kinetyczna. Jak to jest realizm to pytanie - skoro po wybuchu wszyscy przeciwnicy latają jak szmaciane lalki czemu... bohater nie? :P Siła działająca na pocisk jest praktycznie taka sama jak siła działająca na ramię strzelca ;) Innymi słowy kolo jak dostanie headshota i leci na 2m do tyłu to w tym momencie strzelec powinien mieć wybity bark i leżeć 2 metry dalej ;) Proste.
Dalej - Hashi - MLAA wymyślił intel, nie sony, nie nvidia, nie amd. Intel w zasadzie najprawdopodobniej na potrzeby Larrabee, ewentualnie swoich IGP. Xenos to potrafi, nawet HD2k to potrafi. W HD5k się to pojawiło w sterownikach, bo tam u AMD robią to Compute Shadery 5.0 (sztuczne ograniczenie do nowszych kart). Gallium3D ma to samo dla całej gamy serii HD (a nawet wcześniejszych niestety aktualnie jako ciekawostka bo działa do dupy tzn. wydajność kuleje).



Tak, faktycznie może tak być :D jestem okrutnym i niereformowalnym cieciem z fizyki :P. Tylko tak na logikę... skoro pocisk ma prędkość, jakąś energię, to znaczy, że przy uderzeniu w cel odda tę energię...
Po minusach wnoszę, że jednak źle to interpretuję :D
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842013.01.27, 08:28
@marti - masę ma tą samą, masa x prędkość = pęd, 0.5*masa * prędkość ^2= energia kinetyczna. Jak to jest realizm to pytanie - skoro po wybuchu wszyscy przeciwnicy latają jak szmaciane lalki czemu... bohater nie? :P Siła działająca na pocisk jest praktycznie taka sama jak siła działająca na ramię strzelca ;) Innymi słowy kolo jak dostanie headshota i leci na 2m do tyłu to w tym momencie strzelec powinien mieć wybity bark i leżeć 2 metry dalej ;) Proste.
Dalej - Hashi - MLAA wymyślił intel, nie sony, nie nvidia, nie amd. Intel w zasadzie najprawdopodobniej na potrzeby Larrabee, ewentualnie swoich IGP. Xenos to potrafi, nawet HD2k to potrafi. W HD5k się to pojawiło w sterownikach, bo tam u AMD robią to Compute Shadery 5.0 (sztuczne ograniczenie do nowszych kart). Gallium3D ma to samo dla całej gamy serii HD (a nawet wcześniejszych niestety aktualnie jako ciekawostka bo działa do dupy tzn. wydajność kuleje).
marti_944Zobacz profil
Poziom ostrzeżenia: 0%
marti_9442013.01.27, 00:24
Amitoza @ 2013.01.26 21:12  Post: 632514
Hashi @ 2013.01.26 21:03  Post: 632512
(...)

No patrz Skyrim dostał nagrodę Game of the Year w 2012:
http://www.gamechoiceawards.com/archive/gdca_12th.html
Rok 2010 był tylko dla jednej gry i tu nie ma dyskusji:
http://www.gamechoiceawards.com/archive/gdca_10th.html
Wróćmy do realizmu. Animacja upadków?
http://www.youtube.com/watch?v=BPL6kfm8Ai4
od kiedy skyrim to gra PC? To gra multiplatformowa z ukierunkowaniem na xboxa 360 tak jak oblivion.

:lol2: Nie wiedziałem, że ludzie po trafieniu przez kilku gramowy pocisk odlatują na takie odległości :) w 23 sekundzie realizm jak ... ;)


Amitoza, ten pocisk ma nieco większą masę jeśli doliczyć doń prędkość z jaką uderza w cel. Są na to paragrafy... :D.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2013.01.27, 00:12
Grave @ 2013.01.26 23:23  Post: 632550
Amitoza @ 2013.01.26 22:59  Post: 632548
(...)

sytuacja podobna do dzisiejszej. Co prawda tam porównanie topu, a w aktualnym przypadku segmemtu do 1000zł. W grach wtedy AMD było górą, teraz intel, wtedy w profesjonalnych zastosowaniach był intel, a teraz (nie we wszystkich) amd. Z tych których tutaj podałeś conajmniej 3.


Podobnie, ale z drobną różnicą. Wówczas Pentium 4 EE oraz Athlon 64 FX to były topowe CPU obu producentów dla desktopów.

To z czym dzisiaj walczy Vishera i do czego AMD dopasowało cenę swoich CPU to nie jest top Intela. AMD umiejscowiło topowego FX-a 8350 jako rywala pozbawionego HT Core i5 pod LGA 1155, nawet nie Core i7.

I właśnie tu mamy tą jedną różnicę. Bo gdyby porównać top vs top to także w profesjonalnych aplikacjach dobrze się skalujących 6 rdzeni Sandy Bridge E raczej nie dałoby większych szans 4 modułowej Visherze.

Ta różnica znajduje oczywiście odbicie w cenie. Dawne FX-y kosztowały 4-5 tyś zł. Obecne < 750zł.

Natomiast rzeczywiście same wyniki przytoczone wyżej mogą się kojarzyć trochę z tym co jest obecnie :)

chyba o tym napisałem, prawda? W przedziale do 1000zł tak sytuacja się kształtuje. Wtedy w przedziale do 1000zł też mniej więcej też tak to wyglądało. Athlon 64 3000+ potrafił w grach położyć najmocniejsze northwoody z HT. W profesjonalnym sofcie często P4 był górą, ale nie zawsze. Więc sytuacja identyczna z tym, że aktualnie AMD nie oferuje droższych procesorów.

w 2005 roku też tak źle nie było, bo za mniej niż 100$ można było dostać vinice 3000+ który kręcił się do 2,7Ghz - co prawda była to już era 2 rdzeniowców, nie mniej za taką kasę dostawało się procesor na prawdę dobry na tle konkurencji.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.01.26, 23:23
Amitoza @ 2013.01.26 22:59  Post: 632548
Grave @ 2013.01.26 22:24  Post: 632544
(...)


To tak tytułem uzupełnienia, że Pentium 4 nie zawsze dostawał w tyłek od Athlonów 64, potrafił się nieraz trzymać mocno, o czym się obecnie zapomina tylko kwituje tamte czasy stwierdzeniem 'AMD miażdżyło'.

Np. z premierowej recenzji topowego wówczas Athlona FX-53 na xbit. Zwłaszcza w kodowaniu video Pentium 4 radziły sobie bardzo dobrze na tle konkurencji.












Nie neguję przy tym sukcesu AMD z Athlonami 64 - bez wątpienia były to najlepsze CPU jak na swoje czasy jakie AMD kiedykolwiek wypuściło.

Ale gwoli sprawiedliwości podałem przykłady, gdzie wygrywał Pentium 4.






sytuacja podobna do dzisiejszej. Co prawda tam porównanie topu, a w aktualnym przypadku segmemtu do 1000zł. W grach wtedy AMD było górą, teraz intel, wtedy w profesjonalnych zastosowaniach był intel, a teraz (nie we wszystkich) amd. Z tych których tutaj podałeś conajmniej 3.


Podobnie, ale z drobną różnicą. Wówczas Pentium 4 EE oraz Athlon 64 FX to były topowe CPU obu producentów dla desktopów.

To z czym dzisiaj walczy Vishera i do czego AMD dopasowało cenę swoich CPU to nie jest top Intela. AMD umiejscowiło topowego FX-a 8350 jako rywala pozbawionego HT Core i5 pod LGA 1155, nawet nie Core i7.

I właśnie tu mamy tą jedną różnicę. Bo gdyby porównać top vs top to także w profesjonalnych aplikacjach dobrze się skalujących 6 rdzeni Sandy Bridge E raczej nie dałoby większych szans 4 modułowej Visherze.

Ta różnica znajduje oczywiście odbicie w cenie. Dawne FX-y kosztowały 4-5 tyś zł. Obecne < 750zł.

Natomiast rzeczywiście same wyniki przytoczone wyżej mogą się kojarzyć trochę z tym co jest obecnie :)
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2013.01.26, 22:59
Grave @ 2013.01.26 22:24  Post: 632544
marti_944 @ 2013.01.26 20:24  Post: 632499

Tak, my ludzie w podeszłym wieku poniżej mamy tendencję do koloryzowania przeszłości :D.


To tak tytułem uzupełnienia, że Pentium 4 nie zawsze dostawał w tyłek od Athlonów 64, potrafił się nieraz trzymać mocno, o czym się obecnie zapomina tylko kwituje tamte czasy stwierdzeniem 'AMD miażdżyło'.

Np. z premierowej recenzji topowego wówczas Athlona FX-53 na xbit. Zwłaszcza w kodowaniu video Pentium 4 radziły sobie bardzo dobrze na tle konkurencji.












Nie neguję przy tym sukcesu AMD z Athlonami 64 - bez wątpienia były to najlepsze CPU jak na swoje czasy jakie AMD kiedykolwiek wypuściło.

Ale gwoli sprawiedliwości podałem przykłady, gdzie wygrywał Pentium 4.






sytuacja podobna do dzisiejszej. Co prawda tam porównanie topu, a w aktualnym przypadku segmemtu do 1000zł. W grach wtedy AMD było górą, teraz intel, wtedy w profesjonalnych zastosowaniach był intel, a teraz (nie we wszystkich) amd. Z tych których tutaj podałeś conajmniej 3.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.01.26, 22:24
marti_944 @ 2013.01.26 20:24  Post: 632499

Tak, my ludzie w podeszłym wieku poniżej mamy tendencję do koloryzowania przeszłości :D.


To tak tytułem uzupełnienia, że Pentium 4 nie zawsze dostawał w tyłek od Athlonów 64, potrafił się nieraz trzymać mocno, o czym się obecnie zapomina tylko kwituje tamte czasy stwierdzeniem 'AMD miażdżyło'.

Np. z premierowej recenzji topowego wówczas Athlona FX-53 na xbit. Zwłaszcza w kodowaniu video Pentium 4 radziły sobie bardzo dobrze na tle konkurencji.












Nie neguję przy tym sukcesu AMD z Athlonami 64 - bez wątpienia były to najlepsze CPU jak na swoje czasy jakie AMD kiedykolwiek wypuściło.

Ale gwoli sprawiedliwości podałem przykłady, gdzie wygrywał Pentium 4.





HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.01.26, 22:17
Pewnie tak. Poczekamy zobaczymy. Dla SONY według nowej polityki liczą się teraz działy Mobile, Image, Game i Medical. Patrząc na ostatnie nowości: SONY RX-1, Xperię Z, moniotry OLED dla szpitali, raczej do PS4 się tez przyłożą.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2013.01.26, 22:16
Hashi @ 2013.01.26 22:10  Post: 632540
SNC @ 2013.01.26 22:06  Post: 632538
Pisanie pod te konsole to musiala byc niezla udreka :) Dobrze ze ps4 nie poszlo dalej ta droga.

NaughtyDog od 89 nie korzystało z x86 przy pisaniu gier i jakoś dają rade do dziś.

@AMITOZA
To akurat nie do ciebie. Do kolegi było który twierdził że PS3 nie ogarnia efektów DX11 i wyskoczył jak to ładnie nazwał 'GejometrySzejderem'. Więc ma potwierdzenie - Shader jest w CPU a nie w GPU (w Killzone).

ale... shaderów to jest kilka ;) A że siedzi w XDR to znaczy tyle, że Cell ma do niego dostęp, a nie że siedzi w cellu
SNC2013.01.26, 22:12
Hashi @ 2013.01.26 22:10  Post: 632540
SNC @ 2013.01.26 22:06  Post: 632538
Pisanie pod te konsole to musiala byc niezla udreka :) Dobrze ze ps4 nie poszlo dalej ta droga.

NaughtyDog od 89 nie korzystało z x86 przy pisaniu gier i jakoś dają rade do dziś.

@AMITOZA
To akurat nie do ciebie. Do kolegi było który twierdził że PS3 nie ogarnia efektów DX11 i wyskoczył jak to ładnie nazwał 'GejometrySzejderem'. Więc ma potwierdzenie - Shader jest w CPU a nie w GPU (w Killzone).

No to sie beda musieli szybko przestawic ;) Ok, niech Ci bedzie, na cellu mozna osiagnac to co daje geometry shader(przynajmniej juz nie bronisz RSX) ale i tak to tylko 200gflopsow mocy, smiech na sali w porownaniu z obecnym sprzetem. A tesselatory tez wystepuja w ps3? Tak odnosnie twojego dx11.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.01.26, 22:10
SNC @ 2013.01.26 22:06  Post: 632538
Pisanie pod te konsole to musiala byc niezla udreka :) Dobrze ze ps4 nie poszlo dalej ta droga.

NaughtyDog od 89 nie korzystało z x86 przy pisaniu gier i jakoś dają rade do dziś.

@AMITOZA
To akurat nie do ciebie. Do kolegi było który twierdził że PS3 nie ogarnia efektów DX11 i wyskoczył jak to ładnie nazwał 'GejometrySzejderem'. Więc ma potwierdzenie - Shader jest w CPU a nie w GPU (w Killzone).
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2013.01.26, 22:08
Hashi @ 2013.01.26 22:00  Post: 632537
Grave @ 2013.01.26 21:55  Post: 632534
Sony na prawdę ma genialny marketing. Że ludzie po 2-3 latach klepali o 'nieograniczonej mocy PS3' to jeszcze mnie nie dziwiło aż tak bardzo, bardziej śmieszyło, ale że po ponad 6 latach od premiery dalej jeszcze są osoby które wierzą w tę nieskończoną moc to jakaś paranoja :>

Po prostu Cell jak wino - im starszy tym lepszy, im więcej lat na karku tym mocy przybywa :P [/

Ktoś tu mówi o jakiejś mocy? Słyszysz głosy w głowie? Chciałeś błysnąć wiedzą wcześniej ale nie bardzo Ci się to udało.
@Amitoza
Tu masz KZ3. Użycie XDR (VRAM GPU DDR3 przechowywał tylko tekstury i mesh):
http://zapodaj.net/images/ad8cdfb95b43e.jpg
Cell SPU Jobs (masz tam shader w main RAM i tez tekstry):
http://zapodaj.net/images/9cc3e94f7c5ac.jpg
A Ty w ogóle wiesz co chcesz wykazać i to rozumiesz, czy walisz screenami, pdf'ami i 'jutubami' na chybił trafił?

Co tymi screenami chciałeś pokazać? Że to do czego cell potrzebuje mieć częściowy dostęp siedzi w XDR? Bo tylko tyle z tego wynika. I że zajmuje mało pamięci. Ale to chyba nic nowego skoro producent ma limity. I tak z płyty bezpośrednio to nie działa, bo dysk robi za bufor. Tekstury wyglądają dokładnie na tyle ile zajmują, więc nic dziwnego że mało zajmuje.
SNC2013.01.26, 22:06
Pisanie pod te konsole to musiala byc niezla udreka :) Dobrze ze ps4 nie poszlo dalej ta droga.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.01.26, 22:00
Grave @ 2013.01.26 21:55  Post: 632534
Sony na prawdę ma genialny marketing. Że ludzie po 2-3 latach klepali o 'nieograniczonej mocy PS3' to jeszcze mnie nie dziwiło aż tak bardzo, bardziej śmieszyło, ale że po ponad 6 latach od premiery dalej jeszcze są osoby które wierzą w tę nieskończoną moc to jakaś paranoja :>

Po prostu Cell jak wino - im starszy tym lepszy, im więcej lat na karku tym mocy przybywa :P [/

Ktoś tu mówi o jakiejś mocy? Słyszysz głosy w głowie? Chciałeś błysnąć wiedzą wcześniej ale nie bardzo Ci się to udało.
@Amitoza
Tu masz KZ3. Użycie XDR (VRAM GPU DDR3 przechowywał tylko tekstury i mesh):
http://zapodaj.net/images/ad8cdfb95b43e.jpg
Cell SPU Jobs (masz tam shader w main RAM i tez tekstry):
http://zapodaj.net/images/9cc3e94f7c5ac.jpg
EDIT
Zauważcie jedno GG ustawiło sobie limit XDR na 100MB i DDR3 na 150MB i tak optymalizowano by linia była płaska w końcu. Czyli Killzone 3 zmieścił się w 250MB i to jest masakra.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.