komentarze
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.03.04, 21:55
Hashi @ 2014.03.04 15:38  Post: 729519
Aby wiedzieć co masz rozmazać potrzebujesz informacji głównie z Depthbuffora. Proszę Cię przestań bo to nawet nie jest śmieszne co ty wypisujesz. Wiem ze znasz fajne terminy i nazwy ale ja podchodzę do tego bardziej ogólnie. Ty brandzlujesz się nad cyframi, ze udało Ci się daną linijkę kodu gdzie tam wcisnąć.

Błędne założenie, bo brak Ci wieszy. Depth buffor nie jest wykorzystany do informacji co rozmazać (takie rozwiązanie byłoby 10x wolniejsze, przy podobnym/gorszym efekcie... i wtedy nie widziałbyś 'efektu' warstw). To działa tak, że zawsze rozmazujesz wszystko (każde rozmycie to 2x osobne przebiegi i 2x osobne shadery (dla osi X i dla osi Y, bo robiąc to w jednym przebiegu karta musiałaby liczyć wielokrotnie więcej, a efekt taki sam)), a depthbuffer służy tylko temu, aby wybrać które rozmycie ma być pokazane w tym punkcie (lub jakie mają być ze sobą zmiksowane i z jaką interpolacją). Nie tyle znam fajne terminy co stronę techniczną co się za nimi kryje... ty podchodzisz do tego bardziej ogólnie... ciekawe określenie na 'nie znam się, ale wydaje mi się'

Hashi @ 2014.03.04 15:38  Post: 729519
Udowodniłem Ci wiele rzeczy które zaprzeczałeś ze są nieprawdą.

Tekst 'bo mi się tak wydaje' nic nie udowadnia, poza brakiem wiedzy na temat. To faktycznie potwierdzałeś wiele razy


Hashi @ 2014.03.04 15:38  Post: 729519
Jedną z nich jest silnik U2 który potrafi rozmazywać poszczególne 'obiekty' w scenie - zaprzeczałeś temu, ze to nie mozliwe jest do osiągnięcia. Dla mnie są to warstwy, dla ciebie tekstury.

Dalej nie rozumiesz. Nie rozmywa poszczególnych obiektów, a cały obraz, nie jest on pokazywany dla poszczególnych obiektów, a dla odpowiedniej odległości odkamery, nie mówiłem, że nie jest to możliwe do osiągnięcia, a jest to niemożliwe do osiągnięcia z rozsądną wydajnością... znając ciebie jednak i tak nie zrozumiesz tych słów i dalej będziesz gadać bzdury.

Hashi @ 2014.03.04 15:38  Post: 729519
Taktowanie XDR, dostęp SPU do RAM i deferred tez 'znałeś'.

Znałem bez cudzysłowia... problem w tym, że ty dalej nie masz pojęcia o czym mówisz, a wydaje ci się, że brak jakichkolwiek argumentów z twojej strony to twój atut.

Hashi @ 2014.03.04 15:38  Post: 729519
Kolego ja nie napisałem nigdzie ze DB ma warstwy.

Przypomnę Ci:
'Z resztą jak mozna twierdzić ze nie ma warstw w DB skoro informuje on o tym, który przedmiot przesłania który i umożliwia dojście jak są obiekty rozmieszczone w przestrzeni 3D!'

Hashi @ 2014.03.04 15:38  Post: 729519
Napisałem tylko ze do osiągnięcia focal blur z U2 potrzebne są warstwy (lub coś co ty sobie nazywasz teksturami)

Jeśli chodzi o ścisłość to, napisałeś poza tym, że depth buffer ma warstwy, to że napisałeś bzdury, że potrzebne są do DoF takiego warstwy (podczas gdy jest to tylko multiteksturing), to pisałeś, że jest to super hiper nowość (a jest to rozwiązane znane od ubiegłego wieku).

Hashi @ 2014.03.04 15:38  Post: 729519
PS przyjrzałeś się dokładnie drugiemu obrazkowi który wrzuciłem? Najciekawsze są dwa prostokąty po lewej i dwa na dole oraz to co po lewej na dole koło butli z gazem. Mnie zastanawia jak oni to zrobili bez artefaktów, pomimo rozmycia to nie wychodzi ono poza obiekt (kończy się dokładnie w miejscy gdzie kończy się obiekt).
http://zapodaj.net/79cf2f8088de9.jpg.html
Zwykły smart blur aby na około ostrych krawędzi nie było rozmytych obwolutek i artefaktów (w grach w różnych implementacjach od około 2002 roku (a przynajmniej w papierkach i książkach opisywane jest to od 1998r. jeszcze przy rasteryzerach CPU)). Ogólnie dziwi mnie ten twój zachwyt nad rzeczami, które zachwyt budziły, ale kilkanaście lat temu.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.04, 16:15
@genonef
Niechce mi się juz nawet komentować idiotyzmów blacharzy bo szkoda mi prądu.
Podczas burzy śnieżnej rozumiem, ze widzisz wszystko na odległość 60km? Akurat KZ3 ma fatalną przezroczystość bo ich silnik jeszcze tego nie obsługiwał (w końcu to deferred) ale już U2 ma genialną wodę - mix deferred i forward. Na mapie Lost City w multi wygląda ona ultra dobrze. Post-process ale naprawdę ładny. Po za tym KZ to głównie mechanika, praca kamery i AI. To się w tej grze liczy. Mnie osobiście podoba się jak kamera symuluje ruchy postaci, totalna odwrotność COD w którym postać porusza się jak na szynach.
genonefZobacz profil
Poziom ostrzeżenia: 0%
genonef2014.03.04, 16:05

Obvious troll is obvious...
A ja tu widzę grafikę rodem z Quake 3 o.O Wszystko maksymalnie rozmydlone i kanciaste..
Zrzut ekranu z Crysis 1 na konsole zresztą niewiele lepszy. Mnie od grania na konsoli (poza oczywistym dyskomfortem związanym z graniem w FPS na padzie) odrzucił KZ3 którego demko sobie pobrałem na PS3 (kupione dla dzieciaków pod gry typu Buzz czy wszystko z Move - do tego jedynie te konsole sie chyba nadają). Jak zobaczyłem nieprzeźroczystą niemalże prostokątną wodę w misji z dema to aż nie dowierzałem że to ten legendarny EX na PS3 nad którym wszyscy się tak rozwodzą o.O

Gry na PC mają to do siebie że nikt się tu nie bawi w super optymalizacje, równa się do najlepszej karty, tak aby ona była w stanie wygenerować płynny obraz przy podobnej jakości jak konsole obecnej generacji i tyle. Niebawem znowu next-geny na tyle będą odstawać od PC za 1000zł że graficznie PC ponownie wyjdzie na prowadzenie i nawet sztuczki optymalizacyjne w niczym nie pomogą. Tymczasem posiadacze konsol mogą się jeszcze cieszyć jakością PC w cenie konsoli :)

@skoti48 Podziwiam opanowanie :E
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.04, 15:38
Naprawdę dobry z ciebie aktor. Nie chce mi się komentować twoich bredni ale skomentuje tylko to..
Aż mi się niedobrze zrobiło gdy napisałeś, że rozmazuje się buffor głębokości (rzygać się chce od takich bredni - Depth buffora nikt nie rozmazuje, a teksturę koloru).

Aby wiedzieć co masz rozmazać potrzebujesz informacji głównie z Depthbuffora. Proszę Cię przestań bo to nawet nie jest śmieszne co ty wypisujesz. Wiem ze znasz fajne terminy i nazwy ale ja podchodzę do tego bardziej ogólnie. Ty brandzlujesz się nad cyframi, ze udało Ci się daną linijkę kodu gdzie tam wcisnąć.
Udowodniłem Ci wiele rzeczy które zaprzeczałeś ze są nieprawdą. Jedną z nich jest silnik U2 który potrafi rozmazywać poszczególne 'obiekty' w scenie - zaprzeczałeś temu, ze to nie mozliwe jest do osiągnięcia. Dla mnie są to warstwy, dla ciebie tekstury.

Tak wiem o co chodzi - i chodzi Ci o zupełnie nic nowego.

Taktowanie XDR, dostęp SPU do RAM i deferred tez 'znałeś'. Nie wiem moze ty pralki programujesz? Ja się przyznaje programowałem tylko żółwika w latach 90-ych i reguły Excela. Bez bicia ale przynajmniej nie wymyślam jak czegoś nie wiem.

Kolego ja nie napisałem nigdzie ze DB ma warstwy. Napisałem tylko ze do osiągnięcia focal blur z U2 potrzebne są warstwy (lub coś co ty sobie nazywasz teksturami). Naprawdę nie tłumacz mi czym jest DB bo to by nawet 4 latek zrozumiał.

PS przyjrzałeś się dokładnie drugiemu obrazkowi który wrzuciłem? Najciekawsze są dwa prostokąty po lewej i dwa na dole oraz to co po lewej na dole koło butli z gazem. Mnie zastanawia jak oni to zrobili bez artefaktów, pomimo rozmycia to nie wychodzi ono poza obiekt (kończy się dokładnie w miejscy gdzie kończy się obiekt).
http://zapodaj.net/79cf2f8088de9.jpg.html
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.03.04, 15:16
Hashi @ 2014.03.04 11:24  Post: 729425
Ale co ty możesz wiedzieć jak ty w tą grę nie grałeś i nie wiesz jak się zachowuje blur gdy używasz broni pot tytułem FAL i celujesz z muszki.

Nie trzeba grać w grę, aby wiedzieć jak się zachowuje. Wystarczy znać się na technologii, obejżeć filmik na YT i już wiesz wszystko (grając w grę nie wiesz nic, bo nie masz żadnej wiedzy).

Hashi @ 2014.03.04 11:24  Post: 729425
Powtórzę Ci to jeszcze raz, focal blur w U2 potrafi rozmazywać pojedyncze obiekty i jak już to robi to robi to warstwowo!

Nie robi nic warstwowo tylko robi to dokładnie tak:
- Rendering sceny do 2ch tekstur (jedna to tekstura koloru (dalej będę używał TK), druga to tekstura głębokości (TD)) .
- Rozmywana jest tekstura koloru kilka razy (tekstura rozmyta słabo (TK1), bardziej (TK2)... i najbardziej (TKn)).
- Renderujemy pełnoekranowy czworokąt z shaderem do którego podaje się tekstury TK, TD, TK1-n i uniformy focus, far, near i w zależności od tego jaka jest wartość głębokości na TD rozpatrywane jest kilka możliwości:
Focus = TD (zwracany jest kolor TR), focus nieznacznie większy/mniejszy od TD to robi się slerp (interpolację liniową jeśli nie znasz tego określenia - dzięki temu jest płynne przejście pomiędzy bardziej rozmytym, a mniej rozmytym) i punkt wynikowy przykładowo jest 30% TK i 70% TK1, jeśli bardziej się różni to slerp pomiędzy TK1 do TK2... a jeśli odległość jest większa niż far/near to zwracany jest kolor TKn.
Daje to wrażenie 'warst', a w praktyce jest to po prostu miksowanie wartości różnych rozmytych tekstur jednej wartsty (tylko różnie miksowane jest w różnych miejscach).
A teraz wnioski dla Ciebie:
- Depth buffor nie ma żadnych warstw, a jest po prostu zapisem głębokości (jak sama nazwa wskazuje) i nigdy go nie widzisz na ekranie (używa się go w wielu aspektach jak cienie (jeśli depth buffor renderowany ze źródła światła jest bliższy niż dany obiekt, znaczy, że coś jest bliżej i zaslania, więc jest ciemniej (tak działa shadowmapping)))

Hashi @ 2014.03.04 11:24  Post: 729425
Rozmazywana jest np część buffora głębokości o danym odcieniu szarości bez ingerencji w pozostałe!

Aż mi się niedobrze zrobiło gdy napisałeś, że rozmazuje się buffor głębokości (rzygać się chce od takich bredni - Depth buffora nikt nie rozmazuje, a teksturę koloru).

Hashi @ 2014.03.04 11:24  Post: 729425
Weź no mi podeślij jeszcze screen z DB, bo nie umiem korzystać z google grafika.. Weź mi wytłumacz co to macierze bo miałem to tylko 2 lata na studiach.

Zastanawiam się czy na pierwsze odpowiedzieć, czy to mial być sarkazm - niestety nie wiem, bo często tak bardzo brak podstawowej wiedzy w twoich wypowiedziach, że nie jestem pewien. Co do drugiego, to akurat na studiach inne aspekty macierzy są brane pod uwagę, a nie to, że macierze 3x3 mogą służyć do dowolnej rotacji w świecie 3d, a macierze 4x4 mogą służyć do dowolnej rotacji, przesunięcia i skalowania (czyli macierze transformacji). Macierz Widoku przekształca świat tak, że jest widziana okiem kamery (w grafice 3d kamera zawsze stoi w miejscu 0,0,0 i patrzy się w tym samym kierunku... to wszystkie punkty świata się obraca i przesuwa, aby wyglądały w kamerze tak jak chcemy, aby kamera je widziała), po przemnożeniu przez View dalej wszystko ma współrzędne stosunkowo normalne, a dopiero przemnorzenie przez macierz Projekcji (która ustawia Fov i sprawia, że wszystkie punkty w bryle widoku (od Znear do Zfar i w ramach Fov i proporcji rozdzielczości) znajdują się w współżędnych w każdej osi pomiędzy -1, a 1) sprawia to, że to co blisko kamery ma współrzędne (x, y, -1), a najbardziej odległe (x, y, 1) i właśnie wartość Z zawiera depth buffor (inaczej znany Zbufforem).


Hashi @ 2014.03.04 11:24  Post: 729425
Pokazałbym Ci o co chodzi ale nie mam na to czasu, nie chce mi się w to bawić. Opisałbym to tak ..gdy na drodze kamery (celownika), masz np dwie kolumny w różnych głębokościach i ustawisz focus na ta dalszą i jeśli masz jeszcze dalej np ścinę z wejściem A po środku i wejściem B po lewej/po skosie, to focal blur potrafi w tej grze rozmyć to co jest za wejściem B, pozostawiając to co jest lekko bliżej ostrym i dodatkowo rozmydlić to co jest blisko ciebie. Nie wiem jak Ci to wytłumaczyć ale to jest całkiem inna para kaloszy! W zadnej grze nie widziałem czegoś takiego.

Tak wiem o co chodzi - i chodzi Ci o zupełnie nic nowego.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.04, 14:09
@Pitol321
Właśnie nie o to chodzi. Widziałem rozmycie w wielu grach, CODy, Crysis itd i to jest trochę coś innego. Na obrazkach które pokazujesz nie ma przed tobą zabudowań i ścian, a to zmienia całkiem postać rzeczy. Pokażę Ci mnie więcej o co mi chodzi..
Z góry sorki za jakość zdjęcia - robione smartphone - potem może dorwę Canona jak baterie będę miał.
http://zapodaj.net/df7e7cda74a18.jpg.html
Na zdjęciu pozaznaczałem co zostało rozmyte (choć nie wszystko ale najwazniejsze rzeczy). Focus jest ustawiony na drugą kolumnę pod tym zadaszeniem. Obiekty/tło/przestrzeń zostają rozmyte z rożną intensywnością. Rozmyte zostają nawet powierzchnie będące za ścianą. Co ciekawe ta ściana na wprost zostaje rozmyta w połowie (ta z obrazami). Widać to nad głową postaci - tu obraz jest lekko rozmyty, ale juz część ściany po prawej - tam gdzie idą schody do góry jest ostra - wynika to chyba z faktu, ze prawa strona tej ściany jest trochę bliżej względem obserwatora niż jej lewa część.. Ja takiego czegoś nie widziałem w żadnej grze, w żadnym silniku. Zaznaczam zdjęcie jest kiepskiej jakości bo robione smartphonem, po za tym robione z reki w ciemnym pokoju dlatego ogólnie jest nie ostre i wygląda na zblurowane.

Wiesz ja lubie merytoryczną rozmowę ale jak ktoś sie ze mną kłóci na temat czegoś czego na oczy nie widział, sorry mam prawo się wku****ić.

EDIT
Tu jest fota lepszej jakości:
http://zapodaj.net/79cf2f8088de9.jpg.html
Tą grę programował ten gość i dla mnie jest on numer jeden w branży
http://www.linkedin.com/pub/pål-k...ngstad/1/22a/8a
Pitol321Zobacz profil
Poziom ostrzeżenia: 0%
Pitol3212014.03.04, 13:32
@ Hashi
Tobie chodzi o rozmywanie obiektów w różnych odległościach, np. koncentruję wzrok na czymś i powoduje to rozmycie dalszego planu jak i bliższego niż dany obiekt?

Mniej więcej o coś takiego:









Zwróć uwagę, postać 'koncentruje wzrok' na danym obiekcie, dalszy plan jest rozmyty , bliższy także - ostrze miecza.
Tarcza i trzon się nie rozmywają, bo korzystam z FOV 90, przy oryginalnym FOV 60 efekt rozmazuje cały bliższy plan w sposób aktywny reagując na ruch i zmieniającą się pozycję obiektów względem siebie.

O coś w tym stylu cały czas Ci chodzi?
Na screenach jest Skyrim z Aktywnym DoF ENB v0.246
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2014.03.04, 12:44
Hashi @ 2014.03.04 11:24  Post: 729425
Powtórzę Ci to jeszcze raz, focal blur w U2 potrafi rozmazywać pojedyncze obiekty i jak już to robi to robi to warstwowo! Rozmazywana jest np część buffora głębokości o danym odcieniu szarości bez ingerencji w pozostałe! K***a ty musisz mieć coś z głową!


Bełkot totalny, brak argumentów poza 'bo mi się tak wydaje' i na dokładkę obrażasz kogoś komu jakimś cudem starcza jeszcze cierpliwości żeby Ci merytorycznie na te powtarzane jak mantra piramidalne bzdety odpowiadać.

Ciekaw jestem ile jeszcze raportów musi pójść aby moderator w końcu wysłał Cię z Twoimi przemyśleniami na zasłużony urlop, bo tego nie idzie czytać.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.04, 11:24
Buahaha
Najpierw twierdzisz ze deferred to to samo co forward, potem wciskasz kity o 800MHz, potem mi wmawiasz ze w U2 nie ma warstw. One tam muszą być bo inaczej nie wykonalny jest taki focal blur jaki oni tam zastosowali. Ale co ty możesz wiedzieć jak ty w tą grę nie grałeś i nie wiesz jak się zachowuje blur gdy używasz broni pot tytułem FAL i celujesz z muszki. Po za tym błaznujesz prze potężnie bo specyfikacji silnika U2 nigdzie nie ma. Powtórzę Ci to jeszcze raz, focal blur w U2 potrafi rozmazywać pojedyncze obiekty i jak już to robi to robi to warstwowo! Rozmazywana jest np część buffora głębokości o danym odcieniu szarości bez ingerencji w pozostałe! K***a ty musisz mieć coś z głową!
Weź no mi podeślij jeszcze screen z DB, bo nie umiem korzystać z google grafika.. Weź mi wytłumacz co to macierze bo miałem to tylko 2 lata na studiach.
Pokazałbym Ci o co chodzi ale nie mam na to czasu, nie chce mi się w to bawić. Opisałbym to tak ..gdy na drodze kamery (celownika), masz np dwie kolumny w różnych głębokościach i ustawisz focus na ta dalszą i jeśli masz jeszcze dalej np ścinę z wejściem A po środku i wejściem B po lewej/po skosie, to focal blur potrafi w tej grze rozmyć to co jest za wejściem B, pozostawiając to co jest lekko bliżej ostrym i dodatkowo rozmydlić to co jest blisko ciebie. Nie wiem jak Ci to wytłumaczyć ale to jest całkiem inna para kaloszy! W zadnej grze nie widziałem czegoś takiego.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.03.04, 10:12
Hashi @ 2014.03.04 04:07  Post: 729367
Człowieku albo udajesz idiotę albo próbujesz ze mnie go zrobić.

Pierwszego nie robię, a w drugim wydaje mi się, że nie potrzebujesz pomocy.

Hashi @ 2014.03.04 04:07  Post: 729367
Co ty mi tu tłumaczysz czym jest depth buffer i mi wmawiasz ze widzę DoF zamiast warstw?

Ech zacznijmy od podstaw. Pokażę Ci przykładowy Depth Buffer:
http://pages.cs.wisc.edu/~riverson/cs766/b...uffer_small.gif
Jak widzisz nie ma tu warst żadnych, a masz po prostu zapisane wartości współżędnych Z w przestrzeni ekranu (punkty przemnożone, przez macierze ProjView). Dane są bardzo płynne i nie masz tam żadnego rozwarstwienia. DoF korzysta jednak z danych Depth buffora i przykładowo program wysyła do shadera, że w obecnej klatce focus (ostrość) jest ustalona na (jaka jest długość ogniskowej kamery czyli focal lenght) i w oparciu o mapę głębokości można szybko wiedzieć, czy dany punkt ma być rozmyty (jest poza focusem) czy też ma zostać ostry i po DoF masz wrażenie warstw (bliski i daleki plan rozmyty).

Hashi @ 2014.03.04 04:07  Post: 729367
Nawet żeś kolego nie zajarzył ze używając określenia shading pisałem o cieniowani/odcieniu.

Ja dokładnie wiem co to jest cieniowanie i przecież o tym pisałem. Problem w tym, że ty nie masz wiedzy na ten temat i nie wiesz co widzisz, a wyobrażasz sobie to w oparciu o domysły nie poparte niczym.

Hashi @ 2014.03.04 04:07  Post: 729367
Wiadomo to kwestia rozmyć ale są one w dość nietypowy sposób generowane właśnie przez CPU (SPU).

Jak na PS3 to są one generowane w bardzo typowy sposób, bo efekty postprocess na PS3 wręcz muszą być robione na SPU, bo GPU jest kiepskie.

Hashi @ 2014.03.04 04:07  Post: 729367
Z resztą jak mozna twierdzić ze nie ma warstw w DB skoro informuje on o tym, który przedmiot przesłania który i umożliwia dojście jak są obiekty rozmieszczone w przestrzeni 3D

Depth buffer informuje o tym jak daleko coś jest od kamery bardzo płynnie (mając inwersje ProjView z depth buffer możesz odzyskać dane gdzie co jest w przestrzeni świata). Ofc informując co jak daleko jest też mówi, że coś jest bliżej niż coś innego, ale nie ma tu mowy o żadnych warstwach (tak samo jak w wypadku świata rzeczywistego nie widzisz warst, mimo, że masz depth kamery jak Kinekt które pokazują jak dany punkt daleko jest od kamery).


Hashi @ 2014.03.04 04:07  Post: 729367
Widać jesteś kolejnym onanistą PCtowym, dla którego ważne są liczby.

Jestem programistą i jak najbardziej obiektywne liczby są ważniejsze niż subiektywne wrażenia.

Hashi @ 2014.03.04 04:07  Post: 729367
Jeśli nie widać różnicy gołym okiem to znaczy, ze wykonano to prawidłowo i różnic nie ma. Skoro nie potrafisz napisać w czym jest lepsze oświetlenie w Crysis PC od konsolowego to znaczy ze wymyśliłeś sobie tą bajeczkę na potrzeby swojego przedstawienia.

Jeśli nie widać różnicy to jest super. Zazwyczaj jednak widać różnicę dokładnie, ale inna sprawa, że subiektywne wrażenia z zabawy kolorami i tone mappingiem przykryją to i większość nie widzi pogorszenia grafiki, a tylko inną grafikę (i niektórym nawet bardziej do gustu przypadnie). W Crysis konsolowym (mowie o PS3, bo wersja Xbox360 ogólnie jest jeszcze gorsza), cieniowanie wygląda na plastikowego Phonga, a ze specmapek usunięto 2 kanały, brak jest subsurface scatteringu przez co wygląda to gorzej. Poza cieniowaniem, wolumetryczne efekty są znacznie uboższe (są, ale widać, mniej sampli przy radial blur przy udającym wolumetrykę tricku w przestrzeni ekranu...), jest tylko statycznie bakeowane AO (SSAO niestety nie widać). Ofc inna tonacja kolorów i inny kontrast zmienia zupełnie wrażenia i te techniczne braki nie przeszkadzają tak bardzo... jednak one są i te wersje w praktyce to zupełnie różne gry i nie da się na ich podstawie porównać sprzętu jeśli nie znasz się na technikaliach (nie można powiedzieć, że PC jest słabe bo PS3 dało radę bo to zupelnie inna gra i na PC na low-endach tak by chodziło).
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.04, 04:07
Człowieku albo udajesz idiotę albo próbujesz ze mnie go zrobić. Gwarantuje Ci do drugie Ci się nie uda, pierwsze bardzo możliwe. Co ty mi tu tłumaczysz czym jest depth buffer i mi wmawiasz ze widzę DoF zamiast warstw? Warstwy to miałeś kolego najpierw w bajkach Disneya, potem miałeś filmy Lucasa (i ludzi którzy jako pierwsi użyli RGBA). Stąd się wzięły podstawy 3D kolego. Nie dojdziemy do porozumienia bo ty mi tu próbujesz książkę czytać. Nawet żeś kolego nie zajarzył ze używając określenia shading pisałem o cieniowani/odcieniu. O tak ja widzę tonemapping nie shading. Widać masz problemy z angielskim. Ba ja widzę nawet w 3D i to bez aliasingu bo nie dostrzegam atomów. Ja tu widzę warstwy i tyle:
http://i1.ytimg.com/vi/0zbLNWIA7rg/maxresdefault.jpg
http://www.electricblueskies.com/wp/wp-con...in-Wreck-01.jpg
http://www.electricblueskies.com/wp/wp-con...in-Wreck-03.jpg
(to właśnie te mapy polecam Ci ograć na dobrym pdp). Warstwy kolego są, tyle ze U2 to chyba jedyna gra, której one występują w tak nietypowy sposób. Bez nich nie byłby możliwy właśnie ten specyficzny focal blur, który w połączeniu w opcją 3D (U3) byłby niewykonalny. Poszukaj sobie tego gamplaye'a w RAW, ściągnij na dysk i odpal na PDP i przypatrz się dokładnie od momentu 3:09 do 3:16. Nie uwierzysz ze da się osiągnąć 3D na ekranie który nie posiada tej opcji.
http://www.youtube.com/watch?v=PnU5rTJc3m0...etailpage#t=188
Wiadomo to kwestia rozmyć ale są one w dość nietypowy sposób generowane właśnie przez CPU (SPU). Z resztą jak mozna twierdzić ze nie ma warstw w DB skoro informuje on o tym, który przedmiot przesłania który i umożliwia dojście jak są obiekty rozmieszczone w przestrzeni 3D!

Widać jesteś kolejnym onanistą PCtowym, dla którego ważne są liczby. Coś Ci powiem, gra ma wyglądać. Jeśli nie widać różnicy gołym okiem to znaczy, ze wykonano to prawidłowo i różnic nie ma. Skoro nie potrafisz napisać w czym jest lepsze oświetlenie w Crysis PC od konsolowego to znaczy ze wymyśliłeś sobie tą bajeczkę na potrzeby swojego przedstawienia.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.03.03, 22:00
Hashi @ 2014.03.03 20:14  Post: 729272
- Cyferki, ach tak, w końcu wszystko w grze to tak naprawdę cyferki.

Depth Buffer to nic innego jak zapisana w teksturze pozycja punktu w osi Z po rasteryzacji punktu przemnożonego przez projview.

Hashi @ 2014.03.03 20:14  Post: 729272
Szkoda ze nie grasz w gry wtedy poszerzyłyby się twoje horyzonty. Ja depth buffer widzę w grach. Może inaczej widzę warstwy głębokości.

Szkoda, że nie masz wiedzy, bo poszerzyłbyś swoje horyzonty i wiedział co widzisz na ekranie, a nie domyślał się (błędnie).

PS. nie ma czegoś takiego w grach 3d jak 'warstwy głębokości' - to o czym mówisz to zapewne DoF i kilka planów rozmycie (plan przed focusem, focus i plan za focusem kamery).

Hashi @ 2014.03.03 20:14  Post: 729272
Ja nadal obstawiam przy swoim, shading lepiej wygląda na PDP, a najlepiej na CRT.

Nie shading, a tonemaping (a on potrafi zmienić wrażenie nawet bardzo kiepskiej grafiki na przyzwoitą (mimo, że dalej jest tak samo biednie))

Hashi @ 2014.03.03 20:14  Post: 729272
- Co do TR DE to wszystkie branżowe portale mówią o tej samej jakości, ba nawet o lepszej. Wykresy na PCLab nie kłamią. Titan ma 60fps@1080p tyle co PS4.

https://www.youtube.com/watch?v=KxEwUBPh-bA
Już na samym początku masz różnicę w jakości obliczeń TressFX, w 33s masz brak Motion blur (rozmycie ruchu), przez cały film przewijają się większe ilości systemów cząsteczkowych, 2ga minuta to pokaz soft particle vs hard particle, 5 minuty i ilości czasteczek nie da się nawet porównać, a wygląda jakby HDAO (czy ogólnie jakiegokolwiek dynamicznego AO (jak SSAO)) było - tylko statyczny bakeowany. Ogólnie dobrą robotę wykonali twórcy, wywalając to co by zabiło wydajność i dobrze zamaskowali to korekcją koloru, zmianą modeli czy tone mapingiem, przez co laik nie zauważy różnicy (i o to chodzi!), jednak również tylko laik może powiedzieć, że te sprzęty są porównywalne, bo te dwie zupełnie różne wersje gry mają podobną wydajność.

Hashi @ 2014.03.03 20:14  Post: 729272
Gorsze oświetlenie? Czyli? Takie które zabija GPU czy takie które ładnie wygląda? Nie należę do benchmarkowych onanistów..

Takie które zabija GPU i wygląda trochę lepiej, ale wiele osób i tak nie zobaczy różnicy, a w zarzynaniu GPU już wszyscy. To nie ma nic wspólnego z 'benchmarkowymi onanistami' (nawet nie mogę sobię wyobrazić jaki widzisz związek - Ci raczej onanizują się kiedy jest wyższa wydajność na słabszym sprzęcie). Oświetlenie i efekty są widocznie gorsze jakościowo, ale da się z tym żyć... jednak porównywanie tego z wersją PC i sprzętem tam jest śmieszne (podobnie jak mówienie, że karty LoEndowe są lepsze, bo na najniższych ustawieniach też mają 60 klatek, co najwydajniejsze na ustawieniach najwyższych, a kosztują znacznie mniej, więc karty są tak samo wydajne, a tylko przepłacasz za droższe (coś w tym jest, bo i na słabej karcie pograsz i jakość większości przeszkadzać nie będzie, jednak porównanie sprzętu ciężko uznać za trafione)).
Wiesz dla ciebie wiele rzeczy się nie da. O czym już się przekonałem.

Hashi @ 2014.03.03 20:14  Post: 729272
...Kiedyś z podobną osobą do ciebie (o b. dużej wiedzy) kłóciłem się czy Aliasing to ograniczenie Ekranu czy Rasteryzacji? Ja obstawiałem ekran bo dla CPU aliasing nie istnieje.. przecież linia prosta dla CPU to zbiór punktów. Nie doszliśmy do porozumienia.

Byłeś w błędzie - dla CPU/GPU linia prosta to wektor więc nie ma problemu z aliasingiem do momentu rasteryzacji gdzie rasteryzuje się wektory do mapy o określonej rozdzielczości (i zamienia się wektory na punkty o ograniczonej rozdzielczości czyli występuje już aliasing). Dam prosty przykład do przeanalizowania - uruchom grę z rozdzielczością ekranu i bez AA, a teraz uruchom grę z rozdzielczością dużo niższą (też na fullscreen) i zobacz jak teraz widoczny jest aliasing (wielokrotnie bardziej) - nie zmieniłeś ekranu, a wpłynąłeś tylko na rasteryzację (co zmienilo aliasing). Z tego też powodu jednym ze sposobów radzenia sobie z aliasingiem jest Supersampling (SSAA czyli rasteryzacja do 4x większej rozdzielczości i przeskalowanie w dół).
Mógłbyś mieć częściowo rację, gdybyś mówił o hipotetycznej sytuacji, gdyby ekran był wyświetlaczem wektorowym i GPU teoretycznie nie musiałoby robić rasteryzacji (a co za tym idzie nie byłoby aliasingu).
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.03, 20:14
- Ja czekam na papierki i się doczekać nie mogę. Ogólnie duzo wiesz ale wiele rzeczy wymyślasz.

- Cyferki, ach tak, w końcu wszystko w grze to tak naprawdę cyferki. Szkoda ze nie grasz w gry wtedy poszerzyłyby się twoje horyzonty. Ja depth buffer widzę w grach. Może inaczej widzę warstwy głębokości. Ja nadal obstawiam przy swoim, shading lepiej wygląda na PDP, a najlepiej na CRT.

- Ustaw pdp od południowej strony tak, by słonce było z tyłu. U mnie biały jest biały, a czarny jest super-czarny.

- Co do TR DE to wszystkie branżowe portale mówią o tej samej jakości, ba nawet o lepszej. Wykresy na PCLab nie kłamią. Titan ma 60fps@1080p tyle co PS4.

- Z Crysis1 wycięto efekty? Jakie? Podaj przykład. Dziś tą grę skończyłem, sprawdzimy twoją prawdomówność. Gorsze oświetlenie? Czyli? Takie które zabija GPU czy takie które ładnie wygląda? Nie należę do benchmarkowych onanistów..
'Dodano nowe efekty i oświetlenie'. Tez dla mnie to dziwne określenie.. bo padło z ust CEO Cryteka Cevat Yerli, tez kebabom nie wierze za bardzo, bo napisali raptem jedną grę tak naprawdę.

- Wiesz dla ciebie wiele rzeczy się nie da. O czym już się przekonałem.

- PS. To jak, to XDR w końcu ma 400MHz czy 800MHz, a SPU mają bezpośredni szybszy (od PPU) dostęp do RAM przez własne DMA? Czy mogą wysyłać wynik obliczeń do innych SPU? Czy kolejka zadań moze się powiększać i zmniejszać na magistrali pierścieniowej?

...Kiedyś z podobną osobą do ciebie (o b. dużej wiedzy) kłóciłem się czy Aliasing to ograniczenie Ekranu czy Rasteryzacji? Ja obstawiałem ekran bo dla CPU aliasing nie istnieje.. przecież linia prosta dla CPU to zbiór punktów. Nie doszliśmy do porozumienia.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.03.03, 19:44
Hashi @ 2014.03.03 05:28  Post: 729067
@skoti48
Ogólnie wyłączyłem się z dyskusji ale nadal liczę do papierki od ciebie. Pozdrawiam miłego dnia życzę.

Niestety nie miałem jeszcze czasu zaglądnąć. Jednak przypominam, że czekam na przeprosiny za twoje oszczercze słowa lub cytatu na potwierdzenie ich.

Hashi @ 2014.03.03 05:28  Post: 729067
PS Co myślisz o tym? Tam naprawdę nie pracują głupi ludzie. To nie tylko sprzęt ale nowe technologie. Jeśli się wczytasz znajdziesz coś o czym mówiłem.
http://reedbeta.com/talks/
Musiałbyś zrozumieć jak wyświetlany jest depth buffer na pdp, a jak na lcd. Całkowicie odwrotnie. Im jaśniejsza warstwa tym kontrast dynamiczny będzie wiekszy na pdp.

Fajny prerenderowany AO (ja jeśli już prerenderowany wolę jednak zrobić bake do tekstury z lepszą jakością (raytracing, a nie aproximate) i nie samo AO, a z GI) + słabe SSAO (aby nie obciążać nak GPU jak na PC). Zacznijmy od tego, że depth buffer nie jest nigdy wyświetlany, a jest to wypełniona liczbami tekstura (liczby to oś z danego punktu po przemnożeniu przez macierze ProjView i zależnie od API będzie to inna mapa (w Dx liczby mają od 0 do 1, a w OpenGL od -1 do 1)). Depth buffer to tylko sposób zapisu danych w teksturze do późniejszych obliczeń (to jak te dane są zapisane zależy wyłącznie od programisty i karty graficznej (jakie tekstury obsługuje karta)) i nie ma nic wspólnego z ekranem.

Hashi @ 2014.03.03 05:28  Post: 729067
Na lcd działa to podobnie, z tą róznicą, ze najciemniejsza warstwa w pdp nie emituje w ogóle światła (piksel gaśnie), na lcd on zawsze świeci nawet jak jest ciemny, dlatego głebia wygląda trochę inaczej i inaczej wygląda shading niektórych powierzchni, zwłaszcza metalowych. Ja wole grę nawet w 540p ale niech ona będzie naprawdę wyglądać jak 3D, a nie 4K płaskie jak ściana.

Ja jestem fanem plazmowych ekranów i częściowo mówisz sensowne rzeczy (to, że czerń na plazmie to czerń, a nie szarość jak na LCD)... jednak ofc nie zapominaj o tym, że to tak wygląda w idealnych warunkach (noc/zaciemniony pokój), bo przy dziennym oświetleniu na obu czerń jest tak samo szara, a na plaźmie kolory masz przy zewnętrznym oświetleniu blade, i biały to dosyć ciemny szary (mnie to nie przeszkadza, bo od czegoś są rolety, ale nie można tak jednostronnie gadać). Shading jest ofc robiony na obu ekranach dokładnie identycznie (to obliczenia fizyki (optyki) i użyty ekran przez ciebie nie zmieniają wzorów). To co się robi inaczej czasami to po prostu inne ustawienia tone mappingu i/lub inna korekcja koloru (oba to efekty postprocess z cieniowaniem nie mających nic wspólnego).


Hashi @ 2014.03.03 09:37  Post: 729075
Śmieszny jesteś i tyle. TR to po prostu gra i tyle. Masz na wykresie czarno na białym, gra hula tak samo na APU za 100USD jak na Nv Titan. Jakby wykres pokazywał co innego pisałbyś, ze gra jest zrobiona pod PC. Weź skończ i nie pogrążaj tylko 'społeczności PC' jeszcze bardziej. Tego nawet kabaretem nie da się nazwać.

Nie widzę tam APU, a chyba nie jesteś tak naiwny, aby porównywać wersję PC z krewnym na konsole PS4 (bez MB, bez wielu efektów cząsteczkowych, bez wielu efektów postprocess, z mocno obciętymi obliczeniami fizycznymi robionymi na GPU... PS4 za to ma bardziej kontrastowy tone mapping i nowe modele, aby nie widać było jak ubogo jest w kwestiach graficznych względem PC).

Hashi @ 2014.03.03 11:09  Post: 729094

To ze ma dwa razy więcej o niczym nie świadczy, nadal będzie się komunikował z CPU z prędkością max 8GB/s. W PS4 dodatkowa magistrala, podkreślam dodatkowa magistrala pomijająca cache ma 20GB/s. Pisał o tym Cerny do czego ona służy.

Mam nadzieje, że wiesz, że takie gry jak Tomb Raider niewiele nie przerzucają z CPU na GPU w czasie działąnia i transfer pomiędzy nimi spokojnie zaspokaja z nadwyżką PCI-E 2.0? Inna kwestia to gry jak Rage, które korzystają z megatexturingu to te mogą z dodatkowej magistrali skorzystać, ale takie gry to liczyć na palcach u jednej ręki, a w wypadku takich jak Tomb Raider liczy się odczyt przepustowość pamięci GPU, a W PS4 przepustowość pamięci dostępnej dla karty (176 GB/s) jest blisko 2x mniejsza niż w 780 Ti (336.4). Ofc Titan to droga karta, ale ona jest nie do końca przeznaczona dla graczy - ze względu na to, że była pierwszą kartą GF wspierającą dynamiczną wielowątkowość w obliczeniach i ma 6GB ram była to karta która była i jest bardziej popularna w kręgach grafików wykorzystujących ją do obliczeń niż wśród graczy.
Jeśli szukasz przyczyny, tego że TR osiąga podobną ilość klatek to jest to dosyć proste i jasne - obniżona jakość grafiki i API o dużo niższym narzucie niż DX... Jednak to drugie to nie tyle wina Nvidii, a bardziej Microsoftu i twórców gry, że wybrali to API, bo wybierając OpenGL uzyskaliby lepsze rezultaty niż w konsolach (bo w prawie wszystkich grach rozmowa pomiędzy CPU i GPU to w większości bindowanie buforów dostępnych w pamięci karty, które na GCN jest konieczne, a na keplerze i OpenGL można to pominąć, bo karta bez pomocy CPU sama to zrobi).

Hashi @ 2014.03.03 09:37  Post: 729075
Co do Crysis1 fakt śmiga w mniejszej rozdziałce i stałych 30fps na konsoli ale dodano nowe oświetlenie i efekty

Dziwne określenie ( 'dodano nowe oświetlenie i efekty' ) na wycięto większość efektów obciążających GPU i zastąpiono gorszym oświetleniem, brakiem efektów lub ich mało wymagającymi substytutami.

Hashi @ 2014.03.03 09:37  Post: 729075
Z tego co pamietam Crytek się zarzekał ze Crysis1 nie da się odpalić na konsolach. Jednak rynek konsol to zbyt łakomy kąsek i kasa, wiec jednak się dało.

Nie dało się uruchomić Crysis 1, a bardzo obciętą wersję, która z tą z PC ma niewiele wspólnego.

Hashi @ 2014.03.03 19:24  Post: 729255
Co do tej magistrali to chyba chodzi o jednoczesne renderowanie i compute na GPU. Magistrala ta jest chyba dla pobierania danych dla compute.

Po pierwsze jednocześnie się nie da, a po drugie, po jakiego grzyba chcesz pobierać te dane (podpowiem obliczenia i rendering współdzielą buffory i CPU nie musi i nawet nie powinno wyników widzieć).
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.03, 19:24
Promilus1984 @ 2014.03.03 19:03  Post: 729244
@Hashi
Sorry dalej nie czytałem. Skąd wiesz ze nie zwiększają wydajności skoro deweloperzy mają z nich korzystać dopiero za 2-3 lata według Cernego

Moc to jest silnik - możesz go trzymać na luzie, możesz go żyłować na maksa, ale więcej niż fabryka nie da. Wszystkie kolejki, pamięci itp. to odpowiednio sprzęgło, skrzynia biegów, wał, mechanizm różnicowy, koła i opony. Z nimi możesz różne rzeczy kombinować by uzyskać w danym zastosowaniu najlepsze osiągi (przyspieszenie, prędkość maksymalna, uciąg itp.) ale jako tako MOCY więcej z tego mieć nie będziesz. Zrozum, że siła PS4 nie leży w mocy obliczeniowej - na tym polu play leżał już w momencie premiery. Jego siła leży w elastyczności, nowych możliwościach. Można pisać inaczej niż do tej pory, eksperymentować z rzeczami, które mocno na PC by zabolały. Ale już nie przez brak mocy obliczeniowej, a np. ociężałe API, kosztowne transfery... Gry pisane prosto na multiplatform będą na PS4 wyglądały gorzej albo działały wolniej, albo będą musiały być w mniejszej rozdzielczości renderowane. To już wiemy po paru takich produkcjach. Gry szlifowane pod nową architekturę mają szanse wyglądać ładniej albo działać szybciej. Ale nie oznacza to, że sprzęt jest szybszy, bo nie jest. Największy problem PS4 to fakt, że cały czas stoi w miejscu i się nie polepszy, a za rok w średniej półce będzie wydajność titana. I wtedy już tylko exclusivy PS4 będą mogły dorównać temu co będzie na top PC latało.
Tak dla ścisłości i wyjaśnienia, on mówił raczej o cache GPU a nie CPU. Mogę się mylić.

Nie bardzo rozumiem jak ta 'magiczna magistrala' miałaby działać. Nie ma bezpośredniego dostępu do sysmem, jest jedynie przez IMC, po co podpinać tam dodatkową magistralę. To bez sensu - większej przepustowości nie uzyskasz, co najwyżej część 'strumienia' możesz przekierować obok jeziorek (cache) ale cały pic polega na tym, że CU ma w cache (jeziorku) dużo rzeczy z których może natychmiast skorzystać, a tym bajpasem to takie krótkie siczki tylko na które musi czekać aż dolecą.
@lukas108
Przykro mi, nie zrozumiałeś o czym ja piszę. Porównywanie PS4 do PC z R290 jest bez sensu w kontekście tamtej wypowiedzi. Mnie chodziło o porównanie platform o tym samym wskaźniku FLOPS

Przy tej samej wydajności FLOPS będzie na większości multiplatformówek podobny poziom wydajności, chyba że ktoś podpicuje silnik specjalnie pod ficzery PS4 to może być trochę szybciej - zależnie ile czasu poświęci i ile będzie można podpicować (bo wcale nie jest regułą że się będzie dało - jeśli gra będzie od podstaw pisana pod DX/wintel to by trzeba strasznie dużo poprawiać). Zauważ jednak, że wydajność PS4 (absolute) to poziom niższej średniej półki dzisiaj - szczególnie jeśli chodzi o CPU. Wiadomo - wielowątkowy rendering przy niskopoziomowym zoptymalizowanym API będzie dawał efekt podobny do tego co pokazało Mantle (tylko bardziej dopracowane) więc duży boost na słabych procach. Ale wydajne CU mogą nie nadrobić niektórych rzeczy jakie z przyjemnością połknie wielordzeniowy, 4GHz i5 - szczególnie tam gdzie algorytm często się rozwidla i wymaga dużej wydajności pojedynczego rdzenia. CU są świetne do SIMD i MIMD, ale w szybkim przetwarzaniu zależnych od siebie skalarów już odpadają. Gry z takimi algorytmami nie będą dobrze działać na PS4. Nigdy.


Ale ja jestem tego świadom o czym mówisz i to mam cały czas na myśli. Po za tym nigdzie nie napisałem, ze Nv Titan jest słabszy. Porównałem tylko wydajność/cena układu i tu nie ma dyskusji. Co do wydajności na papierze, a realnej - we flopsach - to jest to coś całkiem innego na PC, a co innego na konsoli. Na PC porostu nie ma takiego dostępu do sprzętu jak na na konsolach. Popatrz na PS3, tutaj system bierze raptem 45MB RAM, zostawiając deweloperom 211MB XDR.
At a lower level developers can use LibGCM, which is an API that talks to the RSX at a lower level. PSGL is actually implemented on top of LibGCM. For the advanced programmer, you can program the RSX by sending commands to it directly using C or assembly. This can be done by setting up commands (via FIFO Context) and DMA Objects and issuing them to the RSX via DMA calls.

Co do tej magistrali to chyba chodzi o jednoczesne renderowanie i compute na GPU. Magistrala ta jest chyba dla pobierania danych dla compute.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842014.03.03, 19:03
@Hashi
Sorry dalej nie czytałem. Skąd wiesz ze nie zwiększają wydajności skoro deweloperzy mają z nich korzystać dopiero za 2-3 lata według Cernego

Moc to jest silnik - możesz go trzymać na luzie, możesz go żyłować na maksa, ale więcej niż fabryka nie da. Wszystkie kolejki, pamięci itp. to odpowiednio sprzęgło, skrzynia biegów, wał, mechanizm różnicowy, koła i opony. Z nimi możesz różne rzeczy kombinować by uzyskać w danym zastosowaniu najlepsze osiągi (przyspieszenie, prędkość maksymalna, uciąg itp.) ale jako tako MOCY więcej z tego mieć nie będziesz. Zrozum, że siła PS4 nie leży w mocy obliczeniowej - na tym polu play leżał już w momencie premiery. Jego siła leży w elastyczności, nowych możliwościach. Można pisać inaczej niż do tej pory, eksperymentować z rzeczami, które mocno na PC by zabolały. Ale już nie przez brak mocy obliczeniowej, a np. ociężałe API, kosztowne transfery... Gry pisane prosto na multiplatform będą na PS4 wyglądały gorzej albo działały wolniej, albo będą musiały być w mniejszej rozdzielczości renderowane. To już wiemy po paru takich produkcjach. Gry szlifowane pod nową architekturę mają szanse wyglądać ładniej albo działać szybciej. Ale nie oznacza to, że sprzęt jest szybszy, bo nie jest. Największy problem PS4 to fakt, że cały czas stoi w miejscu i się nie polepszy, a za rok w średniej półce będzie wydajność titana. I wtedy już tylko exclusivy PS4 będą mogły dorównać temu co będzie na top PC latało.
Tak dla ścisłości i wyjaśnienia, on mówił raczej o cache GPU a nie CPU. Mogę się mylić.

Nie bardzo rozumiem jak ta 'magiczna magistrala' miałaby działać. Nie ma bezpośredniego dostępu do sysmem, jest jedynie przez IMC, po co podpinać tam dodatkową magistralę. To bez sensu - większej przepustowości nie uzyskasz, co najwyżej część 'strumienia' możesz przekierować obok jeziorek (cache) ale cały pic polega na tym, że CU ma w cache (jeziorku) dużo rzeczy z których może natychmiast skorzystać, a tym bajpasem to takie krótkie siczki tylko na które musi czekać aż dolecą.
@lukas108
Przykro mi, nie zrozumiałeś o czym ja piszę. Porównywanie PS4 do PC z R290 jest bez sensu w kontekście tamtej wypowiedzi. Mnie chodziło o porównanie platform o tym samym wskaźniku FLOPS

Przy tej samej wydajności FLOPS będzie na większości multiplatformówek podobny poziom wydajności, chyba że ktoś podpicuje silnik specjalnie pod ficzery PS4 to może być trochę szybciej - zależnie ile czasu poświęci i ile będzie można podpicować (bo wcale nie jest regułą że się będzie dało - jeśli gra będzie od podstaw pisana pod DX/wintel to by trzeba strasznie dużo poprawiać). Zauważ jednak, że wydajność PS4 (absolute) to poziom niższej średniej półki dzisiaj - szczególnie jeśli chodzi o CPU. Wiadomo - wielowątkowy rendering przy niskopoziomowym zoptymalizowanym API będzie dawał efekt podobny do tego co pokazało Mantle (tylko bardziej dopracowane) więc duży boost na słabych procach. Ale wydajne CU mogą nie nadrobić niektórych rzeczy jakie z przyjemnością połknie wielordzeniowy, 4GHz i5 - szczególnie tam gdzie algorytm często się rozwidla i wymaga dużej wydajności pojedynczego rdzenia. CU są świetne do SIMD i MIMD, ale w szybkim przetwarzaniu zależnych od siebie skalarów już odpadają. Gry z takimi algorytmami nie będą dobrze działać na PS4. Nigdy.

mbe2014.03.03, 18:53
SunTzu @ 2014.03.03 18:37  Post: 729238
@up
Tak, ale fizykę możesz liczyć na iGPU i nie ubywa Ci mocy na dGPU.

Będzie to możliwe co jedynie na APU AMD dzięki HSA. Na iGP intela zapomnij.
*Konto usunięte*2014.03.03, 18:37
@up
Tak, ale fizykę możesz liczyć na iGPU i nie ubywa Ci mocy na dGPU.
mbe2014.03.03, 18:33
SunTzu @ 2014.03.03 14:55  Post: 729164
mbe @ 2014.03.03 14:43  Post: 729160
(...)

Przypadkiem PS4 nie ma GPU pokroju HD7850/70??

teoretycznie tak, ale jak wykorzystasz do GPGPU to ubywa Ci zasobów na grafikę, a w PC masz jeszcze iGPU, w dodatku dzięki HSA GPU jest bardziej autonomiczne, a np. u Intela mają współdzielony cache.

Tak czy siak szczegół i czepianie się, bo Promilus dobrze prawił...

Tak ale bez obciążenia software-owego powinien mieć nawet większą moc. Zresztą GPU w PC też może liczyć fizyke więc to żaden argument...
*Konto usunięte*2014.03.03, 18:18
lukas108 @ 2014.03.03 18:10  Post: 729228
Promilus1984 @ 2014.03.03 15:42  Post: 729179
(...)

Rzecz w tym, że nawet jako platforma nie jest. To, że czasem udaje się te same efekty osiągnąć nie oznacza że sprzęt jest jednakowej wydajności. Nawet ultra zoptymalizowany litecoin miner (gdyby był) dla PS4 nie prześcignie R9 280, a co dopiero mówić o 290. IGP owszem bazuje na ciętych 78xx, ale cięte są i CU, i zegar. W sumie w XO jest dość pdoobny poziom wydajności co w 7770, w PS4 jest rzeczywiście sporo wyżej. Ale i tak nie jest to wydajnościowy poziom 290X z np. i5-4770 bo ten sprzęt jest dużo, dużo wydajniejszy. Jedynym jego problemem jest to, że korzysta z DirectX ;) Gdyby korzystał z dedykowanego API i wszystkich możliwych dobrodziejstw architektury jak to korzysta PS4 i XO to wydajność w grach byłaby dużo, dużo większa niż PS4. Większość multiplatformówek jednak wyraźnie gorzej działa - choćby tak samo dobrze wyglądały- na PS4 niż wypasionych PC więc porównywanie PS4 do Titana jest po prostu niedorzeczne.


Przykro mi, nie zrozumiałeś o czym ja piszę. Porównywanie PS4 do PC z R290 jest bez sensu w kontekście tamtej wypowiedzi. Mnie chodziło o porównanie platform o tym samym wskaźniku FLOPS. Czyli PC z kartą i CPU odpowiadającymi wydajnością na obliczeniach zmiennoprzecinkowych tym z PS4. Tutaj PS4 może faktycznie wykazać przewagę, ale moim zdaniem tylko w konkretnych sytuacjach obliczeniowych.

W tym momencie PC nie ma szans, zauważ, że sam CPU jest krotnie wydajniejszy, a iGPU dodaje dodatkowo FLOPS-a, więc takie porównanie jest trochę na siłę.
Generalnie musiał byś wziąść np. i5+7750, albo kaverii+7730
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.