@Hashi
No tak jasne 60kl/s bardziej cieszy to jest tylko dla onanistów pctowych gdzie patrzą tylko na cyferki albo teoriami się zasłaniają. Tylko niech się pochwalą swoimi rydwanami pc i pokażą te stałe 60kl/s w nowych tytułach. Far Cry 4 Asssasin Unity itd.... 60 kl/s czasami psuję naturalny odbiór i mamy teatr opere mydlaną.
A i niech się pochwalą jeszcze dzwiękiem w grach na pc DTS HD PCM 5.1. itp. Nie ma po prostu nie ma zakodowanych w 5.1 gier na pc.
@Hashi: Wbrew pozorom ghosting poprawia akurat sytuacje (to jak dodatkowy MB, który miesza obecną i poprzednie klatki, przez co zmniejsza się przeskok pomiędzy klatkami).
To, że renderuje na GPU krótko to norma w PS3. Ogólnie w grach od wprowadzenia shaderów większość czasu zajmuje postprocess. Od deferred shading praktycznie geometria robi się migiem (nie liczy się oświetlenia, tylko zapisuje się pozycje, normalne (i resztę danych do gbufforów) w teksturach, a całe obliczenia są w postprocess).
Co do reszty, to sprecyzuj o co dokładnie pytasz, bo nie wiem w wypadku free camera widać przycięcia, bo nie rozmywa on w ruchu (przez co są mocne skoki, a nie rozmyty ruch). Co do LOD, to dla obiektów generowany jest on nie przez silnik, a przez grafików i narzędzie PM Lod Tool w programie Maya. Dla terenu nie wiem czy korzystali nawet z LOD (wiem jak to wygląda, ale przy U1 nie robili nawet LOD dla postaci czy obiektów!).
Co do prezentacji o której mówisz to po screenach wygląda, że oparli to na quadtrees... jeśli chcesz się dowiedzieć więcej na temat tego LOD, zachęcam do tego arta z 2000 roku http://www.gamasutra.com/view/feature/1318...in_meshing_.php - bardzo fajna sprawa i prawdopodobnie jedyne co zmienili to optymalizacja pod konkretny SIMD (czyli SPU, a teraz pod architekturę GPU muszą zmienić - przykładowo tak http://http.developer.nvidia.com/GPUGems2/..._chapter02.html ).
@Yoshi75: bardzo przykro, że mylisz szarą rzeczywistość z pastelową bajką.
Jaką pastelową bajką no proszę cię sam napisałeś że w project cars warunki pogodowe są bardziej realistyczne od DriveClub. Wejdz gdziekolwiek w recenzje czy opinie w zagraniczne portale i jest jasno napisane jest to w tej chwili najładniejszy racer na rynku. A warunki pogodowe miażdżą czegoś takiego nie było w żadnej grze. Efekt deszczu itp......
Po co zaklinasz rzeczywistość przecież to widać gołym okiem postaw w końcu tę konsole i odpal oki a nie teoriami będziesz walił.
Co do słabego jaguara w PS4 bedzie to samo co w PS3 i nie ma co sobie głowy zawracać. Nowe SDK 2.0 dla PS4 załatwia sprawę obliczenia będą przerzucane z CPU na GPU. Czyli ta sama bajka jak w PS3 gdzie słabsze GPU było wspomagane przez CPU CELL w pewnych obliczeniach.
'Symulacja fizyki GPU pozwala na wdrożenie na dużą skalę ciał sztywnych, które są bardzo kosztowne na moc obliczeniową. Korzystając z shaderów obliczeniowych, może być 10 razy szybciej niż to, co może zrobić CPU. GPU w PS4 jest w stanie wykonać tego rodzaju zadania, ponieważ może wykonać ogólne computing cel. Do tego wzbogacona jest o zunifikowaną pamięć, która jest bardzo szybka ze względu na zastosowanie GDDR5. Jest to jeden z mocnych punktów PS4.
CPU i GPU mogą dzielić wirtualną przestrzeń pamięci, mają możliwość łatwego przesyłania danych między sobą. To pozwala, aby GPU i CPU symulacje fizyki współpracowały bez problemu' Już w tym momencie dzięki nowemu SDK 2.0 konsola dostanie kopa w kwestii wydajności.
Naturalna gra padem, naturalny odbiór 30 FPS, naturalny dźwięk, a to wszystko w upskalowanym 1600x900 (mega skok po 8 latach z 1280x720) za 1600 zł - żyć nie umierać. Do 2022 roku są to parametry 'jak znalazł', później może dojdą do tych 'magicznych' 1920x1080 z następną generacją wtedy w PC standardem będzie 8K
Ale nie jest to potrzebne, bo tak jak pisaliście w konsolach wszystko się liczy razy 2, czyli 1600x900 to tak naprawdę 3200x1800 a 30 FPS to 60 także tryb jest 'srogi'.
(tak - wiem debile, że pisaliście o sprzęcie ale mam już z was taką bękę - wy nie żyjecie w realnym świecie - macie zlasowane wyprane przez korporacje mózgi)
Jak jesteś dobrym programistą i zarazem grafikiem to może pomożesz chłopakom przy nowym UT ? W końcu projekt z udziałem community Jeśli to wszystko wypali, to chyba jedyna gierka dla której warto kupić mocarnego pieca do gier. http://www.unrealtournament.com/blog/
Jaką pastelową bajką no proszę cię sam napisałeś że w project cars warunki pogodowe są bardziej realistyczne od DriveClub. Wejdz gdziekolwiek w recenzje czy opinie w zagraniczne portale i jest jasno napisane jest to w tej chwili najładniejszy racer na rynku. A warunki pogodowe miażdżą czegoś takiego nie było w żadnej grze. Efekt deszczu itp......
No i po co kłamiesz. Nigdzie nie pisałem o warunkach pogodowych (tu niestety jeszcze w CARS nie jest ostateczna wersja, a rozwojowa, więc nie ma co porównywać), tylko o realistce (oświetlenie, reakcja powierzchni na światło, przestrzeni barwnej).
'chwili najładniejszy racer na rynku.' - najładniejszy, a najbardziej realistyczny to dwie różne sprawy.
Arszenik @ 2014.12.14 14:16
@skoti48
Jak jesteś dobrym programistą i zarazem grafikiem to może pomożesz chłopakom przy nowym UT ? W końcu projekt z udziałem community Jeśli to wszystko wypali, to chyba jedyna gierka dla której warto kupić mocarnego pieca do gier. http://www.unrealtournament.com/blog/
Wolę inaczej spędzać czas wolny, niż robić to co robię zawodowo, tylko za darmo (tym bardziej, że potrzebują tam grafików, lvl designerów czy programistów skryptów, a raczej niezbyt potrzebny im kolejny programista silnika graficznego, bo tu UE4 daje radę).
No to kibicujmy, żeby znaleźli się uzdolnieni ludzie którzy im będą pomagać za darmo
Ogólnie chyba dobry pomysł nic niż nie robienie albo popierdółek ftp.
@skoti48
Przecież sam napisałeś że project cars wygląda bardziej realistycznie każdy może przeczytać. Wystarczy spojrzeć na samo otoczenie i oświetlenie w tej grze że nie masz racji.
I tak można pisać do rana przez gardło by wam nie przeszło żeby napisać że na konsoli gra się prezentuję rewelacyjnie taka prawda. Można tak sobie pisać wieczność i tak wymijająco pięknie napiszecie coś innego.
Już tacy są na tym portalu gdzie pisali że główny programista z Naughty Dog gada głupoty itp. Jeśli chodzi o Uncharted.
No i co związku z tym czy to nie jest twój komentarz.... sam pisałeś
'PS4 ma przepustowość pamięci 176GB/s przy czym 16GB/s PCI-E 3.0 16x brzmi śmiesznie i na nic prawie 290GB/s w GeForce Titan skoro jeśli robimy update często (jak przy megatexturingu) jesteśmy ograniczeni do tego 16GB/s...
Tu chodzi o coś odwrotnego - aby CPU mógł zapisać do pamięci dostępnej szybko dla GPU (nie musiało być ''kopiowane'' z pamięci procesora przez szynę AGP/PCI-E, aby później mieć szybki dostęp do pamięci liczony w setkach GB/s). Takie rozwiązania znajdziemy na konsolach czy SoC, gdzie pamięć procesora i GPU jest współdzielona''
''Głównie dlatego, że gry na PC nie wykorzystują nawet 8GB/s w PCI-e 2 (właśnie przez to że to jest ograniczenie realne dalej na PC). Nie mówimy jednak co jest teraz a o przyszłości i rozwiązaniach jak virtualne tekstrury które są we wszystkich liczących się silnikach ale jednak nie korzysta się z nich na PC lub bardzo delikatnie się je wprowadza a na konsolach się wykorzystuje to od lat''
Co o tym sądzić mam bronisz piecyka jak się tylko da.... to się kupy nie trzyma jesteś nie wiarygodny.
@Hashi: Wbrew pozorom ghosting poprawia akurat sytuacje (to jak dodatkowy MB, który miesza obecną i poprzednie klatki, przez co zmniejsza się przeskok pomiędzy klatkami).
To, że renderuje na GPU krótko to norma w PS3. Ogólnie w grach od wprowadzenia shaderów większość czasu zajmuje postprocess. Od deferred shading praktycznie geometria robi się migiem (nie liczy się oświetlenia, tylko zapisuje się pozycje, normalne (i resztę danych do gbufforów) w teksturach, a całe obliczenia są w postprocess).
Co do reszty, to sprecyzuj o co dokładnie pytasz, bo nie wiem w wypadku free camera widać przycięcia, bo nie rozmywa on w ruchu (przez co są mocne skoki, a nie rozmyty ruch). Co do LOD, to dla obiektów generowany jest on nie przez silnik, a przez grafików i narzędzie PM Lod Tool w programie Maya. Dla terenu nie wiem czy korzystali nawet z LOD (wiem jak to wygląda, ale przy U1 nie robili nawet LOD dla postaci czy obiektów!).
Co do prezentacji o której mówisz to po screenach wygląda, że oparli to na quadtrees... jeśli chcesz się dowiedzieć więcej na temat tego LOD, zachęcam do tego arta z 2000 roku http://www.gamasutra.com/view/feature/1318...in_meshing_.php - bardzo fajna sprawa i prawdopodobnie jedyne co zmienili to optymalizacja pod konkretny SIMD (czyli SPU, a teraz pod architekturę GPU muszą zmienić - przykładowo tak http://http.developer.nvidia.com/GPUGems2/..._chapter02.html ).
@Yoshi75: bardzo przykro, że mylisz szarą rzeczywistość z pastelową bajką.
@Hashi wystarczy jak zrobią remaster U2 na PS4 i nie jedną grę będzie kładła w kwestii audiowizualnych.
Pamiętam jak wyszedł U1 w 2007 roku tak samo co Crysis1 i byłem w szoku jak się prezentował U1 przy Crysisie1.
U1 bił go w ładniejszych teksturach efektach oświetleniu ogólnie w grafice.
A pctowcy okrzykneli crysis'a przełomem graficznym aż buchłem śmiechem.
@skoti48
''GeForce GTX 780 Ti ma blisko 2x większą przepustowość niż PS4))''
No i co związku z tym czy to nie jest twój komentarz.... sam pisałeś
'PS4 ma przepustowość pamięci 176GB/s przy czym 16GB/s PCI-E 3.0 16x brzmi śmiesznie i na nic prawie 290GB/s w GeForce Titan skoro jeśli robimy update często (jak przy megatexturingu) jesteśmy ograniczeni do tego 16GB/s...
Tu chodzi o coś odwrotnego - aby CPU mógł zapisać do pamięci dostępnej szybko dla GPU (nie musiało być ''kopiowane'' z pamięci procesora przez szynę AGP/PCI-E, aby później mieć szybki dostęp do pamięci liczony w setkach GB/s). Takie rozwiązania znajdziemy na konsolach czy SoC, gdzie pamięć procesora i GPU jest współdzielona''
''Głównie dlatego, że gry na PC nie wykorzystują nawet 8GB/s w PCI-e 2 (właśnie przez to że to jest ograniczenie realne dalej na PC). Nie mówimy jednak co jest teraz a o przyszłości i rozwiązaniach jak virtualne tekstrury które są we wszystkich liczących się silnikach ale jednak nie korzysta się z nich na PC lub bardzo delikatnie się je wprowadza a na konsolach się wykorzystuje to od lat''
Co o tym sądzić mam bronisz piecyka jak się tylko da.... to się kupy nie trzyma jesteś nie wiarygodny.
Skotiemu chyba chodzi o to, że przy liczeniu fizyki na gpu rola pamięci wspóldzielonej dla cpu i gpu jest niesitotna.. co innego przy megatexturingu, gdzie ta zaleta ps4 nabiera znaczenia np nowy doom na ps4 na tym skorzysta.
@Arszenik
To jest konsola a nie pc gdzie patrzą pod tym kątem do pcta. Pamiętasz jak się śmiali pctowcy że CPU CELL w PS3 może robić za grafikę to pctowcy puknij się w łeb za grafikę odpowiada GPU i tyle było z dyskusji ech....
Dopiero pózniej doszło i był ZONK.
Dobra ale ja się odniosłem do tego 'GeForce GTX 780 Ti ma blisko 2x większą przepustowość niż PS4). A sam napisał kiedyś ''i na nic prawie 290GB/s w GeForce Titan skoro jeśli robimy update często (jak przy megatexturingu) jesteśmy ograniczeni do tego 16GB/s...''
@Hashi wystarczy jak zrobią remaster U2 na PS4 i nie jedną grę będzie kładła w kwestii audiowizualnych.
Pamiętam jak wyszedł U1 w 2007 roku tak samo co Crysis1 i byłem w szoku jak się prezentował U1 przy Crysisie1.
U1 bił go w ładniejszych teksturach efektach oświetleniu ogólnie w grafice.
A pctowcy okrzykneli crysis'a przełomem graficznym aż buchłem śmiechem.
Screeny mozesz sobie dobierac na swoja korzysc ale crysis1 niszczy graficznie u1(to w ogole jest slabe graficznie, dziwie sie ze o tym wspominasz nawet),2 jak i 3.
A co krótka pamięć to cofnij się złóż pcta jakiego miałeś w 2007 roku i odpal Crysis'a a pózniej Uncharted1. To zobaczysz to samo co na tych obrazkach.
Zapomnieliście jak kiedyś na słabszym sprzęcie prezentował się crysis. Ale jakbyś zobaczył teraz to byś się z dziwił.
Jak można porównywać ładnie wykonane tekstury ?? To nie ma nic wspólnego z mocą konsoli czy PC tylko z jakością owej tekstury. Idiotyzmem jest porównywanie płaskiej powierzchni z teksturą. Widzę iż niektórzy tu chyba mylą wydajność renderowania z jakością tekstur.
@skoti48
Przecież sam napisałeś że project cars wygląda bardziej realistycznie każdy może przeczytać. Wystarczy spojrzeć na samo otoczenie i oświetlenie w tej grze że nie masz racji.
Bo jak najbardziej wygląda bardziej realistycznie - nie chodzi ofc o realistykę jazdy (driveclub to arcadeówka, a cars to prawdziwy hardcorowy symulator), a o wygląd grafiki. Gra wygląda bardziej realistycznie, jednak nie mówiłem nic o atmosferycznych warunkach, bo tu jeszcze ma się zmienić przed premierą (a jak dobrze wiesz jeszcze 4x miesiące do wydania).
Yoshi75 @ 2014.12.14 14:34
''GeForce GTX 780 Ti ma blisko 2x większą przepustowość niż PS4))''
No i co związku z tym czy to nie jest twój komentarz.... sam pisałeś
'PS4 ma przepustowość pamięci 176GB/s przy czym 16GB/s PCI-E 3.0 16x brzmi śmiesznie i na nic prawie 290GB/s w GeForce Titan skoro jeśli robimy update często (jak przy megatexturingu) jesteśmy ograniczeni do tego 16GB/s...
Tu chodzi o coś odwrotnego - aby CPU mógł zapisać do pamięci dostępnej szybko dla GPU (nie musiało być ''kopiowane'' z pamięci procesora przez szynę AGP/PCI-E, aby później mieć szybki dostęp do pamięci liczony w setkach GB/s). Takie rozwiązania znajdziemy na konsolach czy SoC, gdzie pamięć procesora i GPU jest współdzielona''
''Głównie dlatego, że gry na PC nie wykorzystują nawet 8GB/s w PCI-e 2 (właśnie przez to że to jest ograniczenie realne dalej na PC). Nie mówimy jednak co jest teraz a o przyszłości i rozwiązaniach jak virtualne tekstrury które są we wszystkich liczących się silnikach ale jednak nie korzysta się z nich na PC lub bardzo delikatnie się je wprowadza a na konsolach się wykorzystuje to od lat''
Co o tym sądzić mam bronisz piecyka jak się tylko da.... to się kupy nie trzyma jesteś nie wiarygodny.
Przykro mi, ale jesteś w błędzie - to nie moje komentarze (google podpowiada, że to niejaki ' KILLZONE' je pisał), chociaż pamiętam, że ktoś z takimi bzdurami wyskakiwał - jeśli liczymy, że PS4 ma przepustowość 176 GB/s to PCI-E 3 16x ma przepustowość 32GB/s (w jedną stronę ma 16, ale PS4 ma 88 GB/s w jedną stronę). Megateksturing, faktycznie potrafił być problemem kilka lat temu, jednak nie ze względu na przepustowość (to załatwiały Bindless Textures i Sparse Textures i nawet Rage z najintensywniej wykorzystywanym megatexturingiem, a spokojnie wystarcza mu PCI-E 1.0 (4GB/s w jedną stronę) i to z takim zapasem, że wpływa może w okolicach 1% na wydajność), a sync pointy przy wysyłaniu tekstur (jeszcze kilka lat temu API na PC zmuszały do synchronizacji CPU i GPU przy tej operacji, co zabijało wydajność - teraz mamy OpenGL i Mantle, które tego nie robią i megatexturing nie jest żadnym problemem).
A to co twój sobowtór post #185
post #193 i kto pisał ''Jak najbardziej dlatego piszę, że PCI-E to nie jest rozwiązanie, a PC jest przez swoją kompatybilność wsteczną udupiony na kolejną dekadę'' http://pclab.pl/kom66676--0.html#c657388
Jak sam widzisz na własne posty piszesz bzdury i jeszcze na jakiegoś killzone zwalasz ech... nie ładnie
Nadal uważam że DriveClub miażdży jeśli chodzi o efekty wizualne i prezentują się bardziej realistycznie. Poszperaj w sieci o Driveclub co piszą o grafice i sam w końcu sprawdz na własne oczy. I nikt nie pisał że DC to symulator bo to było wiadomo przed ukazaniem się gry. Ale model jazdy jest przyjemny bardziej zręcznościowy.
A to co twój sobowtór post #185
post #193 i kto pisał ''Jak najbardziej dlatego piszę, że PCI-E to nie jest rozwiązanie, a PC jest przez swoją kompatybilność wsteczną udupiony na kolejną dekadę'' http://pclab.pl/kom66676--0.html#c657388
Jak sam widzisz na własne posty piszesz bzdury i jeszcze na jakiegoś killzone zwalasz ech... nie ładnie
Szkoda, że nie zacytowałeś dalej, ani kontekstu rozmowy. Rozmowa była prowadzona na temat procków z założenia na serwery (Nvidia Denver, AMD Operony na ARM). Przykładowo w serwerach i centrach obliczeniowych na wysoką przepustowość CPU -> GPU czekają z utęsknieniem (dlatego też przykładowo Nvidia chce NVLINK dać dla serwerów z Denverem, ale nie będzie dla PC).
Współdzielona szybka pamięć w wielu obliczeniach się przydaje (i jej brak powoduje, ze bazy danych powoli przechodzą na GPU, podobnie jak inne serwery czy obliczenia).
Nie neguję korzyści jakie w wielu sytuacjach może przynieść współdzielona pamięć i z tego względu nie napisałem 'Współdzielona pamięć nic nie daje', a napisałem 'Dodatkowo gdzie jak gdzie, ale w wypadku obliczeń fizyki współdzielona pamięć nic nie daje'. Różnica jednak między nami jest taka, że znam algorytmy, wiem jakie dane gdzie są przetwarzane i jaka jest ich charakterystyka. W wielu przypadkach współdzielona pamięć się przydaje, ale akurat nie w grach (i ogólnie od czasu dynamicznej generacji kerneli z GPU (Kepler/GCN) w grafice jako takiej (również bipathtracery nic nie zyskają - zyskiwały przed Kepler/GCN gdy rekurencja na GPU nie była możliwa)). Fajnie, że mówisz o PS3 i Cell - dla tego procesora kupiłem tą konsolę i przez jakiś czas wykorzystywałem go do bardziej wymagających obliczeń, bo przez lata nie istniał lepszy procesor, a i GPU w obliczeniach raczkowały - akurat PS3 od początku uważałem, za wielki krok w przyszłość i przez lata PC nie mogło dogonić tego CPU (GPU szybko zostało przegonione, podobnie jak GPU + SPU przegrywało szybko z dedykowanymi kartami, ale CPU to był mocny punkt tamtej konsoli). PS4 jednak to zupełnie inna bajka, bo to sprzęt po prostu słaby.
Do przesłania raptem 96Bajtów w PS3 na cykl (w CPU) potrzebna była magistrala 200GB/s. Oboje wiemy, ze jak chcesz przesłać w CPU nawet małą ilość danych ale w jak najkrótszym cyklu to potrzebna jest szeroka magistrala (w PS4 sama komunikacja z L2 to 200 cykli, a pakowanie danych które się krzyżują to totalne zabicie wydajności, PS4 ma L2 podzielony dla 2 modułów, wystarczy by dane były w drugiej części cache i prędkość odczytu spada 6-krotnie). Wszystko zalezy od tego w ilu cyklach chcesz przesłać dane. Dochodzi jeszcze redundacja danych bo wiemy przecież, ze danych nie da się zawsze pięknie ułożyć w równe 'paczuszki'. Pisze o tym nawet ND w publikacji (nizej) It’s important to remember that if read a single byte of data then you’ll end up loading an entire 64 bytes into cache.
PS4 ma raptem 3 autorskie rozwiązania (głównie od Sony), które mają zwiększać wydajność i są one opisane w podpunkcie 'Graphics processing unit' http://en.wikipedia.org/wiki/PlayStation_4..._specifications
W PS4 połozono na GPGPU na GPU głównie. http://www.redgamingtech.com/ps4-architect...eakdown-part-2/
No tak jasne 60kl/s bardziej cieszy to jest tylko dla onanistów pctowych gdzie patrzą tylko na cyferki albo teoriami się zasłaniają. Tylko niech się pochwalą swoimi rydwanami pc i pokażą te stałe 60kl/s w nowych tytułach. Far Cry 4 Asssasin Unity itd.... 60 kl/s czasami psuję naturalny odbiór i mamy teatr opere mydlaną.
A i niech się pochwalą jeszcze dzwiękiem w grach na pc DTS HD PCM 5.1. itp. Nie ma po prostu nie ma zakodowanych w 5.1 gier na pc.
To, że renderuje na GPU krótko to norma w PS3. Ogólnie w grach od wprowadzenia shaderów większość czasu zajmuje postprocess. Od deferred shading praktycznie geometria robi się migiem (nie liczy się oświetlenia, tylko zapisuje się pozycje, normalne (i resztę danych do gbufforów) w teksturach, a całe obliczenia są w postprocess).
Co do reszty, to sprecyzuj o co dokładnie pytasz, bo nie wiem w wypadku free camera widać przycięcia, bo nie rozmywa on w ruchu (przez co są mocne skoki, a nie rozmyty ruch). Co do LOD, to dla obiektów generowany jest on nie przez silnik, a przez grafików i narzędzie PM Lod Tool w programie Maya. Dla terenu nie wiem czy korzystali nawet z LOD (wiem jak to wygląda, ale przy U1 nie robili nawet LOD dla postaci czy obiektów!).
Co do prezentacji o której mówisz to po screenach wygląda, że oparli to na quadtrees... jeśli chcesz się dowiedzieć więcej na temat tego LOD, zachęcam do tego arta z 2000 roku http://www.gamasutra.com/view/feature/1318...in_meshing_.php - bardzo fajna sprawa i prawdopodobnie jedyne co zmienili to optymalizacja pod konkretny SIMD (czyli SPU, a teraz pod architekturę GPU muszą zmienić - przykładowo tak http://http.developer.nvidia.com/GPUGems2/..._chapter02.html ).
@Yoshi75: bardzo przykro, że mylisz szarą rzeczywistość z pastelową bajką.
Jaką pastelową bajką no proszę cię sam napisałeś że w project cars warunki pogodowe są bardziej realistyczne od DriveClub. Wejdz gdziekolwiek w recenzje czy opinie w zagraniczne portale i jest jasno napisane jest to w tej chwili najładniejszy racer na rynku. A warunki pogodowe miażdżą czegoś takiego nie było w żadnej grze. Efekt deszczu itp......
Po co zaklinasz rzeczywistość przecież to widać gołym okiem postaw w końcu tę konsole i odpal oki a nie teoriami będziesz walił.
Co do słabego jaguara w PS4 bedzie to samo co w PS3 i nie ma co sobie głowy zawracać. Nowe SDK 2.0 dla PS4 załatwia sprawę obliczenia będą przerzucane z CPU na GPU. Czyli ta sama bajka jak w PS3 gdzie słabsze GPU było wspomagane przez CPU CELL w pewnych obliczeniach.
'Symulacja fizyki GPU pozwala na wdrożenie na dużą skalę ciał sztywnych, które są bardzo kosztowne na moc obliczeniową. Korzystając z shaderów obliczeniowych, może być 10 razy szybciej niż to, co może zrobić CPU. GPU w PS4 jest w stanie wykonać tego rodzaju zadania, ponieważ może wykonać ogólne computing cel. Do tego wzbogacona jest o zunifikowaną pamięć, która jest bardzo szybka ze względu na zastosowanie GDDR5. Jest to jeden z mocnych punktów PS4.
CPU i GPU mogą dzielić wirtualną przestrzeń pamięci, mają możliwość łatwego przesyłania danych między sobą. To pozwala, aby GPU i CPU symulacje fizyki współpracowały bez problemu' Już w tym momencie dzięki nowemu SDK 2.0 konsola dostanie kopa w kwestii wydajności.
http://www.dualshockers.com/2014/11/23/ps4...lopers-can-use/
Ale nie jest to potrzebne, bo tak jak pisaliście w konsolach wszystko się liczy razy 2, czyli 1600x900 to tak naprawdę 3200x1800 a 30 FPS to 60 także tryb jest 'srogi'.
(tak - wiem debile, że pisaliście o sprzęcie ale mam już z was taką bękę - wy nie żyjecie w realnym świecie - macie zlasowane wyprane przez korporacje mózgi)
Jak jesteś dobrym programistą i zarazem grafikiem to może pomożesz chłopakom przy nowym UT ? W końcu projekt z udziałem community
http://www.unrealtournament.com/blog/
No i po co kłamiesz. Nigdzie nie pisałem o warunkach pogodowych (tu niestety jeszcze w CARS nie jest ostateczna wersja, a rozwojowa, więc nie ma co porównywać), tylko o realistce (oświetlenie, reakcja powierzchni na światło, przestrzeni barwnej).
'chwili najładniejszy racer na rynku.' - najładniejszy, a najbardziej realistyczny to dwie różne sprawy.
Jak jesteś dobrym programistą i zarazem grafikiem to może pomożesz chłopakom przy nowym UT ? W końcu projekt z udziałem community
http://www.unrealtournament.com/blog/
No to kibicujmy, żeby znaleźli się uzdolnieni ludzie którzy im będą pomagać za darmo
Ogólnie chyba dobry pomysł nic niż nie robienie albo popierdółek ftp.
Przecież sam napisałeś że project cars wygląda bardziej realistycznie każdy może przeczytać. Wystarczy spojrzeć na samo otoczenie i oświetlenie w tej grze że nie masz racji.
I tak można pisać do rana przez gardło by wam nie przeszło żeby napisać że na konsoli gra się prezentuję rewelacyjnie taka prawda. Można tak sobie pisać wieczność i tak wymijająco pięknie napiszecie coś innego.
Już tacy są na tym portalu gdzie pisali że główny programista z Naughty Dog gada głupoty itp. Jeśli chodzi o Uncharted.
A tu dla pokornych DC w pełnej klasie na gifach project cars przy tym wygląda jak gra z poprzedniej generacji koniec kropka.
http://4.bp.blogspot.com/-1TaczVqt3pA/VIc9...1600/ahcbuh.gif
http://a.pomf.se/tmzyuv.gif
http://a.pomf.se/qngvum.gif
''GeForce GTX 780 Ti ma blisko 2x większą przepustowość niż PS4))''
No i co związku z tym czy to nie jest twój komentarz.... sam pisałeś
'PS4 ma przepustowość pamięci 176GB/s przy czym 16GB/s PCI-E 3.0 16x brzmi śmiesznie i na nic prawie 290GB/s w GeForce Titan skoro jeśli robimy update często (jak przy megatexturingu) jesteśmy ograniczeni do tego 16GB/s...
Tu chodzi o coś odwrotnego - aby CPU mógł zapisać do pamięci dostępnej szybko dla GPU (nie musiało być ''kopiowane'' z pamięci procesora przez szynę AGP/PCI-E, aby później mieć szybki dostęp do pamięci liczony w setkach GB/s). Takie rozwiązania znajdziemy na konsolach czy SoC, gdzie pamięć procesora i GPU jest współdzielona''
''Głównie dlatego, że gry na PC nie wykorzystują nawet 8GB/s w PCI-e 2 (właśnie przez to że to jest ograniczenie realne dalej na PC). Nie mówimy jednak co jest teraz a o przyszłości i rozwiązaniach jak virtualne tekstrury które są we wszystkich liczących się silnikach ale jednak nie korzysta się z nich na PC lub bardzo delikatnie się je wprowadza a na konsolach się wykorzystuje to od lat''
Co o tym sądzić mam bronisz piecyka jak się tylko da.... to się kupy nie trzyma jesteś nie wiarygodny.
To, że renderuje na GPU krótko to norma w PS3. Ogólnie w grach od wprowadzenia shaderów większość czasu zajmuje postprocess. Od deferred shading praktycznie geometria robi się migiem (nie liczy się oświetlenia, tylko zapisuje się pozycje, normalne (i resztę danych do gbufforów) w teksturach, a całe obliczenia są w postprocess).
Co do reszty, to sprecyzuj o co dokładnie pytasz, bo nie wiem w wypadku free camera widać przycięcia, bo nie rozmywa on w ruchu (przez co są mocne skoki, a nie rozmyty ruch). Co do LOD, to dla obiektów generowany jest on nie przez silnik, a przez grafików i narzędzie PM Lod Tool w programie Maya. Dla terenu nie wiem czy korzystali nawet z LOD (wiem jak to wygląda, ale przy U1 nie robili nawet LOD dla postaci czy obiektów!).
Co do prezentacji o której mówisz to po screenach wygląda, że oparli to na quadtrees... jeśli chcesz się dowiedzieć więcej na temat tego LOD, zachęcam do tego arta z 2000 roku http://www.gamasutra.com/view/feature/1318...in_meshing_.php - bardzo fajna sprawa i prawdopodobnie jedyne co zmienili to optymalizacja pod konkretny SIMD (czyli SPU, a teraz pod architekturę GPU muszą zmienić - przykładowo tak http://http.developer.nvidia.com/GPUGems2/..._chapter02.html ).
@Yoshi75: bardzo przykro, że mylisz szarą rzeczywistość z pastelową bajką.
Dzięki za odp.
30fps
https://www.youtube.com/watch?v=Vpnji9eJWSg
Pamiętam jak wyszedł U1 w 2007 roku tak samo co Crysis1 i byłem w szoku jak się prezentował U1 przy Crysisie1.
U1 bił go w ładniejszych teksturach efektach oświetleniu ogólnie w grafice.
A pctowcy okrzykneli crysis'a przełomem graficznym aż buchłem śmiechem.
Tak kiedyś wyglądał crysis1 przy U1 2007/08 rok.
http://s272.photobucket.com/user/Wulfen1/m...ml?t=1273852947
http://s272.photobucket.com/user/Wulfen1/m...ml?t=1268750328
http://s272.photobucket.com/user/Wulfen1/m...ml?t=1268750275
''GeForce GTX 780 Ti ma blisko 2x większą przepustowość niż PS4))''
No i co związku z tym czy to nie jest twój komentarz.... sam pisałeś
'PS4 ma przepustowość pamięci 176GB/s przy czym 16GB/s PCI-E 3.0 16x brzmi śmiesznie i na nic prawie 290GB/s w GeForce Titan skoro jeśli robimy update często (jak przy megatexturingu) jesteśmy ograniczeni do tego 16GB/s...
Tu chodzi o coś odwrotnego - aby CPU mógł zapisać do pamięci dostępnej szybko dla GPU (nie musiało być ''kopiowane'' z pamięci procesora przez szynę AGP/PCI-E, aby później mieć szybki dostęp do pamięci liczony w setkach GB/s). Takie rozwiązania znajdziemy na konsolach czy SoC, gdzie pamięć procesora i GPU jest współdzielona''
''Głównie dlatego, że gry na PC nie wykorzystują nawet 8GB/s w PCI-e 2 (właśnie przez to że to jest ograniczenie realne dalej na PC). Nie mówimy jednak co jest teraz a o przyszłości i rozwiązaniach jak virtualne tekstrury które są we wszystkich liczących się silnikach ale jednak nie korzysta się z nich na PC lub bardzo delikatnie się je wprowadza a na konsolach się wykorzystuje to od lat''
Co o tym sądzić mam bronisz piecyka jak się tylko da.... to się kupy nie trzyma jesteś nie wiarygodny.
Skotiemu chyba chodzi o to, że przy liczeniu fizyki na gpu rola pamięci wspóldzielonej dla cpu i gpu jest niesitotna.. co innego przy megatexturingu, gdzie ta zaleta ps4 nabiera znaczenia np nowy doom na ps4 na tym skorzysta.
To jest konsola a nie pc gdzie patrzą pod tym kątem do pcta. Pamiętasz jak się śmiali pctowcy że CPU CELL w PS3 może robić za grafikę to pctowcy puknij się w łeb za grafikę odpowiada GPU i tyle było z dyskusji ech....
Dopiero pózniej doszło i był ZONK.
Dobra ale ja się odniosłem do tego 'GeForce GTX 780 Ti ma blisko 2x większą przepustowość niż PS4). A sam napisał kiedyś ''i na nic prawie 290GB/s w GeForce Titan skoro jeśli robimy update często (jak przy megatexturingu) jesteśmy ograniczeni do tego 16GB/s...''
OKI
Pamiętam jak wyszedł U1 w 2007 roku tak samo co Crysis1 i byłem w szoku jak się prezentował U1 przy Crysisie1.
U1 bił go w ładniejszych teksturach efektach oświetleniu ogólnie w grafice.
A pctowcy okrzykneli crysis'a przełomem graficznym aż buchłem śmiechem.
Tak kiedyś wyglądał crysis1 przy U1 2007/08 rok.
http://s272.photobucket.com/user/Wulfen1/m...ml?t=1273852947
http://s272.photobucket.com/user/Wulfen1/m...ml?t=1268750328
http://s272.photobucket.com/user/Wulfen1/m...ml?t=1268750275
A co krótka pamięć to cofnij się złóż pcta jakiego miałeś w 2007 roku i odpal Crysis'a a pózniej Uncharted1. To zobaczysz to samo co na tych obrazkach.
Zapomnieliście jak kiedyś na słabszym sprzęcie prezentował się crysis. Ale jakbyś zobaczył teraz to byś się z dziwił.
A co teraz mamy odpal Crysisa3 i porównaj do tego wysokiej jakości plik z dema The Order 1886
https://mega.co.nz/#!CMRjmSJa!_l62j6zb5R_L...YlMOaD-MMW9Kw-o
To wygląda jak film CGI miazga. Tak tak wiem to nie sandbox.
Przecież sam napisałeś że project cars wygląda bardziej realistycznie każdy może przeczytać. Wystarczy spojrzeć na samo otoczenie i oświetlenie w tej grze że nie masz racji.
Bo jak najbardziej wygląda bardziej realistycznie - nie chodzi ofc o realistykę jazdy (driveclub to arcadeówka, a cars to prawdziwy hardcorowy symulator), a o wygląd grafiki. Gra wygląda bardziej realistycznie, jednak nie mówiłem nic o atmosferycznych warunkach, bo tu jeszcze ma się zmienić przed premierą (a jak dobrze wiesz jeszcze 4x miesiące do wydania).
No i co związku z tym czy to nie jest twój komentarz.... sam pisałeś
'PS4 ma przepustowość pamięci 176GB/s przy czym 16GB/s PCI-E 3.0 16x brzmi śmiesznie i na nic prawie 290GB/s w GeForce Titan skoro jeśli robimy update często (jak przy megatexturingu) jesteśmy ograniczeni do tego 16GB/s...
Tu chodzi o coś odwrotnego - aby CPU mógł zapisać do pamięci dostępnej szybko dla GPU (nie musiało być ''kopiowane'' z pamięci procesora przez szynę AGP/PCI-E, aby później mieć szybki dostęp do pamięci liczony w setkach GB/s). Takie rozwiązania znajdziemy na konsolach czy SoC, gdzie pamięć procesora i GPU jest współdzielona''
''Głównie dlatego, że gry na PC nie wykorzystują nawet 8GB/s w PCI-e 2 (właśnie przez to że to jest ograniczenie realne dalej na PC). Nie mówimy jednak co jest teraz a o przyszłości i rozwiązaniach jak virtualne tekstrury które są we wszystkich liczących się silnikach ale jednak nie korzysta się z nich na PC lub bardzo delikatnie się je wprowadza a na konsolach się wykorzystuje to od lat''
Co o tym sądzić mam bronisz piecyka jak się tylko da.... to się kupy nie trzyma jesteś nie wiarygodny.
Przykro mi, ale jesteś w błędzie - to nie moje komentarze (google podpowiada, że to niejaki ' KILLZONE' je pisał), chociaż pamiętam, że ktoś z takimi bzdurami wyskakiwał - jeśli liczymy, że PS4 ma przepustowość 176 GB/s to PCI-E 3 16x ma przepustowość 32GB/s (w jedną stronę ma 16, ale PS4 ma 88 GB/s w jedną stronę). Megateksturing, faktycznie potrafił być problemem kilka lat temu, jednak nie ze względu na przepustowość (to załatwiały Bindless Textures i Sparse Textures i nawet Rage z najintensywniej wykorzystywanym megatexturingiem, a spokojnie wystarcza mu PCI-E 1.0 (4GB/s w jedną stronę) i to z takim zapasem, że wpływa może w okolicach 1% na wydajność), a sync pointy przy wysyłaniu tekstur (jeszcze kilka lat temu API na PC zmuszały do synchronizacji CPU i GPU przy tej operacji, co zabijało wydajność - teraz mamy OpenGL i Mantle, które tego nie robią i megatexturing nie jest żadnym problemem).
A to co twój sobowtór post #185
post #193 i kto pisał ''Jak najbardziej dlatego piszę, że PCI-E to nie jest rozwiązanie, a PC jest przez swoją kompatybilność wsteczną udupiony na kolejną dekadę''
http://pclab.pl/kom66676--0.html#c657388
Jak sam widzisz na własne posty piszesz bzdury i jeszcze na jakiegoś killzone zwalasz ech... nie ładnie
Nadal uważam że DriveClub miażdży jeśli chodzi o efekty wizualne i prezentują się bardziej realistycznie. Poszperaj w sieci o Driveclub co piszą o grafice i sam w końcu sprawdz na własne oczy. I nikt nie pisał że DC to symulator bo to było wiadomo przed ukazaniem się gry. Ale model jazdy jest przyjemny bardziej zręcznościowy.
Widziałeś coś podobnego w grach wyścigowych a project cars z tego co widać nie podskoczy wyżej.
http://a.pomf.se/mwiuqy.gif
https://www.youtube.com/watch?v=xKgFqC9zuPY
hue hue
https://www.youtube.com/watch?v=RvLGl5wlKTU
I ściagnij sobie co wyżej wkleiłem link do pliku wysokiej jakości z dema The Order 1886. Gra prezentuję się jak filmowa animacja komputerowa.
Dobranoc.
A to co twój sobowtór post #185
post #193 i kto pisał ''Jak najbardziej dlatego piszę, że PCI-E to nie jest rozwiązanie, a PC jest przez swoją kompatybilność wsteczną udupiony na kolejną dekadę''
http://pclab.pl/kom66676--0.html#c657388
Jak sam widzisz na własne posty piszesz bzdury i jeszcze na jakiegoś killzone zwalasz ech... nie ładnie
Szkoda, że nie zacytowałeś dalej, ani kontekstu rozmowy. Rozmowa była prowadzona na temat procków z założenia na serwery (Nvidia Denver, AMD Operony na ARM). Przykładowo w serwerach i centrach obliczeniowych na wysoką przepustowość CPU -> GPU czekają z utęsknieniem (dlatego też przykładowo Nvidia chce NVLINK dać dla serwerów z Denverem, ale nie będzie dla PC).
Współdzielona szybka pamięć w wielu obliczeniach się przydaje (i jej brak powoduje, ze bazy danych powoli przechodzą na GPU, podobnie jak inne serwery czy obliczenia).
Nie neguję korzyści jakie w wielu sytuacjach może przynieść współdzielona pamięć i z tego względu nie napisałem 'Współdzielona pamięć nic nie daje', a napisałem 'Dodatkowo gdzie jak gdzie, ale w wypadku obliczeń fizyki współdzielona pamięć nic nie daje'. Różnica jednak między nami jest taka, że znam algorytmy, wiem jakie dane gdzie są przetwarzane i jaka jest ich charakterystyka. W wielu przypadkach współdzielona pamięć się przydaje, ale akurat nie w grach (i ogólnie od czasu dynamicznej generacji kerneli z GPU (Kepler/GCN) w grafice jako takiej (również bipathtracery nic nie zyskają - zyskiwały przed Kepler/GCN gdy rekurencja na GPU nie była możliwa)). Fajnie, że mówisz o PS3 i Cell - dla tego procesora kupiłem tą konsolę i przez jakiś czas wykorzystywałem go do bardziej wymagających obliczeń, bo przez lata nie istniał lepszy procesor, a i GPU w obliczeniach raczkowały - akurat PS3 od początku uważałem, za wielki krok w przyszłość i przez lata PC nie mogło dogonić tego CPU (GPU szybko zostało przegonione, podobnie jak GPU + SPU przegrywało szybko z dedykowanymi kartami, ale CPU to był mocny punkt tamtej konsoli). PS4 jednak to zupełnie inna bajka, bo to sprzęt po prostu słaby.
Do przesłania raptem 96Bajtów w PS3 na cykl (w CPU) potrzebna była magistrala 200GB/s. Oboje wiemy, ze jak chcesz przesłać w CPU nawet małą ilość danych ale w jak najkrótszym cyklu to potrzebna jest szeroka magistrala (w PS4 sama komunikacja z L2 to 200 cykli, a pakowanie danych które się krzyżują to totalne zabicie wydajności, PS4 ma L2 podzielony dla 2 modułów, wystarczy by dane były w drugiej części cache i prędkość odczytu spada 6-krotnie). Wszystko zalezy od tego w ilu cyklach chcesz przesłać dane. Dochodzi jeszcze redundacja danych bo wiemy przecież, ze danych nie da się zawsze pięknie ułożyć w równe 'paczuszki'. Pisze o tym nawet ND w publikacji (nizej) It’s important to remember that if read a single byte of data then you’ll end up loading an entire 64 bytes into cache.
PS4 ma raptem 3 autorskie rozwiązania (głównie od Sony), które mają zwiększać wydajność i są one opisane w podpunkcie 'Graphics processing unit'
http://en.wikipedia.org/wiki/PlayStation_4..._specifications
W PS4 połozono na GPGPU na GPU głównie.
http://www.redgamingtech.com/ps4-architect...eakdown-part-2/