http://www.redgamingtech.com/amd-tressfx-2...more-than-hair/
Tu masz porównanie 1.0 i 2.0. Jeśli dla ciebie wprowadzenie LOD to uproszczenie to masz racje tyle ze ty tego nie rozumiesz kolego. LOD to nic innego jak poziom detali który potrafisz ludzkim okiem odróżnić w pewnej odległości od ciebie (oka). Ja wiem ze ty byś walił konia pod kołdrą wiedząc że twoje GPU renderuje bilion polygonów na powierzchni 3 pikseli ale dorosłych inteligentnych ludzi to nie jara bo tego nie widać.
Nie oceniaj innych ludzi po sobie, to że Ty tak robisz nie znaczy że ja muszę, napisałem tylko że to dwa różne porty gry z różnymi wersjami technologii, a ty płacząc i bijąc po klawiaturze wylewasz tutaj żale a ja mam tak szczerzę powiedziawszy gdzieś tego Tomb Raidera i całe te porównywanie czytaj ze zrozumieniem to oszczędzisz nerwy na przyszłość bo straciłeś tylko czas.
Ja uderzam w klawiaturę? Dziecko po prostu próbuje Ci uzmysłowić, że wymyślasz fakty i wypisujesz bajki na tematy o których nie masz pojęcia więc powinieneś mi podziękować za darmową diagnozę 'najwyższa pora iść do specjalisty'.
Poziom tego serwisu to jest dno i kilometr mułu jeśli mówimy o technologii i grach.
Podałem przykład typowego 'eksperta PC' z tego serwisu. Oczytało się dziecko wykresów i rzuca się na wszystkich co negują wyższość jego cudownego PC w kategorii gaming.
SunTzu @ 2014.02.09 21:12
@up
A czego się miał uczepić? gier na konsole nowej generacji jest garstka
I takich trolli jak Ty uczepiłeś się tego Tomb Raidera jak jakiejś wyroczni, porównujesz dwa systemy dwoma zupełnie różnymi portami tej samej gry, PC ma tesselację i tressfx 1.0 które są kilku krotnie bardziej wymagające, niż uproszczone tressfx 2.0. Zaczepki w stylu złóż mi PC za cenę konsoli są na poziomie wczesnego gimnazjum, Sony płaci 100$ za mega wypasione APU, jak załatwisz mi taki deal, to podam ci konfigurację od ręki, bo chyba nie chesz się opierać o ceny sklepowe ? bo jeśli tak, to chyba nie rozumiesz jak działa produkcja masowa i skąd ta niska cena konsol.
http://www.redgamingtech.com/amd-tressfx-2...more-than-hair/
Tu masz porównanie 1.0 i 2.0. Jeśli dla ciebie wprowadzenie LOD to uproszczenie to masz racje tyle ze ty tego nie rozumiesz kolego. LOD to nic innego jak poziom detali który potrafisz ludzkim okiem odróżnić w pewnej odległości od ciebie (oka). Ja wiem ze ty byś walił konia pod kołdrą wiedząc że twoje GPU renderuje bilion polygonów na powierzchni 3 pikseli ale dorosłych inteligentnych ludzi to nie jara bo tego nie widać.
Nie oceniaj innych ludzi po sobie, to że Ty tak robisz nie znaczy że ja muszę, napisałem tylko że to dwa różne porty gry z różnymi wersjami technologii, a ty płacząc i bijąc po klawiaturze wylewasz tutaj żale a ja mam tak szczerzę powiedziawszy gdzieś tego Tomb Raidera i całe te porównywanie czytaj ze zrozumieniem to oszczędzisz nerwy na przyszłość bo straciłeś tylko czas.
UWAGA !!! Mamy już :
- Wałęsa. Człowiek z nadziei
- JUTRO będzie JACK STRONG (2014) !!!!
Zapraszamy na http://tiny.pl/qffp3
Mamy gry, filmy i seriale z lektorem i dubbingiem w wysokiej jakości !
Wszystko bezpiecznie pobierasz w nowej metodzie. Anonimowo i legalnie !
Zakładam w takim wypadku, że nie miałeś PS4 czy Wii U w ręce, ale już nie ważne jeśli dla Ciebie argumentem w konkretnej dyskusji jest 'nie obchodzi mnie to'.
No a tak na marginesie przypomniałem sobie żart mojego znajomego, który tutaj chyba pasuje: 'Polska kraj 38 mln sportowców, prawników, lekarzy, informatyków i ogólnie specjalistów od wszystkiego'.
I takich trolli jak Ty uczepiłeś się tego Tomb Raidera jak jakiejś wyroczni, porównujesz dwa systemy dwoma zupełnie różnymi portami tej samej gry, PC ma tesselację i tressfx 1.0 które są kilku krotnie bardziej wymagające, niż uproszczone tressfx 2.0. Zaczepki w stylu złóż mi PC za cenę konsoli są na poziomie wczesnego gimnazjum, Sony płaci 100$ za mega wypasione APU, jak załatwisz mi taki deal, to podam ci konfigurację od ręki, bo chyba nie chesz się opierać o ceny sklepowe ? bo jeśli tak, to chyba nie rozumiesz jak działa produkcja masowa i skąd ta niska cena konsol.
http://www.redgamingtech.com/amd-tressfx-2...more-than-hair/
Tu masz porównanie 1.0 i 2.0. Jeśli dla ciebie wprowadzenie LOD to uproszczenie to masz racje tyle ze ty tego nie rozumiesz kolego. LOD to nic innego jak poziom detali który potrafisz ludzkim okiem odróżnić w pewnej odległości od ciebie (oka). Ja wiem ze ty byś walił konia pod kołdrą wiedząc że twoje GPU renderuje bilion polygonów na powierzchni 3 pikseli ale dorosłych inteligentnych ludzi to nie jara bo tego nie widać. LOD to poziom detali zależny od odległości. Coś jest dalej zmniejsza się ilość detali bo zmniejsza się ilość pikseli jaką zajmuje obiekt na ekranie chłopczyku. Inteligentnych ludzi jara to co da się wykrzesać ze sprzętu przy pomocy ulepszania kodu (nie użyłem słowa optymalizacja bo dla gimbazy to tekstury..), dla ciebie pctowca liczy się by gówniany efekt powodował dropy do 2fps i wtedy wiesz że masz super GPU. Sorry ale dorosłych ludzi to nie jara. Brak LOD w wersji 1.0 pokazuje tylko słabość PC bo jednym śmiesznym efektem zapycha się pipeline. Kod ma być jak najchudszy bo chudy kod zawsze działa szybciej - nawet odczyt z pamieci krótszego kodu zawsze jest szybszy od kodu długiego to jest logiczne.
Nawiążę do APU za 100USD. Cell pod linuxem którego koszt to było dla japończyków jakieś 50-60USD deklasował Intela i7 Extreme za 1000USD w dekodingu mpg4@1080p (29fps vs 18fps). Procek z PS3 osiągał podobny rezultat co GTX280 (25.6GB/s vs 141.7GB/s da się?)
Tylko co z tego jak to potrzebne było kilku osobom na świecie...
Tesselacje to miało PS2 kolego.
@SunTzu
GPU w X360 to ATI/NEC.
Nadal nie odpowiedziałeś na moje pytania, czyli potwierdziłeś ze coś tam wiesz ale nie wiesz w którym kościele biją dzwony.
SNC @ 2014.02.07 20:40
To czemu ma wydajnosc na poziomie karty za niecale 500zl?
Tez Ci odpowiem głupim pytaniem. Czemu do tej karty za 500zł muszę podłączyć zasilacz wielkości gamecuba kiedy w PS4 jest on grubości 2cm? Wydajność ty rozumiesz inaczej niz ja.
No i też coś z teslacją namieszali... jest tego trochę, ale już nie chciałem wchodzić w dyskusje, bo ogólnie rzecz ująłem, że na PC parametry są często wyśrubowane, np. AA/Cienie, tym można zabić wydajność
(...)
1. Nie obchodzi mnie to, bo MS wprowadził abonament i zapłacę wielokrotność konsoli z pewnością jednak na to zwraca uwagę MS. W sensie dosłownym 'koszty produkcji' to na początku mogą być nawet dużo jako, że zamiast brać gotowce i mniejsze układy, AMD bierze dość duży. Ponoć są nieaktywne bloki w konsolach cóż może, właśnie dlatego lepiej dać dwa?
2. Tak, ale nie trzeba projektować dość sporych rozmiarów układów, a zastosować to co jest.
3. łatwiej odrowadzić ciepło z dwóch źródeł niż z jednego, koszt heat pipe nie jest tak duży.
4. Laptop jest mniejszy od konsol, a upchnięto mocniejszy sprzęt.
Zakładam w takim wypadku, że nie miałeś PS4 czy Wii U w ręce, ale już nie ważne jeśli dla Ciebie argumentem w konkretnej dyskusji jest 'nie obchodzi mnie to'.
No a tak na marginesie przypomniałem sobie żart mojego znajomego, który tutaj chyba pasuje: 'Polska kraj 38 mln sportowców, prawników, lekarzy, informatyków i ogólnie specjalistów od wszystkiego'.
I takich trolli jak Ty uczepiłeś się tego Tomb Raidera jak jakiejś wyroczni, porównujesz dwa systemy dwoma zupełnie różnymi portami tej samej gry, PC ma tesselację i tressfx 1.0 które są kilku krotnie bardziej wymagające, niż uproszczone tressfx 2.0. Zaczepki w stylu złóż mi PC za cenę konsoli są na poziomie wczesnego gimnazjum, Sony płaci 100$ za mega wypasione APU, jak załatwisz mi taki deal, to podam ci konfigurację od ręki, bo chyba nie chesz się opierać o ceny sklepowe ? bo jeśli tak, to chyba nie rozumiesz jak działa produkcja masowa i skąd ta niska cena konsol.
Miałem PS4/Wii, nie Wii U? Chodziło Ci o tą zagadkę? 'XboX360, Wii oraz WiiU'? Tylko CPU IBM-a przychodzi mi do głowy.
Natomiast mi przychodzi do głowy GPU od AMD, a przy okazji zintegrowany EDRAM też nie jest nowością.
Jakie GPU jest w x360 slim?
ATI robiło GPU dla MS, AMD przejęło je jakieś pół roku później, ale to szczegół. Nie znam umowy ATI/MS, nie wiem czy GPU w x360 slim to GPU AMD (ATI mogło sprzedać projekt MS tak jak Qualcommowi), albo nawet mogli dać inne GPU. Po prostu nie wiem, a oficjalnych danych nigdy nie widziałem.
Natomiast mi przychodzi do głowy GPU od AMD, a przy okazji zintegrowany EDRAM też nie jest nowością.
HA! X360 i Wii mają GPU od ATi xD
Hehe, dostarczycielem IP jest AMD.
W każdym razie jeśli chodzi o konsole to ja czekam na Infamous: Second Son na PS4. Mam nadzieje, że pokażą możliwości next-genów.
No i też coś z teslacją namieszali... jest tego trochę, ale już nie chciałem wchodzić w dyskusje, bo ogólnie rzecz ująłem, że na PC parametry są często wyśrubowane, np. AA/Cienie, tym można zabić wydajność
(...)
1. Nie obchodzi mnie to, bo MS wprowadził abonament i zapłacę wielokrotność konsoli z pewnością jednak na to zwraca uwagę MS. W sensie dosłownym 'koszty produkcji' to na początku mogą być nawet dużo jako, że zamiast brać gotowce i mniejsze układy, AMD bierze dość duży. Ponoć są nieaktywne bloki w konsolach cóż może, właśnie dlatego lepiej dać dwa?
2. Tak, ale nie trzeba projektować dość sporych rozmiarów układów, a zastosować to co jest.
3. łatwiej odrowadzić ciepło z dwóch źródeł niż z jednego, koszt heat pipe nie jest tak duży.
4. Laptop jest mniejszy od konsol, a upchnięto mocniejszy sprzęt.
Zakładam w takim wypadku, że nie miałeś PS4 czy Wii U w ręce, ale już nie ważne jeśli dla Ciebie argumentem w konkretnej dyskusji jest 'nie obchodzi mnie to'.
No a tak na marginesie przypomniałem sobie żart mojego znajomego, który tutaj chyba pasuje: 'Polska kraj 38 mln sportowców, prawników, lekarzy, informatyków i ogólnie specjalistów od wszystkiego'.
Miałem PS4/Wii, nie Wii U? Chodziło Ci o tą zagadkę? 'XboX360, Wii oraz WiiU'? Tylko CPU IBM-a przychodzi mi do głowy.
jestem pasjonatem technologii studiuję medycynę... zostaje prawo i sport, wiem tyle w tych tematach co mnie dotyczy, a poza tym jestem tępy jak but.
Ktoś może być infomatykiem, a hobby sportowiec. Zobacz sobie np. reprezentację meksyku na olimpiadzie zimowej to chyba nie zbrodnia mieć jakieś hobby.
i do końca będzie twierdził, że to daje nie wiadomo co (bo nie wiadomo), a to, że np. w PC masz APU+dGPU i ten problem nie istnieje to inna bajka.
Mógłbyś rozwinąć to co napisałeś bo ewidentnie widać że wymyślasz fakty pod swoje widzimisię. Udowodnij to co napisałeś inaczej twoja wiarygodność spada do zera. Ja opieram się na schematach i wypowiedziach konstruktorów. GPU w PS4 jest oparte na zwykłej karcie z PC czyli radeonie HD78 coś tam.
Do ciebie nadal nie dociera ze SONY ma przeogromną bazę inżynierów (głównie japońskich i amerykańskich) i ze SoC w PS4 posiada rozwiązania z PS3 tyle ze teraz prawdopodobnie wystarczy wskazać hardwareowi które zadania ma trzymać do wykonania, ponadto posiada dodatkową magistralę do mainRAM z GPU która całkowicie pomija cache (dodatkowe cykle) i ma przeprojektowany cache. http://www.gamasutra.com/view/feature/1910...ark_.php?page=2
To czemu ma wydajnosc na poziomie karty za niecale 500zl?
Swoja droga ten Carny te niezly bajkopisarz ''The launch lineup for PlayStation 4 -- though I unfortunately can’t give the title count -- is going to be stronger than any prior PlayStation hardware. And that's a result of that familiarity,' a co do tego czy ps4 jest faktycznie krokiem do przodu jesli chodzi o jednoczesny rendering i computing to oby, ale slabo wygladajacy Knack potrafil przyciac do 20 fpsow jak gpu musialo polliczyc fizyke wiekszej ilosci 'bloczkow'.
Anyway, Suntzu mółbyś mi pokazac te spadki FPS w Tomb Raiderze bo ja ciekaw? Mam nadzieje, ze nie pominiesz tego tak samo jak kwestii HSA/Huma oraz posty Hashiego na temat prawdopodobnych zmian w układzie?
Po pierwsze porównywanie desktopowych kart (wykres Laba wyżej) do układu w PS4 jest bez sensu, ze względu na optymalizację, ale i sztuczki które konsolowej optymalizacji od zawsze towarzyszą. Definitywny Tomb Raider jest skrajany pod nowe konsole, nawet nowy Tress pod konsole skroili, ale tak tu i tam jakiś dodatkowy efekt się znalazł.
PC ma średniej jakości port, z pierwotnym Tress.
Co do dropów, to są (w dziwnych miejscach):
36 FPS przy ognisku - 2:29/2:30
34 FPS gdy ocalali naradzają się razem - 3:46
Teraz to nieszczęsne porównanie.
Lab słynie z wybierania do testów graficznych najbardziej zabójczego miejsca dla kart. Nie wiemy jakie to miejsce i z tego względy jakiekolwiek porównanie nie będzie miarodajne.
Jednak jak widać karty z tamtego testu radzą sobie w najgorszym możliwym scenariuszu graficznym, w średniej jakości porcie, z pierwotnym nie optymalizowanym Tress.
PS4 osiąga zadowalające wyniki, ale występują ciągłe wahania, na filmiku min 34 klatki w dziwnym miejscu. Jak poradziłoby sobie w miejscu testowym Laba? Śmiem twierdzić że sporo słabiej.
Mimo tych różnic, PS4 spisała się jak powiedzmy desktopowa hd 7950.
Czy to sukces? Raczej średni.
Czy PC dzięki lepszej optymalizacji uzyskałby lepsze wyniki? Na pewno.
Przecież każdy z was dobrze wie i zawsze wiedział, że PC o mocy konsoli łatwo zbudować i to tanio, gorzej uzyskać te FPSy w grach a po premierze Mantle dobrze widać że to przez DirectX, nawet nie przez jakieś magiczne optymalizacje pod jedną platformę. Wystarczy złożyć zestaw z odpowiednikiem CPU tych SZEŚCIU śmiesznych jaguarów, bo tyle może być wykorzystanych w grach, najlepiej na Intelu bo mocny jeden wątek zwłaszcza na Radeonie zrekompensuje całą wielowątkowość i do tego GPU o mocy we flopsach równą PS4 i już.
Na marginesie w Tomb Raider DE wciąż nie ma max detali z PC, chociażby ten cały TressFX jest uproszczony i niektóre efekty fizyczne nie oddziałują na te włosy.
No i też coś z teslacją namieszali... jest tego trochę, ale już nie chciałem wchodzić w dyskusje, bo ogólnie rzecz ująłem, że na PC parametry są często wyśrubowane, np. AA/Cienie, tym można zabić wydajność
Bruno@Home @ 2014.02.07 19:05
(...)
Suntzu poniżej zostawiam Ci dodatkowo kilka rzeczy do przemyślenia.
1. Dwa osobne układy to WYŻSZE koszty produkcji.
2. Dwa osobne układy wymagają bardziej skomplikowanej i ponownie droższej w produkcji płytki PCB/płyty głównej.
3. Musisz odebrać ciepło z dwóch źródeł, co ponownie zwiększa koszty produkcji i skomplikowanie układu chłodzenia.
4. Powyższe zmiany wymagają dodatkowej przestrzeni i wpływają negatywnie na rozmiar całego urządzenia.
Over&out i dlatego takim sprzętem zajmują się specjaliści, bo nawet najmniejsze zmiany wywołują cała lawinę następstw.
Ps. Wiesz co łączy XboX360, Wii oraz WiiU?
1. Nie obchodzi mnie to, bo MS wprowadził abonament i zapłacę wielokrotność konsoli z pewnością jednak na to zwraca uwagę MS. W sensie dosłownym 'koszty produkcji' to na początku mogą być nawet dużo jako, że zamiast brać gotowce i mniejsze układy, AMD bierze dość duży. Ponoć są nieaktywne bloki w konsolach cóż może, właśnie dlatego lepiej dać dwa?
2. Tak, ale nie trzeba projektować dość sporych rozmiarów układów, a zastosować to co jest.
3. łatwiej odrowadzić ciepło z dwóch źródeł niż z jednego, koszt heat pipe nie jest tak duży.
4. Laptop jest mniejszy od konsol, a upchnięto mocniejszy sprzęt.
Zakładam w takim wypadku, że nie miałeś PS4 czy Wii U w ręce, ale już nie ważne jeśli dla Ciebie argumentem w konkretnej dyskusji jest 'nie obchodzi mnie to'.
No a tak na marginesie przypomniałem sobie żart mojego znajomego, który tutaj chyba pasuje: 'Polska kraj 38 mln sportowców, prawników, lekarzy, informatyków i ogólnie specjalistów od wszystkiego'.
Na marginesie w Tomb Raider DE wciąż nie ma max detali z PC, chociażby ten cały TressFX jest uproszczony i niektóre efekty fizyczne nie oddziałują na te włosy.
Według eurogamera obie wersje są na swój sposob unikalne w kwestii grafiki. Pewnych ficzerów z konsoli nie ma na PC a pewnych ficzerów z PC nie ma na konsoli. Pozostaje kwestia co i jak wpływa na wydajność, bo graficznie jest porównywalnie. Chociaz zawsze zaletą PCta pozostanie to, że jest mozliwosc zabawy z dodatkowym AA czy z SweetFX.
Trochę bajerów graficznych na plus tu i na plus tu. Z tym że jest jedna znacząca dość różnica jeżeli chodzi o max detale i ilość fps, kiedy każesz komuś puścić na max detalach TR na PC to każesz mu używać tesselacji a to obciąża kartę graficzną już w istotny sposób.
Przecież każdy z was dobrze wie i zawsze wiedział, że PC o mocy konsoli łatwo zbudować i to tanio, gorzej uzyskać te FPSy w grach a po premierze Mantle dobrze widać że to przez DirectX, nawet nie przez jakieś magiczne optymalizacje pod jedną platformę. Wystarczy złożyć zestaw z odpowiednikiem CPU tych SZEŚCIU śmiesznych jaguarów, bo tyle może być wykorzystanych w grach, najlepiej na Intelu bo mocny jeden wątek zwłaszcza na Radeonie zrekompensuje całą wielowątkowość i do tego GPU o mocy we flopsach równą PS4 i już.
Na marginesie w Tomb Raider DE wciąż nie ma max detali z PC, chociażby ten cały TressFX jest uproszczony i niektóre efekty fizyczne nie oddziałują na te włosy.
No i też coś z teslacją namieszali... jest tego trochę, ale już nie chciałem wchodzić w dyskusje, bo ogólnie rzecz ująłem, że na PC parametry są często wyśrubowane, np. AA/Cienie, tym można zabić wydajność
Bruno@Home @ 2014.02.07 19:05
SunTzu @ 2014.02.07 18:40
(...)
Od początku o tym pisałem
Są plusy i minusy, ale generalnie next gen AMD na szczęście ma wprowadzić to co x360 miał już lata temu...
Nie widzę przeszkód, by w konsoli było osobno CPU i GPU, a potem dać APU. W tym momencie tniemy też koszty projektowania.
Suntzu poniżej zostawiam Ci dodatkowo kilka rzeczy do przemyślenia.
1. Dwa osobne układy to WYŻSZE koszty produkcji.
2. Dwa osobne układy wymagają bardziej skomplikowanej i ponownie droższej w produkcji płytki PCB/płyty głównej.
3. Musisz odebrać ciepło z dwóch źródeł, co ponownie zwiększa koszty produkcji i skomplikowanie układu chłodzenia.
4. Powyższe zmiany wymagają dodatkowej przestrzeni i wpływają negatywnie na rozmiar całego urządzenia.
Over&out i dlatego takim sprzętem zajmują się specjaliści, bo nawet najmniejsze zmiany wywołują cała lawinę następstw.
Ps. Wiesz co łączy XboX360, Wii oraz WiiU?
1. Nie obchodzi mnie to, bo MS wprowadził abonament i zapłacę wielokrotność konsoli z pewnością jednak na to zwraca uwagę MS. W sensie dosłownym 'koszty produkcji' to na początku mogą być nawet duże jako, że zamiast brać gotowce i mniejsze układy... AMD projektuje dość duży i zaawansowany. Ponoć są nieaktywne bloki w konsolach cóż może, właśnie dlatego lepiej dać dwa?, lepszy uzysk, niższe koszty projektu.
2. Tak, ale nie trzeba projektować dość sporych rozmiarów układów, a zastosować to co jest, to zawsze było łatawiejsze.
3. łatwiej odrowadzić ciepło z dwóch źródeł niż z jednego, koszt heat pipe nie jest tak duży.
4. Laptop jest mniejszy od konsol, a upchnięto mocniejszy sprzęt.
Czyli wracamy do parametru cena i zataczamy pełno koło.
Poza tym semi-custom APU i to dodatkowo SoC (System on Chip) to nie to samo co osobne CPU i GPU.
Ciekawe kiedy te fakty również zostaną dostrzeżone.
Od początku o tym pisałem
Są plusy i minusy, ale generalnie next gen AMD na szczęście ma wprowadzić to co x360 miał już lata temu...
Nie widzę przeszkód, by w konsoli było osobno CPU i GPU, a potem dać APU. W tym momencie tniemy też koszty projektowania.
Suntzu poniżej zostawiam Ci dodatkowo kilka rzeczy do przemyślenia.
1. Dwa osobne układy to WYŻSZE koszty produkcji.
2. Dwa osobne układy wymagają bardziej skomplikowanej i ponownie droższej w produkcji płytki PCB/płyty głównej.
3. Musisz odebrać ciepło z dwóch źródeł, co ponownie zwiększa koszty produkcji i skomplikowanie układu chłodzenia.
4. Powyższe zmiany wymagają dodatkowej przestrzeni i wpływają negatywnie na rozmiar całego urządzenia.
Over&out i dlatego takim sprzętem zajmują się specjaliści, bo nawet najmniejsze zmiany wywołują cała lawinę następstw.
http://www.redgamingtech.com/amd-tressfx-2...more-than-hair/
Tu masz porównanie 1.0 i 2.0. Jeśli dla ciebie wprowadzenie LOD to uproszczenie to masz racje tyle ze ty tego nie rozumiesz kolego. LOD to nic innego jak poziom detali który potrafisz ludzkim okiem odróżnić w pewnej odległości od ciebie (oka). Ja wiem ze ty byś walił konia pod kołdrą wiedząc że twoje GPU renderuje bilion polygonów na powierzchni 3 pikseli ale dorosłych inteligentnych ludzi to nie jara bo tego nie widać.
Nie oceniaj innych ludzi po sobie, to że Ty tak robisz nie znaczy że ja muszę, napisałem tylko że to dwa różne porty gry z różnymi wersjami technologii, a ty płacząc i bijąc po klawiaturze wylewasz tutaj żale a ja mam tak szczerzę powiedziawszy gdzieś tego Tomb Raidera i całe te porównywanie
Poziom tego serwisu to jest dno i kilometr mułu jeśli mówimy o technologii i grach.
Podałem przykład typowego 'eksperta PC' z tego serwisu. Oczytało się dziecko wykresów i rzuca się na wszystkich co negują wyższość jego cudownego PC w kategorii gaming.
A czego się miał uczepić? gier na konsole nowej generacji jest garstka
A czego się miał uczepić? gier na konsole nowej generacji jest garstka
I takich trolli jak Ty
http://www.redgamingtech.com/amd-tressfx-2...more-than-hair/
Tu masz porównanie 1.0 i 2.0. Jeśli dla ciebie wprowadzenie LOD to uproszczenie to masz racje tyle ze ty tego nie rozumiesz kolego. LOD to nic innego jak poziom detali który potrafisz ludzkim okiem odróżnić w pewnej odległości od ciebie (oka). Ja wiem ze ty byś walił konia pod kołdrą wiedząc że twoje GPU renderuje bilion polygonów na powierzchni 3 pikseli ale dorosłych inteligentnych ludzi to nie jara bo tego nie widać.
Nie oceniaj innych ludzi po sobie, to że Ty tak robisz nie znaczy że ja muszę, napisałem tylko że to dwa różne porty gry z różnymi wersjami technologii, a ty płacząc i bijąc po klawiaturze wylewasz tutaj żale a ja mam tak szczerzę powiedziawszy gdzieś tego Tomb Raidera i całe te porównywanie
- Wałęsa. Człowiek z nadziei
- JUTRO będzie JACK STRONG (2014) !!!!
Zapraszamy na http://tiny.pl/qffp3
Mamy gry, filmy i seriale z lektorem i dubbingiem w wysokiej jakości !
Wszystko bezpiecznie pobierasz w nowej metodzie. Anonimowo i legalnie !
- Wałęsa. Człowiek z nadziei
- JUTRO będzie JACK STRONG (2014) !!!!
Zapraszamy na http://tiny.pl/qjhl9
Wałęsa. Człowiek z nadziei
JUTRO będzie JACK STRONG (2014) !!!!
Zapraszamy na http://tiny.pl/qjhl9
Zakładam w takim wypadku, że nie miałeś PS4 czy Wii U w ręce, ale już nie ważne jeśli dla Ciebie argumentem w konkretnej dyskusji jest 'nie obchodzi mnie to'.
No a tak na marginesie przypomniałem sobie żart mojego znajomego, który tutaj chyba pasuje: 'Polska kraj 38 mln sportowców, prawników, lekarzy, informatyków i ogólnie specjalistów od wszystkiego'.
I takich trolli jak Ty
http://www.redgamingtech.com/amd-tressfx-2...more-than-hair/
Tu masz porównanie 1.0 i 2.0. Jeśli dla ciebie wprowadzenie LOD to uproszczenie to masz racje tyle ze ty tego nie rozumiesz kolego. LOD to nic innego jak poziom detali który potrafisz ludzkim okiem odróżnić w pewnej odległości od ciebie (oka). Ja wiem ze ty byś walił konia pod kołdrą wiedząc że twoje GPU renderuje bilion polygonów na powierzchni 3 pikseli ale dorosłych inteligentnych ludzi to nie jara bo tego nie widać. LOD to poziom detali zależny od odległości. Coś jest dalej zmniejsza się ilość detali bo zmniejsza się ilość pikseli jaką zajmuje obiekt na ekranie chłopczyku. Inteligentnych ludzi jara to co da się wykrzesać ze sprzętu przy pomocy ulepszania kodu (nie użyłem słowa optymalizacja bo dla gimbazy to tekstury..), dla ciebie pctowca liczy się by gówniany efekt powodował dropy do 2fps i wtedy wiesz że masz super GPU. Sorry ale dorosłych ludzi to nie jara. Brak LOD w wersji 1.0 pokazuje tylko słabość PC bo jednym śmiesznym efektem zapycha się pipeline. Kod ma być jak najchudszy bo chudy kod zawsze działa szybciej - nawet odczyt z pamieci krótszego kodu zawsze jest szybszy od kodu długiego to jest logiczne.
Nawiążę do APU za 100USD. Cell pod linuxem którego koszt to było dla japończyków jakieś 50-60USD deklasował Intela i7 Extreme za 1000USD w dekodingu mpg4@1080p (29fps vs 18fps). Procek z PS3 osiągał podobny rezultat co GTX280 (25.6GB/s vs 141.7GB/s da się?)
Tylko co z tego jak to potrzebne było kilku osobom na świecie...
Tesselacje to miało PS2 kolego.
@SunTzu
GPU w X360 to ATI/NEC.
Nadal nie odpowiedziałeś na moje pytania, czyli potwierdziłeś ze coś tam wiesz ale nie wiesz w którym kościele biją dzwony.
To czemu ma wydajnosc na poziomie karty za niecale 500zl?
No i też coś z teslacją namieszali... jest tego trochę, ale już nie chciałem wchodzić w dyskusje, bo ogólnie rzecz ująłem, że na PC parametry są często wyśrubowane, np. AA/Cienie, tym można zabić wydajność
1. Nie obchodzi mnie to, bo MS wprowadził abonament i zapłacę wielokrotność konsoli z pewnością jednak na to zwraca uwagę MS. W sensie dosłownym 'koszty produkcji' to na początku mogą być nawet dużo jako, że zamiast brać gotowce i mniejsze układy, AMD bierze dość duży. Ponoć są nieaktywne bloki w konsolach cóż może, właśnie dlatego lepiej dać dwa?
2. Tak, ale nie trzeba projektować dość sporych rozmiarów układów, a zastosować to co jest.
3. łatwiej odrowadzić ciepło z dwóch źródeł niż z jednego, koszt heat pipe nie jest tak duży.
4. Laptop jest mniejszy od konsol, a upchnięto mocniejszy sprzęt.
Zakładam w takim wypadku, że nie miałeś PS4 czy Wii U w ręce, ale już nie ważne jeśli dla Ciebie argumentem w konkretnej dyskusji jest 'nie obchodzi mnie to'.
No a tak na marginesie przypomniałem sobie żart mojego znajomego, który tutaj chyba pasuje: 'Polska kraj 38 mln sportowców, prawników, lekarzy, informatyków i ogólnie specjalistów od wszystkiego'.
I takich trolli jak Ty
Miałem PS4/Wii, nie Wii U? Chodziło Ci o tą zagadkę? 'XboX360, Wii oraz WiiU'? Tylko CPU IBM-a przychodzi mi do głowy.
Natomiast mi przychodzi do głowy GPU od AMD, a przy okazji zintegrowany EDRAM też nie jest nowością.
Jakie GPU jest w x360 slim?
ATI robiło GPU dla MS, AMD przejęło je jakieś pół roku później, ale to szczegół. Nie znam umowy ATI/MS, nie wiem czy GPU w x360 slim to GPU AMD (ATI mogło sprzedać projekt MS tak jak Qualcommowi), albo nawet mogli dać inne GPU. Po prostu nie wiem, a oficjalnych danych nigdy nie widziałem.
Natomiast mi przychodzi do głowy GPU od AMD, a przy okazji zintegrowany EDRAM też nie jest nowością.
HA! X360 i Wii mają GPU od ATi xD
Hehe, dostarczycielem IP jest AMD.
W każdym razie jeśli chodzi o konsole to ja czekam na Infamous: Second Son na PS4. Mam nadzieje, że pokażą możliwości next-genów.
Miałem PS4/Wii, nie Wii U? Chodziło Ci o tą zagadkę? 'XboX360, Wii oraz WiiU'? Tylko CPU IBM-a przychodzi mi do głowy.
Natomiast mi przychodzi do głowy GPU od AMD, a przy okazji zintegrowany EDRAM też nie jest nowością.
HA! X360 i Wii mają GPU od ATi xD
Miałem PS4/Wii, nie Wii U? Chodziło Ci o tą zagadkę? 'XboX360, Wii oraz WiiU'? Tylko CPU IBM-a przychodzi mi do głowy.
Natomiast mi przychodzi do głowy GPU od AMD, a przy okazji zintegrowany EDRAM też nie jest nowością.
No i też coś z teslacją namieszali... jest tego trochę, ale już nie chciałem wchodzić w dyskusje, bo ogólnie rzecz ująłem, że na PC parametry są często wyśrubowane, np. AA/Cienie, tym można zabić wydajność
1. Nie obchodzi mnie to, bo MS wprowadził abonament i zapłacę wielokrotność konsoli z pewnością jednak na to zwraca uwagę MS. W sensie dosłownym 'koszty produkcji' to na początku mogą być nawet dużo jako, że zamiast brać gotowce i mniejsze układy, AMD bierze dość duży. Ponoć są nieaktywne bloki w konsolach cóż może, właśnie dlatego lepiej dać dwa?
2. Tak, ale nie trzeba projektować dość sporych rozmiarów układów, a zastosować to co jest.
3. łatwiej odrowadzić ciepło z dwóch źródeł niż z jednego, koszt heat pipe nie jest tak duży.
4. Laptop jest mniejszy od konsol, a upchnięto mocniejszy sprzęt.
Zakładam w takim wypadku, że nie miałeś PS4 czy Wii U w ręce, ale już nie ważne jeśli dla Ciebie argumentem w konkretnej dyskusji jest 'nie obchodzi mnie to'.
No a tak na marginesie przypomniałem sobie żart mojego znajomego, który tutaj chyba pasuje: 'Polska kraj 38 mln sportowców, prawników, lekarzy, informatyków i ogólnie specjalistów od wszystkiego'.
Miałem PS4/Wii, nie Wii U? Chodziło Ci o tą zagadkę? 'XboX360, Wii oraz WiiU'? Tylko CPU IBM-a przychodzi mi do głowy.
jestem pasjonatem technologii studiuję medycynę... zostaje prawo i sport, wiem tyle w tych tematach co mnie dotyczy, a poza tym jestem tępy jak but.
Ktoś może być infomatykiem, a hobby sportowiec. Zobacz sobie np. reprezentację meksyku na olimpiadzie zimowej
Mógłbyś rozwinąć to co napisałeś bo ewidentnie widać że wymyślasz fakty pod swoje widzimisię. Udowodnij to co napisałeś inaczej twoja wiarygodność spada do zera. Ja opieram się na schematach i wypowiedziach konstruktorów. GPU w PS4 jest oparte na zwykłej karcie z PC czyli radeonie HD78 coś tam.
Do ciebie nadal nie dociera ze SONY ma przeogromną bazę inżynierów (głównie japońskich i amerykańskich) i ze SoC w PS4 posiada rozwiązania z PS3 tyle ze teraz prawdopodobnie wystarczy wskazać hardwareowi które zadania ma trzymać do wykonania, ponadto posiada dodatkową magistralę do mainRAM z GPU która całkowicie pomija cache (dodatkowe cykle) i ma przeprojektowany cache.
http://www.gamasutra.com/view/feature/1910...ark_.php?page=2
Swoja droga ten Carny te niezly bajkopisarz ''The launch lineup for PlayStation 4 -- though I unfortunately can’t give the title count -- is going to be stronger than any prior PlayStation hardware. And that's a result of that familiarity,' a co do tego czy ps4 jest faktycznie krokiem do przodu jesli chodzi o jednoczesny rendering i computing to oby, ale slabo wygladajacy Knack potrafil przyciac do 20 fpsow jak gpu musialo polliczyc fizyke wiekszej ilosci 'bloczkow'.
Anyway, Suntzu mółbyś mi pokazac te spadki FPS w Tomb Raiderze bo ja ciekaw? Mam nadzieje, ze nie pominiesz tego tak samo jak kwestii HSA/Huma oraz posty Hashiego na temat prawdopodobnych zmian w układzie?
Po pierwsze porównywanie desktopowych kart (wykres Laba wyżej) do układu w PS4 jest bez sensu, ze względu na optymalizację, ale i sztuczki które konsolowej optymalizacji od zawsze towarzyszą. Definitywny Tomb Raider jest skrajany pod nowe konsole, nawet nowy Tress pod konsole skroili, ale tak tu i tam jakiś dodatkowy efekt się znalazł.
PC ma średniej jakości port, z pierwotnym Tress.
Co do dropów, to są (w dziwnych miejscach):
36 FPS przy ognisku - 2:29/2:30
34 FPS gdy ocalali naradzają się razem - 3:46
Teraz to nieszczęsne porównanie.
Lab słynie z wybierania do testów graficznych najbardziej zabójczego miejsca dla kart. Nie wiemy jakie to miejsce i z tego względy jakiekolwiek porównanie nie będzie miarodajne.
Jednak jak widać karty z tamtego testu radzą sobie w najgorszym możliwym scenariuszu graficznym, w średniej jakości porcie, z pierwotnym nie optymalizowanym Tress.
PS4 osiąga zadowalające wyniki, ale występują ciągłe wahania, na filmiku min 34 klatki w dziwnym miejscu. Jak poradziłoby sobie w miejscu testowym Laba? Śmiem twierdzić że sporo słabiej.
Mimo tych różnic, PS4 spisała się jak powiedzmy desktopowa hd 7950.
Czy to sukces? Raczej średni.
Czy PC dzięki lepszej optymalizacji uzyskałby lepsze wyniki? Na pewno.
Na marginesie w Tomb Raider DE wciąż nie ma max detali z PC, chociażby ten cały TressFX jest uproszczony i niektóre efekty fizyczne nie oddziałują na te włosy.
No i też coś z teslacją namieszali... jest tego trochę, ale już nie chciałem wchodzić w dyskusje, bo ogólnie rzecz ująłem, że na PC parametry są często wyśrubowane, np. AA/Cienie, tym można zabić wydajność
Suntzu poniżej zostawiam Ci dodatkowo kilka rzeczy do przemyślenia.
1. Dwa osobne układy to WYŻSZE koszty produkcji.
2. Dwa osobne układy wymagają bardziej skomplikowanej i ponownie droższej w produkcji płytki PCB/płyty głównej.
3. Musisz odebrać ciepło z dwóch źródeł, co ponownie zwiększa koszty produkcji i skomplikowanie układu chłodzenia.
4. Powyższe zmiany wymagają dodatkowej przestrzeni i wpływają negatywnie na rozmiar całego urządzenia.
Over&out i dlatego takim sprzętem zajmują się specjaliści, bo nawet najmniejsze zmiany wywołują cała lawinę następstw.
Ps. Wiesz co łączy XboX360, Wii oraz WiiU?
1. Nie obchodzi mnie to, bo MS wprowadził abonament i zapłacę wielokrotność konsoli z pewnością jednak na to zwraca uwagę MS. W sensie dosłownym 'koszty produkcji' to na początku mogą być nawet dużo jako, że zamiast brać gotowce i mniejsze układy, AMD bierze dość duży. Ponoć są nieaktywne bloki w konsolach cóż może, właśnie dlatego lepiej dać dwa?
2. Tak, ale nie trzeba projektować dość sporych rozmiarów układów, a zastosować to co jest.
3. łatwiej odrowadzić ciepło z dwóch źródeł niż z jednego, koszt heat pipe nie jest tak duży.
4. Laptop jest mniejszy od konsol, a upchnięto mocniejszy sprzęt.
Zakładam w takim wypadku, że nie miałeś PS4 czy Wii U w ręce, ale już nie ważne jeśli dla Ciebie argumentem w konkretnej dyskusji jest 'nie obchodzi mnie to'.
No a tak na marginesie przypomniałem sobie żart mojego znajomego, który tutaj chyba pasuje: 'Polska kraj 38 mln sportowców, prawników, lekarzy, informatyków i ogólnie specjalistów od wszystkiego'.
Według eurogamera obie wersje są na swój sposob unikalne w kwestii grafiki. Pewnych ficzerów z konsoli nie ma na PC a pewnych ficzerów z PC nie ma na konsoli. Pozostaje kwestia co i jak wpływa na wydajność, bo graficznie jest porównywalnie. Chociaz zawsze zaletą PCta pozostanie to, że jest mozliwosc zabawy z dodatkowym AA czy z SweetFX.
Trochę bajerów graficznych na plus tu i na plus tu. Z tym że jest jedna znacząca dość różnica jeżeli chodzi o max detale i ilość fps, kiedy każesz komuś puścić na max detalach TR na PC to każesz mu używać tesselacji a to obciąża kartę graficzną już w istotny sposób.
Na marginesie w Tomb Raider DE wciąż nie ma max detali z PC, chociażby ten cały TressFX jest uproszczony i niektóre efekty fizyczne nie oddziałują na te włosy.
No i też coś z teslacją namieszali... jest tego trochę, ale już nie chciałem wchodzić w dyskusje, bo ogólnie rzecz ująłem, że na PC parametry są często wyśrubowane, np. AA/Cienie, tym można zabić wydajność
Od początku o tym pisałem
Są plusy i minusy, ale generalnie next gen AMD na szczęście ma wprowadzić to co x360 miał już lata temu...
Nie widzę przeszkód, by w konsoli było osobno CPU i GPU, a potem dać APU. W tym momencie tniemy też koszty projektowania.
Suntzu poniżej zostawiam Ci dodatkowo kilka rzeczy do przemyślenia.
1. Dwa osobne układy to WYŻSZE koszty produkcji.
2. Dwa osobne układy wymagają bardziej skomplikowanej i ponownie droższej w produkcji płytki PCB/płyty głównej.
3. Musisz odebrać ciepło z dwóch źródeł, co ponownie zwiększa koszty produkcji i skomplikowanie układu chłodzenia.
4. Powyższe zmiany wymagają dodatkowej przestrzeni i wpływają negatywnie na rozmiar całego urządzenia.
Over&out i dlatego takim sprzętem zajmują się specjaliści, bo nawet najmniejsze zmiany wywołują cała lawinę następstw.
Ps. Wiesz co łączy XboX360, Wii oraz WiiU?
1. Nie obchodzi mnie to, bo MS wprowadził abonament i zapłacę wielokrotność konsoli z pewnością jednak na to zwraca uwagę MS. W sensie dosłownym 'koszty produkcji' to na początku mogą być nawet duże jako, że zamiast brać gotowce i mniejsze układy... AMD projektuje dość duży i zaawansowany. Ponoć są nieaktywne bloki w konsolach cóż może, właśnie dlatego lepiej dać dwa?, lepszy uzysk, niższe koszty projektu.
2. Tak, ale nie trzeba projektować dość sporych rozmiarów układów, a zastosować to co jest, to zawsze było łatawiejsze.
3. łatwiej odrowadzić ciepło z dwóch źródeł niż z jednego, koszt heat pipe nie jest tak duży.
4. Laptop jest mniejszy od konsol, a upchnięto mocniejszy sprzęt.
Czyli wracamy do parametru cena i zataczamy pełno koło.
Poza tym semi-custom APU i to dodatkowo SoC (System on Chip) to nie to samo co osobne CPU i GPU.
Ciekawe kiedy te fakty również zostaną dostrzeżone.
Od początku o tym pisałem
Są plusy i minusy, ale generalnie next gen AMD na szczęście ma wprowadzić to co x360 miał już lata temu...
Nie widzę przeszkód, by w konsoli było osobno CPU i GPU, a potem dać APU. W tym momencie tniemy też koszty projektowania.
Suntzu poniżej zostawiam Ci dodatkowo kilka rzeczy do przemyślenia.
1. Dwa osobne układy to WYŻSZE koszty produkcji.
2. Dwa osobne układy wymagają bardziej skomplikowanej i ponownie droższej w produkcji płytki PCB/płyty głównej.
3. Musisz odebrać ciepło z dwóch źródeł, co ponownie zwiększa koszty produkcji i skomplikowanie układu chłodzenia.
4. Powyższe zmiany wymagają dodatkowej przestrzeni i wpływają negatywnie na rozmiar całego urządzenia.
Over&out i dlatego takim sprzętem zajmują się specjaliści, bo nawet najmniejsze zmiany wywołują cała lawinę następstw.
Ps. Wiesz co łączy XboX360, Wii oraz WiiU?