@Grave
Oczekujesz gier z grafiką rodem z Transformers 3 na PC? Gameplay o długości 10h kosztowałby chyba z 1mld USD. Jeśli już poruszasz wątek filmów animowanych 3D to np film Smurfy 2011 (produkcji SONY) - budżet 110mln USD, czas 103 minuty. Wiadomo część kasy to reżyserka, scenariusz, marketing itd tp. Nawet niech połowa tej kwoty to rendering to i tak jest trochę drogo jak na 1,5h i grafikę rodem z kreskówki. http://en.wikipedia.org/wiki/The_Smurfs_(film)
Nie oczekuję, ale piszesz, że GPU zapewnia już taką moc, że więcej nie trzeba, a to nieprawda. Mocy GPU nigdy za mało.
Trudno też się zgodzić z tym, co piszesz, że gry na PS4 będą wyglądać 'obłędnie'. Jak Ty na to liczysz to raczej się przeliczysz. Ja nie liczę na żadną obłędność bo już widzę, że na nic takiego się nie zanosi.
Jak pisałem. Zobaczymy kto 'koloruje fakty' jak pojawią się raporty finansowe pod koniec 2013. Czy rzeczywiście AMD zakasuje zyskami (net income) Nvidię. Bo ja śmiem w to wątpić....
W 2013 r AMD z konsol zysku jeszcze nie będzie mieć. Dopiero w 2014r.
AMD od kilku lat przechodzi restrukturyzacje która ma się skończyć w okolicy 2015r i do tego czasu będzie pod kreską.
Wyraznie widac, ze jestes czonkiem zarzadu tej firmy i ja okradasz, jak to twoi koledzy robia...dalczego nie napisales 2020 , byla by nadzieja ze do tego roku dozyje.
Trudno też się zgodzić z tym, co piszesz, że gry na PS4 będą wyglądać 'obłędnie'. Jak Ty na to liczysz to raczej się przeliczysz. Ja nie liczę na żadną obłędność bo już widzę, że na nic takiego się nie zanosi.
Do wysnuwania takich wniosków poczekałbym na nie pierwsze, a drugie gry/sequele od GG, ND i SuckerP na PS4 (2016?).
Czy mozna od AMD jakos dobra decysje oczekiwac, jak w ostatnich 3 latach ani jedna poprawna nie podjal...aby dostawa tych Jaguarow nie byla przypadkiem iPirusowym zwycienstwem...( pewien pan, ktory doskonale po polsku pisze, moze co do Pirusa jakies dane zebrac)..
Ale z ciebie troll.
Obecne decyzje podejmowane w AMD to spuścizna po poprzednim CEO.
SeaMicro, konsole i restrukturyzacja to już decyzje RR. Restrukturyzacja zacznie się zwracać najwcześniej za rok ale bardziej realną data jest 2015. SeaMicro już zaczyna się zwracać. Kasa z konsol trafi na konta AMD pewnie w 2014 ale zwróci się dopiero w 2015 bo AMD na razie dokłada do tego interesu.
Co do RR to 2 polowa tego roku powinna ich przywrocic nad kreske, a co do zbierania owocow, no coz produkty maja, ale ceny juz niefajne i popyt jest slaby.
Po filmiku z najnowszego Killzone na PS4 już widać, że na graficzne fajerwerki nie ma co liczyć w tej generacji. Jest ładnie, nawet bardzo ładnie, ale mówiąc oględnie.... d...y nie urywa.
Ale juz Deep Down ktory ponac byl renderowany w czasie rzeczywistym to troche urywa
Trudno się ustosunkować do firmy która produkuje GPU, CPU i ma studia deweloperskie piszące na to software. To trochę inna bajka niż Nvidia - dokładnie. SONY zarabia głównie na grach, na hardware w późniejszym cyklu życia konsoli. GPU bez dobrego silnika jest tylko chipem.
Tak, wiec po co byly te glupoty o niesamowitej przewdze technologicznej Sony i Toshiby nad Nvidia?
Obecne decyzje podejmowane w AMD to spuścizna po poprzednim CEO.
SeaMicro, konsole i restrukturyzacja to już decyzje RR. Restrukturyzacja zacznie się zwracać najwcześniej za rok ale bardziej realną data jest 2015. SeaMicro już zaczyna się zwracać. Kasa z konsol trafi na konta AMD pewnie w 2014 ale zwróci się dopiero w 2015 bo AMD na razie dokłada do tego interesu.
Co do RR to 2 polowa tego roku powinna ich przywrocic nad kreske, a co do zbierania owocow, no coz produkty maja, ale ceny juz niefajne i popyt jest slaby.
Obyś miał racje chodz osobiście w to watpie bo:
-Restrukturyzacja odbije się jeszcze na tym roku.
-Zapewne pieniążki za konsole wpłyna dopiero w 2014r.
-AMD musiało zainwestować w APU do konsol (projekt i produkcja) zapewne z własnej kieszeni.
-SeaMicro nie przynosi jeszcze na tyle dużych zysków aby wyciągnąć AMD z dołka (jeszcze się nie zwróciło).
-Nowe procesory i GPU (pomijając jaguara) to dobiero koniec roku.
Bądzmy realistami - Jeśli AMD ma zacząć zarabiać to nastąpi to najwcześniej w 2014r.
Trudno się ustosunkować do firmy która produkuje GPU, CPU i ma studia deweloperskie piszące na to software. To trochę inna bajka niż Nvidia - dokładnie. SONY zarabia głównie na grach, na hardware w późniejszym cyklu życia konsoli. GPU bez dobrego silnika jest tylko chipem.
Tak, wiec po co byly te glupoty o niesamowitej przewdze technologicznej Sony i Toshiby nad Nvidia?
Trochę wybiegłem i uogólniłem ale chodziło mi głównie o hardware+software. Studia first-party nie tylko piszą silniki ale tworzą nowe techniki przy renderingu - jak choćby HighFrequencyDetailMapping (GuerillaGames), SuckerPunch SSAO (http://reedbeta.com/talks/ ), czy połączenie forward i deferred (Uncharted).
Po prostu Nvidia twierdzi tak jakby ich technologia była zbyt 'cool' do konsol na dziś dzień. A nie chciało nam się - za taką kasę.
Tak, wiec po co byly te glupoty o niesamowitej przewdze technologicznej Sony i Toshiby nad Nvidia?
Trochę wybiegłem i uogólniłem ale chodziło mi głównie o hardware+software. Studia first-party nie tylko piszą silniki ale tworzą nowe techniki przy renderingu - jak choćby HighFrequencyDetailMapping (GuerillaGames), SuckerPunch SSAO (http://reedbeta.com/talks/ ), czy połączenie forward i deferred (Uncharted).
Po prostu Nvidia twierdzi tak jakby ich technologia była zbyt 'cool' do konsol na dziś dzień. A nie chciało nam się - za taką kasę.
Czy ja wiem czy Nvidia tak twierdzi, przeciez powiedzieli ze chodzilo o kase. Sony zaoferowalo taka sume ze nie byli zainteresowani a zreszta na dzien dzisiejszy nie sa w stanie dostarczyc na potrzeby konsoli cpu + gpu.
4 x CPU 512MB, PowerVRmp4+ i 128MBvram (ta drobna roznica to mp4+ i vram którego układy mobilne nie posiadają). Wiesz chociaż jak wpływa na architekturę podczepienie vram w systemie package-on-package? Vram jest położony 'na' kości GPU i może mieć magistrale wewnątrz GPU. W ogóle co ja pisze, toshiba w zeszłym roku wyklepala chip 64-core który dekodowal 1080p30fps pobierając mniej niż 0,5W, wielkosciowo mniejszy od arm. Pomijam inne wynalazki jak cevoEngine z 64MB eDram.
Możesz jakiś papierek podać, na temat tego, że ten Vram jest fizycznie oddzielony jest to jak w przykładowo Nexus S (też z GPU PowerVR)... 512MB RAM z czego zarezerwowane 128MB dla GPU nazywali VRAM, a pozostałe 384MB było dostępne dla CPU. Po prostu pytam, bo jeśli oddzielnie to... zdania są podzielone, czy to lepiej i sony w PS4 idzie właśnie w przeciwną stronę czyli współdzielenia pamięci, aby nie tracić zbędnego czasu na kopiowanie danych z pamięci RAM do VRAM.
Co do reszty to te 4x CPU to nie zapominaj, że jest to A9 - 2 dekodery instrukcji zamiast trzech, 1x rdzeń wektorowy zamiast 2x (w A15 i Krait masz 2x rdzenie NEON na rdzeń ARM). Przez co wydajność tego CPU może się dziś porównywać do 2x rdzeniowych w urządzeniach mobilnych. GPU to PowerVR SGX543 czyli 4 SIMD na moduł (co daje w PCtowym żargonie 64 rdzenie GPU (4x MP * 4x SIMD * 4 jednostki)). Zegary GPU ma 400MHz, więc wydajność podobna do SGX544MP3 z Exynos Octa (dzięki temu, że jest wykonywany w nowszej technologii może mieć zegary 533MHz, przez co podobnie jak PS Vita wydajność GPU to 51.2 GFLOPS), jednak sporo brakuje GPU z PS Vita do Tegra 4 ( 74.8 GFLOPS) czy PowerVR 554MP4 z Apple A6X (71.6 GFLOPS - 554 ma 8 SIMD na moduł (MP)).
Hashi @ 2013.03.16 17:19
Trochę wybiegłem i uogólniłem ale chodziło mi głównie o hardware+software. Studia first-party nie tylko piszą silniki ale tworzą nowe techniki przy renderingu - jak choćby HighFrequencyDetailMapping (GuerillaGames), SuckerPunch SSAO (http://reedbeta.com/talks/ ), czy połączenie forward i deferred (Uncharted).
Tu byłbym baaardzo ostrożny. Po pierwsze nowe techniki to ewolucja wielu firm zazwyczaj trwa to dziesiątki lat. Po drugie Nvidia i AMD tworzą najwięcej nowych technik renderingu i możliwych implementacji efektów, ich działy RD od software zajmują się tylko tym i na podstawie ludzi pracujących tam powstaje większość nowinek w silnikach.
@Skoti48
Co do VRAM (to jest system-in-package [SiP] a nie SoC) http://chipworksrealchips.blogspot.com/201...hip-sip-3d.html
PSVITA ma budowę stackową (stos) chipu (w pewnym sensie ten chip na budowę 3D). Tutaj widać 4 kanały bezpośrednio nad 4 rdzeniami GPU, każdy kanał ma 8 banków pamięci. http://2.bp.blogspot.com/-4X1DNFyvxds/T_YE...%25283%2529.png http://2.bp.blogspot.com/-Nalihr-GPjY/T_YE...%25283%2529.jpg so likely 2 x 512 bit I/O operation, possibly sub-divided into 4 x 128.
Z ciekawości chciałbym pełną specyfikację GPU SGX543MP4+, wyjaśnij mi co oznacza 'plus' na końcu? Czytałem wywiad z gościem z IT (na jakiejś japońskiej stronie) i twierdził, że to wartość dodana którą każdy licencjobiorca może sobie dodać na własne życzenie (co to jest dokładnie nie chciał mówić).
Co do działów RD to czy Nvidia nie wydała pierwszego GPU dopiero pod koniec lat 90ych (97, czy 99)? Bo z tego co pamiętam to gry 3D były trochę wcześniej np na konsolach (np. PSX). Czytałem trochę wywiadów i oglądałem trochę prezentacji (które nawet są na PSN) i first-party u SONY obok dostępnych opracowują własne techniki renderingu (zwłaszcza pod kątem optymalizacji pamięci).
Z ciekawości chciałbym pełną specyfikację GPU SGX543MP4+, wyjaśnij mi co oznacza 'plus' na końcu? Czytałem wywiad z gościem z IT i twierdził, że to wartość dodana którą każdy licencjobiorca może sobie dodać na własne życzenie (co to jest dokładnie nie chciał mówić).
Niestety nie mam informacji co to jest ten + ale zapewne dodanie kontrolera pamięci to ten +.
Hashi @ 2013.03.16 18:26
Co do działów RD to czy Nvidia nie wydała pierwszego GPU dopiero pod koniec lat 90ych (97, czy 99?). Bo z tego co pamiętam to gry 3D były trochę wcześniej np na konsolach (np. PSX). Czytałem trochę wywiadów i oglądałem trochę prezentacji (które nawet są na PSN) i first-party u SONY opracowują własne techniki renderingu.
Tak, świat istniał przed Nvidią - wtedy opierał się na fixedpipeline i niewielkie były możliwości. Dziś jest inaczej. OFC techniki nie istnieją same z siebie i nikt nie może mówić, że to on jest jej twórcą. Przykład z poprzedniej Twojej wypowiedzi:
'połączenie forward i deferred (Uncharted)'
Deferred Shading istnieje od 1988-90 roku, bo wtedy koncepcja gbuffora pojawiła się na siggraph - wtedy nie miała nic wspólnego z grami i realtime (a renderingiem grafiki na inne potrzeby)... i tak sobie przez lata czekało na to, aż inne techniki i sprzęt dojrzeje. W 2004 pracownicy Nvidii wydali papierek, na którym oparli się twórcy S.T.A.L.K.E.R. i w książce Nvidii z 2005 GPU Gems 2 opisali wszystko dosyć dokładnie... łącznie z tym jak połączyli forward i deferred shading (bo deferred ma wady jak brak przezroczystości)... i na tych wszystkich pracach (i jeszcze kolejnych) opierali się twórcy Uncharted.
Tak jest zazwyczaj - Atmospheric scattering w dzisiejszych grach to zazwyczaj praca oparta o Preetham'a (Ati). Działy RD Nvidii, AMD, Intela robią dla rozwoju bardzo dużo i twórcy silników bardzo silnie z tego korzystają.
OFC studia tworzą własne rozwiązania i wrzucają je do puli wiedzy, aby inni się na tym opierali, jednak nie lekceważyłbym wsparcia RD twórców sprzętu (bo oni są tylko i wyłącznie od tego, aby pracować na pełen zegar nad nowymi rozwiązaniami, podczas gdy twórcy silników i gier poświęcają temu znacznie mniej czasu i przy mniejszych nakładach osobowych i pieniężnych).
Co do RR to 2 polowa tego roku powinna ich przywrocic nad kreske, a co do zbierania owocow, no coz produkty maja, ale ceny juz niefajne i popyt jest slaby.
Obyś miał racje chodz osobiście w to watpie bo:
-Restrukturyzacja odbije się jeszcze na tym roku.
-Zapewne pieniążki za konsole wpłyna dopiero w 2014r.
-AMD musiało zainwestować w APU do konsol (projekt i produkcja) zapewne z własnej kieszeni.
-SeaMicro nie przynosi jeszcze na tyle dużych zysków aby wyciągnąć AMD z dołka (jeszcze się nie zwróciło).
-Nowe procesory i GPU (pomijając jaguara) to dobiero koniec roku.
Bądzmy realistami - Jeśli AMD ma zacząć zarabiać to nastąpi to najwcześniej w 2014r.
Przeciez juz produkty maja sfinalizowane na 2 lata do przodu, do tego trzeba minimum roku, zeby doszlifowac do masowej produkcji, przerobili juz umowe z GF pod produkcje na ten rok i wiedza ile wytrawia wafli i czego.
Restrukturyzacja i zmiany kadrowe na pewno zmienia firme od poczatku przyszlego roku, projekty po 2014, najbardziej martwi rozbicie zespolu odpowiedzialnego za Brazos/Jaguar(najwyrazniej potrzebowali tego do konsol), ale Keller pewnie polaczy BD z nastepcami ULP.
Nie twierdze, że nie pracują ale studia tez pracują nad tym jak dodać ficzery do engine'u.
Co do deferred to KZ2 jest w całości o niego oparty (choć bez forward) i gra była pokazana na E3 2005, a sam deweloping zaczął się w 2004, a jako, że gra hula cała praktycznie na CPU, a CPU zaczęto klepać w 2002 roku to jestem w stanie uwierzyć, że SONY zajrzało do tej samej szafy co Nvidia o G-buffer. Mnie np osobiście podoba się w Uncharted focal blur - nie widziałem jak narazie gry która tak ciekawie uwzględnia głębokość w rozmyciu. Pierwsza praca dotycząca „deferred shadingu” została opublikowana już
w 1988 roku przez Michaela Deeringa [1]. W kolejnej pracy autorstwa Saito i
Takahashi’ego [2] z roku 1990 po raz pierwszy pojawiło się pojęcie G-Bufora
jako bufora do przechowywania geometrycznych właściwości powierzchni
Chyba SUN i goście z NTT http://dl.acm.org/citation.cfm?id=97901 http://www.cs.otago.ac.nz/cosc455/p197-saito.pdf (i pomyśleć że to ma 23 lata :p )
Nie twierdze, że nie pracują ale studia tez pracują nad tym jak dodać ficzery do engine'u.
Co do deferred to KZ2 jest w całości o niego oparty (choć bez forward) i gra była pokazana na E3 2005, a sam deweloping zaczął się w 2004, a jako, że gra hula cała praktycznie na CPU, a CPU zaczęto klepać w 2002 roku to jestem w stanie uwierzyć, że SONY zajrzało do tej samej szafy co Nvidia o G-buffer.
W KZ2 korzystają z połączenia forward i deferred.
Ze względu, na to, że Sony używało GPU Nvidii i Nvidia współpracuje ze studiami tworzącymi gry na konsole, to bardziej prawdopodobne, że po prostu dostali papierek od Nvidii podobnie jak twórcy S.T.A.L.K.E.R.a - Deferred jest fajną ideą i banalnie prostą w implementacji - od przeczytania papierka jeden programista zrobiłby im wersję na CPU i GPU, więc nikogo nie powinno dziwić, że na E3 zdążyli, kiedy Nvidia publicznie wydała papierek rok wcześniej, a oni współpracując z Nvidią zapewne mieli go jeszcze wcześniej.
Hashi @ 2013.03.16 19:11
Mnie np osobiście podoba się w Uncharted focal blur - nie widziałem jak narazie gry która tak ciekawie uwzględnia głębokość w rozmyciu.
Najzwyklejszy DoF z Bokeh i CoC - nic nowego, ale faktycznie mało gier się decyduje na to i zazwyczaj widać tylko ordynarny blur gausa.
Hashi @ 2013.03.16 19:11
Pierwsza praca dotycząca „deferred shadingu” została opublikowana już
w 1988 roku przez Michaela Deeringa [1]. W kolejnej pracy autorstwa Saito i
Takahashi’ego [2] z roku 1990 po raz pierwszy pojawiło się pojęcie G-Bufora
jako bufora do przechowywania geometrycznych właściwości powierzchni
Chyba SUN i goście z NTT http://dl.acm.org/citation.cfm?id=97901
Dokładnie o tych papierkach pisałem 'Deferred Shading istnieje od 1988-90 roku'
Po prostu fajnie rozwiązano efekt rozmycia np. wyostrzenie obiektu ZA obiektem rozmytym. Tu nie rozmazuje się tło ale poszczególne obiekty w DoF.
Mówi nawet o tym ten dziadek z Norwegii http://www.youtube.com/watch?feature=playe...CXkyoWjg#t=167s
Co do DR moze i istnieje od 90' ale dopiero od 2008-2010 zaczęto go stosować na szeroką skalę. Mnie osobiście podoba się jak IsomniacGames implementuje tą technikę.
-Restrukturyzacja odbije się jeszcze na tym roku.
-Zapewne pieniążki za konsole wpłyna dopiero w 2014r.
-AMD musiało zainwestować w APU do konsol (projekt i produkcja) zapewne z własnej kieszeni.
-SeaMicro nie przynosi jeszcze na tyle dużych zysków aby wyciągnąć AMD z dołka (jeszcze się nie zwróciło).
-Nowe procesory i GPU (pomijając jaguara) to dobiero koniec roku.
Bądzmy realistami - Jeśli AMD ma zacząć zarabiać to nastąpi to najwcześniej w 2014r.
Przeciez juz produkty maja sfinalizowane na 2 lata do przodu, do tego trzeba minimum roku, zeby doszlifowac do masowej produkcji, przerobili juz umowe z GF pod produkcje na ten rok i wiedza ile wytrawia wafli i czego.
Restrukturyzacja i zmiany kadrowe na pewno zmienia firme od poczatku przyszlego roku, projekty po 2014, najbardziej martwi rozbicie zespolu odpowiedzialnego za Brazos/Jaguar(najwyrazniej potrzebowali tego do konsol), ale Keller pewnie polaczy BD z nastepcami ULP.
AMD wprowadza jeszcze projekty starego CEO. na których cały czas AMD traci.
Ja tam sie ciesze. Jesli ktos kiedys porownywal na przyklad Intela i AMD to bedzie wiedzial ze AMD choc kosztuje 3x mniej, daje taki sam lub lepszy performance w grach, a o to tu wlasciwe chodzi. Mozliwe ze Nvidia wydala miliony na swoje super mocne karty graficzne po 5k zl i po prostu nie bylo ich stac zeby przebic AMD.
Ja tam sie ciesze. Jesli ktos kiedys porownywal na przyklad Intela i AMD to bedzie wiedzial ze AMD choc kosztuje 3x mniej, daje taki sam lub lepszy performance w grach
3x mniej? A to żeś skąd wziął? Może jeszcze za darmo AMD rozdaje CPU i GPU...
Nvidii niby nie było stać, a AMD to stać? Chyba kpisz.
Nvidia ~0,5 mld USD na plusie, AMD ~0,5 mld USD NA MINUSIE i na skraju bankructwa (trzymają się głównie dzięki topniejącym z miesiąca na miesiąc rezerwom finansowym). I Ty piszesz, że AMD na coś stać, na co NV nie stać? No wybacz....
Właśnie ta polityka niskich cen za wszelką cenę kończy się dla AMD tragicznie, bo nawet na dobrych produktach (GPU) zarabiają znacznie mniej niż Nvidia.
Ludziom się wydaje, że AMD takie genialne, że w każdym segmencie ma tańsze produkty, a Nvidia i Intel to zdzierają. Ale właśnie ci 'zdziercy' mają się dobrze, podczas gdy 'dobre' AMD zastanawia się czego by tu się jeszcze pozbyć, żeby nie utracić płynności finansowej .... Najpierw sprzedali faby, teraz sprzedają swoją siedzibę.
Firma w takiej sytuacji podpisze kontrakt z Sony i MS choćby miała i 1 cent zysku na sprzedanym egzemplarzu APU.
Po prostu fajnie rozwiązano efekt rozmycia np. wyostrzenie obiektu ZA obiektem rozmytym. Tu nie rozmazuje się tło ale poszczególne obiekty w DoF.
Mówi nawet o tym ten dziadek z Norwegii http://www.youtube.com/watch?feature=playe...CXkyoWjg#t=167s
Co do DR moze i istnieje od 90' ale dopiero od 2008-2010 zaczęto go stosować na szeroką skalę. Mnie osobiście podoba się jak IsomniacGames implementuje tą technikę.
Nie, Ty twierdziles ze Sony wymyslilo te technike, jak sie okazuje, wiekszy wklad miala Nvidia
Oczekujesz gier z grafiką rodem z Transformers 3 na PC? Gameplay o długości 10h kosztowałby chyba z 1mld USD. Jeśli już poruszasz wątek filmów animowanych 3D to np film Smurfy 2011 (produkcji SONY) - budżet 110mln USD, czas 103 minuty. Wiadomo część kasy to reżyserka, scenariusz, marketing itd tp. Nawet niech połowa tej kwoty to rendering to i tak jest trochę drogo jak na 1,5h i grafikę rodem z kreskówki.
http://en.wikipedia.org/wiki/The_Smurfs_(film)
Trudno też się zgodzić z tym, co piszesz, że gry na PS4 będą wyglądać 'obłędnie'. Jak Ty na to liczysz to raczej się przeliczysz. Ja nie liczę na żadną obłędność bo już widzę, że na nic takiego się nie zanosi.
Jak pisałem. Zobaczymy kto 'koloruje fakty' jak pojawią się raporty finansowe pod koniec 2013. Czy rzeczywiście AMD zakasuje zyskami (net income) Nvidię. Bo ja śmiem w to wątpić....
W 2013 r AMD z konsol zysku jeszcze nie będzie mieć. Dopiero w 2014r.
AMD od kilku lat przechodzi restrukturyzacje która ma się skończyć w okolicy 2015r i do tego czasu będzie pod kreską.
Wyraznie widac, ze jestes czonkiem zarzadu tej firmy i ja okradasz, jak to twoi koledzy robia...dalczego nie napisales 2020 , byla by nadzieja ze do tego roku dozyje.
Trudno też się zgodzić z tym, co piszesz, że gry na PS4 będą wyglądać 'obłędnie'. Jak Ty na to liczysz to raczej się przeliczysz. Ja nie liczę na żadną obłędność bo już widzę, że na nic takiego się nie zanosi.
Do wysnuwania takich wniosków poczekałbym na nie pierwsze, a drugie gry/sequele od GG, ND i SuckerP na PS4 (2016?).
Ale z ciebie troll.
Obecne decyzje podejmowane w AMD to spuścizna po poprzednim CEO.
SeaMicro, konsole i restrukturyzacja to już decyzje RR. Restrukturyzacja zacznie się zwracać najwcześniej za rok ale bardziej realną data jest 2015. SeaMicro już zaczyna się zwracać. Kasa z konsol trafi na konta AMD pewnie w 2014 ale zwróci się dopiero w 2015 bo AMD na razie dokłada do tego interesu.
Co do RR to 2 polowa tego roku powinna ich przywrocic nad kreske, a co do zbierania owocow, no coz produkty maja, ale ceny juz niefajne i popyt jest slaby.
Po filmiku z najnowszego Killzone na PS4 już widać, że na graficzne fajerwerki nie ma co liczyć w tej generacji. Jest ładnie, nawet bardzo ładnie, ale mówiąc oględnie.... d...y nie urywa.
Ale juz Deep Down ktory ponac byl renderowany w czasie rzeczywistym to troche urywa
Tak, wiec po co byly te glupoty o niesamowitej przewdze technologicznej Sony i Toshiby nad Nvidia?
Ale z ciebie troll.
Obecne decyzje podejmowane w AMD to spuścizna po poprzednim CEO.
SeaMicro, konsole i restrukturyzacja to już decyzje RR. Restrukturyzacja zacznie się zwracać najwcześniej za rok ale bardziej realną data jest 2015. SeaMicro już zaczyna się zwracać. Kasa z konsol trafi na konta AMD pewnie w 2014 ale zwróci się dopiero w 2015 bo AMD na razie dokłada do tego interesu.
Co do RR to 2 polowa tego roku powinna ich przywrocic nad kreske, a co do zbierania owocow, no coz produkty maja, ale ceny juz niefajne i popyt jest slaby.
Obyś miał racje chodz osobiście w to watpie bo:
-Restrukturyzacja odbije się jeszcze na tym roku.
-Zapewne pieniążki za konsole wpłyna dopiero w 2014r.
-AMD musiało zainwestować w APU do konsol (projekt i produkcja) zapewne z własnej kieszeni.
-SeaMicro nie przynosi jeszcze na tyle dużych zysków aby wyciągnąć AMD z dołka (jeszcze się nie zwróciło).
-Nowe procesory i GPU (pomijając jaguara) to dobiero koniec roku.
Bądzmy realistami - Jeśli AMD ma zacząć zarabiać to nastąpi to najwcześniej w 2014r.
Tak, wiec po co byly te glupoty o niesamowitej przewdze technologicznej Sony i Toshiby nad Nvidia?
Trochę wybiegłem i uogólniłem ale chodziło mi głównie o hardware+software. Studia first-party nie tylko piszą silniki ale tworzą nowe techniki przy renderingu - jak choćby HighFrequencyDetailMapping (GuerillaGames), SuckerPunch SSAO (http://reedbeta.com/talks/ ), czy połączenie forward i deferred (Uncharted).
Po prostu Nvidia twierdzi tak jakby ich technologia była zbyt 'cool' do konsol na dziś dzień. A nie chciało nam się - za taką kasę.
Tak, wiec po co byly te glupoty o niesamowitej przewdze technologicznej Sony i Toshiby nad Nvidia?
Trochę wybiegłem i uogólniłem ale chodziło mi głównie o hardware+software. Studia first-party nie tylko piszą silniki ale tworzą nowe techniki przy renderingu - jak choćby HighFrequencyDetailMapping (GuerillaGames), SuckerPunch SSAO (http://reedbeta.com/talks/ ), czy połączenie forward i deferred (Uncharted).
Po prostu Nvidia twierdzi tak jakby ich technologia była zbyt 'cool' do konsol na dziś dzień. A nie chciało nam się - za taką kasę.
Czy ja wiem czy Nvidia tak twierdzi, przeciez powiedzieli ze chodzilo o kase. Sony zaoferowalo taka sume ze nie byli zainteresowani a zreszta na dzien dzisiejszy nie sa w stanie dostarczyc na potrzeby konsoli cpu + gpu.
Możesz jakiś papierek podać, na temat tego, że ten Vram jest fizycznie oddzielony jest to jak w przykładowo Nexus S (też z GPU PowerVR)... 512MB RAM z czego zarezerwowane 128MB dla GPU nazywali VRAM, a pozostałe 384MB było dostępne dla CPU. Po prostu pytam, bo jeśli oddzielnie to... zdania są podzielone, czy to lepiej i sony w PS4 idzie właśnie w przeciwną stronę czyli współdzielenia pamięci, aby nie tracić zbędnego czasu na kopiowanie danych z pamięci RAM do VRAM.
Co do reszty to te 4x CPU to nie zapominaj, że jest to A9 - 2 dekodery instrukcji zamiast trzech, 1x rdzeń wektorowy zamiast 2x (w A15 i Krait masz 2x rdzenie NEON na rdzeń ARM). Przez co wydajność tego CPU może się dziś porównywać do 2x rdzeniowych w urządzeniach mobilnych. GPU to PowerVR SGX543 czyli 4 SIMD na moduł (co daje w PCtowym żargonie 64 rdzenie GPU (4x MP * 4x SIMD * 4 jednostki)). Zegary GPU ma 400MHz, więc wydajność podobna do SGX544MP3 z Exynos Octa (dzięki temu, że jest wykonywany w nowszej technologii może mieć zegary 533MHz, przez co podobnie jak PS Vita wydajność GPU to 51.2 GFLOPS), jednak sporo brakuje GPU z PS Vita do Tegra 4 ( 74.8 GFLOPS) czy PowerVR 554MP4 z Apple A6X (71.6 GFLOPS - 554 ma 8 SIMD na moduł (MP)).
Trochę wybiegłem i uogólniłem ale chodziło mi głównie o hardware+software. Studia first-party nie tylko piszą silniki ale tworzą nowe techniki przy renderingu - jak choćby HighFrequencyDetailMapping (GuerillaGames), SuckerPunch SSAO (http://reedbeta.com/talks/ ), czy połączenie forward i deferred (Uncharted).
Tu byłbym baaardzo ostrożny. Po pierwsze nowe techniki to ewolucja wielu firm zazwyczaj trwa to dziesiątki lat. Po drugie Nvidia i AMD tworzą najwięcej nowych technik renderingu i możliwych implementacji efektów, ich działy RD od software zajmują się tylko tym i na podstawie ludzi pracujących tam powstaje większość nowinek w silnikach.
Co do VRAM (to jest system-in-package [SiP] a nie SoC) http://chipworksrealchips.blogspot.com/201...hip-sip-3d.html
PSVITA ma budowę stackową (stos) chipu (w pewnym sensie ten chip na budowę 3D). Tutaj widać 4 kanały bezpośrednio nad 4 rdzeniami GPU, każdy kanał ma 8 banków pamięci.
http://2.bp.blogspot.com/-4X1DNFyvxds/T_YE...%25283%2529.png
http://2.bp.blogspot.com/-Nalihr-GPjY/T_YE...%25283%2529.jpg
so likely 2 x 512 bit I/O operation, possibly sub-divided into 4 x 128.
Z ciekawości chciałbym pełną specyfikację GPU SGX543MP4+, wyjaśnij mi co oznacza 'plus' na końcu? Czytałem wywiad z gościem z IT (na jakiejś japońskiej stronie) i twierdził, że to wartość dodana którą każdy licencjobiorca może sobie dodać na własne życzenie (co to jest dokładnie nie chciał mówić).
Co do działów RD to czy Nvidia nie wydała pierwszego GPU dopiero pod koniec lat 90ych (97, czy 99)? Bo z tego co pamiętam to gry 3D były trochę wcześniej np na konsolach (np. PSX). Czytałem trochę wywiadów i oglądałem trochę prezentacji (które nawet są na PSN) i first-party u SONY obok dostępnych opracowują własne techniki renderingu (zwłaszcza pod kątem optymalizacji pamięci).
Z ciekawości chciałbym pełną specyfikację GPU SGX543MP4+, wyjaśnij mi co oznacza 'plus' na końcu? Czytałem wywiad z gościem z IT i twierdził, że to wartość dodana którą każdy licencjobiorca może sobie dodać na własne życzenie (co to jest dokładnie nie chciał mówić).
Niestety nie mam informacji co to jest ten + ale zapewne dodanie kontrolera pamięci to ten +.
Tak, świat istniał przed Nvidią - wtedy opierał się na fixedpipeline i niewielkie były możliwości. Dziś jest inaczej. OFC techniki nie istnieją same z siebie i nikt nie może mówić, że to on jest jej twórcą. Przykład z poprzedniej Twojej wypowiedzi:
'połączenie forward i deferred (Uncharted)'
Deferred Shading istnieje od 1988-90 roku, bo wtedy koncepcja gbuffora pojawiła się na siggraph - wtedy nie miała nic wspólnego z grami i realtime (a renderingiem grafiki na inne potrzeby)... i tak sobie przez lata czekało na to, aż inne techniki i sprzęt dojrzeje. W 2004 pracownicy Nvidii wydali papierek, na którym oparli się twórcy S.T.A.L.K.E.R. i w książce Nvidii z 2005 GPU Gems 2 opisali wszystko dosyć dokładnie... łącznie z tym jak połączyli forward i deferred shading (bo deferred ma wady jak brak przezroczystości)... i na tych wszystkich pracach (i jeszcze kolejnych) opierali się twórcy Uncharted.
Tak jest zazwyczaj - Atmospheric scattering w dzisiejszych grach to zazwyczaj praca oparta o Preetham'a (Ati). Działy RD Nvidii, AMD, Intela robią dla rozwoju bardzo dużo i twórcy silników bardzo silnie z tego korzystają.
OFC studia tworzą własne rozwiązania i wrzucają je do puli wiedzy, aby inni się na tym opierali, jednak nie lekceważyłbym wsparcia RD twórców sprzętu (bo oni są tylko i wyłącznie od tego, aby pracować na pełen zegar nad nowymi rozwiązaniami, podczas gdy twórcy silników i gier poświęcają temu znacznie mniej czasu i przy mniejszych nakładach osobowych i pieniężnych).
Co do RR to 2 polowa tego roku powinna ich przywrocic nad kreske, a co do zbierania owocow, no coz produkty maja, ale ceny juz niefajne i popyt jest slaby.
Obyś miał racje chodz osobiście w to watpie bo:
-Restrukturyzacja odbije się jeszcze na tym roku.
-Zapewne pieniążki za konsole wpłyna dopiero w 2014r.
-AMD musiało zainwestować w APU do konsol (projekt i produkcja) zapewne z własnej kieszeni.
-SeaMicro nie przynosi jeszcze na tyle dużych zysków aby wyciągnąć AMD z dołka (jeszcze się nie zwróciło).
-Nowe procesory i GPU (pomijając jaguara) to dobiero koniec roku.
Bądzmy realistami - Jeśli AMD ma zacząć zarabiać to nastąpi to najwcześniej w 2014r.
Przeciez juz produkty maja sfinalizowane na 2 lata do przodu, do tego trzeba minimum roku, zeby doszlifowac do masowej produkcji, przerobili juz umowe z GF pod produkcje na ten rok i wiedza ile wytrawia wafli i czego.
Restrukturyzacja i zmiany kadrowe na pewno zmienia firme od poczatku przyszlego roku, projekty po 2014, najbardziej martwi rozbicie zespolu odpowiedzialnego za Brazos/Jaguar(najwyrazniej potrzebowali tego do konsol), ale Keller pewnie polaczy BD z nastepcami ULP.
Co do deferred to KZ2 jest w całości o niego oparty (choć bez forward) i gra była pokazana na E3 2005, a sam deweloping zaczął się w 2004, a jako, że gra hula cała praktycznie na CPU, a CPU zaczęto klepać w 2002 roku to jestem w stanie uwierzyć, że SONY zajrzało do tej samej szafy co Nvidia o G-buffer. Mnie np osobiście podoba się w Uncharted focal blur - nie widziałem jak narazie gry która tak ciekawie uwzględnia głębokość w rozmyciu.
Pierwsza praca dotycząca „deferred shadingu” została opublikowana już
w 1988 roku przez Michaela Deeringa [1]. W kolejnej pracy autorstwa Saito i
Takahashi’ego [2] z roku 1990 po raz pierwszy pojawiło się pojęcie G-Bufora
jako bufora do przechowywania geometrycznych właściwości powierzchni
Chyba SUN i goście z NTT
http://dl.acm.org/citation.cfm?id=97901
http://www.cs.otago.ac.nz/cosc455/p197-saito.pdf (i pomyśleć że to ma 23 lata :p )
Co do deferred to KZ2 jest w całości o niego oparty (choć bez forward) i gra była pokazana na E3 2005, a sam deweloping zaczął się w 2004, a jako, że gra hula cała praktycznie na CPU, a CPU zaczęto klepać w 2002 roku to jestem w stanie uwierzyć, że SONY zajrzało do tej samej szafy co Nvidia o G-buffer.
W KZ2 korzystają z połączenia forward i deferred.
Ze względu, na to, że Sony używało GPU Nvidii i Nvidia współpracuje ze studiami tworzącymi gry na konsole, to bardziej prawdopodobne, że po prostu dostali papierek od Nvidii podobnie jak twórcy S.T.A.L.K.E.R.a - Deferred jest fajną ideą i banalnie prostą w implementacji - od przeczytania papierka jeden programista zrobiłby im wersję na CPU i GPU, więc nikogo nie powinno dziwić, że na E3 zdążyli, kiedy Nvidia publicznie wydała papierek rok wcześniej, a oni współpracując z Nvidią zapewne mieli go jeszcze wcześniej.
Najzwyklejszy DoF z Bokeh i CoC - nic nowego, ale faktycznie mało gier się decyduje na to i zazwyczaj widać tylko ordynarny blur gausa.
w 1988 roku przez Michaela Deeringa [1]. W kolejnej pracy autorstwa Saito i
Takahashi’ego [2] z roku 1990 po raz pierwszy pojawiło się pojęcie G-Bufora
jako bufora do przechowywania geometrycznych właściwości powierzchni
Chyba SUN i goście z NTT
http://dl.acm.org/citation.cfm?id=97901
Mówi nawet o tym ten dziadek z Norwegii
http://www.youtube.com/watch?feature=playe...CXkyoWjg#t=167s
Co do DR moze i istnieje od 90' ale dopiero od 2008-2010 zaczęto go stosować na szeroką skalę. Mnie osobiście podoba się jak IsomniacGames implementuje tą technikę.
Obyś miał racje chodz osobiście w to watpie bo:
-Restrukturyzacja odbije się jeszcze na tym roku.
-Zapewne pieniążki za konsole wpłyna dopiero w 2014r.
-AMD musiało zainwestować w APU do konsol (projekt i produkcja) zapewne z własnej kieszeni.
-SeaMicro nie przynosi jeszcze na tyle dużych zysków aby wyciągnąć AMD z dołka (jeszcze się nie zwróciło).
-Nowe procesory i GPU (pomijając jaguara) to dobiero koniec roku.
Bądzmy realistami - Jeśli AMD ma zacząć zarabiać to nastąpi to najwcześniej w 2014r.
Przeciez juz produkty maja sfinalizowane na 2 lata do przodu, do tego trzeba minimum roku, zeby doszlifowac do masowej produkcji, przerobili juz umowe z GF pod produkcje na ten rok i wiedza ile wytrawia wafli i czego.
Restrukturyzacja i zmiany kadrowe na pewno zmienia firme od poczatku przyszlego roku, projekty po 2014, najbardziej martwi rozbicie zespolu odpowiedzialnego za Brazos/Jaguar(najwyrazniej potrzebowali tego do konsol), ale Keller pewnie polaczy BD z nastepcami ULP.
AMD wprowadza jeszcze projekty starego CEO. na których cały czas AMD traci.
3x mniej? A to żeś skąd wziął? Może jeszcze za darmo AMD rozdaje CPU i GPU...
Nvidii niby nie było stać, a AMD to stać? Chyba kpisz.
Nvidia ~0,5 mld USD na plusie, AMD ~0,5 mld USD NA MINUSIE i na skraju bankructwa (trzymają się głównie dzięki topniejącym z miesiąca na miesiąc rezerwom finansowym). I Ty piszesz, że AMD na coś stać, na co NV nie stać? No wybacz....
Właśnie ta polityka niskich cen za wszelką cenę kończy się dla AMD tragicznie, bo nawet na dobrych produktach (GPU) zarabiają znacznie mniej niż Nvidia.
Ludziom się wydaje, że AMD takie genialne, że w każdym segmencie ma tańsze produkty, a Nvidia i Intel to zdzierają. Ale właśnie ci 'zdziercy' mają się dobrze, podczas gdy 'dobre' AMD zastanawia się czego by tu się jeszcze pozbyć, żeby nie utracić płynności finansowej .... Najpierw sprzedali faby, teraz sprzedają swoją siedzibę.
Firma w takiej sytuacji podpisze kontrakt z Sony i MS choćby miała i 1 cent zysku na sprzedanym egzemplarzu APU.
Mówi nawet o tym ten dziadek z Norwegii
http://www.youtube.com/watch?feature=playe...CXkyoWjg#t=167s
Co do DR moze i istnieje od 90' ale dopiero od 2008-2010 zaczęto go stosować na szeroką skalę. Mnie osobiście podoba się jak IsomniacGames implementuje tą technikę.
Nie, Ty twierdziles ze Sony wymyslilo te technike, jak sie okazuje, wiekszy wklad miala Nvidia