komentarze
Yoshi75Zobacz profil
Poziom ostrzeżenia: 0%
Yoshi752014.03.02, 11:53
Wy tu o PS3 a ja bym chciał żeby urządzenia mobilne zbliżyły się jakością w grach do PS Vity. Gdzie ta tegra gdzie miażdży niby PS3 hehe. Takie bajk to tylko w erze i u nvidii w tech demach nie mające nic wspólnego z grami itd.....

Uncharted PS Vita
https://www.youtube.com/watch?v=5AfkD-_WuIY
Killzone PS Vita
https://www.youtube.com/watch?v=h0hyUIqJ5T0
@Kazubin magic folder już w gotowości bojowej śmieszny koleś lepiej przygotuj już sobie screeny z The Order 1886 z PS4 pośmiejemy się trochę z twojej głupoty.

A i jeszcze jedno gdzie te gry na pc z taką grafiką co demo Samaritan na Unreal Engine 3. No gdzie bo nie widać do tej pory ile można czekać he :)
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.02, 11:44
Kazubin @ 2014.03.02 11:38  Post: 728976
Hashi @ 2014.03.02 11:36  Post: 728975
...

Po prostu uważam dyskusję z tobą za jałową, a zrzuty dałem nie dla ciebie, a innych osób, bo ktoś jeszcze raczy uwierzyć w twoje słowa :)

Ps.
Daruj sobie obrażanie.

Po co się wtrącasz skoro nie wiesz o co chodzi? Nikogo nie obrażam, nie lubię jak ktoś mnie okłamuje i wciska mi kit. Mam prawo taką osobę zbluzgać choć wiem ze nie jest to tu tolerowane.
KazubinZobacz profil
Poziom ostrzeżenia: 0%
Kazubin2014.03.02, 11:38
Hashi @ 2014.03.02 11:36  Post: 728975
...

Po prostu uważam dyskusję z tobą za jałową, a zrzuty dałem nie dla ciebie, a innych osób, bo ktoś jeszcze raczy uwierzyć w twoje słowa :)

Ps.
Daruj sobie obrażanie.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.02, 11:36
-7#99
Kazubin @ 2014.03.02 11:35  Post: 728974
Hashi @ 2014.03.02 11:20  Post: 728973

6. Dziwne, bo ogrywam Crysis1 właśnie na PS3 w tym momencie.


Obawiam się, że ta wersja za dużo wspólnego nie ma z protoplastą ;)
http://i.imgur.com/hw9lnMB.jpg
http://i.imgur.com/hRQUtX5.jpg
W końcu jesteś już martwiłeś ze nigdy nie przyjdziesz :-)
Widze ze fap-folder masz pod ręką..
KazubinZobacz profil
Poziom ostrzeżenia: 0%
Kazubin2014.03.02, 11:35
Hashi @ 2014.03.02 11:20  Post: 728973

6. Dziwne, bo ogrywam Crysis1 właśnie na PS3 w tym momencie.


Obawiam się, że ta wersja za dużo wspólnego nie ma z protoplastą ;)
http://i.imgur.com/hw9lnMB.jpg
http://i.imgur.com/hRQUtX5.jpg
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.02, 11:20
-6#97
2. Naprawdę pokaz mi informacje o 800MHz. Prosiłbym o link.
3. Co do EIB, wyjaśnij mi po co tyle transferu skoro RAM ma raptem 25,6GB/s
https://www.ibm.com/developerworks/library...erf/figure1.gif
6. Dziwne, bo ogrywam Crysis1 właśnie na PS3 w tym momencie.
Czyli potwierdzasz Crysis1 poleci w 720 na 5W Tegrze?

Edit
Nie wiem czy wiesz ale 8ACE w nowych radkach i PS4 to rozwinięcie task menagera z tego procesora - potwierdził to Cerny. Software zamieniono hardwarem. Akurat mam dobrą pamięć do pewnych spraw i wiemy obaj ze twierdziłeś ze deferred to praktycznie to samo co forward.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.03.02, 11:11
1. Nie zakładaj się, jeśli nie masz pojęcia o czym mówisz. To, że ograłeś setki gier nie ma nic wspólnego. Deferred wygląda inaczej dlatego, bo jest gorsza jakość oświetlenia, ale wyższa wydajność i można stosować więcej świateł. Jednak to nie jest cecha charakterystyczna deferred, że tak wygląda, bo identycznie może wyglądać Forward (przy mniejszej wydajności przy tylu światlach) i Deferred (przy odpowiednio dużym MRT jak na PC).
2. Nie ja się upieram, a Sony, Rambus i Anandtech, ale ofc ty wiesz lepiej.
3. Tak, pokazuj dalej jak bardzo czytać nie potrafisz. GFLOPS nie jest ograniczony przez pamięć, Wydajność Element Interconnect Bus (nie wydajność obliczeniowa, a wydajność pamięci) już tak. Cache w EIB to ponad 400GB/s... musisz powiedzieć o tym IBM, bo oni chyba o tym nie wiedzą i twierdzą to co Ci napisałem (XDR, 25.6 GB/s, cache 51.2 GB/s, IO zależy czy odczyt czy zapis 25/35 GB/s).
4. Widziałeś dziesiątki gier, co o niczym nie świadczy (żadnej wiedzy w ten sposób nie zdobędziesz, poza subiektywnym wrażeniem), ja znam te problemy od strony technicznej.
5. Nie obrażaj mnie tylko ze względu na to, że nie potrafisz czytać i/lub nie rozumiesz wiele z rozmowy. Zacytuj to wszyscy się chętnie pośmieją z tego, jak bardzo potrafi nie rozumieć słowa pisanego.
6. Crysis 1 z pełnymi efektami będzie problemem (on wszystko liczy na żywca i oszustw tam nie stosują - jest on też nierealny nawet w małej części na PS3 (dopiero kolejne wersje gdzie wersje PC robią wszystko dynamicznie, a konsolowe 'oszukują' to konsolowe spokojnie odpalisz w pełni efektów na K1)), co do fakowego U2, który więcej 'oszukuje' niż wymaga od sprzętu to nie ma problemu żadnego. Co do 5W to zdaje się, że nie pojmujesz jaka jest różnica pomiędzy 90nm i 28nm oraz tego jak SIMD są mało wymagające od energii, a Kepler ma większe SIMD (czytaj wielokrotnie bardziej oszczędne) dlatego SPU mogły być tak wydajne przy 90nm i Kepler może mieć taką wydajność przy 28nm i 5W..
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.02, 10:43
-6#95
1. Idę z tobą o stówe ze rozpoznam Ci deferred na plazmie. Ograłem setki gier na PS3 i gry deferred wyglądają inaczej na plazmie! Podłącz PS3 pod LCD i podłącz pod plazmę i wtedy zabieraj głos. Nie wiem z czego to wynika, czy z kontrastu natywnego, czy depth buffera ale gry pod deferred mają głębię obrazu której na LCD nie zobaczysz.
2. Nadal się upierasz nad 800MHz XDR w PS3. Niech Ci będzie, żyj w tym przekonaniu.
3. Raz piszesz o wydajności gflops nie zależnej od RAM, a w przypadku PS3 RAM jest dla ciebie ograniczeniem.. naprawdę ciekawe (w Tegrze Gflopy wynikają z prędkości cache, w PS3 zależne są od ramu). Podsystem pamięci cache (choć cache to złe słowo) w obrębie EIB to ponad 400GB/s.
4. Nadal się upierasz ze focal blur z U2 jest w innych grach. Mylisz sie kolego. Widziałem dziesiątki gier i tylko U2 ma focal blur który tak jakby rozpoznaje warstwy depth buffera. Nie wiem jak Ci to wyjaśnić skoro ty chłopie nie grasz w gry, a grasz w benchmarki. Nawet lead programmer w ND który pracuje dla SCE od czasów PSX, gość który wykładał cybernetykę, matematykę i programowanie w Finlandii stwierdził ze jest to coś innego. Ten focal blur jest accurate (czyli celny, symuluje dokładnie sposób łapania ostrości przez ludzkie oko). Juz Ci wyjaśniam. Jeśli siedzisz przed laptopem teraz np. weź sobie kubek z napojem i popijaj czytając to.. kubek jak i to co jest na około laptopa zostanie rozmazane ale sam ekran laptopa nie.. to jest mniej więcej coś takiego. Problem to to by kubek nie wprowadzał artefaktów na to co masz wyostrzone.
5. Nigdy nie twierdziłem, że są to identyczne techniki (różnią się wszystkim)
Kłamiesz jak esesman na polskim posterunku.
W KZ2 są tylko 4 tektury w MRT, to ciekawe. Sprawdzałeś? Ile tekstur ma najnowszy MGS5?
Przyznaje bez bicia tekstury w mrt w kz są średniej jakości ale nadrabia to post-porcess i mechanika gry.
6. Odpal na 5W Tegrze Crysis1 i U2. Życzę powodzenia.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.03.02, 10:08
SunTzu @ 2014.03.02 02:35  Post: 728964
Swoją drogą nie wiedziałem, że K1 to ma i wszystkie keplery mogą sobie same tworzyć robotę.

Nie wszystkie keplery to mają - tylko kilka z nich (GK208 i GK110-400+... (przykładowo GK110-300-A1 w GTX780 tego nie potrafi)). Kepler K1 to GK208 i obsługuje.

Hashi @ 2014.03.02 04:49  Post: 728966
@skoti48
Kolego XDR działa w PS3 na 400MHz, a nie 800MHz. Mnożysz to razy 8.

Bzdura.

Hashi @ 2014.03.02 04:49  Post: 728966
Co do przepustowości to wewnętrznie masz tam 200GB/s i zostało to zmierzone.

Bzdura.Przepustowość 204.8 ma całkowicie cały EIB - teoretycznie każdy SPU może odczytać dane z prędkością 25.6 GB/s... jednak to teoria jedynie, bo po drugiej stronie EIB teoria przemienia się w praktykę i pamięć ram ma przepustowość 25.6 GB/s (całkowitą i nic więcej nie wyciągniesz), cache z tego co pamiętam 51.2GB/s, IO ma teoretyczną przepustowość 25.6 GB/s (takiej dysk czy czytnik płyt ofc nie osiągają, a to tylko teoretyczna przepustowość).

Hashi @ 2014.03.02 04:49  Post: 728966
Gdzie? Benchmarkach czy grach. Weź się chłopie nie ośmieszaj please. Coś tam poczytałeś, ładnymi zwrotami rzucasz i tyle.

Tam gdzie nie ma dynamicznej kontroli przepływu, zależnej od danych wejściowych (czytaj tam gdzie w obrębie SIMD nie istnieją inne ścierzki wykonywania kodu, a wszystkie rdzenie liczą dokładnie te same instrukcje). Idealnym przykładem jest liczenie szybiej transformacji Fouriera, bo osiągniesz na SIMD pełną wydajność. Ofc też dobrym przykładem są shadery w grach, bo te dynamicznej kontroli przepływu nie używają prawie wcale.


Hashi @ 2014.03.02 04:49  Post: 728966
Kiedyś czy tłumaczyłem ze deferred da się rozpoznać gołymi oczami na tv plazmowym

Nie bądź ignorantem - jasne, że nie możesz. Można jedynie jeśli są wykorzystane inne shadery i inne oświetlenie (często tak jest przykładowo na PS3, gdzie gorsza jakość oświetlenia oznacza deferred, bo za małe MRT jest, jak i to, że więcej świateł jest na scenie (bo w przeciwieństwie do forward dodatkowe światła są stosunkowo tanie) - jednak nie o tym była mowa, tylko o tym, że rozpoznasz na takich samych scenach (łącznie z oświetleniem) z taką samą jakością danych wejściowych - co jest zwyczajną bzdurą).


Hashi @ 2014.03.02 04:49  Post: 728966
podobnie focal blur w U2 ze potrafi rozmazywać wybrane elementy głębokości.. ty pi****łeś ze to nie możliwe.

Nie - po prostu pisałem, że nie robi nic innego niż robi się już od lat w innych grach... a ty dalej pewnie swoje, że to super nowa technologia, bo przecież by się nie chwalili (i dalej jesteś w błędzie).


Hashi @ 2014.03.02 04:49  Post: 728966
Tu jest łopatologicznie wyjaśnione co jest realne a co masz na kartce..
Next up, there is a cost of drawing really small triangles. In particular, you might think that drawing lots of triangles is bad because of the cost of processing all those vertices. The real cost is pixel shading. You would think that drawing 1 triangle with 25 pixels would cost just as much pixel shading as 25 triangles with one pixel each. In reality, GPUs are designed to render many pixels from a single triangle. So if your triangle is really tiny, the GPU is spending time rendering pixels that eventually get discarded. That’s the real cost. If you have complicated pixel shaders, and you draw lots of triangles, then you will get slowed down by your pixel shading.
That’s one thing that everyone should know. We have a fundamental tradeoff between pixel shading and how many triangles we draw. If we wanted to decrease the complexity of our pixel shaders, we could draw more triangles.

http://filmicgames.com/archives/534
Chciałbym, abyś wyjaśnił co przez to rozumiesz (bo zapewne coś innego niż jest napisane), bo nie mogę dostrzec związku.

Hashi @ 2014.03.02 04:49  Post: 728966
Twierdziłeś kiedyś ze forward rendering posiada g-buffer i mrt. Poproszę o przykład. Bo ja widzę coś innego w jego konstrukcji (ba twierdziłeś ze to identyczne techniki)

To tylko pokazuje jak bardzo masz problemy z rozumieniem tekstu czytanego. Radzę Ci, abyś odnalazł tą rozmowę i przeczytał w końcu ze zrozumieniem (tak... wiele wymagam). Nigdy nie twierdziłem, że są to identyczne techniki (różnią się wszystkim), nigdy nie powiedziałem, że forward ma g-buffory (możliwe, że napisałem, że większość z gbufforów wykorzystuje się do technik jak SSAO, DF, MB... i tak one są zazwyczaj gotowe i w forwardzie przy okazji innych efektów, ale nie biorą udziału w oświetleniu, a w innych efektach), a MRT jak najbardziej jest wykorzystywany często (multi render target nie jest w żaden sposób związany z deferred. MRT jest wykorzystywany do wielu różnych efektów, a deferred można zrobić bez MRT - po prostu deferred i mrt pasują do siebie... zresztą nie bez powodu defered stał się popularny wraz z Dx10 gdzie MRT pozwalało na renderowanie 8x tekstur na raz (wcześniej w Dx9 możliwe było tylko 4x jak w PS3, co jest trochę mało (w PS3 masz deferred mocno pościnany z jakości, bo jakoś trzeba było upchać wszystkie dane na 16 kanałach tekstur, dlatego kolorowego speculara tam nie zobaczysz raczej))).


Hashi @ 2014.03.02 04:49  Post: 728966
Odpal mi takie coś na Tegrze:
http://www.youtube.com/watch?v=99JltBwW7hI

Jest to jak najbardziej możliwe - tyle, że nie w OpenGL ES (nie pozwala na tak niski narzut jak API Sony), a w OpenGL (można osiągnąć nawet więcej z bindlessami).


Hashi @ 2014.03.02 04:49  Post: 728966
Co do i7 to rozumiem ze jesteś świadom ze kosztował wtedy 1000USD, a proc w PS3 50USD?

Co to niby zmienia? Już pominę to, że podajesz cenę dla klienta indywidualnego z podobno ceną procesora dla Sony (cena dla klienta indywidualnego to 300USD, bo masz przecież WinFast PxVC1100). Cell ma 2x większą wydajność w liczbach zmiennoprzecinkowych od starych i7 (teraz jest zupełnie inaczej), ale przykładowo w obliczeniach na liczbach całkowitych tamten Intel bije go 4-8x. Zapominasz zupełnie, że jednostki SIMD są tanie (przykładowo K1 zapewne będzie kosztował w okolicach 25$, a ma wielokrotnie większą wydajność zmiennoprzecinkową niż Cell).
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.02, 04:49
-5#93
@skoti48
Kolego XDR działa w PS3 na 400MHz, a nie 800MHz. Mnożysz to razy 8. Co do przepustowości to wewnętrznie masz tam 200GB/s i zostało to zmierzone. Podobnie TRE potrafi hulać na samym procku i ma wydajność x35 względem samego rdzenia PPE (30fps@720 na samych SPU). Totalnie nie pojmuje twojego toku rozumowania. Totalnie. SPU są ładowane do momentu następnej cut-scenki.
Myślałem ze cache to pamięć. Mam wrażenie, ze chyba źle policzyłeś flopsy.
Wydajność taka jest jak najbardziej realna, ale do osiągnięcia tylko w bardzo nielicznych przypadkach
Gdzie? Benchmarkach czy grach. Weź się chłopie nie ośmieszaj please. Coś tam poczytałeś, ładnymi zwrotami rzucasz i tyle. Kiedyś czy tłumaczyłem ze deferred da się rozpoznać gołymi oczami na tv plazmowym podobnie focal blur w U2 ze potrafi rozmazywać wybrane elementy głębokości.. ty pi****łeś ze to nie możliwe. Najpierw coś sprawdź kolego a potem zabieraj głos, bo widze ze tu na lead programmera się stroisz, wiec czemu nie pracujesz w ND czy Guerilla jak kilku naszych rodaków. Tu jest łopatologicznie wyjaśnione co jest realne a co masz na kartce..
Next up, there is a cost of drawing really small triangles. In particular, you might think that drawing lots of triangles is bad because of the cost of processing all those vertices. The real cost is pixel shading. You would think that drawing 1 triangle with 25 pixels would cost just as much pixel shading as 25 triangles with one pixel each. In reality, GPUs are designed to render many pixels from a single triangle. So if your triangle is really tiny, the GPU is spending time rendering pixels that eventually get discarded. That’s the real cost. If you have complicated pixel shaders, and you draw lots of triangles, then you will get slowed down by your pixel shading.
That’s one thing that everyone should know. We have a fundamental tradeoff between pixel shading and how many triangles we draw. If we wanted to decrease the complexity of our pixel shaders, we could draw more triangles.

http://filmicgames.com/archives/534
Twierdziłeś kiedyś ze forward rendering posiada g-buffer i mrt. Poproszę o przykład. Bo ja widzę coś innego w jego konstrukcji (ba twierdziłeś ze to identyczne techniki):
http://gamedevelopment.tutsplus.com/articl...--gamedev-12342
Odpal mi takie coś na Tegrze:
http://www.youtube.com/watch?v=99JltBwW7hI
Co do encodera to mnie interesuje w jakim czasie dostajesz 1920x1080, a nie benchamark. Tutaj było 22-29fps. Co do i7 to rozumiem ze jesteś świadom ze kosztował wtedy 1000USD, a proc w PS3 50USD? Bo jeśli nie to ty totalnie nie masz pojecia czym jest tak naprawdę wydajność. Wiesz zbuduje komputer w domu za 1mln USD który mi to zdekoduje w ułamku sekundy.
Ty nie masz pojęcia jak ważny jest kolor w grafice i saturacja. Masz poczytaj
http://digitalcommons.library.umaine.edu/c...amp;context=etd
http://en.wikipedia.org/wiki/XvYCC
*Konto usunięte*2014.03.02, 02:35
@Up
Masz też OGL-a przecież nie widziałeś konferencji na której pokazywali tegrę k1?

Dynamic Parallelism jest tylko dla CUDA, a czy odpowiednik technologii będzie... będzie, będzie... nie mam zielonego pojęcia czy będzie na tegrze k1.... JEST i tylko CUDA, wykorzystasz to tylko do GPGPU o to mi chodziło. W Mantle ładnie obciążone są wszystkie rdzenie, tu masz dalej ten sam problem. Brakuje czegoś takiego w DX/OGL, ale brakowało też w CUDA i brakuje w OCL.

Swoją drogą nie wiedziałem, że K1 to ma i wszystkie keplery mogą sobie same tworzyć robotę.

Czyli stary i7 o którym mówiłem (więc nic dziwnego) i enkoder Badaboom (a jest kilka wielokrotnie wydajniejszych... (już nie rozwijanych, bo po co enkodować w cuda gdy jest nvenc i odpowiedniki od intela/amd)), a są i od nich wydajniejsze (generujących słabą jakość, ale ta nie była porównywana zdaje się, bo firma o której mówisz (ta testująca) nie chciała mówić o swoim produkcie źle (o swoim encoderze)). Czyli nic nowego.

Z encoderami niezłe są jaja, bo to jest zupełnie inny kod, a obraz generowany przez cuda ma niższą jakość.

Zresztą jak mówić o GPGPU przykład

i7 jest 'tylko' 2,5x wolniejsza od najszybszych kart. Czyli to co pisałeś, wiele zależy od samego kodu, tego co karta robi, archi SIMD.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.03.02, 01:35
SunTzu @ 2014.03.01 20:28  Post: 728932
masz większą moc na dzisiejszych SoC-ach, ale co z tego skoro nie masz gier nawet na OGL-u...

Zobacz ile gier wychodzi na PS3, a ile na Android-a, które działają niskopoziomowo. Pewnie OGLem da się i takie cuda zrobić i 3 rdzenie A15 spokojnie dadzą radę zrobić całąresztę, ale nawet takich gier poprostu nie masz.

Tam nie masz OGL-a... tam masz OGLES-a który mocno od GL odbiega.

SunTzu @ 2014.03.01 20:28  Post: 728932
Dynamic Parallelism to technologia zarezerwowana tylko dla CUDA.

Cicho, bo Cię w Khronos usłyszą i Dynamic Parallelism/Nested Parallelism usuną z OpenCL 2.0, bo przecież zarezerowana jest tylko dla CUDA.

Hashi @ 2014.03.01 20:40  Post: 728934
Powiedz mi czemu 25,6gflops jednego SPU odpowiada dokładnie jego przepustowości w GB/s - 25,6GB/s (tu masz podpowiedź do pierwszego pytania).

Myślałem, że już zrozumiałeś kiedyś jak idiotyczne jest to pytanie.
25.6 GFLOPS masz bo Cell działa z częstotliwością 3.2 GHz, a każdy SPU potrafi liczyć maksymalnie 4x liczby (w 128bit jednosce mieści się 4x float 32bit) i robić na nich 2x operacje na raz (MADD)... 3.2*128*4*2 = 25,6 teoretycznej mocy.
Przepustowość pamięci jest zupełnie z tym nie związana i jest to po prostu wydajność dwukanałowego kontrolera XDR przy częstotliwości 800MHz (podobnie jak 2x kanały DDR3 800MHz mają 25.6 GB/s). Zrozum, że nie ma to, żadnego związku, poza wyimaginowanym w twojej głowie gdy zobaczyłeś te liczby i uznałeś 'to nie może być przypadek'.

Hashi @ 2014.03.01 20:40  Post: 728934
Z resztą jak Tegra może być wydajniejsza jak Cell jest spięty z pamięcią która jest efektywniejsza od DDR4 i ma latency 1-3ns.

Mocno sobie przeinaczasz fakty. Cell ma na dzisiejsze standardy wolną pamięć. Co to 25.6 GB/s skoro już Tegra 4 ma pamięć osiągającą wydajność 29.2 GB/s. Niskie opóźnienia faktycznie są atutem XDR, jednak zdaje się, że nie rozumiesz co oznaczają (XDR zawsze mają 3,125 nanosekund opóźnienia), bo wbrew temu co myślisz nie są podawane w jednostce czasu, a w cyklach. Najwolniejsze XDR (400 MHz) mają 1.25ns (liczone w cyklach) a 3,125 ns liczone w jednosce czasu (1.25ns / 0.4 GHz), a zastosowane XDR w PS3 to 800MHz (2.5ns w cyklach i 3,125ns). W Tegrze opóźnienie zapewne będzie około 12 ns.

Hashi @ 2014.03.01 20:40  Post: 728934
Te gflopy w Tegrze możesz sobie miedzy bajki włożyć i doskonale o tym wiesz. Tak samo jak podawanie maksymalnej ilości trójkątów jakie potrafi wygenerować GPU jest całkowicie nierealna i nie ma odzwierciedlenia w rzeczywistości. Ciągłości wydajność w gflops tez nie da się tak naprawdę uzyskać - musiałbyś mieć pamięć vram operującą w terbajtach/s. Pozdrawiam miłego wieczoru.

Bzdury gadasz. Zachowujesz się jak dziecko, które uważa, że do każdej instrukcji potrzeba zapisywać i odczytywać dane z pamięci ram i nie ma pojęcia jak działa pamięć podręczna L1 i L2. Wydajność taka jest jak najbardziej realna, ale do osiągnięcia tylko w bardzo nielicznych przypadkach (to samo jednak tyczy się wydajności SPE). Co do terabajtów/s przepustowości to puściłeś niesamowicie wyobraźnię nieskażoną wiedzą, po przepustowość pamięci nie ma wiele wspólnego z obliczeniami, a ważniejszy jest cache. W obliczeniach jednak na SPU/CUDA i osiągnięciu ich maksimum wydajności problemem nie jest przepustowość pamięci czy cache, a architektura SIMD, oraz nie zawsze lubiące się z nią algorytmy (w wypadku SPE dodatkowo brak możliwości generowania samemu sobie pracy, przez co generuje co chwilę dodatkowy narzut na PPE (nieporównywalnie większy niż opóźnienie pamięci)), gdy Kepler po prostu sam o wszystko zadba, nie powodując narzutu na CPU.

Hashi @ 2014.03.01 20:40  Post: 728934
PS Co do dekodingu to poszukaj sobie wpisów na temat japońskiego Codecsys Fixstar (szybko zniknął z sieci). GTX285, Intel i7-965.

Czyli stary i7 o którym mówiłem (więc nic dziwnego) i enkoder Badaboom (a jest kilka wielokrotnie wydajniejszych... (już nie rozwijanych, bo po co enkodować w cuda gdy jest nvenc i odpowiedniki od intela/amd)), a są i od nich wydajniejsze (generujących słabą jakość, ale ta nie była porównywana zdaje się, bo firma o której mówisz (ta testująca) nie chciała mówić o swoim produkcie źle (o swoim encoderze)). Czyli nic nowego.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.01, 20:40
-6#90
@skoti48
Zadam Ci tylko dwa pytania bo widzę ze nie bardzo wiesz jakim kościele biją dzwony.
Wiesz jaka jest wielkość słowa w DDR3, a jaka w XDR?
Powiedz mi czemu 25,6gflops jednego SPU odpowiada dokładnie jego przepustowości w GB/s - 25,6GB/s (tu masz podpowiedź do pierwszego pytania).
Wiesz do jakich zadań został on zaprojektowany? Z resztą jak Tegra może być wydajniejsza jak Cell jest spięty z pamięcią która jest efektywniejsza od DDR4 i ma latency 1-3ns. Ty się czytasz? Te gflopy w Tegrze możesz sobie miedzy bajki włożyć i doskonale o tym wiesz. Tak samo jak podawanie maksymalnej ilości trójkątów jakie potrafi wygenerować GPU jest całkowicie nierealna i nie ma odzwierciedlenia w rzeczywistości. Ciągłości wydajność w gflops tez nie da się tak naprawdę uzyskać - musiałbyś mieć pamięć vram operującą w terbajtach/s. Pozdrawiam miłego wieczoru..

PS Co do dekodingu to poszukaj sobie wpisów na temat japońskiego Codecsys Fixstar (szybko zniknął z sieci). GTX285, Intel i7-965.
*Konto usunięte*2014.03.01, 20:28
skoti48 @ 2014.03.01 19:40  Post: 728926
Hashi @ 2014.03.01 10:32  Post: 728813
@skoti48
Oj kolego troszkę znów zbaczasz z tematu. Mnie nie obchodzi benchmark jaki Nv sobie użyła. Mnie to dynda. Nv użyła zwrotu Tegra K1 delivers much higher graphics processing power than current generation consoles co jest ewidentną ściemą jeśli wyłączymy z renderingu SPU.

Nie jest ściemą, a po prostu faktem, nawet wliczając SPU. Wydajność SPU w PS3 osiąga wydajność 153.6 GFLOPS (6x rdzeni SPU dostępnych dla gier po 25.6 GFLOPS)... nawet przy doliczeniu jednostek pikseli i użytecznej w obliczeniach mocy 240 GFLOPS SPU+RSX osiągają łącznie wydajność 393,6. GPU w Tegra K1 osiąga sama moc 365 GFLOPS i jest łatwiej programowalna oraz łatwiej osiągnąć tą wydajność dzięki temu, że GPU samo sobie potrafi generować zadania (Dynamic Parallelism) czego SPU nie potrafi i zabiera sporo mocy PPE (i istnieje narzut czasowy co nie jest korzystne). Praktycznie samo GPU z Tegra K1 jest już lepsze od SPU+RSX, a dodatkowo jeszcze mamy 74 GFLOPS ukrytych w 8miu rdzeniach wektorowych NEON (po 2 na rdzeń ARM A15) czyli około 45 GFLOPS więcej. Nie rozumiem dlaczego uważasz za ściemę napisanie, że Tegra K1 ma znacznie większą moc obliczeniową przy przetwarzaniu grafiki... bo biorąc pod uwagę samo GPU (240 vs 365) jest to wręcz słabo powiedziane, a jeśli chcesz dodać do tego rdzenie wektorowe to też ma widocznie większą wydajność.




Hashi @ 2014.03.01 10:32  Post: 728813
Po za tym szczerze wątpię kolego by.. praca SPU może być w Tegrze wykonana przez GPU, który jest kilkukrotnie wydajniejszy niż SPU,
Masz jakieś syntetyczne testy by to potwierdzić? Ja widziałem testy w których Cell był wydajniejszy o 50% od i7Extreme (który był droższy 20krotnie) i miał podobną wydajność do GTX280 (sam procesor) w dekodingu FullHD, czyli multimediach, czyli coś co jest związane z przetwarzaniem obrazu, czyli coś co namacalnie pokazuje mi wydajność. Prawda?

Co do i7 Extreme opartych o Nehalem to nawet bardzo prawdopodobne - 4x rdzenie wektorowe 128bit vs 6x rdzeni (lub do 8 jeśli Cell serwerowy, a nie z PS3) 128 bit to nic dziwnego, że takie wyniki. W wypadku nowszych gdzie SSE 128bit zamieniono na AVX (256 bitowe jednostki liczące w tym samym czasie 2x więcej) czy AVX512 (Xeon Phi) to już jest zupełnie inna bajka. Co do GTX280 to albo test był skopany, albo nie wykorzystywano w nim rdzeni obliczeniowych, a po prostu sprzętowy dekoder (który jest zupełnie z obliczeniami na GPU niezwiązany). Inna sprawa, że dzięki Dynamic Parallelism w wielu obliczeniach GPU z Tegra K1 może być wydajniejsze niż GTX280 (ten tak jak SPU nie potrafi sam sobie pracy zadawać i z każdą pierdołą trzeba wracać na CPU, zmieniać zadanie (lub tylko dane) i znowu wysyłać do SPE/280 do obliczeń, bo te same sobie nowego kernela nie potrafią stworzyć z kernela uruchomionego na nich).

Tylko by to wszystko osiągnąć musiz mieć OS, niskopoziomowy dostęp do sprzętu, developera, który zrobi grę i konsumenta, który kupi urządzenie oraz grę...

masz większą moc na dzisiejszych SoC-ach, ale co z tego skoro nie masz gier nawet na OGL-u...

Zobacz ile gier wychodzi na PS3, a ile na Android-a, które działają niskopoziomowo. Pewnie OGLem da się i takie cuda zrobić i 3 rdzenie A15 spokojnie dadzą radę zrobić całąresztę, ale nawet takich gier poprostu nie masz.

Dynamic Parallelism to technologia zarezerwowana tylko dla CUDA.
lukas108Zobacz profil
Poziom ostrzeżenia: 0%
lukas1082014.03.01, 19:46
Yoshi75 @ 2014.03.01 19:07  Post: 728909
HSA –
Teraz już kumacie dlaczego konsola wyprzedza technologicznie dzisiejsze pc-ty o czym mówiło się już rok temu.
I kto tu hamuje technologie albo rozwój gier itd......


Technologicznie, być może - ale czy na pewno wydajnościowo? Obecni developerzy chyba nie potrafią tego użyć skoro gry są cięte z powodów wydajnościowych.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.03.01, 19:40
Hashi @ 2014.03.01 10:32  Post: 728813
@skoti48
Oj kolego troszkę znów zbaczasz z tematu. Mnie nie obchodzi benchmark jaki Nv sobie użyła. Mnie to dynda. Nv użyła zwrotu Tegra K1 delivers much higher graphics processing power than current generation consoles co jest ewidentną ściemą jeśli wyłączymy z renderingu SPU.

Nie jest ściemą, a po prostu faktem, nawet wliczając SPU. Wydajność SPU w PS3 osiąga wydajność 153.6 GFLOPS (6x rdzeni SPU dostępnych dla gier po 25.6 GFLOPS)... nawet przy doliczeniu jednostek pikseli i użytecznej w obliczeniach mocy 240 GFLOPS SPU+RSX osiągają łącznie wydajność 393,6. GPU w Tegra K1 osiąga sama moc 365 GFLOPS i jest łatwiej programowalna oraz łatwiej osiągnąć tą wydajność dzięki temu, że GPU samo sobie potrafi generować zadania (Dynamic Parallelism) czego SPU nie potrafi i zabiera sporo mocy PPE (i istnieje narzut czasowy co nie jest korzystne). Praktycznie samo GPU z Tegra K1 jest już lepsze od SPU+RSX, a dodatkowo jeszcze mamy 74 GFLOPS ukrytych w 8miu rdzeniach wektorowych NEON (po 2 na rdzeń ARM A15) czyli około 45 GFLOPS więcej. Nie rozumiem dlaczego uważasz za ściemę napisanie, że Tegra K1 ma znacznie większą moc obliczeniową przy przetwarzaniu grafiki... bo biorąc pod uwagę samo GPU (240 vs 365) jest to wręcz słabo powiedziane, a jeśli chcesz dodać do tego rdzenie wektorowe to też ma widocznie większą wydajność.



Hashi @ 2014.03.01 10:32  Post: 728813
Po za tym szczerze wątpię kolego by.. praca SPU może być w Tegrze wykonana przez GPU, który jest kilkukrotnie wydajniejszy niż SPU,
Masz jakieś syntetyczne testy by to potwierdzić? Ja widziałem testy w których Cell był wydajniejszy o 50% od i7Extreme (który był droższy 20krotnie) i miał podobną wydajność do GTX280 (sam procesor) w dekodingu FullHD, czyli multimediach, czyli coś co jest związane z przetwarzaniem obrazu, czyli coś co namacalnie pokazuje mi wydajność. Prawda?

Co do i7 Extreme opartych o Nehalem to nawet bardzo prawdopodobne - 4x rdzenie wektorowe 128bit vs 6x rdzeni (lub do 8 jeśli Cell serwerowy, a nie z PS3) 128 bit to nic dziwnego, że takie wyniki. W wypadku nowszych gdzie SSE 128bit zamieniono na AVX (256 bitowe jednostki liczące w tym samym czasie 2x więcej) czy AVX512 (Xeon Phi) to już jest zupełnie inna bajka. Co do GTX280 to albo test był skopany, albo nie wykorzystywano w nim rdzeni obliczeniowych, a po prostu sprzętowy dekoder (który jest zupełnie z obliczeniami na GPU niezwiązany). Inna sprawa, że dzięki Dynamic Parallelism w wielu obliczeniach GPU z Tegra K1 może być wydajniejsze niż GTX280 (ten tak jak SPU nie potrafi sam sobie pracy zadawać i z każdą pierdołą trzeba wracać na CPU, zmieniać zadanie (lub tylko dane) i znowu wysyłać do SPE/280 do obliczeń, bo te same sobie nowego kernela nie potrafią stworzyć z kernela uruchomionego na nich).
lukas108Zobacz profil
Poziom ostrzeżenia: 0%
lukas1082014.03.01, 19:40
DirectX 12 - i jak się to będzie miało do układów obsługujących sprzętowo starsze wersje DirectX?
Yoshi75Zobacz profil
Poziom ostrzeżenia: 0%
Yoshi752014.03.01, 19:07
-3#85
HSA – nowość znana z Playstation 4

Jedną z najważniejszych cech układów AMD jest obsługa techniki HSA. Polega one na tym, że różnego rodzaju procesory zamknięte w obrębie jednego układu mają równorzędny dostęp do pamięci operacyjnej i mogą razem, a nie po kolei wykonywać zadania. Obecnie tyczy się to przede wszystkim rdzeni x86 (procesora) oraz graficznych. Do tej pory to rdzenie procesora priorytetowo miały dostęp do RAMu, a zintegrowany układ graficzny miał wydzieloną bardzo małą jej część. Według materiałów AMD technika ta ma przynieść zysk wydajności rzędu 500%.

Na HSA składają się dwie techniki: hUMA oraz hQ. Pierwsza z nich to jednolita przestrzeń adresowa i oznacza ona w skrócie, że wszystkie, logiczne i fizyczne, procesory widzą jedną pamięć i z niej korzystają. Nie jest ona już w żaden sposób dzielona na sztuczne obszary, a dane nie muszą być między nimi przenoszone. Znacznie przyspiesza to wykonywanie różnych zadań, gdyż procesor i układ graficzny mogą pracować na pamięci niemal jednocześnie oraz nie trzeba będzie tracić czasu na dodatkowe operacje, takie jak kopiowanie danych.

Drugi element HSA to hQ, Heterogenous Queuing, która zapewnia komunikację wszystkich procesorów na tym samym poziomie priorytetu. Ponadto zarówno procesor centralny, jak też układ graficzny będą mogły sobie nawzajem, bez pośrednictwa systemu operacyjnego, przekazywać dane. Dzięki temu wydajność powinna wzrosnąć, a przez zastosowanie jednej kolejki programowanie powinno stać się łatwiejsze.

Teraz już kumacie dlaczego konsola wyprzedza technologicznie dzisiejsze pc-ty o czym mówiło się już rok temu.
I kto tu hamuje technologie albo rozwój gier itd......
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.01, 19:05
-4#84
sevae @ 2014.03.01 18:44  Post: 728905
Chwała bogu za Mantle bo nic by się nie ruszyło przez kolejne 10 lat. MS ma DX z niskim narzutem, na Xbox.

Wojenki w tylu AMD vs NVIDIA mają tu małe znaczenie. Niski narzut uderza w rynek drogich procesorów czyli w Intela i to bez znaczenia czy to będzie Mantle, OGL czy DX z niskopoziomowym dostępem.

Ale tylko na kilka lat. Przy wejściu tego jako standard i zwolnieniu mocy obliczeniowej CPU, procesory zaczną być wykorzystywane do wzbogacania gier o nowe elementy a nie tylko jako podajniki danych dla karty.

Większość tutaj piszących jest totalnie oderwana od rzeczywistości i nie pojmuje, ze rozwój rynku CPU PC stanął w miejscu i już dalej nie pójdzie. Piszesz o dodawaniu 'nowych elementów' tak jakby to miało być pierdnięcie Waszki. Gry AAA, czyli te najbardziej wypasione dochodzą już do takiego rozwoju, ze zaczynają być bardzo drogie w produkcji i są bardzo ryzykowne. Każde dopieszczenie gry, dodanie nowych ficzerów, efektów, bajerów, fizyki to jest dodatkowa robota i dodatkowe koszta. Naprawdę wątpię w to by na przestrzeni 3-5 lat miał nastąpić mega skok bo prostu nikomu nie będzie chciało na taki skok wywalać kasy. Tu nie pomogą nawet 4xTitan i 64GB RAM, naprawdę. Powiedz mi nie wydaje Ci się ze dziwne jest ze zarówno MS jak i SONY poszło w 8 rdzeni @1,6GHz? Poprzednia generacja posiada naprawdę ładne gry w swojej bibliotece, którym brakuje tylko 1080p, 60fps, i drobnego szlifu by być produktami dostarczającymi ultra doznań audio-wizualnych.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2014.03.01, 18:44
Chwała bogu za Mantle bo nic by się nie ruszyło przez kolejne 10 lat. MS ma DX z niskim narzutem, na Xbox.

Wojenki w tylu AMD vs NVIDIA mają tu małe znaczenie. Niski narzut uderza w rynek drogich procesorów czyli w Intela i to bez znaczenia czy to będzie Mantle, OGL czy DX z niskopoziomowym dostępem.

Ale tylko na kilka lat. Przy wejściu tego jako standard i zwolnieniu mocy obliczeniowej CPU, procesory zaczną być wykorzystywane do wzbogacania gier o nowe elementy a nie tylko jako podajniki danych dla karty.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.