komentarze
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.07.24, 19:52
Hashi @ 2013.07.24 19:49  Post: 674218
Grave @ 2013.07.24 19:42  Post: 674213
(...)


Jak już tak pamiętasz jak to było podawane to z tych 2TF łącznej wydajności RSX + Cell... 1.8 TF przypada na RSX-a. I jeżeli coś jest naciągane to właśnie to.

Przy okazji PS4 trochę przystopowano z tym rozdmuchanym marketingiem. Ale za czasów Kena Kutaragi był taki kit wciskany przy okazji premiery każdego Playstation, że nie da się tego nawet zmierzyć :>

Człowieku wiesz ile rejestrów łącznie ma Cell i jakiej są szerokości? 1,8Tera RSX to był chwyt marketingowy by Nvdia nie musiała sobie robić reklamy. RSX jest podpięty praktycznie bezpośrednio pod wewnętrzną magistralę w CPU (EIB). Nie chcę się z tobą kłócić bo mi do dynda, ale nie wmawiaj mi ze na wykresie jest RSX bo ja tam widzę słowo 'PS3'.


To przeczytaj jeszcze inne słowa jakie są na tym wykresie, bo widzę że jedynie słowo 'PS3' rozpoznajesz :>
Np.
MOBILE GRAPHICS
czy
MOBILE KEPLER


HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.07.24, 19:55
-8#22
@Grave
Naprawdę dyskusja z tobą nie ma sensu tylko to potwierdziłeś.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.07.24, 19:59
Hashi @ 2013.07.24 19:55  Post: 674221
@Grave
Naprawdę dyskusja z tobą nie ma sensu tylko to potwierdziłeś.


Cell to jest CPU, a nie GPU.

Z jednym się zgodzę dyskusja nie ma sensu, ponieważ Twój stopień fanatyzmu odnośnie Playstation jest tak znaczny, że nie da się z czym takim polemizować w jakikolwiek racjonalny sposób, Twoje wyobrażenie o potędze playstation mieści się w kategoriach fantastyki.

Takie rewelacje jak to, że gry z PS2 mają większą złożność geometryczną od Crysisa, czy to, że moc hardware-u nie ma nic do wyglądu gier bo wystarczy napisać 'algorytm' (który nie ma oczywiście nic do mocy sprzętu) i da się osiągnąć WSZYSTKO.

Te i inne brednie to Twoje właśnie przemyślenia.

Widać marketing pana Kutaragiego jednak odniósł efekt i Sony zyskało fanów którzy łykają wszystko co im się poda i wierzą w nieskończoną moc playstation (bo to już tylko jest wiara, z rzeczywistością nie ma nic wspólnego).
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2013.07.24, 20:04
ashaegen @ 2013.07.24 19:39  Post: 674211
SunTzu @ 2013.07.24 19:13  Post: 674204
(...)

W poprzedniej prezentacji był jeszcze wentylator...
Ale mnie zaminusowano. Nie ma szans by było to 2W. Każda platforma w topowych telefonach pobiera więcej niż 2W.


Tutaj chyba chodzi o pobór modułu GPU, który nvidia będzie licencjonować do SoC. AMD też mogło by nad tym pomyśleć.

W co też wątpiłbym.Każda prezentacja jaką pamiętam miała odsłoniętego exynosa, tutaj pierwsza platforma miała wentylator, a teraz pokaźny radiator.

Udowodnij mi w jakikolwiek sposób, że to wszystko nie dlatego, że Logan ciągnie więcej niż 7W i nie da się go schłodzić bez radiatora.

Tak wygląda devkit platformy do tabletów/telefonów, chłodzonej pasywnie:


Tak wygląda platformy aktywnej
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.07.24, 20:09
-8#25
Grave @ 2013.07.24 19:59  Post: 674223
Hashi @ 2013.07.24 19:55  Post: 674221
@Grave
Naprawdę dyskusja z tobą nie ma sensu tylko to potwierdziłeś.


Cell to jest CPU, a nie GPU.

Z jednym się zgodzę dyskusja nie ma sensu, ponieważ Twój stopień fanatyzmu odnośnie Playstation jest tak znaczny, że nie da się z czym takim polemizować w jakikolwiek racjonalny sposób, Twoje wyobrażenie o potędze playstation mieści się w kategoriach fantastyki.

Takie rewelacje jak to, że gry z PS2 mają większą złożność geometryczną od Crysisa, czy to, że moc hardware-u nie ma nic do wyglądu gier bo wystarczy napisać 'algorytm' (który nie ma oczywiście nic do mocy sprzętu) i da się osiągnąć WSZYSTKO.

Te i inne brednie to Twoje właśnie przemyślenia.

Człowieku lecz się na nogi...
Widzisz na wykresie słowo RSX czy PS3? Powoli skup się, powolutku, bez pośpiechu, no dasz radę. Musisz uważać bo Ci żyłka pęknie.
Widać że nawet nie skumałeś w jakim kontekście pisałem o algorytmach. Naucz się chłopczyku, że napisanie algorytmu który symuluje w 99% zachowanie wody i jej charakterystykę to problem matematyczno logiczny (ba nawet nielogiczny) który niezależny jest od hardware ale od tego co jest istotą tego problemu i może go tak naprawdę rozwiązać tylko to coś co masz pod potylicą, choć w twoim przypadku nie mam pewności czy tam coś jest.. Nawet farma GPU nie rozwiąże pewnych kwestii a jedynie może je zasymulować w jakimś tam stopniu. No chyba że pan GRAVE jest bogiem i zna algorytmy rządzące wszechświatem..

Cell to GPU.
gregory003Zobacz profil
Poziom ostrzeżenia: 0%
gregory0032013.07.24, 20:10
daerragh @ 2013.07.24 18:24  Post: 674195
To ktos jescze wierzy w zapowiedzi nVidii jesli chodzi o mobilne SoC? Oni juz tak kłapią od czasow Tegry 2.

A poza tym wydajnosc 8800GTX? :) Nie rozsmieszajcie mnie. Wierzycie, ze w 7 lat technika poszla az tak do przodu, ze wydajnisc 200 watowego potwora moza umieacic w 2 W chipie? Brednie.

A może zanim zaczniesz pieprzyć i hejtować spojrzysz łaksawie na dane? Project Logan to jeden SMX Keplera = 192 jednostki CUDA/SP. GTX 8800 ma zaledwie 128 SP.
Logan ma więc 50% więcej SP niż stary 8800 GTX.
Dalej 8800 GTX taktowany jest zegarem 575 MHz dla rdzenia i 1300 MHz dla shaderów (hot clock).
Nie znane są taktowania Logana, ale jeśli byłby taktowany zegarem 575 dla rdzenia i shaderów (w Keplerze zrezygnowano z hot clock'a), to dawałoby to identyczny zegar rdzenia co w 8800 GTX i 50% niższy dla shaderów, ale shaderów byłoby też 50% więcej) i spokojnie wystarczyłoby do wyrównania GTX 8800.

zresztą po co strzępić język. Wyglada na to, że cały ten cały Logan to będzie taki GT 630 (też jeden aktywny SMX, zegar 875 MHz) przeniesiony do 20 nm. A GT 630 jest minimalnie wolniejsza od GTX 8800.
Nie wiem jakim cudem uda im się zejść z 50 W TDP GT 630 do 2 W Logana (pewnie zejdą z zegarami), ale jeśli się uda to jak najbardziej możliwe.

BTW. Jeśli chodzi o prezentację NV, to nikt tam nie twierdził, że Logan dorówna wydajnością GTX 8800, ale wspomnieli że przez te 7 lat udało im się poprawić ileś tam razy sprawność energetyczną architektur na zunifikowanych shaderach w stosunku do pierwszego swojego produktu na takich shaderach, czyli właśnie 8800 GTX.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.07.24, 20:18
-11#27
@Grave
A i jeszcze jedno. Widać ewidentnie, że powinieneś chodzić w kapeluszu bo słońce nie działa na ciebie za dobrze. Napewno pisałem o PS2 i geotermii, a może to było porównanie geometrii KZ do Crysis. No spokojnie, powolutku, usiądź, nie spiesz się, daj sobie szanse, wierze w ciebie, że dasz radę sobie przypomnieć.
ashaegenZobacz profil
Poziom ostrzeżenia: 0%
ashaegen2013.07.24, 20:25
SunTzu @ 2013.07.24 20:04  Post: 674224

W co też wątpiłbym. Pamiętaj każda prezentacja jaką pamiętam miała odsłoniętego exynosa, tutaj pierwsza platforma miała wentylator, a teraz pokaźny radiator.

Udowodnij mi w jakikolwiek sposób, że to wszystko nie dlatego, że Logan ciągnie więcej niż 7W i nie da się go schłodzić bez radiatora.



W artykule jest napisane, że Logan był pokazywany w 28 nm - stąd pewnie radiator, docelowo ma być 20 nm.

Prężą muskuły bo Kepler naprawdę im wyszedł - przynajmniej jeżeli chodzi o pobór mocy i wydajność w grach.

Poza tym coś trzeba pokazać, Tegra 4 takiego szału nie robi ;)
SmogsmokZobacz profil
Poziom ostrzeżenia: 0%
Smogsmok2013.07.24, 20:26
-1#29
Cel istnienia Hashiego to walka o jedną i jedyna 'prawdę' na temat ps3.
Gdzie wplata się temat o tym, że ps3 jakimś 'niewyjaśnionym' sposobem jest słabsze od czegoś to pojawia się nasz ukochany rycerz.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.07.24, 20:29
-11#30
Och ach jak ze się przejąłem twą ironiczną wypowiedzią.
Wiesz lepiej wyjdź pobiegać na podwórku z kolegami bo wakacje się kończą niedługo. Rycerz to cie walił z kolegami za garażami. Naucz się jednego. Nie pyskuj do starszych i mądrzejszych bo to zawsze się źle kończy.
miekrzyZobacz profil
Poziom ostrzeżenia: 0%
Członek redakcjimiekrzy2013.07.24, 20:31
Hashi już zaczyna gadać do siebie, bo nikt inny go nie słucha :(
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.07.24, 20:35
-10#32
miekrzy @ 2013.07.24 20:31  Post: 674242
Hashi już zaczyna gadać do siebie, bo nikt inny go nie słucha :(

Jeśli myślisz że szukam tu publiki i poblasku to Cię rozczaruję. Próbuje tylko młodzieży pokazać, że czytanie ze zrozumieniem jest niezbędne do konwersacji. Nie dam sobie wmawiać czegoś czego nie powiedziałem. Fantazja nie zna granic ja wiem.
Smogsmok @ 2013.07.24 20:35  Post: 674244
Hashi @ 2013.07.24 20:29  Post: 674241
Och ach jak ze się przejąłem twą ironiczną wypowiedzią.
Wiesz lepiej wyjdź pobiegać na podwórku z kolegami bo wakacje się kończą niedługo. Rycerz to cie walił z kolegami za garażami. Naucz się jednego. Nie pyskuj do starszych i mądrzejszych bo to zawsze się źle kończy.

Nie tak nerwowo bo wylewu dostaniesz.

Zobaczymy na ile prawdą są te informacje dopiero po testach tego Logana

Wylew to wy macie tu, jeden wielki, ogromny zbiorowy z braku ruchu, sportu i towarzystwa normalnych ludzi chyba.
SmogsmokZobacz profil
Poziom ostrzeżenia: 0%
Smogsmok2013.07.24, 20:35
Hashi @ 2013.07.24 20:29  Post: 674241
Och ach jak ze się przejąłem twą ironiczną wypowiedzią.
Wiesz lepiej wyjdź pobiegać na podwórku z kolegami bo wakacje się kończą niedługo. Rycerz to cie walił z kolegami za garażami. Naucz się jednego. Nie pyskuj do starszych i mądrzejszych bo to zawsze się źle kończy.

Nie tak nerwowo bo wylewu dostaniesz.

Zobaczymy na ile prawdą są te informacje dopiero po testach tego Logana
daerraghZobacz profil
Poziom ostrzeżenia: 0%
daerragh2013.07.24, 20:43
gregory003 @ 2013.07.24 20:10  Post: 674228
daerragh @ 2013.07.24 18:24  Post: 674195
To ktos jescze wierzy w zapowiedzi nVidii jesli chodzi o mobilne SoC? Oni juz tak kłapią od czasow Tegry 2.

A poza tym wydajnosc 8800GTX? :) Nie rozsmieszajcie mnie. Wierzycie, ze w 7 lat technika poszla az tak do przodu, ze wydajnisc 200 watowego potwora moza umieacic w 2 W chipie? Brednie.

A może zanim zaczniesz pieprzyć i hejtować spojrzysz łaksawie na dane? Project Logan to jeden SMX Keplera = 192 jednostki CUDA/SP. GTX 8800 ma zaledwie 128 SP.
Logan ma więc 50% więcej SP niż stary 8800 GTX.
Dalej 8800 GTX taktowany jest zegarem 575 MHz dla rdzenia i 1300 MHz dla shaderów (hot clock).
Nie znane są taktowania Logana, ale jeśli byłby taktowany zegarem 575 dla rdzenia i shaderów (w Keplerze zrezygnowano z hot clock'a), to dawałoby to identyczny zegar rdzenia co w 8800 GTX i 50% niższy dla shaderów, ale shaderów byłoby też 50% więcej) i spokojnie wystarczyłoby do wyrównania GTX 8800.

zresztą po co strzępić język. Wyglada na to, że cały ten cały Logan to będzie taki GT 630 (też jeden aktywny SMX, zegar 875 MHz) przeniesiony do 20 nm. A GT 630 jest minimalnie wolniejsza od GTX 8800.
Nie wiem jakim cudem uda im się zejść z 50 W TDP GT 630 do 2 W Logana (pewnie zejdą z zegarami), ale jeśli się uda to jak najbardziej możliwe.

BTW. Jeśli chodzi o prezentację NV, to nikt tam nie twierdził, że Logan dorówna wydajnością GTX 8800, ale wspomnieli że przez te 7 lat udało im się poprawić ileś tam razy sprawność energetyczną architektur na zunifikowanych shaderach w stosunku do pierwszego swojego produktu na takich shaderach, czyli właśnie 8800 GTX.


Patrzalen na dane. Masz w wielu miejscach racje ale Logan nie bedzie takim GT 630, bo zeby zmiescic sie 2 W (lub nawet w 3-4 W jesli zwyczajnie klamia co do poboru), to GPU bedzie mialo bardzo niskie napiecie i na wiecej niz 450 MHz bym nie liczyl majac na uwadze, ze dzisiejsze high-endowe mobilne SoC w 28nm np. taki Adreno 320 ma 400 MHz. Poza tym wydajnosc GPU to nie tylko shadery a na razie znamy tylko ta liczbe i ze jest to kepler.

Nawet patrzac na integry Intela, to taki HD 4600 nadal jest slabszy niz 8800GTX a przeciez pobiera ok. 10-15 W w 22nm a Intelowi bardzo zalezalo na niskim poborze, wiec nie wiem jak nVidia zamierza sie wyrobic w 2W... Wyjasniam: Nie zamierza, bo nie jest mozliwym na dzien dzisiejszy zrobic wydajnosc 8800GTX i zmiescic sie w 2W.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.07.24, 20:56
Hashi @ 2013.07.24 19:36  Post: 674209
Ja tam widzę na wykresie PS3, a nie RSX.

Na wykresie porównywane są jedynie GPU, dlatego nie porównuje się tam Tegra 5, a mobilny Kepler, ani CPU + 8800. Oznaczenie PS3 jest tam użyte, aby każdy ignorant zrozumiał jakie GPU - wbrew pozorom nie każdy nawet tu rozpoznałby skrót RSX, a PS3 tylko nieliczni nie rozpoznają.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2013.07.24, 21:11
ashaegen @ 2013.07.24 20:25  Post: 674236
SunTzu @ 2013.07.24 20:04  Post: 674224

W co też wątpiłbym. Pamiętaj każda prezentacja jaką pamiętam miała odsłoniętego exynosa, tutaj pierwsza platforma miała wentylator, a teraz pokaźny radiator.

Udowodnij mi w jakikolwiek sposób, że to wszystko nie dlatego, że Logan ciągnie więcej niż 7W i nie da się go schłodzić bez radiatora.



W artykule jest napisane, że Logan był pokazywany w 28 nm - stąd pewnie radiator, docelowo ma być 20 nm.

Prężą muskuły bo Kepler naprawdę im wyszedł - przynajmniej jeżeli chodzi o pobór mocy i wydajność w grach.

Poza tym coś trzeba pokazać, Tegra 4 takiego szału nie robi ;)

To by wiele wyjaśniało, dalej... pokazują gruszki na wierzbie, a nie finalny produkt. Nvidia robi premierę produkt masz pół roku później...
... tu nie ma nawet produktu finalnego. Może na 2015 pojawią się telefony z tegrą, ryzwalizujące z exynosem 7:P
rudationZobacz profil
Poziom ostrzeżenia: 0%
rudation2013.07.24, 21:32
wuzetkowiec @ 2013.07.24 18:39  Post: 674197
daerragh @ 2013.07.24 18:24  Post: 674195
To ktos jescze wierzy w zapowiedzi nVidii jesli chodzi o mobilne SoC? Oni juz tak kłapią od czasow Tegry 2.

A poza tym wydajnosc 8800GTX? :) Nie rozsmieszajcie mnie. Wierzycie, ze w 7 lat technika poszla az tak do przodu, ze wydajnisc 200 watowego potwora moza umieacic w 2 W chipie? Brednie.

Dokładnie. Typowy, marketingowy bełkot.


Mylisz się. Sprawdź sobie jak zwiększyła się wydajność superkomputerów na 1 kW z listy Top500 przez ostatnie 7 lat.W czerwcu 2006 roku najszybszy komputer dawał około 0,2 TFlops/1kW natomiast w liście z czerwca 2013 najszybszy daje troche ponad 3 TFlops/1kW. To jest około 15 krotna różnica. W dużo mniejszej skali, ale jednak podobne przełożenie mamy w elektronice użytkowej, w laptopach i właśnie w wydajności urządzeń mobilnych. Więc wcale bym sie nie zdziwił, że potrafią zaoferować taką wydajność z 2W...
daerraghZobacz profil
Poziom ostrzeżenia: 0%
daerragh2013.07.24, 22:10
rudation @ 2013.07.24 21:32  Post: 674258
wuzetkowiec @ 2013.07.24 18:39  Post: 674197
(...)

Dokładnie. Typowy, marketingowy bełkot.


Mylisz się. Sprawdź sobie jak zwiększyła się wydajność superkomputerów na 1 kW z listy Top500 przez ostatnie 7 lat.W czerwcu 2006 roku najszybszy komputer dawał około 0,2 TFlops/1kW natomiast w liście z czerwca 2013 najszybszy daje troche ponad 3 TFlops/1kW. To jest około 15 krotna różnica. W dużo mniejszej skali, ale jednak podobne przełożenie mamy w elektronice użytkowej, w laptopach i właśnie w wydajności urządzeń mobilnych. Więc wcale bym sie nie zdziwił, że potrafią zaoferować taką wydajność z 2W...


No tak ale duzo superkomputerow poszlo w tym czasie w GPGPU a karty graficzne maja wyzsza wydajnosc na W niz CPU (stad tak duzy postep) ale nie nadaja sie do wszystich obliczen.
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2013.07.24, 22:12
rudation @ 2013.07.24 21:32  Post: 674258
wuzetkowiec @ 2013.07.24 18:39  Post: 674197
(...)

Dokładnie. Typowy, marketingowy bełkot.


Mylisz się. Sprawdź sobie jak zwiększyła się wydajność superkomputerów na 1 kW z listy Top500 przez ostatnie 7 lat.W czerwcu 2006 roku najszybszy komputer dawał około 0,2 TFlops/1kW natomiast w liście z czerwca 2013 najszybszy daje troche ponad 3 TFlops/1kW. To jest około 15 krotna różnica. W dużo mniejszej skali, ale jednak podobne przełożenie mamy w elektronice użytkowej, w laptopach i właśnie w wydajności urządzeń mobilnych. Więc wcale bym sie nie zdziwił, że potrafią zaoferować taką wydajność z 2W...

Architektura Kepler jest już dostępna od dłuższego czasu i znane są jej możliwości w kwestii perf/watt. Tu nie ma żadnych czarów i nawet 20nm nie pozwoli nagle na zejście do 2W (chyba, że w idle ;)).
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.07.24, 23:14
daerragh @ 2013.07.24 22:10  Post: 674265
No tak ale duzo superkomputerow poszlo w tym czasie w GPGPU a karty graficzne maja wyzsza wydajnosc na W niz CPU (stad tak duzy postep) ale nie nadaja sie do wszystich obliczen.

Wydajność GPGPU nie jest uwzględniana w Top500 superkomputerów. A swoją drogą GeForce Kepler daje jakieś 18 TFlops/1kW, ale dziś po prostu procki Intela dają nawet ponad 3 TFlops/1kW.

Tak już jest z tym wzrostem wydajności.
W 2003 wychodziły Pentium 4 Extreme Edition 3.2GHz, które ilość przetwarzanych instrukcji na sekundę miały 9 726... 8 lat w 2011 roku mamy już Intel Core i7 Extreme Edition 3960X który przetwarza 177 730 MIPS (przez 8 lat przyspieszyły procki 18.3 x).
Zaloguj się, by móc komentować