komentarze
jkbrennaZobacz profil
Poziom ostrzeżenia: 0%
jkbrenna2013.03.05, 15:31
Stanley @ 2013.03.04 15:15  Post: 641026


Czyli uwazasz, ze tez inni producenci roznych konsol i aautomatow do gier powinni Fuzion wybrac, a co rozwiazania PCI-E, to sie calkowicie zgadzam, tym bardziej, ze mam w pracy do czynienia z tzw PC- przemyslowymi, gdzie to rozwiazaanie juz od pocztku istnienia micro, mini komputerach uzywa, choc sie nie mialo do czynienia z PCI-E...
jkbrennaZobacz profil
Poziom ostrzeżenia: 0%
jkbrenna2013.03.05, 15:20
Michael007 @ 2013.03.01 08:40  Post: 640502
Fanboye AMD i PS się zlecieli i wypisują głupoty. A prawda jest taka, jak już wcześniej napisał Pawelec7, że podzespoly nie sa mocne a pamiec jest wspoldzielona przez CPU i GPU Dzisiejsza przepustowosc pamieci na GPU w PC dochodzi do 300GB/s więc nie ma czym sie jarać w przypadku PS4


I oni Prawde nienawidza, ale Bajki kochaja...
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.03.04, 21:05
GandalfG @ 2013.03.04 09:43  Post: 640969
Andree @ 2013.03.04 08:10  Post: 640962
Cieszę się że postęp w dziedzinie procesorów jeszcze nie ustał.
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.

Jak do tego dołożysz fakt że GPU będzie miał 8 dispatherów zamiast 2 jak standardowo w Thaiti, to rysuje się nam bardzo ciekawy kawałek krzemu.

tu PS4 GPU http://www.vgleaks.com/wp-content/uploads/.../gpu_queues.jpg
A tu usprawnione Thaiti aka GCN2 (R10xx) http://www.vgleaks.com/wp-content/uploads/2013/02/ring.jpg
http://www.vgleaks.com/wp-content/uploads/.../gpu_queues.jpg
Każdy rdzeń CPU ma 8 ringów i potem jakoś to leci do GPU?
Wygląda to na dość uporządkowane albo mnie się zdaje i jakoś z deka inaczej to wygląda.
*Konto usunięte*2013.03.04, 15:41
Przydałoby się zatem sprawdzić MHz/CL vs 4kanałówki.

Wiesz uważam, że 4 kanałowy kontroler powinien sporo dać w laptopach gdybyś miał GPU takie jak w PS4. Problem taki, że wtedy by cena była niska trzeba by wlutować specjalne pamięci.
StanleyZobacz profil
Poziom ostrzeżenia: 0%
Stanley2013.03.04, 15:15
Assassin @ 2013.03.03 11:15  Post: 640887
Ja bym to widział trochę odwrotnie, niż widzi to AMD. To do GPU można by dokleić proste CPU,a nie na odwrót. Taka hybryda (bardzo mocne GPU, proste CPU, a wszystko to na kacie PCIE z własną pamięcią GDDR5) mogłaby być sprzedawana jako karta graficzna i karta do obliczeń. Wówczas wszędzie tam, gdzie wystarczy prosta funkcjonalność CPU w celu wsparcia GPU, wymiana danych z podstawowym CPU byłaby zbędna. Dopiero do poważniejszych obliczeń zaprzęgano by główne CPU z własną pamięcią na płycie głównej.


Narazie w tym właśnie kierunku zmierza rozwój PC bo nie ma znaczenia co do czego jest doklejone, skoro jest niemal tak jak postulujesz! a to za sprawą - CUDA i OpenCL DX11(Compute Shaders) Rozwój oprogramowania zmierza do uruchamiania procesów lub przynajmniej fragmentów algorytmów na GPU z czasem programów i wirtualizowania systemów, ale ma to swoje wady jeśli to procesy zależne od siebie CPU musi być bardzo mocne. A tak właśnie jest w grach wiele zależnych od siebie procesów wymaga intensywnej pracy procesora z tego powodu nie można zbudować tanio architektury na ksztalt PC

Narazie CPU jeszcze sporo ma na karku nawet w świecie oprogramowania codziennego użytku,
komunikacja z GPU generuje opóźnienia i dublowanie danych, konstrukcja jest droga wymaga 2x RAM i dwie mocne jednostki, do tego skomplikowany laminat żeby je wirtualnie zbliżyć
Ale jeśli ma pozostać tak jak obecnie to im szybciej CPU zostanie programowo zmarginalizowany tym lepiej bo przepaść wydajnościowa GPU i CPU jest kosmiczna, dlatego opcja Fusion jest nieuchronna jako najtańsza na dekstopy no chyba że rozwój oprogramowania w kierunku wirtualizowania programów do uruchamiania w całości na kartach graficznych pójdzie szybciej - puki co to opcja na stacje robocze, Mocno zależy na tym Nvidii ktora wraz z Intelem może przeważyć szale trendów.

Jakkolwiek bedzie z czasem jednostce CPU pozostanie jedynie rola uruchamiania systemu operacyjnego, przydzielania zasobów, komunikacji 'ze światem' i użytkownikiem, w kolejnych procesorach bedzie mieć znaczenie moc wbudowanego GPU,
W konsoli komunikacja rozbita na dwa duże ośrodki obliczeń nie przejdzie skoro wszystko i tak wylatuje z karty graficznej i jest od siebie wzajemnie zależne
Natomiast już w PS3 dzieki mocnemu PowerPC(jednostki zmiennoprzecinkowe) było jakby Fusion prawie GPU z funkcjami CPU, doklejona grafika NVidii funkcjonowała jedynie jako coś w rodzaju przetwornika na ekran, rola w gruncie rzeczy marginalna

Nieuchronne było wymyślenie sposobu by obejść problem doklejonego eDRAM, braku nastepcy dla Cell'a, wmontować procesor który ma odpowiednio mocny podsystem RAM, nie marnuje czasu na niepotrzebne transfery z kupki na kupke,
myśle że wybor AMD był dla Sony nieuchronny, bo to jedyna firma która dysponuje niezłym CPU i niezłym GPU umieszczonym na jednym krzemie w dodatku z możliwościami wykorzystania jednostek SP w podobny sposób w jaki Cell wykorzystywał swoje jednostki zmiennnoprzecinkowe, mniejsze znaczenie ma teksturowanie, rasteryzacja i inne graficzne sprawy, a chodzi o zmiennoprzecinkowe jednostki wykonawcze dla tych 7 rdzeni(w Cell)
Podejrzewam że w obsłudze starych gier role zmiennoprzecinkowe przejmie FPU, a w nowych grach dedykowanych PS4 sposób działania oprogramowania pójdzie w kierunku wykorzystania shaderów maxymalnie ile można, nie wnikam w datale ale myśle nareszcie łatwo im pójdzie zachowanie zgodności ze starym, podstawa jest solidna i uniwersalna

To jakby..naturalna ewolucja platformy PS, moim zdaniem wiecej jest podobieństw do PS3 z PowerPC niż rewolucyjności w PS4, czy jest HSA czy nie ma z punktu widzenia programowego i praktycznego(jeden kontroler RAM) bliżej im do tej idei niż dalej

Jeden krzem, szybki RAM, wiele rdzeni, mocne jednostki zmiennoprzecinkowe(SP), szansa na obnizenie poboru mocy i powierzchni z czasem. Nie jest potrzebny rozbudowany cache z Buldozera, nie jest potrzebne mocne FPU, jest wszystko co potrzeba do budowy konsoli z zachowaniem pewnego rodzaju zgodności do PowerPC przy jednoczesnym zbliżeniu do świata PC, moim zdaniem ta konstrukcja wyznacza trend w rozwoju platformy desktop, natomiast trend dla stacji roboczych i serwerów to marginalizacja jednostki CPU i uruchamianie programów lub nawet wirtualizowanie systemów na kartach rozszerzeń PCI-E zgodnie z tym co piszesz Assasin

od lat jest wałkowana propozycja Intela budowy klastra mini procesorów x86 na PCI-E to jakby naturalna konsekwencja ściany wobec której stoi rozwój PC (ludzie w Intelu dobrze o tym wiedzą), w której CPU pozostanie rola czegoś w rodzaju mostka północnego, a wszystkiemu winny powolny RAM przez bariery nie do przeskoczenia - sockety i dimmy, slotowy RAM mimo poszerzania magistrali, dual triple channe - ale czy to coś dało?..tyle co nic, a ścieżek na mobo co niemiara i koszty ogromne, cztery kanały SunTzu to byłoby przegięcie, generuje podobne opóźnienia w czasie dostępu i od lat, bez zmian. Doraźnym lekarstwem jest rozrost algorytmów przewidywania skoków, pobierania z wyprzedzeniem, jedyne co ratuje rozwój procesorów to coraz wiekszy i szybszy cache

Talerzowe dyski vs ssd, mimo przyspieszania transferów dużych bloków rozwój dysków natrafił również na ściane, podobną jak rozwój RAM w slotach DIMM, szybkie transfery blokowe duże czasy dostępów wynikające z ograniczeń fizyki - bezwładność głowicy, nie ma znaczenia co do czego jest doklejane CPU uruchamia system, CPU ładuje program do RAM systemowego(dość powolnego) mniejsze algorytmy jest w stanie wykarmić cache bardziej rozbudowane uruchamia na GPU, ale z punktu widzenia konsolowego to dość marnotrawny sposób, to tak jakby w pracy kierownik musiał przemyśleć każdy ruch pracownika..a jakby każdy pracownik miał kierownika to już wogóle marnotrastwo zasobów ludzkich, energii i czasu na komunikacje

Potrzeba to matka wynalazków, są na świecie dwie potrzeby - laptopy i konsole
Dwie matki wynalazków, ale nie sądze by procesor z konsoli zagościł na PC podejrzewam że wiele pracy włożono w zachowanie pewnego rodzaju zgodności wstecznej architektur
Poza tym PC zawsze wygra w prężeniu muskuł i Jaguar nie ma szans
Ale napewno wyznaczy trend
idesofmayZobacz profil
Poziom ostrzeżenia: 0%
idesofmay2013.03.04, 14:47
Możliwe, że to jest błąd tego rodzaju, ale nawet 40W to przecież dość dużo, DDR3 zdaje się zużywać znacznie mniej prądu.
http://www.kingston.com/dataSheets/KVR16N11_8.pdf
Dla wielu to pewnie nie ma żadnego znaczenia, ale ja zastanawiam się jak może być z wielkością PS4 względem nextboxa, głośność chłodzenia oraz temperatury wewnątrz budy.
*Konto usunięte*2013.03.04, 14:07
@up
Są energooszczędne ciągną 2x mniej.
W materiałach z linku jest użyte Gb. Podejrzewam, że autor prezetnacji sie nie zna....
Tam gdzie ewidentnie są BIT-y używa GB.
marc99Zobacz profil
Poziom ostrzeżenia: 0%
marc992013.03.04, 14:01
idesofmay @ 2013.03.04 12:51  Post: 640991
http://originus.samsung.com/us/business/oe...Green-GDDR5.pdf
2Gb GDDR5 przy 1.35V zużywa wg tego 8.7W, a do 8GB potrzeba by 32 takich, 32 x 8.7=278.4, używając chipów 4Gb jak rozumiem zbiją tą wartość o połowę, ale to i tak przerażająco dużo i sądzę że coś się w tym nie zgadza ;)

Zakładając oczywiście 256 bit, przy 128 mogą zejść do 1/4 tego, ale czy wtedy te kości będą dość szybkie?

2GB a nie 2Gb. Według twoich wyliczeń Tytan na same pamięci brałby 208,8. :)
Z tego dokumentu wynika, że 8GB GDDR5 46nm pamięci Samsunga ciągnęło by ok. 40W.
*Konto usunięte*2013.03.04, 14:00
wszystko zalezy od kontekstu zadania poprzedzajacego badz calej rozmowy.

Nie zmienia to faktu ze w tytule CZY jest zbedne bo chodzilo by o to samo.
StanleyZobacz profil
Poziom ostrzeżenia: 0%
Stanley2013.03.04, 13:29
mlodybe @ 2013.03.04 09:08  Post: 640967
jk

Jezyk polski jest tak specyficznym jezykiem ze 'Czy' nie jest potrzebne i kazdy Polak rozumie tytul. To ze ty nie zozumiesz nikogo nieobchodzi. My tez czesto nie wiemy co masz na mysli.


Doprawdy?
A jeśli napisze 'Jesteś głupi?' to jak uważasz również nadal Czy jest niepotrzebne?
Znak zapytania jest na końcu..jako marne pocieszenie
Przecież każdy polak wie jak jest naprawde :)
Prawda?
idesofmayZobacz profil
Poziom ostrzeżenia: 0%
idesofmay2013.03.04, 12:51
http://originus.samsung.com/us/business/oe...Green-GDDR5.pdf
2Gb GDDR5 przy 1.35V zużywa wg tego 8.7W, a do 8GB potrzeba by 32 takich, 32 x 8.7=278.4, używając chipów 4Gb jak rozumiem zbiją tą wartość o połowę, ale to i tak przerażająco dużo i sądzę że coś się w tym nie zgadza ;)

Zakładając oczywiście 256 bit, przy 128 mogą zejść do 1/4 tego, ale czy wtedy te kości będą dość szybkie?
*Konto usunięte*2013.03.04, 12:36
@up
Wszystko jest możliwe, ale to, że 100W jest mało prawdopodobne.
idesofmayZobacz profil
Poziom ostrzeżenia: 0%
idesofmay2013.03.04, 09:43
Na klastrach obliczeniowych zbudowanych z PS3 SONY traciło kasę, do konsoli dopłacali, a tego typu użytkownicy nie kupowali gier, jedynie marketingowo dać to może jakieś korzyści. Nie wiem, jednak czy PS4 w ogóle miałoby szansę konkurować z profesjonalnymi maszynami zbudowanymi do takich celów, jeżeli nie to nikt by takich klastrów w ogóle nie budował, do innych zastosowań profesjonalnych pewnie też znalazłby się bardziej opłacalny sprzęt, szczególnie jeżeli SONY nie zamierza tym razem do konsoli dopłacać.

Ps. Na NeoGAF pojawił się ciekawy wątek, mianowicie zużycie prądu przez pamięci GDDR5, czy to faktycznie możliwe by 8GB tych pamięci zużywało ponad 100W?
GandalfGZobacz profil
Poziom ostrzeżenia: 0%
GandalfG2013.03.04, 09:43
Andree @ 2013.03.04 08:10  Post: 640962
Cieszę się że postęp w dziedzinie procesorów jeszcze nie ustał.
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.

Jak do tego dołożysz fakt że GPU będzie miał 8 dispatherów zamiast 2 jak standardowo w Thaiti, to rysuje się nam bardzo ciekawy kawałek krzemu.

tu PS4 GPU http://www.vgleaks.com/wp-content/uploads/.../gpu_queues.jpg
A tu usprawnione Thaiti aka GCN2 (R10xx) http://www.vgleaks.com/wp-content/uploads/2013/02/ring.jpg
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842013.03.04, 09:37
Widac, ze w jezyku polskim inne zasady obowiazujace sa, niz w innych jezykach europejskich

Pokaż odpowiednij 'czy' w angielskim.
Np. 'Will you marry me?' to dosłownie 'wyjdziesz za mnie?' bez żadnego 'czy' - to można dodać by zwiększyć jasność przekazu, większość krajów europejskich żadnego takiego 'czy' nie ma i trzeba przy tłumaczeniu uważać na kontekst. Np. owe 'will you marry me?' a 'you will marry me' - dokładnie te same wyrazy delikatnie zmieniona kolejność i zupełnie inne znaczenie. Masz coś do dodania w temacie?

inne takie zaawansowane zadania nie są konieczne by ją sprzedać

W sumie nie, ale jak się da jakąś możliwość jest duża szansa, że ktoś z niej skorzysta. Np. gdyby dali możliwość oprócz wbudowanego systemu zainstalować jakieś distro linuksa to znaleźliby się tacy co mimo wszystko by to zrobili. Może nawet nie konkretnie po to by sobie na linuksie oglądać filmy i przeglądać internet, ale np. zrobić klaster obliczeniowy na kilkunastu PS4 ;)
*Konto usunięte*2013.03.04, 09:08
jk

Jezyk polski jest tak specyficznym jezykiem ze 'Czy' nie jest potrzebne i kazdy Polak rozumie tytul. To ze ty nie zozumiesz nikogo nieobchodzi. My tez czesto nie wiemy co masz na mysli.
idesofmayZobacz profil
Poziom ostrzeżenia: 0%
idesofmay2013.03.04, 08:54
To ma być konsola do gier, nie komputer. Gry + funkcje multimedialne + internet i powinno wystarczyć, instalowanie nowego OS i inne takie zaawansowane zadania nie są konieczne by ją sprzedać.
jkbrennaZobacz profil
Poziom ostrzeżenia: 0%
jkbrenna2013.03.04, 08:25
Widac, ze w jezyku polskim inne zasady obowiazujace sa, niz w innych jezykach europejskich...a co do uniwersalnosci to zobaczymy w koncu rioku, czy ona nie potrzebna jest...
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2013.03.04, 08:10
Cieszę się że postęp w dziedzinie procesorów jeszcze nie ustał.
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.
idesofmayZobacz profil
Poziom ostrzeżenia: 0%
idesofmay2013.03.04, 07:22
Po pierwsze PS4 nie musi być bardziej uniwersalne, a po drugie 'Czy' nie jest potrzebne w nagłówku, wystarczy, że na końcu zdania jest znak zapytania by zdanie było pytające.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.