@up
Są energooszczędne ciągną 2x mniej.
W materiałach z linku jest użyte Gb. Podejrzewam, że autor prezetnacji sie nie zna....
Tam gdzie ewidentnie są BIT-y używa GB.
Możliwe, że to jest błąd tego rodzaju, ale nawet 40W to przecież dość dużo, DDR3 zdaje się zużywać znacznie mniej prądu. http://www.kingston.com/dataSheets/KVR16N11_8.pdf
Dla wielu to pewnie nie ma żadnego znaczenia, ale ja zastanawiam się jak może być z wielkością PS4 względem nextboxa, głośność chłodzenia oraz temperatury wewnątrz budy.
Ja bym to widział trochę odwrotnie, niż widzi to AMD. To do GPU można by dokleić proste CPU,a nie na odwrót. Taka hybryda (bardzo mocne GPU, proste CPU, a wszystko to na kacie PCIE z własną pamięcią GDDR5) mogłaby być sprzedawana jako karta graficzna i karta do obliczeń. Wówczas wszędzie tam, gdzie wystarczy prosta funkcjonalność CPU w celu wsparcia GPU, wymiana danych z podstawowym CPU byłaby zbędna. Dopiero do poważniejszych obliczeń zaprzęgano by główne CPU z własną pamięcią na płycie głównej.
Narazie w tym właśnie kierunku zmierza rozwój PC bo nie ma znaczenia co do czego jest doklejone, skoro jest niemal tak jak postulujesz! a to za sprawą - CUDA i OpenCL DX11(Compute Shaders) Rozwój oprogramowania zmierza do uruchamiania procesów lub przynajmniej fragmentów algorytmów na GPU z czasem programów i wirtualizowania systemów, ale ma to swoje wady jeśli to procesy zależne od siebie CPU musi być bardzo mocne. A tak właśnie jest w grach wiele zależnych od siebie procesów wymaga intensywnej pracy procesora z tego powodu nie można zbudować tanio architektury na ksztalt PC
Narazie CPU jeszcze sporo ma na karku nawet w świecie oprogramowania codziennego użytku,
komunikacja z GPU generuje opóźnienia i dublowanie danych, konstrukcja jest droga wymaga 2x RAM i dwie mocne jednostki, do tego skomplikowany laminat żeby je wirtualnie zbliżyć
Ale jeśli ma pozostać tak jak obecnie to im szybciej CPU zostanie programowo zmarginalizowany tym lepiej bo przepaść wydajnościowa GPU i CPU jest kosmiczna, dlatego opcja Fusion jest nieuchronna jako najtańsza na dekstopy no chyba że rozwój oprogramowania w kierunku wirtualizowania programów do uruchamiania w całości na kartach graficznych pójdzie szybciej - puki co to opcja na stacje robocze, Mocno zależy na tym Nvidii ktora wraz z Intelem może przeważyć szale trendów.
Jakkolwiek bedzie z czasem jednostce CPU pozostanie jedynie rola uruchamiania systemu operacyjnego, przydzielania zasobów, komunikacji 'ze światem' i użytkownikiem, w kolejnych procesorach bedzie mieć znaczenie moc wbudowanego GPU,
W konsoli komunikacja rozbita na dwa duże ośrodki obliczeń nie przejdzie skoro wszystko i tak wylatuje z karty graficznej i jest od siebie wzajemnie zależne
Natomiast już w PS3 dzieki mocnemu PowerPC(jednostki zmiennoprzecinkowe) było jakby Fusion prawie GPU z funkcjami CPU, doklejona grafika NVidii funkcjonowała jedynie jako coś w rodzaju przetwornika na ekran, rola w gruncie rzeczy marginalna
Nieuchronne było wymyślenie sposobu by obejść problem doklejonego eDRAM, braku nastepcy dla Cell'a, wmontować procesor który ma odpowiednio mocny podsystem RAM, nie marnuje czasu na niepotrzebne transfery z kupki na kupke,
myśle że wybor AMD był dla Sony nieuchronny, bo to jedyna firma która dysponuje niezłym CPU i niezłym GPU umieszczonym na jednym krzemie w dodatku z możliwościami wykorzystania jednostek SP w podobny sposób w jaki Cell wykorzystywał swoje jednostki zmiennnoprzecinkowe, mniejsze znaczenie ma teksturowanie, rasteryzacja i inne graficzne sprawy, a chodzi o zmiennoprzecinkowe jednostki wykonawcze dla tych 7 rdzeni(w Cell)
Podejrzewam że w obsłudze starych gier role zmiennoprzecinkowe przejmie FPU, a w nowych grach dedykowanych PS4 sposób działania oprogramowania pójdzie w kierunku wykorzystania shaderów maxymalnie ile można, nie wnikam w datale ale myśle nareszcie łatwo im pójdzie zachowanie zgodności ze starym, podstawa jest solidna i uniwersalna
To jakby..naturalna ewolucja platformy PS, moim zdaniem wiecej jest podobieństw do PS3 z PowerPC niż rewolucyjności w PS4, czy jest HSA czy nie ma z punktu widzenia programowego i praktycznego(jeden kontroler RAM) bliżej im do tej idei niż dalej
Jeden krzem, szybki RAM, wiele rdzeni, mocne jednostki zmiennoprzecinkowe(SP), szansa na obnizenie poboru mocy i powierzchni z czasem. Nie jest potrzebny rozbudowany cache z Buldozera, nie jest potrzebne mocne FPU, jest wszystko co potrzeba do budowy konsoli z zachowaniem pewnego rodzaju zgodności do PowerPC przy jednoczesnym zbliżeniu do świata PC, moim zdaniem ta konstrukcja wyznacza trend w rozwoju platformy desktop, natomiast trend dla stacji roboczych i serwerów to marginalizacja jednostki CPU i uruchamianie programów lub nawet wirtualizowanie systemów na kartach rozszerzeń PCI-E zgodnie z tym co piszesz Assasin
od lat jest wałkowana propozycja Intela budowy klastra mini procesorów x86 na PCI-E to jakby naturalna konsekwencja ściany wobec której stoi rozwój PC (ludzie w Intelu dobrze o tym wiedzą), w której CPU pozostanie rola czegoś w rodzaju mostka północnego, a wszystkiemu winny powolny RAM przez bariery nie do przeskoczenia - sockety i dimmy, slotowy RAM mimo poszerzania magistrali, dual triple channe - ale czy to coś dało?..tyle co nic, a ścieżek na mobo co niemiara i koszty ogromne, cztery kanały SunTzu to byłoby przegięcie, generuje podobne opóźnienia w czasie dostępu i od lat, bez zmian. Doraźnym lekarstwem jest rozrost algorytmów przewidywania skoków, pobierania z wyprzedzeniem, jedyne co ratuje rozwój procesorów to coraz wiekszy i szybszy cache
Talerzowe dyski vs ssd, mimo przyspieszania transferów dużych bloków rozwój dysków natrafił również na ściane, podobną jak rozwój RAM w slotach DIMM, szybkie transfery blokowe duże czasy dostępów wynikające z ograniczeń fizyki - bezwładność głowicy, nie ma znaczenia co do czego jest doklejane CPU uruchamia system, CPU ładuje program do RAM systemowego(dość powolnego) mniejsze algorytmy jest w stanie wykarmić cache bardziej rozbudowane uruchamia na GPU, ale z punktu widzenia konsolowego to dość marnotrawny sposób, to tak jakby w pracy kierownik musiał przemyśleć każdy ruch pracownika..a jakby każdy pracownik miał kierownika to już wogóle marnotrastwo zasobów ludzkich, energii i czasu na komunikacje
Potrzeba to matka wynalazków, są na świecie dwie potrzeby - laptopy i konsole
Dwie matki wynalazków, ale nie sądze by procesor z konsoli zagościł na PC podejrzewam że wiele pracy włożono w zachowanie pewnego rodzaju zgodności wstecznej architektur
Poza tym PC zawsze wygra w prężeniu muskuł i Jaguar nie ma szans
Ale napewno wyznaczy trend
Przydałoby się zatem sprawdzić MHz/CL vs 4kanałówki.
Wiesz uważam, że 4 kanałowy kontroler powinien sporo dać w laptopach gdybyś miał GPU takie jak w PS4. Problem taki, że wtedy by cena była niska trzeba by wlutować specjalne pamięci.
Cieszę się że postęp w dziedzinie procesorów jeszcze nie ustał.
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.
Jak do tego dołożysz fakt że GPU będzie miał 8 dispatherów zamiast 2 jak standardowo w Thaiti, to rysuje się nam bardzo ciekawy kawałek krzemu.
Fanboye AMD i PS się zlecieli i wypisują głupoty. A prawda jest taka, jak już wcześniej napisał Pawelec7, że podzespoly nie sa mocne a pamiec jest wspoldzielona przez CPU i GPU Dzisiejsza przepustowosc pamieci na GPU w PC dochodzi do 300GB/s więc nie ma czym sie jarać w przypadku PS4
Czyli uwazasz, ze tez inni producenci roznych konsol i aautomatow do gier powinni Fuzion wybrac, a co rozwiazania PCI-E, to sie calkowicie zgadzam, tym bardziej, ze mam w pracy do czynienia z tzw PC- przemyslowymi, gdzie to rozwiazaanie juz od pocztku istnienia micro, mini komputerach uzywa, choc sie nie mialo do czynienia z PCI-E...
Są energooszczędne ciągną 2x mniej.
W materiałach z linku jest użyte Gb. Podejrzewam, że autor prezetnacji sie nie zna....
Tam gdzie ewidentnie są BIT-y używa GB.
http://www.kingston.com/dataSheets/KVR16N11_8.pdf
Dla wielu to pewnie nie ma żadnego znaczenia, ale ja zastanawiam się jak może być z wielkością PS4 względem nextboxa, głośność chłodzenia oraz temperatury wewnątrz budy.
Narazie w tym właśnie kierunku zmierza rozwój PC bo nie ma znaczenia co do czego jest doklejone, skoro jest niemal tak jak postulujesz! a to za sprawą - CUDA i OpenCL DX11(Compute Shaders) Rozwój oprogramowania zmierza do uruchamiania procesów lub przynajmniej fragmentów algorytmów na GPU z czasem programów i wirtualizowania systemów, ale ma to swoje wady jeśli to procesy zależne od siebie CPU musi być bardzo mocne. A tak właśnie jest w grach wiele zależnych od siebie procesów wymaga intensywnej pracy procesora z tego powodu nie można zbudować tanio architektury na ksztalt PC
Narazie CPU jeszcze sporo ma na karku nawet w świecie oprogramowania codziennego użytku,
komunikacja z GPU generuje opóźnienia i dublowanie danych, konstrukcja jest droga wymaga 2x RAM i dwie mocne jednostki, do tego skomplikowany laminat żeby je wirtualnie zbliżyć
Ale jeśli ma pozostać tak jak obecnie to im szybciej CPU zostanie programowo zmarginalizowany tym lepiej bo przepaść wydajnościowa GPU i CPU jest kosmiczna, dlatego opcja Fusion jest nieuchronna jako najtańsza na dekstopy no chyba że rozwój oprogramowania w kierunku wirtualizowania programów do uruchamiania w całości na kartach graficznych pójdzie szybciej - puki co to opcja na stacje robocze, Mocno zależy na tym Nvidii ktora wraz z Intelem może przeważyć szale trendów.
Jakkolwiek bedzie z czasem jednostce CPU pozostanie jedynie rola uruchamiania systemu operacyjnego, przydzielania zasobów, komunikacji 'ze światem' i użytkownikiem, w kolejnych procesorach bedzie mieć znaczenie moc wbudowanego GPU,
W konsoli komunikacja rozbita na dwa duże ośrodki obliczeń nie przejdzie skoro wszystko i tak wylatuje z karty graficznej i jest od siebie wzajemnie zależne
Natomiast już w PS3 dzieki mocnemu PowerPC(jednostki zmiennoprzecinkowe) było jakby Fusion prawie GPU z funkcjami CPU, doklejona grafika NVidii funkcjonowała jedynie jako coś w rodzaju przetwornika na ekran, rola w gruncie rzeczy marginalna
Nieuchronne było wymyślenie sposobu by obejść problem doklejonego eDRAM, braku nastepcy dla Cell'a, wmontować procesor który ma odpowiednio mocny podsystem RAM, nie marnuje czasu na niepotrzebne transfery z kupki na kupke,
myśle że wybor AMD był dla Sony nieuchronny, bo to jedyna firma która dysponuje niezłym CPU i niezłym GPU umieszczonym na jednym krzemie w dodatku z możliwościami wykorzystania jednostek SP w podobny sposób w jaki Cell wykorzystywał swoje jednostki zmiennnoprzecinkowe, mniejsze znaczenie ma teksturowanie, rasteryzacja i inne graficzne sprawy, a chodzi o zmiennoprzecinkowe jednostki wykonawcze dla tych 7 rdzeni(w Cell)
Podejrzewam że w obsłudze starych gier role zmiennoprzecinkowe przejmie FPU, a w nowych grach dedykowanych PS4 sposób działania oprogramowania pójdzie w kierunku wykorzystania shaderów maxymalnie ile można, nie wnikam w datale ale myśle nareszcie łatwo im pójdzie zachowanie zgodności ze starym, podstawa jest solidna i uniwersalna
To jakby..naturalna ewolucja platformy PS, moim zdaniem wiecej jest podobieństw do PS3 z PowerPC niż rewolucyjności w PS4, czy jest HSA czy nie ma z punktu widzenia programowego i praktycznego(jeden kontroler RAM) bliżej im do tej idei niż dalej
Jeden krzem, szybki RAM, wiele rdzeni, mocne jednostki zmiennoprzecinkowe(SP), szansa na obnizenie poboru mocy i powierzchni z czasem. Nie jest potrzebny rozbudowany cache z Buldozera, nie jest potrzebne mocne FPU, jest wszystko co potrzeba do budowy konsoli z zachowaniem pewnego rodzaju zgodności do PowerPC przy jednoczesnym zbliżeniu do świata PC, moim zdaniem ta konstrukcja wyznacza trend w rozwoju platformy desktop, natomiast trend dla stacji roboczych i serwerów to marginalizacja jednostki CPU i uruchamianie programów lub nawet wirtualizowanie systemów na kartach rozszerzeń PCI-E zgodnie z tym co piszesz Assasin
od lat jest wałkowana propozycja Intela budowy klastra mini procesorów x86 na PCI-E to jakby naturalna konsekwencja ściany wobec której stoi rozwój PC (ludzie w Intelu dobrze o tym wiedzą), w której CPU pozostanie rola czegoś w rodzaju mostka północnego, a wszystkiemu winny powolny RAM przez bariery nie do przeskoczenia - sockety i dimmy, slotowy RAM mimo poszerzania magistrali, dual triple channe - ale czy to coś dało?..tyle co nic, a ścieżek na mobo co niemiara i koszty ogromne, cztery kanały SunTzu to byłoby przegięcie, generuje podobne opóźnienia w czasie dostępu i od lat, bez zmian. Doraźnym lekarstwem jest rozrost algorytmów przewidywania skoków, pobierania z wyprzedzeniem, jedyne co ratuje rozwój procesorów to coraz wiekszy i szybszy cache
Talerzowe dyski vs ssd, mimo przyspieszania transferów dużych bloków rozwój dysków natrafił również na ściane, podobną jak rozwój RAM w slotach DIMM, szybkie transfery blokowe duże czasy dostępów wynikające z ograniczeń fizyki - bezwładność głowicy, nie ma znaczenia co do czego jest doklejane CPU uruchamia system, CPU ładuje program do RAM systemowego(dość powolnego) mniejsze algorytmy jest w stanie wykarmić cache bardziej rozbudowane uruchamia na GPU, ale z punktu widzenia konsolowego to dość marnotrawny sposób, to tak jakby w pracy kierownik musiał przemyśleć każdy ruch pracownika..a jakby każdy pracownik miał kierownika to już wogóle marnotrastwo zasobów ludzkich, energii i czasu na komunikacje
Potrzeba to matka wynalazków, są na świecie dwie potrzeby - laptopy i konsole
Dwie matki wynalazków, ale nie sądze by procesor z konsoli zagościł na PC podejrzewam że wiele pracy włożono w zachowanie pewnego rodzaju zgodności wstecznej architektur
Poza tym PC zawsze wygra w prężeniu muskuł i Jaguar nie ma szans
Ale napewno wyznaczy trend
Wiesz uważam, że 4 kanałowy kontroler powinien sporo dać w laptopach gdybyś miał GPU takie jak w PS4. Problem taki, że wtedy by cena była niska trzeba by wlutować specjalne pamięci.
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.
Jak do tego dołożysz fakt że GPU będzie miał 8 dispatherów zamiast 2 jak standardowo w Thaiti, to rysuje się nam bardzo ciekawy kawałek krzemu.
tu PS4 GPU http://www.vgleaks.com/wp-content/uploads/.../gpu_queues.jpg
A tu usprawnione Thaiti aka GCN2 (R10xx) http://www.vgleaks.com/wp-content/uploads/2013/02/ring.jpg
Każdy rdzeń CPU ma 8 ringów i potem jakoś to leci do GPU?
Wygląda to na dość uporządkowane albo mnie się zdaje i jakoś z deka inaczej to wygląda.
I oni Prawde nienawidza, ale Bajki kochaja...
Czyli uwazasz, ze tez inni producenci roznych konsol i aautomatow do gier powinni Fuzion wybrac, a co rozwiazania PCI-E, to sie calkowicie zgadzam, tym bardziej, ze mam w pracy do czynienia z tzw PC- przemyslowymi, gdzie to rozwiazaanie juz od pocztku istnienia micro, mini komputerach uzywa, choc sie nie mialo do czynienia z PCI-E...