Czyli uwazasz, ze tez inni producenci roznych konsol i aautomatow do gier powinni Fuzion wybrac, a co rozwiazania PCI-E, to sie calkowicie zgadzam, tym bardziej, ze mam w pracy do czynienia z tzw PC- przemyslowymi, gdzie to rozwiazaanie juz od pocztku istnienia micro, mini komputerach uzywa, choc sie nie mialo do czynienia z PCI-E...
Fanboye AMD i PS się zlecieli i wypisują głupoty. A prawda jest taka, jak już wcześniej napisał Pawelec7, że podzespoly nie sa mocne a pamiec jest wspoldzielona przez CPU i GPU Dzisiejsza przepustowosc pamieci na GPU w PC dochodzi do 300GB/s więc nie ma czym sie jarać w przypadku PS4
Cieszę się że postęp w dziedzinie procesorów jeszcze nie ustał.
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.
Jak do tego dołożysz fakt że GPU będzie miał 8 dispatherów zamiast 2 jak standardowo w Thaiti, to rysuje się nam bardzo ciekawy kawałek krzemu.
Przydałoby się zatem sprawdzić MHz/CL vs 4kanałówki.
Wiesz uważam, że 4 kanałowy kontroler powinien sporo dać w laptopach gdybyś miał GPU takie jak w PS4. Problem taki, że wtedy by cena była niska trzeba by wlutować specjalne pamięci.
Ja bym to widział trochę odwrotnie, niż widzi to AMD. To do GPU można by dokleić proste CPU,a nie na odwrót. Taka hybryda (bardzo mocne GPU, proste CPU, a wszystko to na kacie PCIE z własną pamięcią GDDR5) mogłaby być sprzedawana jako karta graficzna i karta do obliczeń. Wówczas wszędzie tam, gdzie wystarczy prosta funkcjonalność CPU w celu wsparcia GPU, wymiana danych z podstawowym CPU byłaby zbędna. Dopiero do poważniejszych obliczeń zaprzęgano by główne CPU z własną pamięcią na płycie głównej.
Narazie w tym właśnie kierunku zmierza rozwój PC bo nie ma znaczenia co do czego jest doklejone, skoro jest niemal tak jak postulujesz! a to za sprawą - CUDA i OpenCL DX11(Compute Shaders) Rozwój oprogramowania zmierza do uruchamiania procesów lub przynajmniej fragmentów algorytmów na GPU z czasem programów i wirtualizowania systemów, ale ma to swoje wady jeśli to procesy zależne od siebie CPU musi być bardzo mocne. A tak właśnie jest w grach wiele zależnych od siebie procesów wymaga intensywnej pracy procesora z tego powodu nie można zbudować tanio architektury na ksztalt PC
Narazie CPU jeszcze sporo ma na karku nawet w świecie oprogramowania codziennego użytku,
komunikacja z GPU generuje opóźnienia i dublowanie danych, konstrukcja jest droga wymaga 2x RAM i dwie mocne jednostki, do tego skomplikowany laminat żeby je wirtualnie zbliżyć
Ale jeśli ma pozostać tak jak obecnie to im szybciej CPU zostanie programowo zmarginalizowany tym lepiej bo przepaść wydajnościowa GPU i CPU jest kosmiczna, dlatego opcja Fusion jest nieuchronna jako najtańsza na dekstopy no chyba że rozwój oprogramowania w kierunku wirtualizowania programów do uruchamiania w całości na kartach graficznych pójdzie szybciej - puki co to opcja na stacje robocze, Mocno zależy na tym Nvidii ktora wraz z Intelem może przeważyć szale trendów.
Jakkolwiek bedzie z czasem jednostce CPU pozostanie jedynie rola uruchamiania systemu operacyjnego, przydzielania zasobów, komunikacji 'ze światem' i użytkownikiem, w kolejnych procesorach bedzie mieć znaczenie moc wbudowanego GPU,
W konsoli komunikacja rozbita na dwa duże ośrodki obliczeń nie przejdzie skoro wszystko i tak wylatuje z karty graficznej i jest od siebie wzajemnie zależne
Natomiast już w PS3 dzieki mocnemu PowerPC(jednostki zmiennoprzecinkowe) było jakby Fusion prawie GPU z funkcjami CPU, doklejona grafika NVidii funkcjonowała jedynie jako coś w rodzaju przetwornika na ekran, rola w gruncie rzeczy marginalna
Nieuchronne było wymyślenie sposobu by obejść problem doklejonego eDRAM, braku nastepcy dla Cell'a, wmontować procesor który ma odpowiednio mocny podsystem RAM, nie marnuje czasu na niepotrzebne transfery z kupki na kupke,
myśle że wybor AMD był dla Sony nieuchronny, bo to jedyna firma która dysponuje niezłym CPU i niezłym GPU umieszczonym na jednym krzemie w dodatku z możliwościami wykorzystania jednostek SP w podobny sposób w jaki Cell wykorzystywał swoje jednostki zmiennnoprzecinkowe, mniejsze znaczenie ma teksturowanie, rasteryzacja i inne graficzne sprawy, a chodzi o zmiennoprzecinkowe jednostki wykonawcze dla tych 7 rdzeni(w Cell)
Podejrzewam że w obsłudze starych gier role zmiennoprzecinkowe przejmie FPU, a w nowych grach dedykowanych PS4 sposób działania oprogramowania pójdzie w kierunku wykorzystania shaderów maxymalnie ile można, nie wnikam w datale ale myśle nareszcie łatwo im pójdzie zachowanie zgodności ze starym, podstawa jest solidna i uniwersalna
To jakby..naturalna ewolucja platformy PS, moim zdaniem wiecej jest podobieństw do PS3 z PowerPC niż rewolucyjności w PS4, czy jest HSA czy nie ma z punktu widzenia programowego i praktycznego(jeden kontroler RAM) bliżej im do tej idei niż dalej
Jeden krzem, szybki RAM, wiele rdzeni, mocne jednostki zmiennoprzecinkowe(SP), szansa na obnizenie poboru mocy i powierzchni z czasem. Nie jest potrzebny rozbudowany cache z Buldozera, nie jest potrzebne mocne FPU, jest wszystko co potrzeba do budowy konsoli z zachowaniem pewnego rodzaju zgodności do PowerPC przy jednoczesnym zbliżeniu do świata PC, moim zdaniem ta konstrukcja wyznacza trend w rozwoju platformy desktop, natomiast trend dla stacji roboczych i serwerów to marginalizacja jednostki CPU i uruchamianie programów lub nawet wirtualizowanie systemów na kartach rozszerzeń PCI-E zgodnie z tym co piszesz Assasin
od lat jest wałkowana propozycja Intela budowy klastra mini procesorów x86 na PCI-E to jakby naturalna konsekwencja ściany wobec której stoi rozwój PC (ludzie w Intelu dobrze o tym wiedzą), w której CPU pozostanie rola czegoś w rodzaju mostka północnego, a wszystkiemu winny powolny RAM przez bariery nie do przeskoczenia - sockety i dimmy, slotowy RAM mimo poszerzania magistrali, dual triple channe - ale czy to coś dało?..tyle co nic, a ścieżek na mobo co niemiara i koszty ogromne, cztery kanały SunTzu to byłoby przegięcie, generuje podobne opóźnienia w czasie dostępu i od lat, bez zmian. Doraźnym lekarstwem jest rozrost algorytmów przewidywania skoków, pobierania z wyprzedzeniem, jedyne co ratuje rozwój procesorów to coraz wiekszy i szybszy cache
Talerzowe dyski vs ssd, mimo przyspieszania transferów dużych bloków rozwój dysków natrafił również na ściane, podobną jak rozwój RAM w slotach DIMM, szybkie transfery blokowe duże czasy dostępów wynikające z ograniczeń fizyki - bezwładność głowicy, nie ma znaczenia co do czego jest doklejane CPU uruchamia system, CPU ładuje program do RAM systemowego(dość powolnego) mniejsze algorytmy jest w stanie wykarmić cache bardziej rozbudowane uruchamia na GPU, ale z punktu widzenia konsolowego to dość marnotrawny sposób, to tak jakby w pracy kierownik musiał przemyśleć każdy ruch pracownika..a jakby każdy pracownik miał kierownika to już wogóle marnotrastwo zasobów ludzkich, energii i czasu na komunikacje
Potrzeba to matka wynalazków, są na świecie dwie potrzeby - laptopy i konsole
Dwie matki wynalazków, ale nie sądze by procesor z konsoli zagościł na PC podejrzewam że wiele pracy włożono w zachowanie pewnego rodzaju zgodności wstecznej architektur
Poza tym PC zawsze wygra w prężeniu muskuł i Jaguar nie ma szans
Ale napewno wyznaczy trend
Możliwe, że to jest błąd tego rodzaju, ale nawet 40W to przecież dość dużo, DDR3 zdaje się zużywać znacznie mniej prądu. http://www.kingston.com/dataSheets/KVR16N11_8.pdf
Dla wielu to pewnie nie ma żadnego znaczenia, ale ja zastanawiam się jak może być z wielkością PS4 względem nextboxa, głośność chłodzenia oraz temperatury wewnątrz budy.
@up
Są energooszczędne ciągną 2x mniej.
W materiałach z linku jest użyte Gb. Podejrzewam, że autor prezetnacji sie nie zna....
Tam gdzie ewidentnie są BIT-y używa GB.
http://originus.samsung.com/us/business/oe...Green-GDDR5.pdf
2Gb GDDR5 przy 1.35V zużywa wg tego 8.7W, a do 8GB potrzeba by 32 takich, 32 x 8.7=278.4, używając chipów 4Gb jak rozumiem zbiją tą wartość o połowę, ale to i tak przerażająco dużo i sądzę że coś się w tym nie zgadza
Zakładając oczywiście 256 bit, przy 128 mogą zejść do 1/4 tego, ale czy wtedy te kości będą dość szybkie?
2GB a nie 2Gb. Według twoich wyliczeń Tytan na same pamięci brałby 208,8.
Z tego dokumentu wynika, że 8GB GDDR5 46nm pamięci Samsunga ciągnęło by ok. 40W.
Jezyk polski jest tak specyficznym jezykiem ze 'Czy' nie jest potrzebne i kazdy Polak rozumie tytul. To ze ty nie zozumiesz nikogo nieobchodzi. My tez czesto nie wiemy co masz na mysli.
Doprawdy?
A jeśli napisze 'Jesteś głupi?' to jak uważasz również nadal Czy jest niepotrzebne?
Znak zapytania jest na końcu..jako marne pocieszenie
Przecież każdy polak wie jak jest naprawde
Prawda?
http://originus.samsung.com/us/business/oe...Green-GDDR5.pdf
2Gb GDDR5 przy 1.35V zużywa wg tego 8.7W, a do 8GB potrzeba by 32 takich, 32 x 8.7=278.4, używając chipów 4Gb jak rozumiem zbiją tą wartość o połowę, ale to i tak przerażająco dużo i sądzę że coś się w tym nie zgadza
Zakładając oczywiście 256 bit, przy 128 mogą zejść do 1/4 tego, ale czy wtedy te kości będą dość szybkie?
Na klastrach obliczeniowych zbudowanych z PS3 SONY traciło kasę, do konsoli dopłacali, a tego typu użytkownicy nie kupowali gier, jedynie marketingowo dać to może jakieś korzyści. Nie wiem, jednak czy PS4 w ogóle miałoby szansę konkurować z profesjonalnymi maszynami zbudowanymi do takich celów, jeżeli nie to nikt by takich klastrów w ogóle nie budował, do innych zastosowań profesjonalnych pewnie też znalazłby się bardziej opłacalny sprzęt, szczególnie jeżeli SONY nie zamierza tym razem do konsoli dopłacać.
Ps. Na NeoGAF pojawił się ciekawy wątek, mianowicie zużycie prądu przez pamięci GDDR5, czy to faktycznie możliwe by 8GB tych pamięci zużywało ponad 100W?
Cieszę się że postęp w dziedzinie procesorów jeszcze nie ustał.
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.
Jak do tego dołożysz fakt że GPU będzie miał 8 dispatherów zamiast 2 jak standardowo w Thaiti, to rysuje się nam bardzo ciekawy kawałek krzemu.
Widac, ze w jezyku polskim inne zasady obowiazujace sa, niz w innych jezykach europejskich
Pokaż odpowiednij 'czy' w angielskim.
Np. 'Will you marry me?' to dosłownie 'wyjdziesz za mnie?' bez żadnego 'czy' - to można dodać by zwiększyć jasność przekazu, większość krajów europejskich żadnego takiego 'czy' nie ma i trzeba przy tłumaczeniu uważać na kontekst. Np. owe 'will you marry me?' a 'you will marry me' - dokładnie te same wyrazy delikatnie zmieniona kolejność i zupełnie inne znaczenie. Masz coś do dodania w temacie?
inne takie zaawansowane zadania nie są konieczne by ją sprzedać
W sumie nie, ale jak się da jakąś możliwość jest duża szansa, że ktoś z niej skorzysta. Np. gdyby dali możliwość oprócz wbudowanego systemu zainstalować jakieś distro linuksa to znaleźliby się tacy co mimo wszystko by to zrobili. Może nawet nie konkretnie po to by sobie na linuksie oglądać filmy i przeglądać internet, ale np. zrobić klaster obliczeniowy na kilkunastu PS4
Jezyk polski jest tak specyficznym jezykiem ze 'Czy' nie jest potrzebne i kazdy Polak rozumie tytul. To ze ty nie zozumiesz nikogo nieobchodzi. My tez czesto nie wiemy co masz na mysli.
To ma być konsola do gier, nie komputer. Gry + funkcje multimedialne + internet i powinno wystarczyć, instalowanie nowego OS i inne takie zaawansowane zadania nie są konieczne by ją sprzedać.
Widac, ze w jezyku polskim inne zasady obowiazujace sa, niz w innych jezykach europejskich...a co do uniwersalnosci to zobaczymy w koncu rioku, czy ona nie potrzebna jest...
Cieszę się że postęp w dziedzinie procesorów jeszcze nie ustał.
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.
Po pierwsze PS4 nie musi być bardziej uniwersalne, a po drugie 'Czy' nie jest potrzebne w nagłówku, wystarczy, że na końcu zdania jest znak zapytania by zdanie było pytające.
Czyli uwazasz, ze tez inni producenci roznych konsol i aautomatow do gier powinni Fuzion wybrac, a co rozwiazania PCI-E, to sie calkowicie zgadzam, tym bardziej, ze mam w pracy do czynienia z tzw PC- przemyslowymi, gdzie to rozwiazaanie juz od pocztku istnienia micro, mini komputerach uzywa, choc sie nie mialo do czynienia z PCI-E...
I oni Prawde nienawidza, ale Bajki kochaja...
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.
Jak do tego dołożysz fakt że GPU będzie miał 8 dispatherów zamiast 2 jak standardowo w Thaiti, to rysuje się nam bardzo ciekawy kawałek krzemu.
tu PS4 GPU http://www.vgleaks.com/wp-content/uploads/.../gpu_queues.jpg
A tu usprawnione Thaiti aka GCN2 (R10xx) http://www.vgleaks.com/wp-content/uploads/2013/02/ring.jpg
Każdy rdzeń CPU ma 8 ringów i potem jakoś to leci do GPU?
Wygląda to na dość uporządkowane albo mnie się zdaje i jakoś z deka inaczej to wygląda.
Wiesz uważam, że 4 kanałowy kontroler powinien sporo dać w laptopach gdybyś miał GPU takie jak w PS4. Problem taki, że wtedy by cena była niska trzeba by wlutować specjalne pamięci.
Narazie w tym właśnie kierunku zmierza rozwój PC bo nie ma znaczenia co do czego jest doklejone, skoro jest niemal tak jak postulujesz! a to za sprawą - CUDA i OpenCL DX11(Compute Shaders) Rozwój oprogramowania zmierza do uruchamiania procesów lub przynajmniej fragmentów algorytmów na GPU z czasem programów i wirtualizowania systemów, ale ma to swoje wady jeśli to procesy zależne od siebie CPU musi być bardzo mocne. A tak właśnie jest w grach wiele zależnych od siebie procesów wymaga intensywnej pracy procesora z tego powodu nie można zbudować tanio architektury na ksztalt PC
Narazie CPU jeszcze sporo ma na karku nawet w świecie oprogramowania codziennego użytku,
komunikacja z GPU generuje opóźnienia i dublowanie danych, konstrukcja jest droga wymaga 2x RAM i dwie mocne jednostki, do tego skomplikowany laminat żeby je wirtualnie zbliżyć
Ale jeśli ma pozostać tak jak obecnie to im szybciej CPU zostanie programowo zmarginalizowany tym lepiej bo przepaść wydajnościowa GPU i CPU jest kosmiczna, dlatego opcja Fusion jest nieuchronna jako najtańsza na dekstopy no chyba że rozwój oprogramowania w kierunku wirtualizowania programów do uruchamiania w całości na kartach graficznych pójdzie szybciej - puki co to opcja na stacje robocze, Mocno zależy na tym Nvidii ktora wraz z Intelem może przeważyć szale trendów.
Jakkolwiek bedzie z czasem jednostce CPU pozostanie jedynie rola uruchamiania systemu operacyjnego, przydzielania zasobów, komunikacji 'ze światem' i użytkownikiem, w kolejnych procesorach bedzie mieć znaczenie moc wbudowanego GPU,
W konsoli komunikacja rozbita na dwa duże ośrodki obliczeń nie przejdzie skoro wszystko i tak wylatuje z karty graficznej i jest od siebie wzajemnie zależne
Natomiast już w PS3 dzieki mocnemu PowerPC(jednostki zmiennoprzecinkowe) było jakby Fusion prawie GPU z funkcjami CPU, doklejona grafika NVidii funkcjonowała jedynie jako coś w rodzaju przetwornika na ekran, rola w gruncie rzeczy marginalna
Nieuchronne było wymyślenie sposobu by obejść problem doklejonego eDRAM, braku nastepcy dla Cell'a, wmontować procesor który ma odpowiednio mocny podsystem RAM, nie marnuje czasu na niepotrzebne transfery z kupki na kupke,
myśle że wybor AMD był dla Sony nieuchronny, bo to jedyna firma która dysponuje niezłym CPU i niezłym GPU umieszczonym na jednym krzemie w dodatku z możliwościami wykorzystania jednostek SP w podobny sposób w jaki Cell wykorzystywał swoje jednostki zmiennnoprzecinkowe, mniejsze znaczenie ma teksturowanie, rasteryzacja i inne graficzne sprawy, a chodzi o zmiennoprzecinkowe jednostki wykonawcze dla tych 7 rdzeni(w Cell)
Podejrzewam że w obsłudze starych gier role zmiennoprzecinkowe przejmie FPU, a w nowych grach dedykowanych PS4 sposób działania oprogramowania pójdzie w kierunku wykorzystania shaderów maxymalnie ile można, nie wnikam w datale ale myśle nareszcie łatwo im pójdzie zachowanie zgodności ze starym, podstawa jest solidna i uniwersalna
To jakby..naturalna ewolucja platformy PS, moim zdaniem wiecej jest podobieństw do PS3 z PowerPC niż rewolucyjności w PS4, czy jest HSA czy nie ma z punktu widzenia programowego i praktycznego(jeden kontroler RAM) bliżej im do tej idei niż dalej
Jeden krzem, szybki RAM, wiele rdzeni, mocne jednostki zmiennoprzecinkowe(SP), szansa na obnizenie poboru mocy i powierzchni z czasem. Nie jest potrzebny rozbudowany cache z Buldozera, nie jest potrzebne mocne FPU, jest wszystko co potrzeba do budowy konsoli z zachowaniem pewnego rodzaju zgodności do PowerPC przy jednoczesnym zbliżeniu do świata PC, moim zdaniem ta konstrukcja wyznacza trend w rozwoju platformy desktop, natomiast trend dla stacji roboczych i serwerów to marginalizacja jednostki CPU i uruchamianie programów lub nawet wirtualizowanie systemów na kartach rozszerzeń PCI-E zgodnie z tym co piszesz Assasin
od lat jest wałkowana propozycja Intela budowy klastra mini procesorów x86 na PCI-E to jakby naturalna konsekwencja ściany wobec której stoi rozwój PC (ludzie w Intelu dobrze o tym wiedzą), w której CPU pozostanie rola czegoś w rodzaju mostka północnego, a wszystkiemu winny powolny RAM przez bariery nie do przeskoczenia - sockety i dimmy, slotowy RAM mimo poszerzania magistrali, dual triple channe - ale czy to coś dało?..tyle co nic, a ścieżek na mobo co niemiara i koszty ogromne, cztery kanały SunTzu to byłoby przegięcie, generuje podobne opóźnienia w czasie dostępu i od lat, bez zmian. Doraźnym lekarstwem jest rozrost algorytmów przewidywania skoków, pobierania z wyprzedzeniem, jedyne co ratuje rozwój procesorów to coraz wiekszy i szybszy cache
Talerzowe dyski vs ssd, mimo przyspieszania transferów dużych bloków rozwój dysków natrafił również na ściane, podobną jak rozwój RAM w slotach DIMM, szybkie transfery blokowe duże czasy dostępów wynikające z ograniczeń fizyki - bezwładność głowicy, nie ma znaczenia co do czego jest doklejane CPU uruchamia system, CPU ładuje program do RAM systemowego(dość powolnego) mniejsze algorytmy jest w stanie wykarmić cache bardziej rozbudowane uruchamia na GPU, ale z punktu widzenia konsolowego to dość marnotrawny sposób, to tak jakby w pracy kierownik musiał przemyśleć każdy ruch pracownika..a jakby każdy pracownik miał kierownika to już wogóle marnotrastwo zasobów ludzkich, energii i czasu na komunikacje
Potrzeba to matka wynalazków, są na świecie dwie potrzeby - laptopy i konsole
Dwie matki wynalazków, ale nie sądze by procesor z konsoli zagościł na PC podejrzewam że wiele pracy włożono w zachowanie pewnego rodzaju zgodności wstecznej architektur
Poza tym PC zawsze wygra w prężeniu muskuł i Jaguar nie ma szans
Ale napewno wyznaczy trend
http://www.kingston.com/dataSheets/KVR16N11_8.pdf
Dla wielu to pewnie nie ma żadnego znaczenia, ale ja zastanawiam się jak może być z wielkością PS4 względem nextboxa, głośność chłodzenia oraz temperatury wewnątrz budy.
Są energooszczędne ciągną 2x mniej.
W materiałach z linku jest użyte Gb. Podejrzewam, że autor prezetnacji sie nie zna....
Tam gdzie ewidentnie są BIT-y używa GB.
2Gb GDDR5 przy 1.35V zużywa wg tego 8.7W, a do 8GB potrzeba by 32 takich, 32 x 8.7=278.4, używając chipów 4Gb jak rozumiem zbiją tą wartość o połowę, ale to i tak przerażająco dużo i sądzę że coś się w tym nie zgadza
Zakładając oczywiście 256 bit, przy 128 mogą zejść do 1/4 tego, ale czy wtedy te kości będą dość szybkie?
2GB a nie 2Gb. Według twoich wyliczeń Tytan na same pamięci brałby 208,8.
Z tego dokumentu wynika, że 8GB GDDR5 46nm pamięci Samsunga ciągnęło by ok. 40W.
Nie zmienia to faktu ze w tytule CZY jest zbedne bo chodzilo by o to samo.
Jezyk polski jest tak specyficznym jezykiem ze 'Czy' nie jest potrzebne i kazdy Polak rozumie tytul. To ze ty nie zozumiesz nikogo nieobchodzi. My tez czesto nie wiemy co masz na mysli.
Doprawdy?
A jeśli napisze 'Jesteś głupi?' to jak uważasz również nadal Czy jest niepotrzebne?
Znak zapytania jest na końcu..jako marne pocieszenie
Przecież każdy polak wie jak jest naprawde
Prawda?
2Gb GDDR5 przy 1.35V zużywa wg tego 8.7W, a do 8GB potrzeba by 32 takich, 32 x 8.7=278.4, używając chipów 4Gb jak rozumiem zbiją tą wartość o połowę, ale to i tak przerażająco dużo i sądzę że coś się w tym nie zgadza
Zakładając oczywiście 256 bit, przy 128 mogą zejść do 1/4 tego, ale czy wtedy te kości będą dość szybkie?
Wszystko jest możliwe, ale to, że 100W jest mało prawdopodobne.
Ps. Na NeoGAF pojawił się ciekawy wątek, mianowicie zużycie prądu przez pamięci GDDR5, czy to faktycznie możliwe by 8GB tych pamięci zużywało ponad 100W?
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.
Jak do tego dołożysz fakt że GPU będzie miał 8 dispatherów zamiast 2 jak standardowo w Thaiti, to rysuje się nam bardzo ciekawy kawałek krzemu.
tu PS4 GPU http://www.vgleaks.com/wp-content/uploads/.../gpu_queues.jpg
A tu usprawnione Thaiti aka GCN2 (R10xx) http://www.vgleaks.com/wp-content/uploads/2013/02/ring.jpg
Pokaż odpowiednij 'czy' w angielskim.
Np. 'Will you marry me?' to dosłownie 'wyjdziesz za mnie?' bez żadnego 'czy' - to można dodać by zwiększyć jasność przekazu, większość krajów europejskich żadnego takiego 'czy' nie ma i trzeba przy tłumaczeniu uważać na kontekst. Np. owe 'will you marry me?' a 'you will marry me' - dokładnie te same wyrazy delikatnie zmieniona kolejność i zupełnie inne znaczenie. Masz coś do dodania w temacie?
W sumie nie, ale jak się da jakąś możliwość jest duża szansa, że ktoś z niej skorzysta. Np. gdyby dali możliwość oprócz wbudowanego systemu zainstalować jakieś distro linuksa to znaleźliby się tacy co mimo wszystko by to zrobili. Może nawet nie konkretnie po to by sobie na linuksie oglądać filmy i przeglądać internet, ale np. zrobić klaster obliczeniowy na kilkunastu PS4
Jezyk polski jest tak specyficznym jezykiem ze 'Czy' nie jest potrzebne i kazdy Polak rozumie tytul. To ze ty nie zozumiesz nikogo nieobchodzi. My tez czesto nie wiemy co masz na mysli.
Zwracam uwagę, że każdy z tych 8 słabych rdzeni Jaguar będzie mógł zarządzać własnym, odrębnym kernelem OpenCL wykonywanym na zintegrowanym GPU.
Dzięki temu jednostki obliczeniowe GPU będą działać jak potężne koprocesory, dostępne dla rdzeni x86. Dzięki wspólnej przestrzeni adresowej możliwe będzie przetwarzanie potokowe informacji przez kernele, pomocne np. w kompresji wideo, widzeniu maszynowym i rozpoznawaniu mowy.