komentarze
*Konto usunięte*2014.04.10, 11:28
-14#1
Plotki, plotki i jeszcze raz plotki... PCLab, pclab, i jeszcze raz pclab... .
Mich486Zobacz profil
Poziom ostrzeżenia: 0%
Mich4862014.04.10, 11:55
16#2
Czemu ma służyć dodanie rdzenia ARM?
Majki93Zobacz profil
Poziom ostrzeżenia: 0%
Majki932014.04.10, 12:02
40#3
A gdzie jest Cyrix133? Już od dawna PCLab bez jego wypowiedzi na temat sprzętu z powyższej firmy nie jest ten sam :(
StjepanZobacz profil
Poziom ostrzeżenia: 0%
Stjepan2014.04.10, 12:04
-2#4
Miała być przepustowość na poziomie 1TB/s a tu widzę tylko 284 GB/s.
SNC2014.04.10, 12:05
13#5
Mysle ze tym razem im ten numer wypuszczenia modelu x04 jako topowego bokiem wyjdzie bo AMD jest zbyt blisko. Ogolnei slabo na papierze wyglada ten model jak na wersje 880.
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2014.04.10, 12:47
-12#6
O co dopiero bzdury o piratach, a teraz jadą po maksłelu, tak samo nie zgadli nic o hawajach i pierwszym maksłelu to tutaj też rozkalibrowany celownik.
ProVisZobacz profil
Poziom ostrzeżenia: 0%
ProVis2014.04.10, 13:03
19#7
Michal86 @ 2014.04.10 11:28  Post: 739345
Plotki, plotki i jeszcze raz plotki... PCLab, pclab, i jeszcze raz pclab... .


Ten news jest na wszystkich polskich i zagranicznych serwisach. Zresztą bardzo dobrze, lepsza gorąca plotka niż totalny brak informacji.

A jak ci się nie podoba PClab to idź stąd i nie zawracaj bzdurami gitary.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.04.10, 15:03
Mich486 @ 2014.04.10 11:55  Post: 739357
Czemu ma służyć dodanie rdzenia ARM?

Dowolnym zadaniem które przydzieli mu programista, np liczeniu Fizyki. Oczywiście jakie możliwości ten ARM będzie miał nie wiemy, oraz jakimi dysponować będzie zasobami, ale jest to dosyć ciekawe posunięcie.
Ja osobiście na początku stawiam głównie na przyśpieszenie obliczeń Fizyki w grach, przez GPU, a właściwie CPU w nim zawarte.
Zauważyć należy, że taka karta staje się właściwie niezależnym komputerem, więc może na GPU NVidi, będzie można opalić sobie Androida i pykać w gry z niego, ale to zależy jaki ARM tam wyląduje, i co te kombo będzie potrafić ?. Ale szykuje sie nam na pewno mała rewolucja. Chyba też powinni zmienić nazwę z GTX na XTegra, bo właściwie tym się te GPU stanie.
Na razie jest, plan rozpowszechnienia wśród programistów, architektury obecnie spotykanej właśnie w Tegrach czyli taki mobilny GTX+ARM, jak się nauczą to programować na PC, to tez chętnie sięgną po Tegry w Tabletach/Smartfonach i szybciej stworzą pod to uniwersalne silniki i biblioteki, a o to chodzi NVidi, żeby przerzucić jakimś sposobem koszty promowania Tegry na zewnętrzne firmy.
*Konto usunięte*2014.04.10, 15:03
To odmierzanie wydajności po kropelce bardzo mi się nie podoba.
*Konto usunięte*2014.04.10, 15:09
CortexM3 @ 2014.04.10 15:03  Post: 739415
Mich486 @ 2014.04.10 11:55  Post: 739357
Czemu ma służyć dodanie rdzenia ARM?

Dowolnym zadaniem które przydzieli mu programista, np liczeniu Fizyki. Oczywiście jakie możliwości ten ARM będzie miał nie wiemy, oraz jakimi dysponować będzie zasobami, ale jest to dosyć ciekawe posunięcie.
...


To jest przejaw słynnego projektu Denver, rozwijanego od kilku lat. Ogólne założenie było takie by karta mogła przejąć zadania przeznaczone dla cpu. Pewnie jednak jakieś ograniczenia będą i to Nvidia będzie decydować jakie. Programiści będą decydować dopiero w drugiej kolejności.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.04.10, 15:15
Virtus* @ 2014.04.10 15:09  Post: 739418
CortexM3 @ 2014.04.10 15:03  Post: 739415
(...)

Dowolnym zadaniem które przydzieli mu programista, np liczeniu Fizyki. Oczywiście jakie możliwości ten ARM będzie miał nie wiemy, oraz jakimi dysponować będzie zasobami, ale jest to dosyć ciekawe posunięcie.
...


To jest przejaw słynnego projektu Denver, rozwijanego od kilku lat. Ogólne założenie było takie by karta mogła przejąć zadania przeznaczone dla cpu. Pewnie jednak jakieś ograniczenia będą i to Nvidia będzie decydować jakie. Programiści będą decydować dopiero w drugiej kolejności.

Programista, jak dostanie rdzeń A15 to będzie miał rdzeń A15 z jego mocą obliczeniową i możliwościami, jedyne co dawkowane będzie miał to zasoby, reszta to będzie kwestia optymalizacji kodu.
Nie będą decydować wcale w drugiej kolejności, bo jak NVida da im za slaby, lub źle zbalansowany układ to go oleją. Programista zawsze ma pełną swobodę wyboru i decyzji, poza architekturą sprzętu, ale nie w tym kontekście pisałem.
Dominic6Zobacz profil
Poziom ostrzeżenia: 0%
Dominic62014.04.10, 15:21
Czyli powtórka z rozrywki (GTX 670/680) wypuszczają średniaki z których robią high-end a za mniej więcej rok wypuszczą już ten docelowy high-end.
Tak jak wyżej ktoś napisał w ten deseń aby im AMD pojechało po rajtach za takie numery! Nie postęp - tylko kasa rządzi światem.
*Konto usunięte*2014.04.10, 16:04
CortexM3 @ 2014.04.10 15:15  Post: 739419

Nie będą decydować wcale w drugiej kolejności, bo jak NVida da im za slaby, lub źle zbalansowany układ to go oleją. Programista zawsze ma pełną swobodę wyboru i decyzji, poza architekturą sprzętu, ale nie w tym kontekście pisałem.


Zwulgaryzowałeś temat. Nvidia nie dostarczy im złego układu, natomiast dostarczy taki, który najlepiej będzie się sprawdzał w tych zadaniach, na których najbardziej zależy Nvidii. To wytwórca sprzętu wyznacza ramy działania, w których działa programista. Nic innego nie miałem na myśli.
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2014.04.10, 16:33
CortexM3 @ 2014.04.10 15:03  Post: 739415

Ja osobiście na początku stawiam głównie na przyśpieszenie obliczeń Fizyki w grach, przez GPU, a właściwie CPU w nim zawarte.


Czyli najbardziej złożoną obliczeniowo funkcję zaraz po renderowaniu samej grafiki chcesz przenieść z gotowej implementacji na mocny GPU, z procesora głównego komputera nawet, na relatywnie słabe rdzenie ARM? Moim zdaniem ten ARM będzie pełnił role administracyjne, zarządzał zadaniami przesyłanymi do GPU, pozwalał będzie ew. na jakieś proste sterowanie GPU przez programistę bez potrzeby odwoływania się do CPU komputera... Z drugiej strony mocny, wysoko taktowany ośmiordzeniowy ARMv8 na karcie graficznej nie będzie pewnie słabszy niż CPU w PS4/Xbox One, a resztę zostawiam Waszej wyobraźni :)
MarucinsZobacz profil
Poziom ostrzeżenia: 0%
Marucins2014.04.10, 17:00
-1#15
Tandem mniejszego zużycia energii - ARM w GPU od nVidia.

Jeśli to prawda to będą szczycić się znikomym zużyciem energii w IDLE, Pulpit czy jakiś film albo aplikacje biurowe.

Może to i dobrze ale mam troszkę inne pytanie.
Jeśli w lipcu ma wyjść GM204 to kiedy zobaczymy pełny Maxwell?
DisconnecTZobacz profil
Poziom ostrzeżenia: 0%
DisconnecT2014.04.10, 17:56
-4#16
Mam nadzieje że ta plotka z szyną 256 BIT w GTX 880 się nie potwierdzi

Majki93 @ 2014.04.10 12:02  Post: 739360
A gdzie jest Cyrix133? Już od dawna PCLab bez jego wypowiedzi na temat sprzętu z powyższej firmy nie jest ten sam :(

Spalił się przez słaby zasilacz :E
inisideZobacz profil
Poziom ostrzeżenia: 0%
iniside2014.04.10, 18:40
Arael @ 2014.04.10 16:33  Post: 739456
CortexM3 @ 2014.04.10 15:03  Post: 739415

Ja osobiście na początku stawiam głównie na przyśpieszenie obliczeń Fizyki w grach, przez GPU, a właściwie CPU w nim zawarte.


Czyli najbardziej złożoną obliczeniowo funkcję zaraz po renderowaniu samej grafiki chcesz przenieść z gotowej implementacji na mocny GPU, z procesora głównego komputera nawet, na relatywnie słabe rdzenie ARM? Moim zdaniem ten ARM będzie pełnił role administracyjne, zarządzał zadaniami przesyłanymi do GPU, pozwalał będzie ew. na jakieś proste sterowanie GPU przez programistę bez potrzeby odwoływania się do CPU komputera... Z drugiej strony mocny, wysoko taktowany ośmiordzeniowy ARMv8 na karcie graficznej nie będzie pewnie słabszy niż CPU w PS4/Xbox One, a resztę zostawiam Waszej wyobraźni :)


To nie jest takie oczywiste. GPU bardzo słabo sobie radzi z zadaniami ktore wymagaja, rozgalezien. Glownie dlatego, ze GPU nie potrafi ich przewidywać.

Wiec jesli kod w ktoryms momencie moze nam sie rozgalezic, to GPU jedyne co jest w stanie zrobić, to brute forcem, przemielic kazda mozliwa wariacje, az trafi na te wlasciwa, co marnuje ogromne zasoby, wydzielane w postaci ciepła.

W przypadku grafiki nie ma takiego problemu, bo GPU po prosty dostaje pixel i ma cos z nim zrobic i przeslac dalej. Nie ma tu absolutnie zadnej nieprzewidywalnosci.

Tak samo ma sie sprawa z czesc algorytmów do symulacji fizyki.

GPU np. wogole nie jest w sobie w stanie poradzic z czyms takim jak detekcja kolizji, poza renderowaną klatka (off screen). Bo zwyczajnie nie posiada żadnych informacji na temat tego co sie tam znajduje.

Tak bliskie umieszczenie dodatkowych rdzeni ogolnego przeznaczenia, moze umozliwic powstanie nowych algorytmów, bo komunikacja pomiedzy rdzeniem ARM a GPU bedzie duzo wydajniejsza, niz ma to miejsce w tej chwili pomiedzy GPU a CPU.

A co najwazniejsze zarowno GPU jak i ARM beda miały wspolna przestrzeń adresową w pamieci, wiec będą mogły nazwaje operowac na swoich danych, bez potrzeby ich kopiowania.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.04.10, 18:47
Virtus* @ 2014.04.10 16:04  Post: 739446
CortexM3 @ 2014.04.10 15:15  Post: 739419

Nie będą decydować wcale w drugiej kolejności, bo jak NVida da im za slaby, lub źle zbalansowany układ to go oleją. Programista zawsze ma pełną swobodę wyboru i decyzji, poza architekturą sprzętu, ale nie w tym kontekście pisałem.

Zwulgaryzowałeś temat. Nvidia nie dostarczy im złego układu, natomiast dostarczy taki, który najlepiej będzie się sprawdzał w tych zadaniach, na których najbardziej zależy Nvidii. To wytwórca sprzętu wyznacza ramy działania, w których działa programista. Nic innego nie miałem na myśli.

Powiedz mi jakie zastosowania narzuci mi jako programiście NVida jak do dyspozycji będę miał zwyczajny normalny procesor ARM ? Oczywiście poza ilością dostępnej mocy obliczeniowej i pamięci oraz dostępę dodatkowych zasobów sprzętowych.
Jak napiszę sobie program do liczenia geometri przestrzeni, to będzie mi liczył to co chcę, jak napisze program do liczenia owieczek na pastwisku, to będzie liczył mi owieczki. Mając dostępny normalny uniwersalny procesor, ograniczeniem są tylko moje umiejętności, i jego moc Nvidia niczego w kwestii zastosowań nie narzuci bo się nie da. A z drugiej strony nie będą chcieli zostawić tylnej furtki AMD.

PS. Gdybym chciał zwulgaryzować temat użyłbym innego słowa niż olać.
fajny RafałekZobacz profil
Poziom ostrzeżenia: 0%
fajny Rafałek2014.04.10, 18:49
TDP układu ustalono na 230 W i co ciekawe, karta miałaby udostępniać tylko jedną wtyczkę zasilania 6-pin.


Wątpliwe, bo by złącza w końcu nie wytrzymały.
bogo126Zobacz profil
Poziom ostrzeżenia: 0%
bogo1262014.04.10, 19:12
Będę wredny: zapomnieliście w tytule napisać, że to rewolucja !!!!
Zaloguj się, by móc komentować