komentarze
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2014.04.10, 19:31
-3#21
SNC @ 2014.04.10 12:05  Post: 739364
Mysle ze tym razem im ten numer wypuszczenia modelu x04 jako topowego bokiem wyjdzie bo AMD jest zbyt blisko. Ogolnei slabo na papierze wyglada ten model jak na wersje 880.


Przypomnij sobie jak słabo wyglądał na papierze gtx680, plotki głosiły że 680 będzie miał 64 rop i szyne 512 bit. Jak kolwiek to wszystko nie wygląda to karta jest na papierze na 4 razy mocniejsza od 750ti. Nie ma sensu zestawiać specyfikacji keplera ze specyfikacją maxwella.
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2014.04.10, 19:35
fajny Rafałek @ 2014.04.10 18:49  Post: 739501
TDP układu ustalono na 230 W i co ciekawe, karta miałaby udostępniać tylko jedną wtyczkę zasilania 6-pin.


Wątpliwe, bo by złącza w końcu nie wytrzymały.

fajny Rafałek @ 2014.04.10 18:49  Post: 739501
TDP układu ustalono na 230 W i co ciekawe, karta miałaby udostępniać tylko jedną wtyczkę zasilania 6-pin.


Wątpliwe, bo by złącza w końcu nie wytrzymały.


pcie 3.0 oraz pcie 2.0 zgodnie elektrycznie z 3.0, miało gwarantować możliwość dostarczenia do slotu do 150W. Ktoś to kiedyś wykorzysta, choć osobiście twierdze, że ryzyko problemów na starszych płytach z68/z77 jest zbyt duże aby zdecydowano się na 1x 6 pin na karcie z wysokim tdp, ale ciągle karcie mainstreamowej serii.
HDR'oZobacz profil
Poziom ostrzeżenia: 0%
HDR'o2014.04.10, 20:58
256 bit ? 32 rop ? Bez jaj :/
*Konto usunięte*2014.04.10, 21:13
CortexM3 @ 2014.04.10 18:47  Post: 739500

.... Mając dostępny normalny uniwersalny procesor, ograniczeniem są tylko moje umiejętności, i jego moc Nvidia niczego w kwestii zastosowań nie narzuci bo się nie da. ...


A skąd założenie, że to będzie zwykły ARM? Jeśli 4 lata pracowali nad tym by był to zwykły ARM, to byłbym b. rozczarowany.
Naturalnie nie wiem jak będzie ale liczę na coś wyspecjalizowanego.
KmitnickZobacz profil
Poziom ostrzeżenia: 0%
Kmitnick2014.04.10, 22:05
-2#25
Majki93 @ 2014.04.10 12:02  Post: 739360
A gdzie jest Cyrix133? Już od dawna PCLab bez jego wypowiedzi na temat sprzętu z powyższej firmy nie jest ten sam :(

Cyrix133 to taki świetej pamieci Ryszard Sobkowski :) idzie w dobra strone :)
SNC2014.04.10, 22:06
unknown_solider @ 2014.04.10 19:31  Post: 739516
SNC @ 2014.04.10 12:05  Post: 739364
Mysle ze tym razem im ten numer wypuszczenia modelu x04 jako topowego bokiem wyjdzie bo AMD jest zbyt blisko. Ogolnei slabo na papierze wyglada ten model jak na wersje 880.


Przypomnij sobie jak słabo wyglądał na papierze gtx680, plotki głosiły że 680 będzie miał 64 rop i szyne 512 bit. Jak kolwiek to wszystko nie wygląda to karta jest na papierze na 4 razy mocniejsza od 750ti. Nie ma sensu zestawiać specyfikacji keplera ze specyfikacją maxwella.

Ja mam nadzieje ze AMD odpowiednio zestawi swoj topowy model z ta karta i to tak ze nvidia zweryfikuje nazwe na gtx860 i cene oczywiscie tez dopasuje ;)
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2014.04.10, 22:22
iniside @ 2014.04.10 18:40  Post: 739497

To nie jest takie oczywiste. GPU bardzo słabo sobie radzi z zadaniami ktore wymagaja, rozgalezien. Glownie dlatego, ze GPU nie potrafi ich przewidywać.


Liczenie fizyki da się tak zorganizować, żeby bardziej pasowało do przetwarzania na GPU. Owszem, nie jest to ideał, tak jak współczesny GPU jest daleki do ideału w temacie ray-tracingu, czy nawet kodowania video, ale nadal jest to bardziej efektywne niż na CPU - gdyby było inaczej i rozgałęzienia decydowały, to np. w symulacji dynamiki płynów wygrywałby CPU, podczas gdy w praktyce nawet topowy CPU nie ma startu do takich zastosowań.

Wiec jesli kod w ktoryms momencie moze nam sie rozgalezic, to GPU jedyne co jest w stanie zrobić, to brute forcem, przemielic kazda mozliwa wariacje, az trafi na te wlasciwa, co marnuje ogromne zasoby, wydzielane w postaci ciepła.


Rozgałęzienia w shaderach są nie do uniknięcia i Shader Model 5.0 jest całkiem dojrzały w tym temacie.

W przypadku grafiki nie ma takiego problemu, bo GPU po prosty dostaje pixel i ma cos z nim zrobic i przeslac dalej. Nie ma tu absolutnie zadnej nieprzewidywalnosci.


Nieprawda, model oświetlenia może być prosty i jest jak mówisz, ale może też brać pod uwagę wiele źródeł światła, efektów, cieni, przezroczystości, itd., a wtedy jest sporo instrukcji warunkowych.

Tak samo ma sie sprawa z czesc algorytmów do symulacji fizyki.


Trzeba sobie zadać pytanie - co jest esencją detekcji kolizji? Otóż liczenie odległości między tzw. bounding box-ami, a to jest zadanie świetnie się zrównoleglające.

GPU np. wogole nie jest w sobie w stanie poradzic z czyms takim jak detekcja kolizji, poza renderowaną klatka (off screen). Bo zwyczajnie nie posiada żadnych informacji na temat tego co sie tam znajduje.


GPU posiada informację o całości sceny, a często o całości geometrii, bo nie zajmuje ona dużo w pamięci graficznej. Jeśli geometria musi być modyfikowana w skomplikowany sposób może być przesyłana do CPU, ale z prostymi rzeczami radzi sobie obecnie Geometry Shader. Ba, od bardzo dawna są demka jak słynne Elevated, gdzie właściwie wszystko robi się na GPU, łącznie z liczeniem trasy przelotu kamery:

http://www.pouet.net/prod.php?which=52938
Inaczej mówiąc GPU często posiada więcej informacji niż CPU, o ile ten nie zostawi sobie gdzieś w RAM ich kopii :) Do liczenia fizyki potrzebne są dodatkowe struktury, ale i te bez problemu można trzymać wyłącznie na GPU. Jeśli procesor zarządzając sceną w silniku potrzebuje aktualizacji pozycji obiektów, to nie problem mu je pobrać z VRAM.

Tak bliskie umieszczenie dodatkowych rdzeni ogolnego przeznaczenia, moze umozliwic powstanie nowych algorytmów, bo komunikacja pomiedzy rdzeniem ARM a GPU bedzie duzo wydajniejsza, niz ma to miejsce w tej chwili pomiedzy GPU a CPU.


W teorii tak, ale nie jest do końca jasne jak nVidia zamierza zrealizować unifikację pamięci w przypadku architektur Pascal/Volta, przeniesienie obliczeń na słabszy ARM na karcie graficznej to raczej kiepska koncepcja. Komunikacja owszem, będzie wydajniejsza zwłaszcza jeśli ten ARM będzie wpięty prosto w VRAM, ale sama moc obliczeniowa na tym etapie rozwoju ARM nadal wyraźnie mniejsza, stąd sądzę, że skończy się na sterowaniu.

A co najwazniejsze zarowno GPU jak i ARM beda miały wspolna przestrzeń adresową w pamieci, wiec będą mogły nazwaje operowac na swoich danych, bez potrzeby ich kopiowania.


Tak, ale to samo nVidia obiecuje w przypadku w/w architektur i raczej nie chodziło im o tego ARM.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.04.10, 22:22
Virtus* @ 2014.04.10 21:13  Post: 739552
CortexM3 @ 2014.04.10 18:47  Post: 739500

.... Mając dostępny normalny uniwersalny procesor, ograniczeniem są tylko moje umiejętności, i jego moc Nvidia niczego w kwestii zastosowań nie narzuci bo się nie da. ...


A skąd założenie, że to będzie zwykły ARM? Jeśli 4 lata pracowali nad tym by był to zwykły ARM, to byłbym b. rozczarowany.
Naturalnie nie wiem jak będzie ale liczę na coś wyspecjalizowanego.

A co niezwykłego w CPU ci jest potrzebne do programowania. Podam ci taki skrajny przykład, ale chyba dobrze pokazujący wątek.
Procesor C64 potrafi wykonywać następujące operacje logiczne, NOT, OR, XOR, AND, logiczne przesunięcie w prawo oraz lewo, oraz operacje arytmetyczne jak dodawanie, odejmowanie, plus tam parę innych ale nie nie będę tutaj cytował listy rozkazów. Nie potrafi natomiast sprzętowo mnożyć i dzielić, czyli nie ma instrukcji MUL i DIV.
Specjalnie dla ciebie nagrałem co udało się stworzyć dysponując tak ograniczonym CPU i sprzętem jaki jest/był C64. Robione na szybciora więc jakoś nie powala.
https://www.youtube.com/watch?v=WXSlbzitWFc
Jak widzisz nie trzeba niesamowitych funkcji w procesorze, i prawdopodobnie NVidia tez, przynajmniej w pierwszych układach nie włoży tam nie wiadomo jak zmodyfikowanego ARMa, z prostej przyczyny, będą chcieli dać na sam początek programistom CPU które dobrze znają z Smartfonów i Tabletów, aby łatwiej było im rozpocząć programowanie, a dodatkowo NVidia nie będzie musiała tworzyć specjalistycznych narzędzi programistycznych tylko zmodyfikuje już istniejące. Ja tam stawiam na znany z Tegry Cortex-A15, najrozsądniejszy chyba typ, w tym konkursie ;). Zobaczymy jak NV, ujawni pełna specyfikacje czy się pomyliłem :).
ARMa z mojego nicka raczej tam nie wsadzą bo to stosunkowo prosty procesor do zadań bardziej w lodówkach, choć na ekranie z Noki w 128x128 i 256Bpp Wolfensteina 3D na tym da się odpalić. Całość zajmuje 512KB proc ma 96KB RAM, a najbardziej go obciąża dekompresowanie tekstur.
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2014.04.11, 00:09
@CortexM3
E tam chodzenie po korytarzach - a Total Eclipse, kompletną gierkę 3D nie widziałeś? :)

http://www.youtube.com/watch?v=Svx5yFIf80k
Niesamowitych funkcji w Commodore 64 nie było i jak widać niesamowitej grafiki też nie było, niczego nie dowiodłeś ;) Może ja mam trochę mniej magiczne spojrzenie na sprawę, bo programowałem w asm na C64 i dzisiaj bardziej rzygam jak patrzę na ichnią grafikę, niż odczuwam nostalgię i podziw :D Ba, nawet na sporo szybszej Amidze 1200 miałem kanał, bo te niezłe efekty z demek które starałem się uzyskać w praktyce były pisane jako jak to nazywam 'proceduralnie skompresowane animacje', czyli bardzo często nie dało się ustawić kamery jak chciałeś (bo by się posypał np. environment mapping), nie mogłeś ustawiać obiektów jak chciałeś (bo by się posypały stablicowane wcześniej obliczenia) i generalnie byłem tak rozczarowany, że się zająłem szeroko rozumianym crackowaniem gier (np. dodawanie nieśmietelności), a karierę kodera grafiki na demoscenie olałem ciepłym moczem. Mam nadzieję, że na iOS za jakiś czas to sobie odbiję, bo jak dalej będzie wydajność GPU tak rosnąć, to się da poszaleć nie gorzej niż na desktop i jeszcze to wygodnie sprzedać na ogromnym rynku prawie bez piractwa :)

prawdopodobnie NVidia tez, przynajmniej w pierwszych układach nie włoży tam nie wiadomo jak zmodyfikowanego ARMa, z prostej przyczyny, będą chcieli dać na sam początek programistom CPU które dobrze znają z Smartfonów i Tabletów, aby łatwiej było im rozpocząć programowanie


To jakiś mit, jak z APU w konsolach - do nowych konsol trafił x86 nie dlatego, żeby było łatwiej programistom, ale dlatego, że AMD nie mogło nic innego wpakować do swojego kompletnego SoC :) I tak najczęściej się nie pisze nic w asemblerze, więc w sumie z punktu widzenia C++ prawie wszystko jedno czy piszesz na ARM, czy na x86 (bo działają podobnie - co innego specjalizowane układy typu CELL, czy Xeon Phi). Zresztą jeśli kolejny SoC w konsolach też będzie od AMD, to pewnie już na rdzeniach ARMv8, które wcześniej trafią do Opteronów. Nie jest więc zasadne pisanie o przyzwyczajaniu programistów, czy pozyskiwaniu przyzwyczajonych programistów, bo pisze się praktycznie ten sam kod.

Ja tam stawiam na znany z Tegry Cortex-A15, najrozsądniejszy chyba typ, w tym konkursie ;)


Szczerze mówiąc z perspektywy czasu i wielkości pamięci VRAM przekraczającej już często 4GB byłby to ruch do bani - zmoderniozwany 64bit ARMv8 jako baza nowej technologii to o wiele lepszy pomysł, stąd stawiam na wysoko taktowany Cortex-A57 (ostatecznie pobór mocy tegoż nie jest problemem dla karty celującej w nawet ponad 250W).
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2014.04.11, 00:24
SNC @ 2014.04.10 22:06  Post: 739569
unknown_solider @ 2014.04.10 19:31  Post: 739516
(...)


Przypomnij sobie jak słabo wyglądał na papierze gtx680, plotki głosiły że 680 będzie miał 64 rop i szyne 512 bit. Jak kolwiek to wszystko nie wygląda to karta jest na papierze na 4 razy mocniejsza od 750ti. Nie ma sensu zestawiać specyfikacji keplera ze specyfikacją maxwella.

Ja mam nadzieje ze AMD odpowiednio zestawi swoj topowy model z ta karta i to tak ze nvidia zweryfikuje nazwe na gtx860 i cene oczywiscie tez dopasuje ;)


Jesli wyprodukuja w rozsadnym czasie 390x szybsze od gtx880 to lepiej dla wszystkich. Wreszcie bylaby walke cenowa, zamiast marketingowej, bo NVidia musialaby zejsc z cen.
PejoZobacz profil
Poziom ostrzeżenia: 0%
Pejo2014.04.11, 02:39
Ja bym chcial by Zieloni przyłożyli więcej uwagi w zastosowaniach w SLI.
powerzxZobacz profil
Poziom ostrzeżenia: 0%
powerzx2014.04.11, 09:00
Ale to bedzie potwor wydajnosci :)
Serce by chcialo zeby kupil taka GF gtx880 lub
Radeona R 3xxx ale rozum podpowiada ze szkoda tyle kasy na grafike :(
I co tu zrobic? :)
losiuZobacz profil
Poziom ostrzeżenia: 0%
losiu2014.04.11, 12:50
To ja dodam od siebie, że R390X będzie miał wydajność GTX880 +/- kilka procent. Podobnie będzie z każdym innym modelem.

Poza wpadkami czyli 9700pro vs FX5800/5900 (wpadka NV) i HD2900vs8800GTX (wpadka AMD) nie zdażył się jeszcze taki przypadek, żeby karty jednej strony odstawały wydajnościowo w jakiś znaczący sposób od kart tej drugiej (co, zważywszy na fakt, że kolejne generacje są tworzone przez kilka lat, jest trochę zastanawiające).

Wszystko rozbije się o cenę, 'styl' działania, sterowniki, 'której firmy nie lubię', dodatkowe możliwości (mantle, physx, etc.). Jestem pewien, że GTX880 będzie miał od 90% do 110% wydajności R390X.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.04.11, 15:11
A właśnie jakoś cicho o GCN 2.0 od AMD, czyżby mieli jaki error z 20nm, czy układami ?
TylkoTakZobacz profil
Poziom ostrzeżenia: 0%
TylkoTak2014.04.11, 17:12
Tak czy owak, nie będzie sensu zmieniać dobrze wykręconego GTX 780 Ti na GTX 880.
Lepiej dokupić drugiego 780 Ti do SLI.
SNC2014.04.11, 17:51
losiu @ 2014.04.11 12:50  Post: 739702
To ja dodam od siebie, że R390X będzie miał wydajność GTX880 +/- kilka procent. Podobnie będzie z każdym innym modelem.

Poza wpadkami czyli 9700pro vs FX5800/5900 (wpadka NV) i HD2900vs8800GTX (wpadka AMD) nie zdażył się jeszcze taki przypadek, żeby karty jednej strony odstawały wydajnościowo w jakiś znaczący sposób od kart tej drugiej (co, zważywszy na fakt, że kolejne generacje są tworzone przez kilka lat, jest trochę zastanawiające).

Wszystko rozbije się o cenę, 'styl' działania, sterowniki, 'której firmy nie lubię', dodatkowe możliwości (mantle, physx, etc.). Jestem pewien, że GTX880 będzie miał od 90% do 110% wydajności R390X.

Jezeli faktycznie taka bedzie specyfikacja gtx880 a amd nie odpusci to swoim topowym modelem moze miec taka przewage jaka jest roznica miedzy r9 290 a 770gtx czyli spora.
halflife2004Zobacz profil
Poziom ostrzeżenia: 0%
halflife20042014.04.11, 17:52
W sumie przy takiej specyfikacji to długo posiadacze 780/780TI nie będą musieli myśleć o zmianie. Gdzie te zapowiedzi na temat Titana II i 6400 jednostek CUDA ?
SNC2014.04.11, 17:54
halflife2004 @ 2014.04.11 17:52  Post: 739791
W sumie przy takiej specyfikacji to długo posiadacze 780/780TI nie będą musieli myśleć o zmianie. Gdzie te zapowiedzi na temat Titana II i 6400 jednostek CUDA ?

W modelu opartym na gm110
TylkoTakZobacz profil
Poziom ostrzeżenia: 0%
TylkoTak2014.04.11, 17:55
Sam mam GTX 780 Ti DC 2 co lata mi na 1262/7600 (a to nie koniec jego potencjału oc) i jak widzę co odwala NV to coraz bardziej się uświadczam w przekonaniu że jeżeli jakoś mocy zabraknie tej karcie, to po prostu poszukam drugiej co fajnie się kręci. Zrobię z nich SLI i tyle. Pozjada to te wszelkie wynalazki GTX 8xx
TylkoTakZobacz profil
Poziom ostrzeżenia: 0%
TylkoTak2014.04.11, 18:06
SNC @ 2014.04.11 17:54  Post: 739792
halflife2004 @ 2014.04.11 17:52  Post: 739791
W sumie przy takiej specyfikacji to długo posiadacze 780/780TI nie będą musieli myśleć o zmianie. Gdzie te zapowiedzi na temat Titana II i 6400 jednostek CUDA ?

W modelu opartym na gm110


No jeżeli FAKTYCZNIE tak będzie, to taka karta mogła by być godnym następcą 780 Ti. Zobaczymy jak to wyjdzie w praktyce :)
Zaloguj się, by móc komentować