komentarze
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2015.09.02, 10:47
Z tego co wiem jest początkującym programistą amatorem. O czym nie wiem? Jest pracownikiem Nvidii? Wypłynęła jego teczka z IPN-u? ;)

Sprawdziłem ten program na Intelu HD 6200 i wyniki były zgodne z oczekiwaniami (opóźnienia zwiększały się od pierwszej kolejki, dość szybko doszły do liczb trzycyfrowych).
ltr2015.09.02, 11:05
kriszoo @ 2015.09.02 10:47  Post: 903065
ltr @ 2015.09.02 10:35  Post: 903061
Jeżeli nie rozumiesz o czym mowię, to przyjmij porównanie, że jeżeli w teście AMD miałoby wynik 10 jcz (jednostek czasu :)), a Nvidia 5, to w rzeczywistym zastosowaniu przy prawdziwych obliczeniach może to być 100 jcz dla AMD i 95 dla Nvidii.

No właśnie, może być, ale nie musi. Znów gdybanie. Jak piszesz, mamy wykresy bez opisów, jak również bez objaśnienia procedury testowej. Brak sprzętowej obsługi asynchronicznych obliczeń (o ile rzeczywiście występuje) może mieć znikomy wpływ na wydajność w grach DX12, a może mieć znaczący. Tego dowiemy się jednak w momencie, gdy takowe pojawią się na rynku w większej ilości. Póki co, gdybamy. Na podstawie gdybania i syntetycznego testu o niewiadomej wiarygodności mam pozbyć się swojego Maxwella? No chyba nie. Tyle w temacie, bo dla mnie ta dyskusja jest czysto akademicka.


Zgadzam się, w zależności od obciążenia może mieć to znikomy wpływ i nie wiemy jeszcze tego. Jednakże mi, jako właścicielowi GTXa, nie podoba się wieczne bycie robionym w balona co do specyfikacji kart.
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2015.09.02, 11:21
SunTzu @ 2015.09.01 23:32  Post: 902956
motiff @ 2015.09.01 19:49  Post: 902901
(...)

Za miesiąc wszystko ucichnie, a Nvidia ciśnie sobie regularnie sprzęt.
Kogo obchodzi co kotleciarstwo gcn może, jak to jest to samo do znudzenia przegrywające rynek na ryja, bo sterowniki wolno wychodzą i do tego nie radzi sobie w dx11 z obciążeniem cpu.
Nvidia jest po prostu ważniejsza i wiarygodniejsza, ujdzie jej wszystko.

Większy może więcej tak samo masz w bankach, tak samo masz gdzie indziej...
... Masz niestety programy po obu stronach i AMD i NV... Więcej ma teoretycznie do stracenia NV jeśli gra wykorzysta 32< niż AMD jeśli <32. Co praktycznie plasuje na gorszej pozycji AMD, bo gry będą dostosowane do .... zgadnijcie kogo. Gdyby była odwrotna sytuacja...
... gdyby to AMD miało <32kolejki to byłby niezły hejt, a i developerzy pewnie olaliby AMD i to AMD miałoby problem- niestety. AMD zostało zmuszone niestety do bezpiecznego posunięcia, a NV jak nie zrobi tak będzie dobrze.
By sytuacja się zmieniła AMD musi mieć te 50%< udziałów, bo nawet gdy mieli prawie 50% to i tak siła PRu NV, programy NV robiły swoje.


Takie akcje oparte na haku ukrytym w compute szejderach to lipa, gcn nic to nie dało przy keplerach, a teraz maksłelach.
Nie ma kto dać kickassa w AMD, potrzebny jest normalny sprzęt, a nie furiot za 650 dolca z półki, w żenującym wydaniu wodno-pierdzącym. Ktoś tam jest totalnie oderwany, żeby za takie małe cuś tyle żądać i jeszcze myślą, że slajd z jednej gry to dobry haczyk.
pwilZobacz profil
Poziom ostrzeżenia: 0%
pwil2015.09.02, 11:25
agentixkocham @ 2015.09.01 14:31  Post: 902782
Jak jakiś producent (bodajże kingston) montował w swoich dyskach pamięć asynchroniczną to było to be i zmniejszało wydajność. Teraz nagle asynchroniczność jest ok? Nic nie rozumiem, może mi to ktoś wyjaśnić?


Asynchroniczne Shadery to odpowiednik HT w procesorach Intela.

GPU w architekturze GCN potrafią pracować nawet 64-wątkowo (8xACE po 8 kolejek), podczas gdy Maxwelle i starsze 1-wątkowo (?). Do tej pory DX11 wykorzystywał jeden wątek i analogicznie w 1-wątkowym W98 Pentium i Core i3 o tym samym zegarze miałyby identyczną wydajność, ale od W2000 w górę można korzystać z wielu wątków/rdzeni/procesorów.
pwilZobacz profil
Poziom ostrzeżenia: 0%
pwil2015.09.02, 11:36
SALETRZAK @ 2015.09.01 14:44  Post: 902797
Trepcia @ 2015.09.01 14:32  Post: 902785
No może być ciekawie.

Kiedy ma wyjść nowa generacja kart NV? Będzie przed grami DX12?

Właśnie:) Gry na dobre zaczną wspierać DX12 jak będzie już Pascal na rynku,czyli w przeciągu roku.Ale wyrachowanie ze strony NV:) Do tego czasu nadal będą z uśmiechem na twarzy sprzedawać serię 900.Pisałem kiedyś że co najmniej dziwne jest że na premierę WIN10 nie ma ŻADNEJ gry,żadnego benchmarku,techdema z prawdziwego zdarzenia.Mamy częściową odpowiedż dlaczego.Idę o zakład że wraz z premierą Pascala w cudowny sposób gry obsługujące DX12 zaczną się pojawiać,jak grzyby po deszczu:)


I już nie będą musieli dławić kart w sterownikach, a nie będzie sensu optymalizowania gier DX12 pod 'stare Maxwelle' i karty bez 4GB pamięci (970). Pascal pokroju GTX960 będzie wygrywał z GTX980 lekko, a równał się z R285. Sprytne.
pwilZobacz profil
Poziom ostrzeżenia: 0%
pwil2015.09.02, 12:34
Luk4s @ 2015.09.02 08:32  Post: 902999

Jeżeli rzeczywiście Maxwell jest 'ułomny' pod kątem obliczeń asynchronicznych i Pascal zanotuje tutaj spory progres to jak mają czuć się posiadacze Maxwelli? Po pierwsze Maxwelli, które zieloni reklamowali na pudełkach logiem 'DX12 full support' a po drugie Maxwelli, które najprawdopodobniej zostaną olane jeżeli będzie potrzeba dodatkowej optymalizacji. Nie ma co robić burzy w szklance wody, ale taki argument, że i tak wyjdzie Pascal to dla Nvidii przyzwolenie dla podobne praktyki.


Ciekawe pod jakim względem ułomny będzie Pascal, żeby ludzie kupili następcę.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2015.09.02, 12:55
Soplic @ 2015.09.02 07:38  Post: 902987
Andree @ 2015.09.02 03:53  Post: 902983
Nikt poza nVidią nie wie, co ta firma zrobi w przyszłości, ale widzę że postawiła ona deweloperów w trudnej sytuacji, podając w sterownikach nieprawdę i zmuszając ich do tworzenia kodu 'Vendor specific'.

Jeśli po premierze gier DX 12 nVidia wypuści kolejne GPU nie wspierające obliczeń asynchronicznych (choćby jakiś low-end zgodny z DX 12.1), to do wszystkich tych gier trzeba będzie wypuścić łatki (aby uniknąć obniżenia wydajności dla tego GPU).

Chyba że deweloperzy pójdą na łatwiznę i zablokują obliczenia asynchroniczne dla wszystkich GPU nVidii, to wtedy wydajność gry dla nowych 'złych' GPU nie będzie nieoczekiwane obniżona, ale nowe 'dobre' GPU z nich nie skorzystają, do czasu wydania łatki.

Oba rozwiązania są kłopotliwe gdyż zmuszą deweloperów do patchowania ich gier w przyszłości. Kłamstwo ma krótkie nogi!


No tak bo sprawdzenie id GPU to taka wielka sztuka...

Jeśli będzie to nieznane grze ID GPU, które pojawiło się dopiero po wyprodukowaniu gry, to gra nie wyłączy operacji asynchronicznych, nawet jeśli powinna dla tego GPU (bo skąd ma wiedzieć że powinna dla tego ID)? Chyba że po spatchowaniu gry.
MnożnikgreckiZobacz profil
Poziom ostrzeżenia: 0%
Mnożnikgrecki2015.09.02, 13:26
Poczekamy, zobaczymy. Póki co z każdym DX słychać to samo: wzrost wydajności, mniejsze obciążenie CPU, lepsze wsparcie SLI/CF, lepsza grafika. Po premierze okazuje się, że jedynie grafika jest lepsza, a gry zrobione przy pomocy najnowszego API dają radę tylko na topowych konstrukcjach.
jonny2003Zobacz profil
Poziom ostrzeżenia: 0%
jonny20032015.09.02, 15:37
Ładnie przeinaczony tytuł newsa sugerujący, że to tylko AMD twierdzi, że karty Nvidii nie dają rady w Dx12.
A tutaj jak o tym piszą obiektywne serwisy:
http://www.eurogamer.pl/articles/2015-09-0...rectx-12-raport
http://www.purepc.pl/karty_graficzne/karty...ctx_12_dlaczego
http://www.gry-online.pl/S013.asp?ID=93810
Można? Można.
decorator12Zobacz profil
Poziom ostrzeżenia: 0%
decorator122015.09.02, 17:06
jonny2003 @ 2015.09.02 15:37  Post: 903151
Ładnie przeinaczony tytuł newsa sugerujący, że to tylko AMD twierdzi, że karty Nvidii nie dają rady w Dx12.
A tutaj jak o tym piszą obiektywne serwisy:
http://www.eurogamer.pl/articles/2015-09-0...rectx-12-raport
http://www.purepc.pl/karty_graficzne/karty...ctx_12_dlaczego
http://www.gry-online.pl/S013.asp?ID=93810
Można? Można.

Obiektywizm w mediach jest tak żywy jak dinozaury. Tylko w filmach.
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2015.09.02, 17:19
To ja Wam wszystkim teraz powiem jak będzie wyglądał nadchodzący okres. Nie raz już pisałem że nVidia robi dobre karty na dziś i tak tez będzie teraz.

Jak tylko zaczną szeroko pojawiać się gry w pełni oparte na DX12, okaże się że cała linia GTX900 się do tego w ogóle nie nadaje. I tak jak w DX11 GTX970 konkuruje z R390, tak w DX12 cała linia nVidi spadnie o dwa schodki w dół względem AMD. I tak oto GTX980 będzie konkurował wydajnościowo z R380, GTX970 będzie toczył boje z R370X. Ale nVidia powie wszystkim którzy wydali 3k PLN na swojego GTX980Ti (który miał być przyszłościowy), że to już stara linia, a teraz mamy dla was nowe karty, które to dopiero są przyszłościowe i w pełni wspierają DX12.

I tak nabywcy GTX980 za 3k PLN, będą je opychać na allegro po 700 PLN, w rok po ich zakupie bo tyle będą warte.

Tak było zawsze i jest teraz. Chcecie dowodów? Proszę bardzo. Jak kupowałem swojego HD7850, to równym konkurentem dla niego był GTX650Ti. Widać to zresztą po testach z tamtego okresu. Jak dziś wypadają te karty względem siebie? Przejrzyjcie testy w najnowszych grach. Nawet w faworyzującym karty zielonych Project CARS, HD7850 wypada lepiej. Żeby nie wspomnieć takich tytułach jak GTA V, Far Cry 4 czy Battlefield Hardline , gdzie GTX650Ti zalicza kompletną porażkę względem HD7850.

Kupujcie dalej karty zielonych, które są dobre na góra dwa sezony, bo potem zaczynają się staczać. Ja wolę kupić kartę która będzie się starzała z godnością a nie zaliczała nagły upadek, jak to się regularnie zdarza zielonym.
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2015.09.02, 17:39
Jedt na sali lekarz? Bo radkowi chyba FX za mocno przygrzał... :E
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2015.09.02, 17:48
Kowal @ 2015.09.02 17:39  Post: 903177
Jedt na sali lekarz? Bo radkowi chyba FX za mocno przygrzał... :E


Mam Ci podlinkować czy sam sobie poszukasz w testach?

Karty nVidia zawsza z biegiem czasu szybko traciły na wydajności, znacznie szybciej niż karty ATI/AMD. Wszystko wskazuje na to że i tym razem też tak będzie.
kriszooZobacz profil
Poziom ostrzeżenia: 0%
kriszoo2015.09.02, 17:59
Mistrzu, GTX 650 Ti nigdy nie był konkurentem dla HD 7850, co pokazuje poniższy test.

http://pclab.pl/art51271-8.html
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2015.09.02, 18:07
radek_z @ 2015.09.02 17:48  Post: 903180
Kowal @ 2015.09.02 17:39  Post: 903177
Jedt na sali lekarz? Bo radkowi chyba FX za mocno przygrzał... :E


Mam Ci podlinkować czy sam sobie poszukasz w testach?

Karty nVidia zawsza z biegiem czasu szybko traciły na wydajności, znacznie szybciej niż karty ATI/AMD. Wszystko wskazuje na to że i tym razem też tak będzie.
przeczytaj co napisałeś na spokojnie i zastanów sie czy takie farmazony pisze zdrowy człowiek.
ghs2015.09.02, 18:24
radek_z @ 2015.09.02 17:19  Post: 903174

....
Tak było zawsze i jest teraz. Chcecie dowodów? Proszę bardzo. Jak kupowałem swojego HD7850, to równym konkurentem dla niego był GTX650Ti. Widać to zresztą po testach z tamtego okresu. Jak dziś wypadają te karty względem siebie? .....


nie wiem od kogo, za ile i w jakim stanie kupowałeś swojego hd7850 ale gtx650ti w dniu premiery to był konkurent cenowy i wydajnościowy dla hd7770

a że maxwell nie będzie miał pełnego wsparcia sprzętowego dla dx12 (relas na sierpień 2015) to jest i było oczywiste, szybciej zamknęli specyfikacje architektur niż m$ specyfikację api. oczywiście zielona kadra kierownicza szachrajstwo ma wpisane w zadania premiowe więc zamiast jak chłopu na miedzy oznajmić co i jak to drą łacha z klienta wypisz wymaluj jak w akcji 4gb vram w gtx970
wrekawekZobacz profil
Poziom ostrzeżenia: 0%
wrekawek2015.09.02, 18:51
ghs @ 2015.09.02 18:24  Post: 903188

a że maxwell nie będzie miał pełnego wsparcia sprzętowego dla dx12 (relas na sierpień 2015) to jest i było oczywiste, szybciej zamknęli specyfikacje architektur niż m$ specyfikację api. oczywiście zielona kadra kierownicza szachrajstwo ma wpisane w zadania premiowe więc zamiast jak chłopu na miedzy oznajmić co i jak to drą łacha z klienta wypisz wymaluj jak w akcji 4gb vram w gtx970


Ale śmieszne jest zestawienie opinii z komentarzy pod ankietą o kartach graficznych i teraz tu. Tam padało, że gtx970 to świetna opcja, będzie na lata, wychodzi ze 30peelenów na miesiąc. Tutaj - że dx12 to nie problem - wyjdzie pascal i będzie ok.

No więc dla kogoś, kto już kupił drogiego maxwella nie będzie ok, bo żeby grać w nowe gry (dx12) na ultra będzie pewnie musiał zmienić kartę, a na rynku wtórnym jego zabawka będzie miała mniejszą wartość niż mają używki teraz - bo nowe karty będą miały za sobą i nowszy proces technologiczny, i pełną obsługę nowego dx'a.

Oczywiście można też liczyć na to, że twórcy gier nie pójdą w asynchroniczne obliczenia, że nvidia ich powstrzyma itd. Ale jeśli u nvidii w pascalu będzie to działać spoko, to będzie jej na rękę, żeby jej starsze karty nie dawały rady.

AMD z drugiej strony ma o tyle dobrą sytuację, że gry mimo wszystko będą raczej pisane tak, żeby GCN nie sprawiać problemów za dużych - bo w konsolach jest GCN.
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2015.09.02, 19:46
wrekawek @ 2015.09.02 18:51  Post: 903194
ghs @ 2015.09.02 18:24  Post: 903188

a że maxwell nie będzie miał pełnego wsparcia sprzętowego dla dx12 (relas na sierpień 2015) to jest i było oczywiste, szybciej zamknęli specyfikacje architektur niż m$ specyfikację api. oczywiście zielona kadra kierownicza szachrajstwo ma wpisane w zadania premiowe więc zamiast jak chłopu na miedzy oznajmić co i jak to drą łacha z klienta wypisz wymaluj jak w akcji 4gb vram w gtx970


Ale śmieszne jest zestawienie opinii z komentarzy pod ankietą o kartach graficznych i teraz tu. Tam padało, że gtx970 to świetna opcja, będzie na lata, wychodzi ze 30peelenów na miesiąc. Tutaj - że dx12 to nie problem - wyjdzie pascal i będzie ok.

No więc dla kogoś, kto już kupił drogiego maxwella nie będzie ok, bo żeby grać w nowe gry (dx12) na ultra będzie pewnie musiał zmienić kartę, a na rynku wtórnym jego zabawka będzie miała mniejszą wartość niż mają używki teraz - bo nowe karty będą miały za sobą i nowszy proces technologiczny, i pełną obsługę nowego dx'a.

Oczywiście można też liczyć na to, że twórcy gier nie pójdą w asynchroniczne obliczenia, że nvidia ich powstrzyma itd. Ale jeśli u nvidii w pascalu będzie to działać spoko, to będzie jej na rękę, żeby jej starsze karty nie dawały rady.

AMD z drugiej strony ma o tyle dobrą sytuację, że gry mimo wszystko będą raczej pisane tak, żeby GCN nie sprawiać problemów za dużych - bo w konsolach jest GCN.


Właśnie staram się to od dłuższego czasu co poniektórym wyjaśnić, tylko nie wiem czy taki Kowal jest wstanie to ogarnąć.

Kowal, wytłumaczę Ci to najprościej jak umiem. Jeśli właśnie kupiłeś za 1,5k PLN GTX970, licząc że starczy Ci na lata, to dałeś się zrobić nVidii w wielkiego wała, bo za chwilę będzie on pod względem wydajności wart tyle samo co R380 tańszy w chwili zakupu o 600 zł.
DravicZobacz profil
Poziom ostrzeżenia: 0%
Dravic2015.09.02, 19:55
wrekawek @ 2015.09.02 18:51  Post: 903194
ghs @ 2015.09.02 18:24  Post: 903188

a że maxwell nie będzie miał pełnego wsparcia sprzętowego dla dx12 (relas na sierpień 2015) to jest i było oczywiste, szybciej zamknęli specyfikacje architektur niż m$ specyfikację api. oczywiście zielona kadra kierownicza szachrajstwo ma wpisane w zadania premiowe więc zamiast jak chłopu na miedzy oznajmić co i jak to drą łacha z klienta wypisz wymaluj jak w akcji 4gb vram w gtx970


Ale śmieszne jest zestawienie opinii z komentarzy pod ankietą o kartach graficznych i teraz tu. Tam padało, że gtx970 to świetna opcja, będzie na lata, wychodzi ze 30peelenów na miesiąc. Tutaj - że dx12 to nie problem - wyjdzie pascal i będzie ok.

No więc dla kogoś, kto już kupił drogiego maxwella nie będzie ok, bo żeby grać w nowe gry (dx12) na ultra będzie pewnie musiał zmienić kartę, a na rynku wtórnym jego zabawka będzie miała mniejszą wartość niż mają używki teraz - bo nowe karty będą miały za sobą i nowszy proces technologiczny, i pełną obsługę nowego dx'a.

Oczywiście można też liczyć na to, że twórcy gier nie pójdą w asynchroniczne obliczenia, że nvidia ich powstrzyma itd. Ale jeśli u nvidii w pascalu będzie to działać spoko, to będzie jej na rękę, żeby jej starsze karty nie dawały rady.

AMD z drugiej strony ma o tyle dobrą sytuację, że gry mimo wszystko będą raczej pisane tak, żeby GCN nie sprawiać problemów za dużych - bo w konsolach jest GCN.


Dlaczego 90% ludzi płaczących o DX12 sądzi, ze Maxwell nie nadaje się do DX12? 99% z was nawet nie zajrzała do żadnych testów tylko pierrrr od rzeczy.

To, że asynchroniczne shadery będą wylączone nie znaczy że DX12 wam nie pójdzie - nawet w takim teście jak ten od Oxide Games gdzie niby GCN dużo zyskuje z tytułu samych ACE'ów, Maxwelle ledwo odstają od swoich konkurentów ale nadal mają (obiektywnie rzecz ujmując) grywalne klatki...
DravicZobacz profil
Poziom ostrzeżenia: 0%
Dravic2015.09.02, 19:57
radek_z @ 2015.09.02 19:46  Post: 903209

Kowal, wytłumaczę Ci to najprościej jak umiem. Jeśli właśnie kupiłeś za 1,5k PLN GTX970, licząc że starczy Ci na lata, to dałeś się zrobić nVidii w wielkiego wała, bo za chwilę będzie on pod względem wydajności wart tyle samo co R380 tańszy w chwili zakupu o 600 zł.


Skończ z tą demagogią, bo to twoje 'za chwilę' nie nastąpi zapewne w ciągu dwóch lat a gry DX11 będą wychodziły jeszcze długo bo DX11 nie jest low-level API i łatwiej będzie go użyć.

Wymień wszystkie tytuły DX12 używające Asynchronicznych Shaderów do końca 2017 roku, albo zamilcz.

Nie wiadomo jaka będzie adopcja tego standardu DX12 ani ile gier w ogóle zaimplementuje asynchroniczne shadery, ani tym bardziej w jaki sposób je wykorzystają.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.