komentarze
Markiz88Zobacz profil
Poziom ostrzeżenia: 0%
Markiz882018.12.10, 18:14
11#21
Krisol @ 2018.12.10 18:01  Post: 1179472

Nie wymyślaj, nikt normalny nie pisał wtedy, że AMD ssie, poza tym Nvidia to nadrobiła w DX11, tutaj AMD nie nadrobi, osobiście nie kupię nowej karty bez wsparcia dla Ray Tracingu, nie mam zamiaru grać w 4k na monitorze, bo to i tak nie ma żadnego sensu, 1440p to optymalna rozdzielczość dla 27', który i tak jest duży jak na biurko.
RX 590 nikogo nie obchodzi, wszyscy czekają na nowe karty albo już kupili karty o podobnej wydajności za takie same pieniądze 2 lata temu.

z rt pograsz w jedna gre bogato, a ponadto gier zapowiedzianych z RT dużo więcej nie jest niż ledwie pare sztuk

@góra
w przypadku bf v myśle że częsciowo olano obecne techniki zastepujace RT po to tylko aby RT nie wygladało specjalnie biednie.

@dół
na physixa wydali kase i sie słabo filnanie na gpu przyjal o ile w ogóle
Edytowane przez autora (2018.12.10, 18:21)
KrisolZobacz profil
Poziom ostrzeżenia: 0%
Krisol2018.12.10, 18:17
-10#22
Markiz88 @ 2018.12.10 18:14  Post: 1179476
Krisol @ 2018.12.10 18:01  Post: 1179472

Nie wymyślaj, nikt normalny nie pisał wtedy, że AMD ssie, poza tym Nvidia to nadrobiła w DX11, tutaj AMD nie nadrobi, osobiście nie kupię nowej karty bez wsparcia dla Ray Tracingu, nie mam zamiaru grać w 4k na monitorze, bo to i tak nie ma żadnego sensu, 1440p to optymalna rozdzielczość dla 27', który i tak jest duży jak na biurko.
RX 590 nikogo nie obchodzi, wszyscy czekają na nowe karty albo już kupili karty o podobnej wydajności za takie same pieniądze 2 lata temu.

z rt pograsz w jedna gre bogato, a ponadto gier zapowiedzianych z RT dużo więcej nie jest niż ledwie pare sztuk

Póki co, jestem prawie pewien, że na E3/Gamescomie dużo gier zapowie wsparcie dla RT, Nvidia nie wywalałaby tyle pieniędzy na technologię bez żadnej przyszłości.
piwo1Zobacz profil
Poziom ostrzeżenia: 0%
piwo12018.12.10, 18:17
Superman @ 2018.12.10 18:07  Post: 1179474
Od 1060 na razie półki się uginają, a 1070 również nie brakuje.
Więc jednak dodali ray tracing do niższej serii, dobry pomysł, szybciej się upowszechni, oby tylko było więcej gier

Nie dodali. Z innego portalu wynika że to przycięty rtx2070. Więc tym razem NVIDIA nie tworzyła kolejnego chipa a wykorzystała te high endowe.
takitamrandomZobacz profil
Poziom ostrzeżenia: 0%
takitamrandom2018.12.10, 18:26
Najrozsądniej by było poczekać na navi. Z przecieków wychodzi że będa miały bardzo niski pobór prądu, a i wydajność do ceny też wydaje się o wiele lepsza od nvidii.
PutoutZobacz profil
Poziom ostrzeżenia: 0%
Putout2018.12.10, 18:29
Krisol @ 2018.12.10 18:17  Post: 1179477
Markiz88 @ 2018.12.10 18:14  Post: 1179476
(...)

z rt pograsz w jedna gre bogato, a ponadto gier zapowiedzianych z RT dużo więcej nie jest niż ledwie pare sztuk

Póki co, jestem prawie pewien, że na E3/Gamescomie dużo gier zapowie wsparcie dla RT, Nvidia nie wywalałaby tyle pieniędzy na technologię bez żadnej przyszłości.


Physx
Mr_HydeZobacz profil
Poziom ostrzeżenia: 0%
Mr_Hyde2018.12.10, 18:41
-2#26
Putout @ 2018.12.10 18:29  Post: 1179482
Krisol @ 2018.12.10 18:17  Post: 1179477
(...)

Póki co, jestem prawie pewien, że na E3/Gamescomie dużo gier zapowie wsparcie dla RT, Nvidia nie wywalałaby tyle pieniędzy na technologię bez żadnej przyszłości.


Physx


Raytracing to przyszłość realtime'u czy tego chcesz czy nie :). Przyzwyczajaj się lepiej :).
Jestem mega zadowolony z tego, że w końcu ktoś zrobił ten krok (nVidia) bo już nudna była ewolucja tego samego od 10 lat odkąd zaprezentowano DX11. Rastrowe możliwości się kończą co widać od paru lat. Teraz przyjdzie czas na hybryde i jak już wydajność będzie na tyle ok to full RT :).
Markiz88Zobacz profil
Poziom ostrzeżenia: 0%
Markiz882018.12.10, 18:48
10#27
Mr_Hyde @ 2018.12.10 18:41  Post: 1179485


Raytracing to przyszłość realtime'u czy tego chcesz czy nie :). Przyzwyczajaj się lepiej :).
Jestem mega zadowolony z tego, że w końcu ktoś zrobił ten krok (nVidia) bo już nudna była ewolucja tego samego od 10 lat odkąd zaprezentowano DX11. Rastrowe możliwości się kończą co widać od paru lat. Teraz przyjdzie czas na hybryde i jak już wydajność będzie na tyle ok to full RT :).

tylko że aby napewno będzie on realizowany przez sposób zaprezentowany przez zielonych. Może się okazać że jednostki RT z obecnych RTX w nastepnej generacji kart beda bez użyteczne
KrisolZobacz profil
Poziom ostrzeżenia: 0%
Krisol2018.12.10, 18:50
-10#28
Putout @ 2018.12.10 18:29  Post: 1179482
Krisol @ 2018.12.10 18:17  Post: 1179477
(...)

Póki co, jestem prawie pewien, że na E3/Gamescomie dużo gier zapowie wsparcie dla RT, Nvidia nie wywalałaby tyle pieniędzy na technologię bez żadnej przyszłości.


Physx

Wszystkie gry na UE4, większość na Unity i jakieś 70 ze wsparciem Physx na GPU to mało? :E
Obstawiam, że to więcej niż było gier na DX10.
Edytowane przez autora (2018.12.10, 18:55)
FuudimitzuZobacz profil
Poziom ostrzeżenia: 0%
Fuudimitzu2018.12.10, 18:55
13#29
Krisol @ 2018.12.10 18:50  Post: 1179488
Putout @ 2018.12.10 18:29  Post: 1179482
(...)


Physx

Wszystkie gry na UE4, większość na Unity i jakieś 70 ze wsparciem Physx na GPU to mało? :E


Physx w tych grach jedzie na CPU i w zasadzie efekt końcowy niczym nie różni się od Havoca. Prawdziwy Physx to jest w starusieńkim Mirror's Edge czy Cryostasis.
KrisolZobacz profil
Poziom ostrzeżenia: 0%
Krisol2018.12.10, 18:57
-11#30
Fuudimitzu @ 2018.12.10 18:55  Post: 1179489
Krisol @ 2018.12.10 18:50  Post: 1179488
(...)

Wszystkie gry na UE4, większość na Unity i jakieś 70 ze wsparciem Physx na GPU to mało? :E


Physx w tych grach jedzie na CPU i w zasadzie efekt końcowy niczym nie różni się od Havoca. Prawdziwy Physx to jest w starusieńkim Mirror's Edge czy Cryostasis.

Ale jakie to ma znaczenie, biblioteki zostały, więc pieniędzy nie zmarnowali.
noel24Zobacz profil
Poziom ostrzeżenia: 0%
noel242018.12.10, 19:24
Krisol @ 2018.12.10 18:17  Post: 1179477
...

Póki co, jestem prawie pewien, że na E3/Gamescomie dużo gier zapowie wsparcie dla RT, Nvidia nie wywalałaby tyle pieniędzy na technologię bez żadnej przyszłości.[/quote]
Taaak, zupełnie jak Hairworks czy 3Dvision.
FuudimitzuZobacz profil
Poziom ostrzeżenia: 0%
Fuudimitzu2018.12.10, 19:35
11#32
Krisol @ 2018.12.10 18:57  Post: 1179490
Fuudimitzu @ 2018.12.10 18:55  Post: 1179489
(...)


Physx w tych grach jedzie na CPU i w zasadzie efekt końcowy niczym nie różni się od Havoca. Prawdziwy Physx to jest w starusieńkim Mirror's Edge czy Cryostasis.

Ale jakie to ma znaczenie, biblioteki zostały, więc pieniędzy nie zmarnowali.


Może i tak ale smuci mnie śmierć renderowania fizyki na GPU bo ta technologia robiła IMO znacznie większą różnice w grach niż sztukowany RT (w obecnej postaci). Jako że podstawą nowych konsol będą Zeny może w końcu ruszy się w temacie fizyki w grach bo mam wrażenie że pomijając RDR2 mamy regres w porównaniu z poprzednią generacją.

Swoją drogą, zacząłem grać niedawno w TEW, gra śmiga na Id5 i tak jak Wolf używa refleksów - niby screen space ale najlepsze jest to że nie ma w nich żadnych artefaktów, wyglądają rewelacyjnie. Przypominają się gry na PS2 i PS3 które robiły świetnie wyglądające refleksy zwykłą geometrią - Do tego NIE POTRZEBA żadnego Ray tracingu, efekty lepsze od SSR mamy od lat 2000+
PutoutZobacz profil
Poziom ostrzeżenia: 0%
Putout2018.12.10, 19:46
duza luka miedzy 2060 i 2070. smierdzi na kilometr 2060 Ti.
PutoutZobacz profil
Poziom ostrzeżenia: 0%
Putout2018.12.10, 19:50
Krisol @ 2018.12.10 18:57  Post: 1179490
Fuudimitzu @ 2018.12.10 18:55  Post: 1179489
(...)


Physx w tych grach jedzie na CPU i w zasadzie efekt końcowy niczym nie różni się od Havoca. Prawdziwy Physx to jest w starusieńkim Mirror's Edge czy Cryostasis.

Ale jakie to ma znaczenie, biblioteki zostały, więc pieniędzy nie zmarnowali.


Zmarnowali potencjal. Physx moglo wywrocic fizyke na glowe ale juz dawno tworcy gier zaczeli tracic nim zainteresowanie i technika trafiala tylko do liczenia bzdur w grach Nvidia-friendly. potem wciagneli to do GW bo wszyscy mieli to w dupie.

przyznanie sie do bledu to zaden wstyd.
GiovanneZobacz profil
Poziom ostrzeżenia: 0%
Giovanne2018.12.10, 19:55
Krisol @ 2018.12.10 17:22  Post: 1179456
RTX czyli obsługuje Ray Tracing, w takim razie RIP Navi, lepiej kupić to i wspierać rozwój nowych technologii niż mieć o 10% wyższą wydajność i trochę więcej pikseli na ekranie, czekam na minusy od fanboyów AMD. :E
Patrząc na cenę Turingów obstawiam 349$, po premierze Navi -50$.


Dla mnie ta 'nowa technologia' mogłaby nie istnieć w obecnej formie i wolałbym karty bez rdzeni tensor i tych liczących RT, jednak Navi mnie także nie ratuje skoro według plotek ma mieć maksymalnie wydajność RTX 2080.
Pozostaje mi jedynie kisić się przez kolejne lata na GTX 1080Ti... masakra :(
Adaś25Zobacz profil
Poziom ostrzeżenia: 0%
Adaś252018.12.10, 20:44
1,2GHz? Toć to będzie miało przy 1920 cuda wydajność 1060 taktowaną 1,8GHz (1280 cuda).
MinciuZobacz profil
Poziom ostrzeżenia: 0%
Minciu2018.12.10, 20:48
crush @ 2018.12.10 17:41  Post: 1179461
Eltik @ 2018.12.10 17:20  Post: 1179455
W takim razie apetyt gier na VRAM musi wyhamowac bo inaczej nie wiem co bedzie :-P
Sa gry ktorym 8gb jest na styk a co bedzie dalej. Jesli rzeczywiscie w tym modelu bedzie 6gb a wydajnosc na poziomie gtx 1070 to znowu ilosc pamieci przydusi karte jak w przypadku GTX 1060 3GB

Przy 1080p?


Taaa, przy 1440p z włączonym RT ;] Optymalizacja prędkości (nawet +50% boosta) wciąga vram nosem :D

https://youtu.be/Ftc6kJgBrao?t=110
Z około 6,5GB podskakuje po updajcie do ponad 8GB.

Czy Vram tutaj jest wymagany czy jedynie alokowany? Kto chce się przekonać kupując nowego RTXa 6GB ?? :P

Może do FHD wystarczy a może nie. Ale coś ta aktualizacja mówi mi, że ilość VRamu może być kluczowa dla wydajności w RT :)


Czytając niejednokrotnie wypowiedzi, że RT to przyszłość i trzeba wspierać nvidię, myślę że zieloni powinni założyć jakiegoś StartUPa, bo wiele osób chętnie dorzuci się do rozwoju technologii.
Edytowane przez autora (2018.12.10, 20:54)
crushZobacz profil
Poziom ostrzeżenia: 0%
crush2018.12.10, 21:09
Po pierwsze nie wiadomo czy to w ogóle będzie miało RT, a po drugie używanie RT na 2070 to żart więc tutaj to byłby żart potrójny.

Jak to będzie w okolicach wydajności 1070 i nie będzie mordować ceną to okej. Jak nie to niech sobie to w magazynach trzymają.
RaVen01Zobacz profil
Poziom ostrzeżenia: 0%
RaVen012018.12.10, 21:15
-5#39
crush @ 2018.12.10 21:09  Post: 1179516
Po pierwsze nie wiadomo czy to w ogóle będzie miało RT, a po drugie używanie RT na 2070 to żart więc tutaj to byłby żart potrójny.

Jak to będzie w okolicach wydajności 1070 i nie będzie mordować ceną to okej. Jak nie to niech sobie to w magazynach trzymają.

2070 ma mniej sp od 1080 o 10% a jest szybsza o około 5% zazwyczaj, jeśli by się to przełożyło na 2060 i 1070 to 2060 by była 15% szybsza od 1070 i jakieś 10% wolniejsza od 1080 w takim przypadku nie narzekał bym na wydajność. ciekawe jak z ceną? jeśli MSRP było by na poziomie 300-350$ to2060 kosztowało by tyle ile teraz 1070.
Edytowane przez autora (2018.12.10, 21:19)
*Konto usunięte*2018.12.10, 21:33
Przecież wypuszcza tego okrojonego 2060 żeby nie było płaczu itd......a kiedy już amd pokaże swoje asy wtedy nvidia wyciągnie królika 2060 ti 8gb i po problemie i płaczu itd......cały problem tych kart to CENA CENA i jeszcze raz CENA.
Zaloguj się, by móc komentować