Ach ci bajkopisarze AMD (tak, zlinczujcie mnie, bo mam swoje własne zdanie posiadając tandem cpu+gpu amd...)
Przyjdzie nv, wyda nowe sterowniki i nagle znikną wszystkie problemy, które przypisujecie GF na podstawie tych testów. Ale nie, dla tej chwilki tryumfu wręcz trzeba jak typowy fanboy się zachowywać. Doprawdy, żałosne. Teraz druga strona medalu - drodzy plujkarze nvidiowcy (inwidiowcy... zazdrośnicy). Nie tak całkiem dawno NV zafundowała swoim fanom rodzinę GT200 Pamiętacie? No... to AMD w tamtym czasie dało chip jakieś 30% mniejszy, karty znacznie tańsze i niewiele mniej wydajne (i wydajność względem konkurencji wzrastała w czasie). Wtedy też trudno było uwierzyć, że AMD potrafi zrobić coś dobrego? Przecież Fury nie jest obliczeniowo jakimś technicznym zadupiem. Mogą pojawić się gry wykorzystujące jej możliwości bardziej niż dotychczasowe produkcje. Skutkiem będzie przetasowanie pozycji lidera. To było, jest i zawsze będzie. Zamiast pierdzielić jaka to zrypana gra, bo NV przegrywa zwyczajnie przyjmijcie do wiadomości, że nie wszystko złoto co zielone
W tamtym czasie byłem krytykowany za chwalenie AMD... bo wydajność GPGPU gorsza, a w zasadzie nie działało do HD5 bo gorsze archi, brak physx.... bo....
Ale to, że pobór energii niższy, cena niższa, lepsza kultura pracy wydajniejsze stery jak grochem o ścianę.
Dziś sytuacja jest odwrotna. Też jestem krytykowany za chwalenie NV.
Karta graficzna jest do grafiki to główna ocena powinna być. Radeony bywają dobre i opłacalne... ogólnie nie są.
Hmm, mam pewne wątpliwości co do tego testu.
GTX750Ti, ustawienia medium 1080p:
- na filmie, w niespecjalnie dobieranym miejscu 19-27 fps: https://www.youtube.com/watch?v=OwQQ4sIN8Mk#t=1m52s
- u was, w miejscu jak rozumiem szczególnie obciążającym 35,5 fps
Może dlatego, że autor filmiku nagrywał w trakcie, co dodatkowo obciążało CPU
Zwrócił ktoś uwagę na to, że ilość pamięci karty graficznej nie ma właściwie znaczenia w tej grze? Czy 2 czy 4 gigabajty gra chodzi tak samo. To nie świadczy zbyt dobrze o jakości, bo oprogramowanie nie wykorzystuje sprzętu.
Hmm, mam pewne wątpliwości co do tego testu.
GTX750Ti, ustawienia medium 1080p:
- na filmie, w niespecjalnie dobieranym miejscu 19-27 fps: https://www.youtube.com/watch?v=OwQQ4sIN8Mk#t=1m52s
- u was, w miejscu jak rozumiem szczególnie obciążającym 35,5 fps
Może dlatego, że autor filmiku nagrywał w trakcie, co dodatkowo obciążało CPU
W opisie od filmem stoi i5-6500, a miejsce typowo graficzne.
Nie ma mowy o zamęczeniu CPU.
Nagrywanie i pomiar na pewno ma wpływ na GPU, ale IMO to za mało by wytłumaczyć aż taką różnicę (śr. ~24fps vs 35,5fps).
Teraz najprościej krzyknąć 'zyebana optymalizacja!!11!!', ja tam widzę w testach że gra jest całkiem grywalna już na 970, czyli dwu letniej karcie ze średniej półki, na AMD bez stresu, czego ludzie oczekują? w główkach się całkiem poprzewracało, DX12/Vulkan nie oznaczają wcale że każda nowa gra pójdzie na 950, która ma wydajność sprzed 4-5 lat.
Ta gra nie ma żadnej, kompletnie żadnej optymalizacji dla PC!!!!
Żywcem przepisali kod konsoli i wydali dla PC a jak wiadomo w konsolach siedzi AMD więc wyniki były łatwe do przewidzenia.
To samo było w Doom4 Alpha.
Prawda. Grafika w tej grze jest po prostu paskudna. Jak spojrzałem na te screeny to nie dowierzałem - na PC obraz jest praktycznie tak samo nieostry jak na XOne w 720p. Ciekawe czy Micro$oft specjalnie tych filtrów nie nawalił, żeby przypadkiem gra nie wyglądała lepiej niż na ich XOne, a związku z tym, że to gra spod Windows Store, to nie można nic w niej modyfikować i tych filtrów się nie powyłącza.
Nic tylko czekać na Vulcana i olać tą kurewską firmę,
To ktos jeszcze wierzy ze vulkan da rade przebic sie przez dx12?
Zwłaszcza że wiekszość nawet nie wie że coś takiego powstaje
To nie ty masz wiedzieć że coś takiego powstaje tylko developerzy mają wiedzieć, finalnie gra powstaje i działa pod danym systemem, więc klienta końcowego nie musi interesować jakie jest API i co to jest w ogóle API.
Zważając że vulcan technicznie można nawet na Viście odpalić, ma to szanse iść do przodu.
Teraz najprościej krzyknąć 'zyebana optymalizacja!!11!!', ja tam widzę w testach że gra jest całkiem grywalna już na 970, czyli dwu letniej karcie ze średniej półki, na AMD bez stresu, czego ludzie oczekują? w główkach się całkiem poprzewracało, DX12/Vulkan nie oznaczają wcale że każda nowa gra pójdzie na 950, która ma wydajność sprzed 4-5 lat.
No właśnie tego się towarzystwo spodziewało, że DX12 nagle sprawi, że nowe karty graficzne nie będą potrzebne... A tu Zonk!
Zbierajcie kasę na Polarisy z wyższej półki, bo w przyszłym roku co byście nie mieli to tylko w pasjansa sobie pogracie
Teraz najprościej krzyknąć 'zyebana optymalizacja!!11!!', ja tam widzę w testach że gra jest całkiem grywalna już na 970, czyli dwu letniej karcie ze średniej półki, na AMD bez stresu, czego ludzie oczekują? w główkach się całkiem poprzewracało, DX12/Vulkan nie oznaczają wcale że każda nowa gra pójdzie na 950, która ma wydajność sprzed 4-5 lat.
Pomyśl sobie że gra działa w 1280x720 w ustawieniu 1080p, to chyba wyraźnie pokazuje jak zrypany jest ten port.
jak w projekt cars amd dostawalo po tylku to nikt nie mówił że skopany port tylko wina samego amd i jego sterów...a tutaj biedna Nvidia dostała ostro po dupie i od razu zly Microsoft,dx12 i skopany port . Prawda jest taka że to kolejna gra gdzie Amd zrobiło miazge z GeForców i to sie liczy
jak w projekt cars amd dostawalo po tylku to nikt nie mówił że skopany port tylko wina samego amd i jego sterów...a tutaj biedna Nvidia dostała ostro po dupie i od razu zly Microsoft,dx12 i skopany port . Prawda jest taka że to kolejna gra gdzie Amd zrobiło miazge z GeForców i to sie liczy
Problemem w przypadku Project Cars były sterowniki AMD, bo gdy udało się pozbyć limitu CPU to nagle Radeony normalnie wypadały
Wyglądana to, ze rekonstrukcja temporalna, korzysta z cache karty grafiki w większym stopniu, do tego asynchro w schaderach. Tylko tak potrafię wytłumaczyć przewagę rade... wróć amd Nie wydaje mi się, aby same obliczenia asynchroniczne dawały taką przewagę radeo... kartom amd.
SambaVerde @ 2016.04.11 22:48
Zwrócił ktoś uwagę na to, że ilość pamięci karty graficznej nie ma właściwie znaczenia w tej grze? Czy 2 czy 4 gigabajty gra chodzi tak samo. To nie świadczy zbyt dobrze o jakości, bo oprogramowanie nie wykorzystuje sprzętu.
Jak porównujesz nvidie z nvidią i amd z amd, to wszystko się zgadza, więc problem leży gdzie indziej.
380x na poziomie 970 a powiadali że to kotlet 7970 z obciętą szyną i nie warto na nią patrzeć bo 960 jest lepsza.. Kappa
To teraz wyznacznikiem wydajności jest gra na UWP? Przypominam że kilka tygodni temu wyszły odświeżone Girsy 1, gdzie Fury X nie potrafił utrzymać 30 klatek.
Nie róbmy z siebie idiotów i nie oceniajmy kart na postawie z gier na UWP.
Gra to gra, akurat QB to tytul AAA wiec nie mozna nazwac tego 'pierdulka' jaka byl niby Ashes of the Singularity.
Ale przeciez kogo obchodzi seria GTX 9xx jak zaraz pascal i wszyscy poleca do sklepu wymienic.
jak w projekt cars amd dostawalo po tylku to nikt nie mówił że skopany port tylko wina samego amd i jego sterów...a tutaj biedna Nvidia dostała ostro po dupie i od razu zly Microsoft,dx12 i skopany port . Prawda jest taka że to kolejna gra gdzie Amd zrobiło miazge z GeForców i to sie liczy
Nie mam czasu dziś czytać wątku, więc piszę za siebie. Z tego co wiem w QB są skopane stery NV. Pewnie lada tydzień wyjdzie patch... AMD w DX12 ma nieco lepsze wsparcie.
pybek @ 2016.04.11 23:58
Skunek @ 2016.04.11 23:44
jak w projekt cars amd dostawalo po tylku to nikt nie mówił że skopany port tylko wina samego amd i jego sterów...a tutaj biedna Nvidia dostała ostro po dupie i od razu zly Microsoft,dx12 i skopany port . Prawda jest taka że to kolejna gra gdzie Amd zrobiło miazge z GeForców i to sie liczy
Problemem w przypadku Project Cars były sterowniki AMD, bo gdy udało się pozbyć limitu CPU to nagle Radeony normalnie wypadały
W sensie znasz magiczny sposób na zmniejszenie narzutu w Project Cars?
Ukończyłem właśnie grę. Myślałem, że skończę w ~12-13h a zrobiło się ~17h. Do tego można jeszcze raz przejść całą grę z innymi wyborami wpływającymi na rozgrywkę. Lub pobawić się samymi wyborami. Gra świetna.
Ale do sedna obejrzałem napisy końcowe do końca. I gdzieś pod koniec zauważyłem, że 4 osoby z nvidii współpracowały podczas tworzenia gry. Więc nvidia była na bieżąco. Od AMD nikogo nie widziałem chyba, że przegapiłem.
Wyglądana to, ze rekonstrukcja temporalna, korzysta z cache karty grafiki w większym stopniu, do tego asynchro w schaderach. Tylko tak potrafię wytłumaczyć przewagę rade... wróć amd Nie wydaje mi się, aby same obliczenia asynchroniczne dawały taką przewagę radeo... kartom amd.
SambaVerde @ 2016.04.11 22:48
Zwrócił ktoś uwagę na to, że ilość pamięci karty graficznej nie ma właściwie znaczenia w tej grze? Czy 2 czy 4 gigabajty gra chodzi tak samo. To nie świadczy zbyt dobrze o jakości, bo oprogramowanie nie wykorzystuje sprzętu.
Jak porównujesz nvidie z nvidią i amd z amd, to wszystko się zgadza, więc problem leży gdzie indziej.
A nie lepiej sprawdzić w praktyce? Oświetlenie wolumetryczne ubija nv. W nowym tombie async jest wykorzystywany przy takim oświetleniu na xbox one, nie wykluczone, że w przypadku QB jest tak samo, ale nie ma żadnych informacji na ten temat.
Przyjdzie nv, wyda nowe sterowniki i nagle znikną wszystkie problemy, które przypisujecie GF na podstawie tych testów. Ale nie, dla tej chwilki tryumfu wręcz trzeba jak typowy fanboy się zachowywać. Doprawdy, żałosne. Teraz druga strona medalu - drodzy plujkarze nvidiowcy (inwidiowcy... zazdrośnicy). Nie tak całkiem dawno NV zafundowała swoim fanom rodzinę GT200
W tamtym czasie byłem krytykowany za chwalenie AMD... bo wydajność GPGPU gorsza, a w zasadzie nie działało do HD5 bo gorsze archi, brak physx.... bo....
Ale to, że pobór energii niższy, cena niższa, lepsza kultura pracy wydajniejsze stery jak grochem o ścianę.
Dziś sytuacja jest odwrotna. Też jestem krytykowany za chwalenie NV.
Karta graficzna jest do grafiki to główna ocena powinna być. Radeony bywają dobre i opłacalne... ogólnie nie są.
GTX750Ti, ustawienia medium 1080p:
- na filmie, w niespecjalnie dobieranym miejscu 19-27 fps:
https://www.youtube.com/watch?v=OwQQ4sIN8Mk#t=1m52s
- u was, w miejscu jak rozumiem szczególnie obciążającym 35,5 fps
Może dlatego, że autor filmiku nagrywał w trakcie, co dodatkowo obciążało CPU
GTX750Ti, ustawienia medium 1080p:
- na filmie, w niespecjalnie dobieranym miejscu 19-27 fps:
https://www.youtube.com/watch?v=OwQQ4sIN8Mk#t=1m52s
- u was, w miejscu jak rozumiem szczególnie obciążającym 35,5 fps
Może dlatego, że autor filmiku nagrywał w trakcie, co dodatkowo obciążało CPU
W opisie od filmem stoi i5-6500, a miejsce typowo graficzne.
Nie ma mowy o zamęczeniu CPU.
Nagrywanie i pomiar na pewno ma wpływ na GPU, ale IMO to za mało by wytłumaczyć aż taką różnicę (śr. ~24fps vs 35,5fps).
Zwłaszcza że wiekszość nawet nie wie że coś takiego powstaje
Żywcem przepisali kod konsoli i wydali dla PC a jak wiadomo w konsolach siedzi AMD więc wyniki były łatwe do przewidzenia.
To samo było w Doom4 Alpha.
Prawda. Grafika w tej grze jest po prostu paskudna. Jak spojrzałem na te screeny to nie dowierzałem - na PC obraz jest praktycznie tak samo nieostry jak na XOne w 720p. Ciekawe czy Micro$oft specjalnie tych filtrów nie nawalił, żeby przypadkiem gra nie wyglądała lepiej niż na ich XOne, a związku z tym, że to gra spod Windows Store, to nie można nic w niej modyfikować i tych filtrów się nie powyłącza.
Zwłaszcza że wiekszość nawet nie wie że coś takiego powstaje
To nie ty masz wiedzieć że coś takiego powstaje tylko developerzy mają wiedzieć, finalnie gra powstaje i działa pod danym systemem, więc klienta końcowego nie musi interesować jakie jest API i co to jest w ogóle API.
Zważając że vulcan technicznie można nawet na Viście odpalić, ma to szanse iść do przodu.
No właśnie tego się towarzystwo spodziewało, że DX12 nagle sprawi, że nowe karty graficzne nie będą potrzebne... A tu Zonk!
Zbierajcie kasę na Polarisy z wyższej półki, bo w przyszłym roku co byście nie mieli to tylko w pasjansa sobie pogracie
Pomyśl sobie że gra działa w 1280x720 w ustawieniu 1080p, to chyba wyraźnie pokazuje jak zrypany jest ten port.
Problemem w przypadku Project Cars były sterowniki AMD, bo gdy udało się pozbyć limitu CPU to nagle Radeony normalnie wypadały
Jak porównujesz nvidie z nvidią i amd z amd, to wszystko się zgadza, więc problem leży gdzie indziej.
PS: Gdzie moje plusy za chwalenie Nvidii?
TITAN X z OC jest najlepszą kartą do grania, obecnie
To teraz wyznacznikiem wydajności jest gra na UWP? Przypominam że kilka tygodni temu wyszły odświeżone Girsy 1, gdzie Fury X nie potrafił utrzymać 30 klatek.
Nie róbmy z siebie idiotów i nie oceniajmy kart na postawie z gier na UWP.
Gra to gra, akurat QB to tytul AAA wiec nie mozna nazwac tego 'pierdulka' jaka byl niby Ashes of the Singularity.
Ale przeciez kogo obchodzi seria GTX 9xx jak zaraz pascal i wszyscy poleca do sklepu wymienic.
Nie mam czasu dziś czytać wątku, więc piszę za siebie. Z tego co wiem w QB są skopane stery NV. Pewnie lada tydzień wyjdzie patch... AMD w DX12 ma nieco lepsze wsparcie.
Problemem w przypadku Project Cars były sterowniki AMD, bo gdy udało się pozbyć limitu CPU to nagle Radeony normalnie wypadały
W sensie znasz magiczny sposób na zmniejszenie narzutu w Project Cars?
Ale do sedna obejrzałem napisy końcowe do końca. I gdzieś pod koniec zauważyłem, że 4 osoby z nvidii współpracowały podczas tworzenia gry. Więc nvidia była na bieżąco. Od AMD nikogo nie widziałem chyba, że przegapiłem.
7:08
https://www.youtube.com/watch?v=3-0m8pSHpb4
Jak porównujesz nvidie z nvidią i amd z amd, to wszystko się zgadza, więc problem leży gdzie indziej.
A nie lepiej sprawdzić w praktyce? Oświetlenie wolumetryczne ubija nv. W nowym tombie async jest wykorzystywany przy takim oświetleniu na xbox one, nie wykluczone, że w przypadku QB jest tak samo, ale nie ma żadnych informacji na ten temat.