komentarze
KowalPachołekFocusaZobacz profil
Poziom ostrzeżenia: 0%
KowalPachołekFocusa2018.07.23, 06:06
39#1
** And why does NVidia suck at everything new? (Dx12/Vulkan/HDR)**
To chyba najlepszy komentarz:)
mocu1987Zobacz profil
Poziom ostrzeżenia: 0%
mocu19872018.07.23, 06:33
-20#2
Tak mnie zastanawia, dlaczego nie ma w porownaniu ponad rocznej 1080ti zamiast 2letniej 1080.
Markiz88Zobacz profil
Poziom ostrzeżenia: 0%
Markiz882018.07.23, 06:35
27#3
mocu1987 @ 2018.07.23 06:33  Post: 1155080
Tak mnie zastanawia, dlaczego nie ma w porownaniu ponad rocznej 1080ti zamiast 2letniej 1080.

Większą popularnością cieszy się 1080 niż TI. Ponadto w takiej sytuacji należało by zrobić przekrojowy test dla wszystkich kart w 2/3 produkcjach.
mocu1987Zobacz profil
Poziom ostrzeżenia: 0%
mocu19872018.07.23, 06:42
-22#4
Markiz88 @ 2018.07.23 06:35  Post: 1155081
mocu1987 @ 2018.07.23 06:33  Post: 1155080
Tak mnie zastanawia, dlaczego nie ma w porownaniu ponad rocznej 1080ti zamiast 2letniej 1080.

Większą popularnością cieszy się 1080 niż TI. Ponadto w takiej sytuacji należało by zrobić przekrojowy test dla wszystkich kart w 2/3 produkcjach.


W tytule jest napisane 'geforce dostaje zadyszki' a nie konkretny model. Wiec skoro ktos bierze najwyzszy model AMD do testu, powinien tez od NV. Rozumiem pomijac Titany i Titana V, ale konsumenckie 1080ti to dzisiaj zadne WoW do testow.
SzczotaZobacz profil
Poziom ostrzeżenia: 0%
Szczota2018.07.23, 06:59
30#5
Odkad pamietam to zawsze na kartach AMD rozne nowe feature lepiej dzialalo. Dopiero kolejna generacja nvidii juz przystosowana to zmieniala
kochamdzastinkaZobacz profil
Poziom ostrzeżenia: 0%
kochamdzastinka2018.07.23, 07:00
-27#6
stawiam na procka ;) geforce napewno sie odmuli przy +20% szybszym procku :P

LeesiuuZobacz profil
Poziom ostrzeżenia: 0%
Leesiuu2018.07.23, 07:17
22#7
kochamdzastinka @ 2018.07.23 07:00  Post: 1155084
stawiam na procka ;) geforce napewno sie odmuli przy +20% szybszym procku :P


Nie wiem co mogliby mocniejszego wstawić niż Core i7-8700K... Oczywiście z mainstreamowych procesorów, bo nie mówię tutaj o wersjach extreme.
kochamdzastinkaZobacz profil
Poziom ostrzeżenia: 0%
kochamdzastinka2018.07.23, 08:00
-30#8
i5-5675Rco ma 30% wyzsza wydajnosc per jajko i mozna jeszcze krecic bo to 65wat :E

nie idzie go kupic niestety a jak sie pojawia to cenka z kosmosu
SebastianFMZobacz profil
Poziom ostrzeżenia: 0%
SebastianFM2018.07.23, 08:07
21#9
kochamdzastinka @ 2018.07.23 07:00  Post: 1155084
stawiam na procka ;) geforce napewno sie odmuli przy +20% szybszym procku :P


A co może mieć do tego procesor, skoro chodzi o różnicę w wydajności przy wyłączonym i włączonym HDR?
kiokioZobacz profil
Poziom ostrzeżenia: 0%
kiokio2018.07.23, 08:11
-31#10
Po pierwze 1080 nie sluzy do gry w 4K z HDR, po drugie gdyby zrobili test z 1080ti to by wyszlo to samo co przy AMD - 2%, jesli wogole.
Mam gtx1080TI i nie dostrzegam zadnych spadkow fps w 4K i HDR

Po trzecie zalezy jaką karte testowali bo to bardzo wazne. Specyfikacja GTX1080 nie jest dokladnie taka sama dla wszystkich producentow np karty ASUSa nie wspeierają HDMI 2.0b ktore jest wymagane do wyswietlania obrazu w 4K z HDR i chromą 4:4:4.
Na karcie z HDMI 2.0 lub 2.0a (takie jak mają karty z seri STRIX) mogą wystepowac problemy z plynnoscią, poniewaz ten standard nie zapewnia wystarczającej przepustowosci danych dla tego formatu obrazu. Spadki plynnosci nie wynikają z braku mocy obliczeniowej karty ale z opiźnieniami wyswietlania obrazu po torze niezdolnym odebrac tyle danych. Przy HDMI 2.0 jest tez problem z kanalem zwrotnym z wyswietlacza, ale to dotyczy tylko opcji Gsync oraz wlaczonej synchronizacji
kochamdzastinkaZobacz profil
Poziom ostrzeżenia: 0%
kochamdzastinka2018.07.23, 08:39
-15#11
sebastianie wzglednie czy bezwzglednie ;) fakty i mty czyli co wplywa na multimedialnosc :P no wlasnie zasobnosc potfela :E
DreamerDreamZobacz profil
Poziom ostrzeżenia: 0%
DreamerDream2018.07.23, 08:51
Taka mała ciekawostka ostatnio odkryłem i może ktoś się zainteresuje.
Istnieje sposób na wymuszenie HDR w większości gier, bez posiadania monitora obsługującego to. Może nie dostaniemy takiego samego efektu, ale wciąż lepsze to niż nic (daje taki sam efekt jak HDR w Half Life 2, więc jak ktoś grał to wie jak to wygląda).
Wystarczy program reshade, który wstrzykuje rożne efekty graficzne. Wśród nich jest jest właśnie fake HDR.

Przy okazji pokazuje (w pewnym zakresie oczywiście) jakby mogła wyglądać gra z prawdziwym HDR.
*Konto usunięte*2018.07.23, 08:55
-30#13
Tydzień temu był news, że AMD ma dużo gorsze sterowniki od Nvidi widać ktoś tu ściemniał.
8V32Zobacz profil
Poziom ostrzeżenia: 0%
8V322018.07.23, 09:05
31#14
myszka91 @ 2018.07.23 08:55  Post: 1155096
Tydzień temu był news, że AMD ma dużo gorsze sterowniki od Nvidi widać ktoś tu ściemniał.


News był o tym że AMD ma stabilniejsze sterowniki od NV, pokręciło ci się
Marek1981Zobacz profil
Poziom ostrzeżenia: 0%
Marek19812018.07.23, 09:26
14#15
kiokio @ 2018.07.23 08:11  Post: 1155090
Po pierwze 1080 nie sluzy do gry w 4K z HDR, po drugie gdyby zrobili test z 1080ti to by wyszlo to samo co przy AMD - 2%, jesli wogole.
Mam gtx1080TI i nie dostrzegam zadnych spadkow fps w 4K i HDR

Po trzecie zalezy jaką karte testowali bo to bardzo wazne. Specyfikacja GTX1080 nie jest dokladnie taka sama dla wszystkich producentow np karty ASUSa nie wspeierają HDMI 2.0b ktore jest wymagane do wyswietlania obrazu w 4K z HDR i chromą 4:4:4.
Na karcie z HDMI 2.0 lub 2.0a (takie jak mają karty z seri STRIX) mogą wystepowac problemy z plynnoscią, poniewaz ten standard nie zapewnia wystarczającej przepustowosci danych dla tego formatu obrazu. Spadki plynnosci nie wynikają z braku mocy obliczeniowej karty ale z opiźnieniami wyswietlania obrazu po torze niezdolnym odebrac tyle danych. Przy HDMI 2.0 jest tez problem z kanalem zwrotnym z wyswietlacza, ale to dotyczy tylko opcji Gsync oraz wlaczonej synchronizacji


Sam dajesz argumenty na gównianą politykę NV co do kart graficznych. Płacisz kosmiczną (jak na polskie warunki) cenę i musisz szukać czy dany model u konkretnego producenta coś posiada czy też nie.
OlsonZobacz profil
Poziom ostrzeżenia: 0%
Olson2018.07.23, 09:50
20#16
Po pierwze 1080 nie sluzy do gry w 4K z HDR. Kiokio dobrze z tobą ?
To do czego ? Podgrzewania pokoju ? Wszystkie telewizory na rynku są 4K, a ceny niższe niż karty.

kiokioZobacz profil
Poziom ostrzeżenia: 0%
kiokio2018.07.23, 09:52
-18#17
Marek1981 @ 2018.07.23 09:26  Post: 1155098
kiokio @ 2018.07.23 08:11  Post: 1155090
Po pierwze 1080 nie sluzy do gry w 4K z HDR, po drugie gdyby zrobili test z 1080ti to by wyszlo to samo co przy AMD - 2%, jesli wogole.
Mam gtx1080TI i nie dostrzegam zadnych spadkow fps w 4K i HDR

Po trzecie zalezy jaką karte testowali bo to bardzo wazne. Specyfikacja GTX1080 nie jest dokladnie taka sama dla wszystkich producentow np karty ASUSa nie wspeierają HDMI 2.0b ktore jest wymagane do wyswietlania obrazu w 4K z HDR i chromą 4:4:4.
Na karcie z HDMI 2.0 lub 2.0a (takie jak mają karty z seri STRIX) mogą wystepowac problemy z plynnoscią, poniewaz ten standard nie zapewnia wystarczającej przepustowosci danych dla tego formatu obrazu. Spadki plynnosci nie wynikają z braku mocy obliczeniowej karty ale z opiźnieniami wyswietlania obrazu po torze niezdolnym odebrac tyle danych. Przy HDMI 2.0 jest tez problem z kanalem zwrotnym z wyswietlacza, ale to dotyczy tylko opcji Gsync oraz wlaczonej synchronizacji


Sam dajesz argumenty na gównianą politykę NV co do kart graficznych. Płacisz kosmiczną (jak na polskie warunki) cenę i musisz szukać czy dany model u konkretnego producenta coś posiada czy też nie.

A ja nigdzie nie napisalem ze polityka jest dobra czy zła, zupelnie nie o tym mowa. Tylko o tym aby sie wkoncu ludzie nauczyli do wykozystywania towaru zgodnie z jego przeznaczeniem. Gtx1080 NIE SŁUŻY do grania w 4K z HDR dlatego też NV nie nie musiała dbać o to aby niereferenty obsługiwały HDMI 2.0b (bo referent obsługuje)
Za to w wersji TI już to wymagane. Dziwi mnie tylko że goście którzy robili testy tego nie wiedzą 🙄
kiokioZobacz profil
Poziom ostrzeżenia: 0%
kiokio2018.07.23, 09:55
-18#18
Olson @ 2018.07.23 09:50  Post: 1155099
Po pierwze 1080 nie sluzy do gry w 4K z HDR. Kiokio dobrze z tobą ?
To do czego ? Podgrzewania pokoju ? Wszystkie telewizory na rynku są 4K, a ceny niższe niż karty.



Słuchaj nie ja to sobie wymyśliłem. To Nvidia pozycjonuje rynek. Skoro gtx1080 nie musi wspierać standardu 2.0 w wersji b tzn że nie służy ta karta do 4k z HDR. Koniec kropka. Poczytaj sobie standaryzacje HDMI to bardzo szybko przyznasz mi racje
B0BS0NZobacz profil
Poziom ostrzeżenia: 0%
B0BS0N2018.07.23, 10:17
-3#19
W tej redakcji niemieckiej jakiś czas temu był testy CPU w 4K i w wynikach końcowych się podniecali, że G4560 jest prawie równy i7-7700K.... także tego.
Może PCLab zacznie robić własne testy, a nie kopiuj-wklej z innych, dodatkowo marnej jakości portali?
kochamdzastinkaZobacz profil
Poziom ostrzeżenia: 0%
kochamdzastinka2018.07.23, 10:28
-18#20
bobson! andzela niech rzuci 1mld ejro na rozwoj amigaos i dopiero bedzie wesolo :E

podobno na jakis prockach najtanszych telekomikacyjnych cos juz dziala i to zacnie :P

ale to tylko demoscenka wiec do komerchy brakuje wlasnie tylko szmalu ;)
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.