całe to RT będzie więc na razie implementowane tak po partyzancku jak w Metro Exodus czy nowym Tomb Raider A jak taka partyzantka wychodzi to można sobie oblookać tu:
https://www.youtube.com/watch?v=Ms7d-3Dprio
Jak widać partyzantka z RT czasami może pogorszyć wrażenia wizualne a nie polepszyć.
więc można ładnie wsadzić rękę w nocnik, karta za 6 tysi a odpalenie dedykowanego efektu prowadzi do oczopląsu
Wybacz, ale niektóre ujęcia z tego materiału kapitalnie pokazują, jak wielka różnicę robi RT - zwłaszcza w pomieszczeniach. To jest zupełnie nowa jakość oświetlenia we wnętrzach, nawet w powijakach.
Oczywiście na razie to zabawka dla obrzydliwie bogatych ale módlmy się, by wypaliło 7 nm plus by udało się coś jeszcze ugrać na architekturze tak, by odpowiednią moc osiągnęły kiedyś także kart mniejsze i mniej prądożerne niż obecne potworki 2080Ti
całe to RT będzie więc na razie implementowane tak po partyzancku jak w Metro Exodus czy nowym Tomb Raider A jak taka partyzantka wychodzi to można sobie oblookać tu:
https://www.youtube.com/watch?v=Ms7d-3Dprio
Jak widać partyzantka z RT czasami może pogorszyć wrażenia wizualne a nie polepszyć.
więc można ładnie wsadzić rękę w nocnik, karta za 6 tysi a odpalenie dedykowanego efektu prowadzi do oczopląsu
Znaczy nie rozumiesz czym jest RT. RT sprawia np. w budynku, że jeden obszar jest jaśniejszy poprzez wpadające światło, a w rogu przy oknie będzie ciemniej.
Zgadza się. Generalnie grafika z zastosowaniem RT wyglada dużo, dużo, bardziej realistycznie i jest to na 100% kierunek rozwoju w jakim podąży grafika, wręcz kamień milowy. Nvidia jest w tym przypadku pionierem, a pionierów poznaje się po strzałach w placach. Ja na 100% wymieniam dwie 1080Ti na dwie 2080Ti. Jak komuś szkoda pieniędzy to lepiej poczekać na następną generację w niższym procesie technologicznym, powinno być taniej.
Sprzęt jest coraz droższy, kiedyś się mówiło że będzie coraz tańszy, życie zweryfikowało, ale wiele osób dalej żyje tą myślą i nagle są wielce oburzeni cenami, a to tylko dlatego że ich na to nie stać.
Sama wydajność jest tylko dlatego że zmniejszyli ilość cuda na blok o połowę.
Otwarta furtka dla nowszych generacji z większą ilością cuda na blok.
Ale to tylko jedna z możliwości rozwoju NVidia Geforce.
A gdyby wywalili RT i tensory 2080ti mógł by być z 60% szybszy od gtx1080ti. Chociaż tedy pobieral by pewnie sporo więcej energii - teraz więcej będzie pobierał jedynie przy graniu z rt i dlss.
Nie mniej gdyby nie ceny było by dobrze. Z drugiej strony mogli spokojnie poczekać na 7nm przy braku konkurencji.
Najgorsze co może zrobić producent, to w pełni zaspokoić potrzeby klienta - obecne i przyszłe. Musi pozostawić pewien niedosyt, żeby za dwa lata móc mu sprzedać kolejny produkt.
Właśnie rendering to taka dojrzała technologia, która zaspokaja potrzeby gracza w rozdzielczości 1440p. Dodasz 60% shaderów i będzie płynnie także w 4K. No to jakie będzie uzasadnienie, żeby wymienić te hipotetyczne karty na lepsze?
Nikt nie prosił NVidii o Ray Tracing, ale popatrzcie jaki niedosyt on stworzył - 2080 Ti z trudem osiąga 30 FPS w 1080p, 1440p będzie możliwe dzięki interpolacji. Dopiero za 10 lat karty będą zdolne do RT w natywnym 4K @ 144 Hz. A każdą z tych pośrednich generacji wypuszczonych w międzyczasie gracze będą łykać jak głodne pelikany! Nie z powodu lepszego Ray Tracingu, tylko dlatego, że NVidia dołożyła 20% więcej shaderów do renderingu!
Lepiej jakby jednostki do RT mogły też renderować w zależności od potrzeb a nie były wyspecjalizowane. A najlepiej jakby zostały zunifikowane w całości z innymi, ale to pewnie za 10 lat.
Dla kogo te karty? Mój przykład, jak pewnie jeden z wielu ludzi, celujących w Hi End.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
Najgorsze co może zrobić producent, to w pełni zaspokoić potrzeby klienta - obecne i przyszłe. Musi pozostawić pewien niedosyt, żeby za dwa lata móc mu sprzedać kolejny produkt.
Właśnie rendering to taka dojrzała technologia, która zaspokaja potrzeby gracza w rozdzielczości 1440p. Dodasz 60% shaderów i będzie płynnie także w 4K. No to jakie będzie uzasadnienie, żeby wymienić te hipotetyczne karty na lepsze?
Nikt nie prosił NVidii o Ray Tracing, ale popatrzcie jaki niedosyt on stworzył - 2080 Ti z trudem osiąga 30 FPS w 1080p, 1440p będzie możliwe dzięki interpolacji. Dopiero za 10 lat karty będą zdolne do RT w natywnym 4K @ 144 Hz. A każdą z tych pośrednich generacji wypuszczonych w międzyczasie gracze będą łykać jak głodne pelikany! Nie z powodu lepszego Ray Tracingu, tylko dlatego, że NVidia dołożyła 20% więcej shaderów do renderingu!
Lepiej jakby jednostki do RT mogły też renderować w zależności od potrzeb a nie były wyspecjalizowane. A najlepiej jakby zostały zunifikowane w całości z innymi, ale to pewnie za 10 lat.
Dla kolegi chodziło o to, że aby coś sprzedać, najpierw trzeba stworzyć na to popyt (doskonały przykład z The wolf of wall street z ołówkiem ). I na to się składa wiele rzeczy, opłacanie twórców gier, aby wykorzystywali te technologię, która będzie działać tylko na NV, recenzenci i chore NDA (HardOCP np. nie zgodziło się na nie, vote na forum i czytelnicy zagłosowali na nie, kart do testów oczywiście nie dostali, prawdopodobnie przykład z tytułem tego artykułu na pclab), tworzenie profilów na wypasionym Saturnie, oczywiście 'za darmo', GSYNC za fajną dopłatą do ceny monitora, chociaż freesync jest ok. Wszystko po to, aby przywiązać konsumenta do swojej marki i go doić do granic możliwości, jak na korpo przystało. Doskonały przykład z cena 3,5k za rtx 2080 za bieda wersję, której żadnego ficzera nie można normalnie nawet przetestować, bo RT nie jest obsługiwany przez windows i nie ma obecnie tytułów, a DLSS podobnie pojawi się w wielu tytułach za X czasu.
Jedynym ratunkiem od przepłacania jest konkurencja, za którą trzeba trzymać kciuki. Doskonały przykład z intelem. Nagle magicznie na przestrzeni roku moje 7700k stało się przestarzałe z powodu Ryzen i teraz na horyzoncie widzę 9900k z 16ma logicznymi wątkami.
Karta do grania w 4K juz byla, te karty maja pokazac moc dzieki dostepowi do nowych efektow. W grach jakich je testowano tych efektow nie ma. A w nadchodzacych bedzie przepasc. Nie plakalbym, oczywistym bylo ze Nvidia nie zarzne serii 10x0 przed koncem roku. Cios bedzie wykonany przy uzyciu GTX-a 2060 czy jakkolwiek karta ze sredniej polki bedzie sie nazywala. Fakt sam spodziewalem wyzszej roznicy w przypadku wersji Ti, ale coz...
Przeanalizowałem na chłodno recenzję i znalazłem ciekawą analogię. Pamiętacie poprzednie premiery? Przy wychodzeniu serii 10xx Nvidia wypuściła dwa modele: 1070, który miał wydajnosć 980Ti oraz 1080, który miał wydajność o 20% większą - akurat dokładnie tak jak teraz, tylko, że Nvidia zmieniła nazewnictwo. Po około roku wypuszczono później 1080Ti, któremu dano cenę taką samą, jak 1080 na otwarciu i wielkodusznie obniżyli cenę 1070 oraz 1080. Widzę tutaj niebezpieczny trend. Za ół roku albo rok Nvidia niemal napewno wypuści prawdziwego następcę 1080Ti i nazwie go jakkolwiek - RTX 2090, RTX 2080 WTF, jak zwał tak zwał. I na 100% topową kartę wyceni na tyle samo co obecna RTX 2080Ti i wielkodusznie obniży ceny 2080 oraz 2080Ti - koło się zamyka, a ludzie rzucą się mimo iż to jest właśnie kreowanie nowej półki cenowej Świński, ale przemyślany ruch Nvidii. Ludzie nie mieliby za złe, gdyby Nvidia wypuściła teraz te dwie karty pod nazwą 2070 oraz 2080 - tak naprawdę tego oczekiwałem. Wzrosty się zgadzają, ale nie mogliby wtedy dowalić takiej ceny...
Także moja szklana kula mówi, że historia się powtórzy i za 6-12 miesięcy dostaniemy następcę w cenie obecnego 2080Ti.
Dla kogo te karty? Mój przykład, jak pewnie jeden z wielu ludzi, celujących w Hi End.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
Widać, kasę masz, ale rozumu to niezbyt... Gratuluję logiki. Będziesz winił teraz kartę graficzną, że masz TV tylko 60Hz? Trzeba było sobie kupić lepszy... Poza tym jakie 5,5k? Stare karty wieszasz na ścianie, aby się do nich modlić? Czy może jednak przy zakupie nowych stare sprzedasz i dzięki temu nie będzie 5,5k, a np 3,5k?
Magik II @ 2018.09.20 15:03
Co się stało że tytuł artykułu zmieniliście? Nvidii się nie spodobał? ;D
Dla niewtajemniczonych, wcześniej w 'RTX' było przekreślone RT.
I bardzo dobrze, bo takie idiotyczne przekreślanie wprowadzało w błąd. Nie pierwszy raz PcLab cuduje i się ośmiesza w ten sposób, czego najlepszy przykład dali właśnie w podsumowaniu i nie przyznaniu POWER dla nowej karty. To jest nazwa własna, PcLab nie ma prawa dla własnego kaprysu i żeby zrobić 'drama' zmieniać znak zastrzeżony.
swoja droga na purepc testowali nowe funkcje na demie tech u4 - mowa o infiltrator demo dostepnym na epic games, obejrzalem sobie to ze 2 razy i szczerze mowie i pytam - dlaczego jeszcze nie moge w to zagrac? z mila checia zagralbym w jakies fpp/tpp w tych klimatach, nawet, jesli miala by to byc bezmyslna strzelanka
Dla kogo te karty? Mój przykład, jak pewnie jeden z wielu ludzi, celujących w Hi End.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
Widać, kasę masz, ale rozumu to niezbyt... Gratuluję logiki. Będziesz winił teraz kartę graficzną, że masz TV tylko 60Hz? Trzeba było sobie kupić lepszy... Poza tym jakie 5,5k? Stare karty wieszasz na ścianie, aby się do nich modlić? Czy może jednak przy zakupie nowych stare sprzedasz i dzięki temu nie będzie 5,5k, a np 3,5k?
Magik II @ 2018.09.20 15:03
Co się stało że tytuł artykułu zmieniliście? Nvidii się nie spodobał? ;D
Dla niewtajemniczonych, wcześniej w 'RTX' było przekreślone RT.
I bardzo dobrze, bo takie idiotyczne przekreślanie wprowadzało w błąd. Nie pierwszy raz PcLab cuduje i się ośmiesza w ten sposób, czego najlepszy przykład dali właśnie w podsumowaniu i nie przyznaniu POWER dla nowej karty. To jest nazwa własna, PcLab nie ma prawa dla własnego kaprysu i żeby zrobić 'drama' zmieniać znak zastrzeżony.
A, no to 3,5k to dobra cena za 25% więcej wydajności. No układ wprost doskonały
Przeanalizowałem na chłodno recenzję i znalazłem ciekawą analogię. Pamiętacie poprzednie premiery? Przy wychodzeniu serii 10xx Nvidia wypuściła dwa modele: 1070, który miał wydajnosć 980Ti oraz 1080, który miał wydajność o 20% większą - akurat dokładnie tak jak teraz, tylko, że Nvidia zmieniła nazewnictwo. Po około roku wypuszczono później 1080Ti, któremu dano cenę taką samą, jak 1080 na otwarciu i wielkodusznie obniżyli cenę 1070 oraz 1080. Widzę tutaj niebezpieczny trend. Za ół roku albo rok Nvidia niemal napewno wypuści prawdziwego następcę 1080Ti i nazwie go jakkolwiek - RTX 2090, RTX 2080 WTF, jak zwał tak zwał. I na 100% topową kartę wyceni na tyle samo co obecna RTX 2080Ti i wielkodusznie obniży ceny 2080 oraz 2080Ti - koło się zamyka, a ludzie rzucą się mimo iż to jest właśnie kreowanie nowej półki cenowej Świński, ale przemyślany ruch Nvidii. Ludzie nie mieliby za złe, gdyby Nvidia wypuściła teraz te dwie karty pod nazwą 2070 oraz 2080 - tak naprawdę tego oczekiwałem. Wzrosty się zgadzają, ale nie mogliby wtedy dowalić takiej ceny...
Także moja szklana kula mówi, że historia się powtórzy i za 6-12 miesięcy dostaniemy następcę w cenie obecnego 2080Ti.
To proponuje przemyc te szklana kule - zgodnie z tym co napisales, wydajnosc 1080Ti powinien prezentowac 2070, 2080 byc odpowiedznie 20% szybszy, i po pol roku pojawic sie model Ti, ale tutaj uwaga zaskoczenie - TEN MODEL JUZ WYSZEDL! Jedyny dodatek jaki EWENTUALNIE mozemy zobaczyc z rodziny Turing to pelny rdzen a.k.a. Quadro RTX 8000 a.k.a. nowy Titan Xt czy jakkolwiek go zwal.
Widać, kasę masz, ale rozumu to niezbyt... Gratuluję logiki. Będziesz winił teraz kartę graficzną, że masz TV tylko 60Hz? Trzeba było sobie kupić lepszy... Poza tym jakie 5,5k? Stare karty wieszasz na ścianie, aby się do nich modlić? Czy może jednak przy zakupie nowych stare sprzedasz i dzięki temu nie będzie 5,5k, a np 3,5k?
To nie wina TV tylko wąskiego gardła jakim jest hdmi 2.0.
Ale spoko przecież głupi jestem.
To proponuje przemyc te szklana kule - zgodnie z tym co napisales, wydajnosc 1080Ti powinien prezentowac 2070, 2080 byc odpowiedznie 20% szybszy, i po pol roku pojawic sie model Ti, ale tutaj uwaga zaskoczenie - TEN MODEL JUZ WYSZEDL! Jedyny dodatek jaki EWENTUALNIE mozemy zobaczyc z rodziny Turing to pelny rdzen a.k.a. Quadro RTX 8000 a.k.a. nowy Titan Xt czy jakkolwiek go zwal.
Czytaj ze zrozumieniem, to nie jest wiele tekstu
...akurat dokładnie tak jak teraz, tylko, że Nvidia zmieniła nazewnictwo.
Za pół roku albo rok Nvidia niemal napewno wypuści prawdziwego następcę 1080Ti i nazwie go jakkolwiek - RTX 2090, RTX 2080 WTF, jak zwał tak zwał.
Ludzie nie mieliby za złe, gdyby Nvidia wypuściła teraz te dwie karty pod nazwą 2070 oraz 2080
ale tego nie zrobiła. wypuściła je pod nazwą 2080 i 2080Ti
Wzrost wydajności o +20% jest zbyt podejrzany aby był przypadkowy. Nvidia wycyrklowała szacowaną wydajność nowych układów i chciała je wypuścić analogicznie do poprzednich serii x070 oraz x080. Po drodze postanowiła karty nazwać o klasę wyższą, 'bo i czemu nie'. Po pierwsze - mogą przylutować z ceną, po drugie - ludki zaczną kupować 2080Ti myśląc, że to finalna iteracja, zamiast się wstrzymywać z zakupem prawdziwego następcy.
Dla kogo te karty? Mój przykład, jak pewnie jeden z wielu ludzi, celujących w Hi End.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
QHD (Quad HD), WQHD (Wide Quad HD) or 1440p is a display resolution of 2560x1440 pixels in a 16:9 aspect ratio.
https://www.youtube.com/watch?v=Ms7d-3Dprio
Jak widać partyzantka z RT czasami może pogorszyć wrażenia wizualne a nie polepszyć.
więc można ładnie wsadzić rękę w nocnik, karta za 6 tysi a odpalenie dedykowanego efektu prowadzi do oczopląsu
Wybacz, ale niektóre ujęcia z tego materiału kapitalnie pokazują, jak wielka różnicę robi RT - zwłaszcza w pomieszczeniach. To jest zupełnie nowa jakość oświetlenia we wnętrzach, nawet w powijakach.
Oczywiście na razie to zabawka dla obrzydliwie bogatych ale módlmy się, by wypaliło 7 nm plus by udało się coś jeszcze ugrać na architekturze tak, by odpowiednią moc osiągnęły kiedyś także kart mniejsze i mniej prądożerne niż obecne potworki 2080Ti
https://www.youtube.com/watch?v=Ms7d-3Dprio
Jak widać partyzantka z RT czasami może pogorszyć wrażenia wizualne a nie polepszyć.
więc można ładnie wsadzić rękę w nocnik, karta za 6 tysi a odpalenie dedykowanego efektu prowadzi do oczopląsu
Znaczy nie rozumiesz czym jest RT. RT sprawia np. w budynku, że jeden obszar jest jaśniejszy poprzez wpadające światło, a w rogu przy oknie będzie ciemniej.
Zgadza się. Generalnie grafika z zastosowaniem RT wyglada dużo, dużo, bardziej realistycznie i jest to na 100% kierunek rozwoju w jakim podąży grafika, wręcz kamień milowy. Nvidia jest w tym przypadku pionierem, a pionierów poznaje się po strzałach w placach. Ja na 100% wymieniam dwie 1080Ti na dwie 2080Ti. Jak komuś szkoda pieniędzy to lepiej poczekać na następną generację w niższym procesie technologicznym, powinno być taniej.
Sama wydajność jest tylko dlatego że zmniejszyli ilość cuda na blok o połowę.
Otwarta furtka dla nowszych generacji z większą ilością cuda na blok.
Ale to tylko jedna z możliwości rozwoju NVidia Geforce.
Tutaj AMD miało znaczącą przewagę.
Ktoś o tym jeszcze pamięta i czy ktoś to testował?
Jaką karta ma wydajność w FP64 dalej jest obcięta czy jednak nie.
Jak to wygląda z nowymi Quadro na FT102 czy też mają obcięte FP64?
Tutaj AMD miało znaczącą przewagę.
Ktoś o tym jeszcze pamięta i czy ktoś to testował?
Jaką karta ma wydajność w FP64 dalej jest obcięta czy jednak nie.
Jak to wygląda z nowymi Quadro na FT102 czy też mają obcięte FP64?
Dla niewtajemniczonych, wcześniej w 'RTX' było przekreślone RT.
Dla niewtajemniczonych, wcześniej w 'RTX' było przekreślone RT.
Faktycznie
Czyżby po podpisaniu 'nowego, fajnego' NDA bóldup ze strony nv?
Nie mniej gdyby nie ceny było by dobrze. Z drugiej strony mogli spokojnie poczekać na 7nm przy braku konkurencji.
Najgorsze co może zrobić producent, to w pełni zaspokoić potrzeby klienta - obecne i przyszłe. Musi pozostawić pewien niedosyt, żeby za dwa lata móc mu sprzedać kolejny produkt.
Właśnie rendering to taka dojrzała technologia, która zaspokaja potrzeby gracza w rozdzielczości 1440p. Dodasz 60% shaderów i będzie płynnie także w 4K. No to jakie będzie uzasadnienie, żeby wymienić te hipotetyczne karty na lepsze?
Nikt nie prosił NVidii o Ray Tracing, ale popatrzcie jaki niedosyt on stworzył - 2080 Ti z trudem osiąga 30 FPS w 1080p, 1440p będzie możliwe dzięki interpolacji. Dopiero za 10 lat karty będą zdolne do RT w natywnym 4K @ 144 Hz. A każdą z tych pośrednich generacji wypuszczonych w międzyczasie gracze będą łykać jak głodne pelikany! Nie z powodu lepszego Ray Tracingu, tylko dlatego, że NVidia dołożyła 20% więcej shaderów do renderingu!
Lepiej jakby jednostki do RT mogły też renderować w zależności od potrzeb a nie były wyspecjalizowane. A najlepiej jakby zostały zunifikowane w całości z innymi, ale to pewnie za 10 lat.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
Najgorsze co może zrobić producent, to w pełni zaspokoić potrzeby klienta - obecne i przyszłe. Musi pozostawić pewien niedosyt, żeby za dwa lata móc mu sprzedać kolejny produkt.
Właśnie rendering to taka dojrzała technologia, która zaspokaja potrzeby gracza w rozdzielczości 1440p. Dodasz 60% shaderów i będzie płynnie także w 4K. No to jakie będzie uzasadnienie, żeby wymienić te hipotetyczne karty na lepsze?
Nikt nie prosił NVidii o Ray Tracing, ale popatrzcie jaki niedosyt on stworzył - 2080 Ti z trudem osiąga 30 FPS w 1080p, 1440p będzie możliwe dzięki interpolacji. Dopiero za 10 lat karty będą zdolne do RT w natywnym 4K @ 144 Hz. A każdą z tych pośrednich generacji wypuszczonych w międzyczasie gracze będą łykać jak głodne pelikany! Nie z powodu lepszego Ray Tracingu, tylko dlatego, że NVidia dołożyła 20% więcej shaderów do renderingu!
Lepiej jakby jednostki do RT mogły też renderować w zależności od potrzeb a nie były wyspecjalizowane. A najlepiej jakby zostały zunifikowane w całości z innymi, ale to pewnie za 10 lat.
Dla kolegi chodziło o to, że aby coś sprzedać, najpierw trzeba stworzyć na to popyt (doskonały przykład z The wolf of wall street z ołówkiem
Jedynym ratunkiem od przepłacania jest konkurencja, za którą trzeba trzymać kciuki. Doskonały przykład z intelem. Nagle magicznie na przestrzeni roku moje 7700k stało się przestarzałe z powodu Ryzen i teraz na horyzoncie widzę 9900k z 16ma logicznymi wątkami.
Także moja szklana kula mówi, że historia się powtórzy i za 6-12 miesięcy dostaniemy następcę w cenie obecnego 2080Ti.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
Widać, kasę masz, ale rozumu to niezbyt... Gratuluję logiki. Będziesz winił teraz kartę graficzną, że masz TV tylko 60Hz? Trzeba było sobie kupić lepszy... Poza tym jakie 5,5k? Stare karty wieszasz na ścianie, aby się do nich modlić? Czy może jednak przy zakupie nowych stare sprzedasz i dzięki temu nie będzie 5,5k, a np 3,5k?
Dla niewtajemniczonych, wcześniej w 'RTX' było przekreślone RT.
I bardzo dobrze, bo takie idiotyczne przekreślanie wprowadzało w błąd. Nie pierwszy raz PcLab cuduje i się ośmiesza w ten sposób, czego najlepszy przykład dali właśnie w podsumowaniu i nie przyznaniu POWER dla nowej karty. To jest nazwa własna, PcLab nie ma prawa dla własnego kaprysu i żeby zrobić 'drama' zmieniać znak zastrzeżony.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
Widać, kasę masz, ale rozumu to niezbyt... Gratuluję logiki. Będziesz winił teraz kartę graficzną, że masz TV tylko 60Hz? Trzeba było sobie kupić lepszy... Poza tym jakie 5,5k? Stare karty wieszasz na ścianie, aby się do nich modlić? Czy może jednak przy zakupie nowych stare sprzedasz i dzięki temu nie będzie 5,5k, a np 3,5k?
Dla niewtajemniczonych, wcześniej w 'RTX' było przekreślone RT.
I bardzo dobrze, bo takie idiotyczne przekreślanie wprowadzało w błąd. Nie pierwszy raz PcLab cuduje i się ośmiesza w ten sposób, czego najlepszy przykład dali właśnie w podsumowaniu i nie przyznaniu POWER dla nowej karty. To jest nazwa własna, PcLab nie ma prawa dla własnego kaprysu i żeby zrobić 'drama' zmieniać znak zastrzeżony.
A, no to 3,5k to dobra cena za 25% więcej wydajności. No układ wprost doskonały
Także moja szklana kula mówi, że historia się powtórzy i za 6-12 miesięcy dostaniemy następcę w cenie obecnego 2080Ti.
To proponuje przemyc te szklana kule - zgodnie z tym co napisales, wydajnosc 1080Ti powinien prezentowac 2070, 2080 byc odpowiedznie 20% szybszy, i po pol roku pojawic sie model Ti, ale tutaj uwaga zaskoczenie - TEN MODEL JUZ WYSZEDL! Jedyny dodatek jaki EWENTUALNIE mozemy zobaczyc z rodziny Turing to pelny rdzen a.k.a. Quadro RTX 8000 a.k.a. nowy Titan Xt czy jakkolwiek go zwal.
Widać, kasę masz, ale rozumu to niezbyt... Gratuluję logiki. Będziesz winił teraz kartę graficzną, że masz TV tylko 60Hz? Trzeba było sobie kupić lepszy... Poza tym jakie 5,5k? Stare karty wieszasz na ścianie, aby się do nich modlić? Czy może jednak przy zakupie nowych stare sprzedasz i dzięki temu nie będzie 5,5k, a np 3,5k?
To nie wina TV tylko wąskiego gardła jakim jest hdmi 2.0.
Ale spoko przecież głupi jestem.
To proponuje przemyc te szklana kule - zgodnie z tym co napisales, wydajnosc 1080Ti powinien prezentowac 2070, 2080 byc odpowiedznie 20% szybszy, i po pol roku pojawic sie model Ti, ale tutaj uwaga zaskoczenie - TEN MODEL JUZ WYSZEDL! Jedyny dodatek jaki EWENTUALNIE mozemy zobaczyc z rodziny Turing to pelny rdzen a.k.a. Quadro RTX 8000 a.k.a. nowy Titan Xt czy jakkolwiek go zwal.
Czytaj ze zrozumieniem, to nie jest wiele tekstu
ale tego nie zrobiła. wypuściła je pod nazwą 2080 i 2080Ti
Wzrost wydajności o +20% jest zbyt podejrzany aby był przypadkowy. Nvidia wycyrklowała szacowaną wydajność nowych układów i chciała je wypuścić analogicznie do poprzednich serii x070 oraz x080. Po drodze postanowiła karty nazwać o klasę wyższą, 'bo i czemu nie'. Po pierwsze - mogą przylutować z ceną, po drugie - ludki zaczną kupować 2080Ti myśląc, że to finalna iteracja, zamiast się wstrzymywać z zakupem prawdziwego następcy.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
QHD (Quad HD), WQHD (Wide Quad HD) or 1440p is a display resolution of 2560x1440 pixels in a 16:9 aspect ratio.