Czy mi się wydaje czy 1080 na premierę kosztowała ok. 3600? Więc o co ta awantura skoro 3600-4000 kosztuje 2080. Nvidia dyma nas równo, tak jak dymała nas 2.5 roku temu i kilka lat wstecz.
Czy mi się wydaje czy 1080 na premierę kosztowała ok. 3600? Więc o co ta awantura skoro 3600-4000 kosztuje 2080. Nvidia dyma nas równo, tak jak dymała nas 2.5 roku temu i kilka lat wstecz.
MSRP dla 1080 było $599, dla 2080 jest $699. Czyli dokładnie tyle samo co wynosiło MSRP 1080Ti.
Ceny na premierę:
1080 - $599
1080Ti - $699
2080 - $699
2080Ti - $999
Innymi słowy wzrost wydajności w stosunku do ceny jest bliski 0.
Podsumowanie. Bardzo rzadko się zdarza, żeby nowe karty Nvidii nie otrzymały już pierwszego dnia naszego wyróżnienia „Rekomendacja” albo „Power”. Niestety, nowe RTX-y należą do takich wyjątków. Powodem jest niemożność przeprowadzenia testów z wykorzystaniem wszystkich nowych funkcji w realnych warunkach.
Kiedyś dawaliście POWER zgodnie z genezą, czyli dla najwydajniejszej obecnie karty na rynku. Nie ma tu znaczenia, czy gry obsługują nowe technologie w kartach. Wydajność 2080Ti jest na niespotykanym dotąd poziomie, więc z tego powodu znaczek POWER jej się należy. Co innego z REKOMENDACJA.
Możliwe że Wikipedia ma obniżoną cenę MSRP. W tym wypadku masz rację.
Co nie zmienia faktu że 1080Ti i 2080 mają ten sam MSRP.
Jak dla mnie jest to ok jak na 16nm(12nm), nieco wyższa wydajność + obsługa RT i DLSS za tą samą cenę, problemem jest 2080 Ti, 999$ to nie jest aż tak drogo jak na 754 mm^2 ale to powinien być nowy Titan, a za kilka miesięcy jak już naklepią nieco tych GPU powinni wypuścić 2080 Ti nawet za 799$, a 2080 obniżyć na 599$, tak nie jest bo za rok będą karty w 7nm i kto by wtedy kupił 2080 Ti.
7 nm jest prawie 3x mniejszy od 16/14/12 nm, więc teoretycznie Navi o wielkości rdzenia RXa 480 może mieć wydajność RTXa 2080.
Nowa seria RTX pod względem zapotrzebowania na energię elektryczną jest bardzo dobrze zoptymalizowana. Słabszy model, RTX 2080, pobiera odrobinę więcej od rywala z tego samego obozu, GTX-a 1080 Ti, ale biorąc pod uwagę, że w nowej karcie mamy dodatkowe rdzenie Tensor i RT, wzrost nie wydaje się duży.
A jak mierzyliście pobór energii? Aby mieć porównanie z innymi układami, zapewne w standardowym scenariuszu, gdzie rdzenie Tensor i RT nie są obciążone. Więc nie będzie to full-load dla Turinga.
Czy mi się wydaje czy 1080 na premierę kosztowała ok. 3600? Więc o co ta awantura skoro 3600-4000 kosztuje 2080. Nvidia dyma nas równo, tak jak dymała nas 2.5 roku temu i kilka lat wstecz.
1080 FE na dzień dobry kosztowała 3599 zł, po 2,5 roku dostajemy NASTĘPCĘ 30-40% wydajniejszą z nową technologią gdzie demo RTX = ~ 45 fps v 5-7 fps w takiej samej cenie.
Jakby nie było 2080 TI = Poor Volta i to za 1/3 ceny, prawdziwe poor volta a nie oszukane jak u AMD
Bez rewelacji, gdyby to wyszło normalnie tzn nowe karty zastąpiły by stare w starych cenach to ok, wzrost taki z gen na gen zadowalający, ale kurde nie znowu nowe półki cenowe, najtańsza karta w zestawieniu za 2200zł?
Nie widziałem żeby ktoś wspominał o tym, jednak wygląda na to, że macie źle dobrane miejsca testowe. i7-8700k@4.9 nie powinno być wąskim gardłem nawet dla 2080ti. Jeżeli jest, tzn. że wybrane przez Was miejsce jest zbyt mocno procesorowe. Poszukajcie miejsc bardziej obciążających grafikę.
Widzę, że pierwsza karta która trzyma stałe 60 klatek w 4K fajnie ale nie za tą cenę.
Wyjdą nowsze, wymagające tytuły i przestanie wystarczać.
Niestety masz rację. Nawet gdyby 2080Ti zapewniała betonowe 60 klatek w 4K ultra to NIC nie znaczy. Mamy koniec roku, za kilka miesięcy wyjdą gry, które tę kartę zaorają. Stary Tomb Raider trzyma 60 klatek? ŁAŁ, a ile trzyma obecny? Pięćdziesiąt. W starym Asassino 60 jest? Ano jest. Za 2 tygodnie w nowym będzie 50
Karta fajna na gry które już wyszły. W grach które wyjdą w przyszłości niestety to za mało. Ja wydam 6 koła na grafikę, która zapewni mnie 60 klatek w 4K przez najbliższe 2 lata.
Dzisiaj pewniakiem dla najwyższych detali w wysokich klatkach jest rozdzielczość 1080p lub 1440p. Rzeczywistość jest brutalna. Ani ta generacja, ani następna na przyniesie odpowiedniej wydajności do 4K. Wymagania gier w maxie zawsze będą przewyższały bieżącę generację kart graficznych.
Sytuacja analogiczna jak z Full HD. Musiało wiele lat minąć, aby każda (prawie) gra w tej rozdzielczości chodziła o pierwszego strzała. Z 4K będzie podobnie. Za jakieś 3 lata każda premiera będzie chodziło w 4K. Problem polega na tym, że entuzjaści już będą jechać na 8K i znów zacznie się płacz, że tylko 30 fps i pytania kiedy pojawi się karta do 8K@60. Psy szczekają, karawana jedzie dalej
Bez rewelacji, gdyby to wyszło normalnie tzn nowe karty zastąpiły by stare w starych cenach to ok, wzrost taki z gen na gen zadowalający, ale kurde nie znowu nowe półki cenowe, najtańsza karta w zestawieniu za 2200zł?
Najciekawsze w tym wszystkim jest to, że wielu nie zdaje sobie z tego sprawy co będzie, a będzie źle. Mamy teraz 2080Ti za 6 koła i 2080 za 4 tysiące. Pascale są tańsze (jeszcze, wkrótce w sklepach będą je sobie wyrywać przy kasie) i kiedy zejdą już z magazynów wszystkie zalegające starocie, to niektórym wydaje się, że Nvidia obniży ceny Turingów. NIC takiego się nie stanie. Nie będzie żadnej obniżki. Po co obniżać coś, co i tak się sprzeda? Wszystko w temacie.
W przyszłym rok pojawią się 2060 i 2050. Trzeba je jakość ustawić na półce cenowej do kart wydawanych w tym momencie. Jak to zrobić najprościej? Podnieść cenę. Nie może być zbyt duża różnica. Musi być subtelna, ale bez przesady. Cena musi wzbudzać w kliencie dylemat czy nie lepiej dołożyć i kupić model wyższy.
Tak się gotuje żabę w wodzie. Wolno. Klienta przyzwyczaja się do ceny, klient się godzi na to prędzej czy później. Za rok jak ceny znów pójdą w górę będzie mniejszy szok. Na końcu i tak zawsze będzie klient, który jeśli chce grać to i tak kupi bo coś MUSI mieć. Jeśli nie będzie miał alternatywy to kupi, przez łzy ale kupie.
Tak więc ustalmy jedno. Tanio już nigdy nie będzie. Każdy segment cenowy pójdzie w górę teraz i będzie szedł w przyszłości. Obniżek cen też nie będzie. Rozumiem ból dupy. Receptą na to jest czas, im szybciej się człowiek pogodzi z rzeczywistością, tym mniej będzie bolało
W 7nm będzie taniej, obecne Turingi są sporej wielkości więc muszą być drogie, 545 mm^2 w RTXie 2080 ma bliżej do starych flagowych kart bazującym na tym samym procesie technologicznym co wcześniejsza seria, 980Ti 601 mm^2, GTX 780 561 mm^2.
Każdy kto nie ma styropianu między uszami zamiast mózgu, spodziewał się wydajności właśnie na takim poziome. Jak można w ogóle wierzyć w takie bajki jak podwojenie wydajności, albo choćby średnio +50%. Karta udana, ale pokazuje pewną rzecz. Dla Full HD nie ma sensu już tworzyć wydajniejszych konstrukcji. Wydajność procesorów dla takiej rozdzielczości jest daleko w tyle za wydajnością kart.
W podsumowaniu testu napisano:
'Nowy RTX 2080 Ti jest szybszy od poprzednika o ponad 20 procent, '
Proszę się nauczyć matematyki a potem pisać.
Różnica na korzyść nowego RTX jest znacznie większa niż tylko 20 procent !!!!!
78,8% vs 100% to około 26% WIĘCEJ
MSRP dla 1080 było $599, dla 2080 jest $699. Czyli dokładnie tyle samo co wynosiło MSRP 1080Ti.
Ceny na premierę:
1080 - $599
1080Ti - $699
2080 - $699
2080Ti - $999
Innymi słowy wzrost wydajności w stosunku do ceny jest bliski 0.
1080 kosztował 599$.
1080 kosztował 599$.
Możliwe że Wikipedia ma obniżoną cenę MSRP. W tym wypadku masz rację.
Co nie zmienia faktu że 1080Ti i 2080 mają ten sam MSRP.
Kiedyś dawaliście POWER zgodnie z genezą, czyli dla najwydajniejszej obecnie karty na rynku. Nie ma tu znaczenia, czy gry obsługują nowe technologie w kartach. Wydajność 2080Ti jest na niespotykanym dotąd poziomie, więc z tego powodu znaczek POWER jej się należy. Co innego z REKOMENDACJA.
Trochę brak logiki, nie pierwszy raz zresztą.
Co nie zmienia faktu że 1080Ti i 2080 mają ten sam MSRP.
Jak dla mnie jest to ok jak na 16nm(12nm), nieco wyższa wydajność + obsługa RT i DLSS za tą samą cenę, problemem jest 2080 Ti, 999$ to nie jest aż tak drogo jak na 754 mm^2 ale to powinien być nowy Titan, a za kilka miesięcy jak już naklepią nieco tych GPU powinni wypuścić 2080 Ti nawet za 799$, a 2080 obniżyć na 599$, tak nie jest bo za rok będą karty w 7nm i kto by wtedy kupił 2080 Ti.
7 nm jest prawie 3x mniejszy od 16/14/12 nm, więc teoretycznie Navi o wielkości rdzenia RXa 480 może mieć wydajność RTXa 2080.
A jak mierzyliście pobór energii? Aby mieć porównanie z innymi układami, zapewne w standardowym scenariuszu, gdzie rdzenie Tensor i RT nie są obciążone. Więc nie będzie to full-load dla Turinga.
1080 FE na dzień dobry kosztowała 3599 zł, po 2,5 roku dostajemy NASTĘPCĘ 30-40% wydajniejszą z nową technologią gdzie demo RTX = ~ 45 fps v 5-7 fps w takiej samej cenie.
Jakby nie było 2080 TI = Poor Volta i to za 1/3 ceny, prawdziwe poor volta a nie oszukane jak u AMD
Wyjdą nowsze, wymagające tytuły i przestanie wystarczać.
Poczytaj sobie najpierw po co się robi testy.
Nie masz parcia na 4k60 to nie ma co nawet spoglądać w tym kierunku.
Wyjdą nowsze, wymagające tytuły i przestanie wystarczać.
Niestety masz rację. Nawet gdyby 2080Ti zapewniała betonowe 60 klatek w 4K ultra to NIC nie znaczy. Mamy koniec roku, za kilka miesięcy wyjdą gry, które tę kartę zaorają. Stary Tomb Raider trzyma 60 klatek? ŁAŁ, a ile trzyma obecny? Pięćdziesiąt. W starym Asassino 60 jest? Ano jest. Za 2 tygodnie w nowym będzie 50
Karta fajna na gry które już wyszły. W grach które wyjdą w przyszłości niestety to za mało. Ja wydam 6 koła na grafikę, która zapewni mnie 60 klatek w 4K przez najbliższe 2 lata.
Dzisiaj pewniakiem dla najwyższych detali w wysokich klatkach jest rozdzielczość 1080p lub 1440p. Rzeczywistość jest brutalna. Ani ta generacja, ani następna na przyniesie odpowiedniej wydajności do 4K. Wymagania gier w maxie zawsze będą przewyższały bieżącę generację kart graficznych.
Sytuacja analogiczna jak z Full HD. Musiało wiele lat minąć, aby każda (prawie) gra w tej rozdzielczości chodziła o pierwszego strzała. Z 4K będzie podobnie. Za jakieś 3 lata każda premiera będzie chodziło w 4K. Problem polega na tym, że entuzjaści już będą jechać na 8K i znów zacznie się płacz, że tylko 30 fps i pytania kiedy pojawi się karta do 8K@60. Psy szczekają, karawana jedzie dalej
1080p @ 4k to 4x wiecej
przy konfigacg 3 monitorowych mozna bylo dac 3x 720p i bylo nie wiele słabiej niz full hd
przy 3x 1080 bedzie szybciej niz 1x 4k
Najciekawsze w tym wszystkim jest to, że wielu nie zdaje sobie z tego sprawy co będzie, a będzie źle. Mamy teraz 2080Ti za 6 koła i 2080 za 4 tysiące. Pascale są tańsze (jeszcze, wkrótce w sklepach będą je sobie wyrywać przy kasie) i kiedy zejdą już z magazynów wszystkie zalegające starocie, to niektórym wydaje się, że Nvidia obniży ceny Turingów. NIC takiego się nie stanie. Nie będzie żadnej obniżki. Po co obniżać coś, co i tak się sprzeda? Wszystko w temacie.
W przyszłym rok pojawią się 2060 i 2050. Trzeba je jakość ustawić na półce cenowej do kart wydawanych w tym momencie. Jak to zrobić najprościej? Podnieść cenę. Nie może być zbyt duża różnica. Musi być subtelna, ale bez przesady. Cena musi wzbudzać w kliencie dylemat czy nie lepiej dołożyć i kupić model wyższy.
Tak się gotuje żabę w wodzie. Wolno. Klienta przyzwyczaja się do ceny, klient się godzi na to prędzej czy później. Za rok jak ceny znów pójdą w górę będzie mniejszy szok. Na końcu i tak zawsze będzie klient, który jeśli chce grać to i tak kupi bo coś MUSI mieć. Jeśli nie będzie miał alternatywy to kupi, przez łzy ale kupie.
Tak więc ustalmy jedno. Tanio już nigdy nie będzie. Każdy segment cenowy pójdzie w górę teraz i będzie szedł w przyszłości. Obniżek cen też nie będzie. Rozumiem ból dupy. Receptą na to jest czas, im szybciej się człowiek pogodzi z rzeczywistością, tym mniej będzie bolało
'Nowy RTX 2080 Ti jest szybszy od poprzednika o ponad 20 procent, '
Proszę się nauczyć matematyki a potem pisać.
Różnica na korzyść nowego RTX jest znacznie większa niż tylko 20 procent !!!!!
78,8% vs 100% to około 26% WIĘCEJ