-Narzekacie na optymalizację
-Narzekacie na datę premiery
-Chcecie killera graficznego...
-... ale działającego na sprzęcie sprzed 4 lat
Ogarnijcie się wreszcie
Mi nie przeszkadza przesunięcie premiery. Nawet to że musiałem wymienić podzespoły jakoś przeżyję. Ale nie po to wywaliłem ponad 4000 zł na 4790K + 980 żebym teraz się dowiedział że mój (niby wydajny) komputer będzie miał problemy z uciągnięciem W3 na wysokich detalach. To co za sprzęt musiałbym mieć żeby gra zaczęła mi chodzić na najwyższych w 60 klatkach/s? Tym bardziej że konsole są znacznie słabsze a podobno gorzej nie wyglądają.
Cos tak czuje ze jakakolwiek optymalizacja gier na blaszaki odchodzi pomalu do lamusa Podobno zwie sie to postep technologiczny next-gen- sren itd... Choc chcialbym sie w tej kwesti mylic ..Wiesiek 1 i 2 chodzil bardzo przyzwoicie nawet na slabszym sprzecie i oko bylo na czym zawiesic 2 rdzenie 2 GB ram Teraz I 5K Optymalnie i 7 minimum 8Gb ram Gtx 980 i 30/40 fps bedzie widzac zajawki ojjoj Pupa bedzie bolec heheeh
Raczysz sobie żartować. Kiedy wyszedł Wiedźmin 1 miałem świeżo kupionego C2D@3GHz, 2GB RAM i GF 7900 GTO i grałem w 1280x1024, wysokie detale ze zmniejszonym AA. Chodziło to płynnie, ale jak się pokazały na ekranie ogień czy efekty czarów (scena z przerazą) to płynność pikowała w dół do 15-20 fps.
Kiedy wyszedł Wiedźmin 2 miałem C2D@3GHz, 3 GB RAM i HD 4870, 1360x768 średnie detale, bez AA. Też było ogólnie powyżej 30fps, ale w kilku miejscach (np. obrona Vergen) spadało do 15 fps.
Czyli bez cudów przy Wiedźminie 3 jest dokładnie taka sama sytuacja jak przy premierze drugiej części. Przez jakieś 2-3 lata żaden pojedynczy GPU nie będzie w stanie utrzymać 1080p@60fps, ultra detale.
Na szczęście teraz zostaje mi zrobić crossfire z R9 290. Jedną już mam, za drugą w maju dam 800-900zł (używana, niereferent). Sumarycznie zapłacę mniej niż za jedną GTX 980 tyle, że pobór prądu będzie oscylował w kosmicznych granicach 650-700W. Dobrze, że dziś karty w sli/crossfire w spoczynku pobierają znikome ilości prądu.
Tylko czy w dniu premiery W3 będą dostępne sprawne profile sli/cross czy będę czekał 2 tygodnie by grać w grę?
Dobre...., a na Gamezilla napisali, że ta gra to śmierdząca kupa jeśli chodzi o grafikę, a ja im wierzę... Skąd ta rozbieżność? Poniekąd nie ufam za bardzo PCLab'owi
Cos tak czuje ze jakakolwiek optymalizacja gier na blaszaki odchodzi pomalu do lamusa Podobno zwie sie to postep technologiczny next-gen- sren itd... Choc chcialbym sie w tej kwesti mylic ..Wiesiek 1 i 2 chodzil bardzo przyzwoicie nawet na slabszym sprzecie i oko bylo na czym zawiesic 2 rdzenie 2 GB ram Teraz I 5K Optymalnie i 7 minimum 8Gb ram Gtx 980 i 30/40 fps bedzie widzac zajawki ojjoj Pupa bedzie bolec heheeh
Raczysz sobie żartować. Kiedy wyszedł Wiedźmin 1 miałem świeżo kupionego C2D@3GHz, 2GB RAM i GF 7900 GTO i grałem w 1280x1024, wysokie detale ze zmniejszonym AA. Chodziło to płynnie, ale jak się pokazały na ekranie ogień czy efekty czarów (scena z przerazą) to płynność pikowała w dół do 15-20 fps.
Kiedy wyszedł Wiedźmin 2 miałem C2D@3GHz, 3 GB RAM i HD 4870, 1360x768 średnie detale, bez AA. Też było ogólnie powyżej 30fps, ale w kilku miejscach (np. obrona Vergen) spadało do 15 fps.
Czyli bez cudów przy Wiedźminie 3 jest dokładnie taka sama sytuacja jak przy premierze drugiej części. Przez jakieś 2-3 lata żaden pojedynczy GPU nie będzie w stanie utrzymać 1080p@60fps, ultra detale.
Na szczęście teraz zostaje mi zrobić crossfire z R9 290. Jedną już mam, za drugą w maju dam 800-900zł (używana, niereferent). Sumarycznie zapłacę mniej niż za jedną GTX 980 tyle, że pobór prądu będzie oscylował w kosmicznych granicach 650-700W. Dobrze, że dziś karty w sli/crossfire w spoczynku pobierają znikome ilości prądu.
Tylko czy w dniu premiery W3 będą dostępne sprawne profile sli/cross czy będę czekał 2 tygodnie by grać w grę?
czaczi @ 2015.01.26 17:49
Plotkus @ 2015.01.26 17:14
Cos tak czuje ze jakakolwiek optymalizacja gier na blaszaki odchodzi pomalu do lamusa Podobno zwie sie to postep technologiczny next-gen- sren itd... Choc chcialbym sie w tej kwesti mylic ..Wiesiek 1 i 2 chodzil bardzo przyzwoicie nawet na slabszym sprzecie i oko bylo na czym zawiesic 2 rdzenie 2 GB ram Teraz I 5K Optymalnie i 7 minimum 8Gb ram Gtx 980 i 30/40 fps bedzie widzac zajawki ojjoj Pupa bedzie bolec heheeh
Raczysz sobie żartować. Kiedy wyszedł Wiedźmin 1 miałem świeżo kupionego C2D@3GHz, 2GB RAM i GF 7900 GTO i grałem w 1280x1024, wysokie detale ze zmniejszonym AA. Chodziło to płynnie, ale jak się pokazały na ekranie ogień czy efekty czarów (scena z przerazą) to płynność pikowała w dół do 15-20 fps.
Kiedy wyszedł Wiedźmin 2 miałem C2D@3GHz, 3 GB RAM i HD 4870, 1360x768 średnie detale, bez AA. Też było ogólnie powyżej 30fps, ale w kilku miejscach (np. obrona Vergen) spadało do 15 fps.
Czyli bez cudów przy Wiedźminie 3 jest dokładnie taka sama sytuacja jak przy premierze drugiej części. Przez jakieś 2-3 lata żaden pojedynczy GPU nie będzie w stanie utrzymać 1080p@60fps, ultra detale.
Na szczęście teraz zostaje mi zrobić crossfire z R9 290. Jedną już mam, za drugą w maju dam 800-900zł (używana, niereferent). Sumarycznie zapłacę mniej niż za jedną GTX 980 tyle, że pobór prądu będzie oscylował w kosmicznych granicach 650-700W. Dobrze, że dziś karty w sli/crossfire w spoczynku pobierają znikome ilości prądu.
Tylko czy w dniu premiery W3 będą dostępne sprawne profile sli/cross czy będę czekał 2 tygodnie by grać w grę?
Ja wieska 1 i 2 Full Hd detale Wysokie/Medium/ NIE ULTRA!! bez AA w full HD na HD 5770 I AMD 6400+ 2 GB RAM Po kakretnym OC Oczywiscie 25/35 fps bylo a ze przez ulamek sekudy spadalo do 20FPS NIE wplywalo to na jakosc rozgrywk System zoptymalizowany pod Gry win 7 32 bit powylanczane zbedne uslugi w rejestrze itd.. Miales burdelos w kapie temu albo cos ze sprzetem
Dziennikarzowi serwisu o takiej tematyce, jak PCLab, mogliby dać porozmawiać z kimś z obszaru technicznego. Najbardziej interesujące i konkretne pytania uzyskały odpowiedź 'zapytaj kogoś innego'.
PS4: 1080p, 30 klatek na sekundę, tekstury minimalnie ostrzejsze niż na Xbox One, minimalnie mniej ostre niż na PC z ustawieniami graficznymi „wysokie”.
Xbox One: 900p, 30 klatek na sekundę, ale CDP wciąż jeszcze będzie pracowało nad ulepszeniem grafiki.
Czyli wersja na PS4, 1080/30 ustawienia high, jest bardzo dobrze.
Słaby wywiad lub pytania jeżeli chodzi o optymalizację. Można było zadać choćby pytanie: Nie uważacie że wymagania rekomendowane są za wysokie? SKoro wy na gtx 980 mieliście ok 30 fps i spadki do 10? Może zoptymalizują to ale kurde no!!
Ja wieska 1 i 2 Full Hd detale Wysokie/Medium/ NIE ULTRA!! bez AA w full HD na HD 5770 I AMD 6400+ 2 GB RAM Po kakretnym OC Oczywiscie 25/35 fps bylo a ze przez ulamek sekudy spadalo do 20FPS NIE wplywalo to na jakosc rozgrywk System zoptymalizowany pod Gry win 7 32 bit powylanczane zbedne uslugi w rejestrze itd.. Miales burdelos w kapie temu albo cos ze sprzetem
Jak dla Ciebie 25+ fps ze spadkami do 20 fps to jest płynnie to nie mamy o czym gadać. Przecież pisałem, że ogólnie było powyżej 30 fps ale w kilku miejscach były bardzo niekomfortowe spadki. Nie, nie miałem burdelu w kompie, przy okazji premiery obu Wieśków robiłem specjalnie format z najnowszymi sterowniami i kompletnym brakiem śmiecia na dysku.
Ogólnie to chrzanię to. Nie będę znowu grał w średnich detalach bez Vsync, dokupuję drugą kartę. Nie mogę patrzeć na screen-tearing w grach. Oglądałem jakiś gameplay Lords of the Fallen na PS4 i tam obraz obrzydliwie rozrywał się co chwilę. Nie zdzierżę tego w Wiedźminie 3. Nie uważam też, że PS4/XONE będą w stanie wyświetlić płynnie grę w 1080p w wysokich detalach. Nie ma takiej siły, jeśli 3 razy silniejsza karta (GTX 980) walczy o płynność o utrzymanie 40fps na high.
GTX 980 + i7 4790K, na ustawieniach high, w wyłączonym wygładzaniem itd 30 kl/sec ??? :O
W takim razie czego dotyczą wymagania sprzętowe wypuszczone przed REDów ??
Po takiej konfiguracji sprzętowej i przy takich ustawieniach grafiki, jakie opisujecie, spodziewałem się jakiś 50-60 klatek...
Innymi słowy spodziewasz się niezależnie od tytułu przy ustawieniach ~HIGH zawsze 50-60 klatek na sekundę?
To, że gra wygląda lepiej od tego co jest, co było nie ma znaczenia, bo przecież są takie ustawienia grafiki to ma być 50-60 klatek.
Nie wiem czemu mój post został skasowany, ale widzę, że kogoś boli, że na konsoli za 1600zł Wiedzmin chodzi w 1080/30 na high. Pewnie ten też zostanie skasowany.
Nie wiem czemu mój post został skasowany, ale widzę, że kogoś boli, że na konsoli za 1600zł Wiedzmin chodzi w 1080/30 na high. Pewnie ten też zostanie skasowany.
Mowisz jakby na konsolach spadkow fps nie bylo... co ci po 30fps ze spadkami do 10-15? I to wlasnie sa cale konsole, gracz nic na te spadki nie poradzi, a na PC albo obnizy detale, albo kupi lepsza karte graficzna.
Nie wiem czemu mój post został skasowany, ale widzę, że kogoś boli, że na konsoli za 1600zł Wiedzmin chodzi w 1080/30 na high. Pewnie ten też zostanie skasowany.
Optymalizacja to jedno ale postęp to 2.Winna za taki stan rzeczy nie można obarczać w 100% CDP ale też producentów podzespołów (Intel , AMD ,NV) zbyt mały postęp nam teraz serwują. 1 i 2 Wiedzmina grałem po roku (w wysokich ustawieniach) na nowych sprzętach to i teraz będzie podobnie i nie ma co płakać tak było i dobrze że w dniu premiery nikt na 1 karcie nie wyciśnie z tej gry maxa go to oznacza że zawsze będzie można wrócić do tego tytułu (o ile będzie tego wart).
GTX 980 + i7 4790K, na ustawieniach high, w wyłączonym wygładzaniem itd 30 kl/sec ??? :O
W takim razie czego dotyczą wymagania sprzętowe wypuszczone przed REDów ??
Po takiej konfiguracji sprzętowej i przy takich ustawieniach grafiki, jakie opisujecie, spodziewałem się jakiś 50-60 klatek...
Innymi słowy spodziewasz się niezależnie od tytułu przy ustawieniach ~HIGH zawsze 50-60 klatek na sekundę?
To, że gra wygląda lepiej od tego co jest, co było nie ma znaczenia, bo przecież są takie ustawienia grafiki to ma być 50-60 klatek.
kwasior500 @ 2015.01.26 16:43
(...)
Gdzie Ty masz oczy?
Na głowie
W sensie to nie screeny z gry, a obrobione?
No właśnie też mi się coś takiego wydawało, bo gdyby taka była grafika to rewelacja... nie pytałbym się gdybym nie miał wątpliwości. Gdyby to nie były screen-y to pclab by napisał.
Nie wiem czemu mój post został skasowany, ale widzę, że kogoś boli, że na konsoli za 1600zł Wiedzmin chodzi w 1080/30 na high. Pewnie ten też zostanie skasowany.
Mowisz jakby na konsolach spadkow fps nie bylo... co ci po 30fps ze spadkami do 10-15? I to wlasnie sa cale konsole, gracz nic na te spadki nie poradzi, a na PC albo obnizy detale, albo kupi lepsza karte graficzna.
Normalnie na konsolach spadków poniżej 30 klatek praktycznie nie ma. Patrz Uncharted, Killzone, DRIVECLUB, Forza, MGS, Watch_Dogs i wiele innych. Nawet Dragon Age Inkwizycja bardzo ładnie trzyma 30 klatek ze spadkami do 27-28. A przecież BioWare jest znane ze słabej optymalizacji. Jeśli Wiedźmin 3 będzie miał regularne spadki poniżej 30 klatek będzie to tylko świadczyło o kiepskiej jakości gry i samego dewelopera.
-Narzekacie na datę premiery
-Chcecie killera graficznego...
-... ale działającego na sprzęcie sprzed 4 lat
Ogarnijcie się wreszcie
Mi nie przeszkadza przesunięcie premiery. Nawet to że musiałem wymienić podzespoły jakoś przeżyję. Ale nie po to wywaliłem ponad 4000 zł na 4790K + 980 żebym teraz się dowiedział że mój (niby wydajny) komputer będzie miał problemy z uciągnięciem W3 na wysokich detalach. To co za sprzęt musiałbym mieć żeby gra zaczęła mi chodzić na najwyższych w 60 klatkach/s? Tym bardziej że konsole są znacznie słabsze a podobno gorzej nie wyglądają.
Raczysz sobie żartować. Kiedy wyszedł Wiedźmin 1 miałem świeżo kupionego C2D@3GHz, 2GB RAM i GF 7900 GTO i grałem w 1280x1024, wysokie detale ze zmniejszonym AA. Chodziło to płynnie, ale jak się pokazały na ekranie ogień czy efekty czarów (scena z przerazą) to płynność pikowała w dół do 15-20 fps.
Kiedy wyszedł Wiedźmin 2 miałem C2D@3GHz, 3 GB RAM i HD 4870, 1360x768 średnie detale, bez AA. Też było ogólnie powyżej 30fps, ale w kilku miejscach (np. obrona Vergen) spadało do 15 fps.
Czyli bez cudów przy Wiedźminie 3 jest dokładnie taka sama sytuacja jak przy premierze drugiej części. Przez jakieś 2-3 lata żaden pojedynczy GPU nie będzie w stanie utrzymać 1080p@60fps, ultra detale.
Na szczęście teraz zostaje mi zrobić crossfire z R9 290. Jedną już mam, za drugą w maju dam 800-900zł (używana, niereferent). Sumarycznie zapłacę mniej niż za jedną GTX 980 tyle, że pobór prądu będzie oscylował w kosmicznych granicach 650-700W. Dobrze, że dziś karty w sli/crossfire w spoczynku pobierają znikome ilości prądu.
Tylko czy w dniu premiery W3 będą dostępne sprawne profile sli/cross czy będę czekał 2 tygodnie by grać w grę?
Raczysz sobie żartować. Kiedy wyszedł Wiedźmin 1 miałem świeżo kupionego C2D@3GHz, 2GB RAM i GF 7900 GTO i grałem w 1280x1024, wysokie detale ze zmniejszonym AA. Chodziło to płynnie, ale jak się pokazały na ekranie ogień czy efekty czarów (scena z przerazą) to płynność pikowała w dół do 15-20 fps.
Kiedy wyszedł Wiedźmin 2 miałem C2D@3GHz, 3 GB RAM i HD 4870, 1360x768 średnie detale, bez AA. Też było ogólnie powyżej 30fps, ale w kilku miejscach (np. obrona Vergen) spadało do 15 fps.
Czyli bez cudów przy Wiedźminie 3 jest dokładnie taka sama sytuacja jak przy premierze drugiej części. Przez jakieś 2-3 lata żaden pojedynczy GPU nie będzie w stanie utrzymać 1080p@60fps, ultra detale.
Na szczęście teraz zostaje mi zrobić crossfire z R9 290. Jedną już mam, za drugą w maju dam 800-900zł (używana, niereferent). Sumarycznie zapłacę mniej niż za jedną GTX 980 tyle, że pobór prądu będzie oscylował w kosmicznych granicach 650-700W. Dobrze, że dziś karty w sli/crossfire w spoczynku pobierają znikome ilości prądu.
Tylko czy w dniu premiery W3 będą dostępne sprawne profile sli/cross czy będę czekał 2 tygodnie by grać w grę?
Raczysz sobie żartować. Kiedy wyszedł Wiedźmin 1 miałem świeżo kupionego C2D@3GHz, 2GB RAM i GF 7900 GTO i grałem w 1280x1024, wysokie detale ze zmniejszonym AA. Chodziło to płynnie, ale jak się pokazały na ekranie ogień czy efekty czarów (scena z przerazą) to płynność pikowała w dół do 15-20 fps.
Kiedy wyszedł Wiedźmin 2 miałem C2D@3GHz, 3 GB RAM i HD 4870, 1360x768 średnie detale, bez AA. Też było ogólnie powyżej 30fps, ale w kilku miejscach (np. obrona Vergen) spadało do 15 fps.
Czyli bez cudów przy Wiedźminie 3 jest dokładnie taka sama sytuacja jak przy premierze drugiej części. Przez jakieś 2-3 lata żaden pojedynczy GPU nie będzie w stanie utrzymać 1080p@60fps, ultra detale.
Na szczęście teraz zostaje mi zrobić crossfire z R9 290. Jedną już mam, za drugą w maju dam 800-900zł (używana, niereferent). Sumarycznie zapłacę mniej niż za jedną GTX 980 tyle, że pobór prądu będzie oscylował w kosmicznych granicach 650-700W. Dobrze, że dziś karty w sli/crossfire w spoczynku pobierają znikome ilości prądu.
Tylko czy w dniu premiery W3 będą dostępne sprawne profile sli/cross czy będę czekał 2 tygodnie by grać w grę?
Ja wieska 1 i 2 Full Hd detale Wysokie/Medium/ NIE ULTRA!! bez AA w full HD na HD 5770 I AMD 6400+ 2 GB RAM Po kakretnym OC Oczywiscie 25/35 fps bylo a ze przez ulamek sekudy spadalo do 20FPS NIE wplywalo to na jakosc rozgrywk System zoptymalizowany pod Gry win 7 32 bit powylanczane zbedne uslugi w rejestrze itd.. Miales burdelos w kapie temu albo cos ze sprzetem
PS4: 1080p, 30 klatek na sekundę, tekstury minimalnie ostrzejsze niż na Xbox One, minimalnie mniej ostre niż na PC z ustawieniami graficznymi „wysokie”.
Xbox One: 900p, 30 klatek na sekundę, ale CDP wciąż jeszcze będzie pracowało nad ulepszeniem grafiki.
Czyli wersja na PS4, 1080/30 ustawienia high, jest bardzo dobrze.
Czy ja wiem... Ja czekam na nowego Batmana
Czy ja wiem... Ja czekam na nowego Batmana
A ja z kolei stawiam na Phantom Pain
Ja wieska 1 i 2 Full Hd detale Wysokie/Medium/ NIE ULTRA!! bez AA w full HD na HD 5770 I AMD 6400+ 2 GB RAM Po kakretnym OC Oczywiscie 25/35 fps bylo a ze przez ulamek sekudy spadalo do 20FPS NIE wplywalo to na jakosc rozgrywk System zoptymalizowany pod Gry win 7 32 bit powylanczane zbedne uslugi w rejestrze itd.. Miales burdelos w kapie temu albo cos ze sprzetem
Jak dla Ciebie 25+ fps ze spadkami do 20 fps to jest płynnie to nie mamy o czym gadać. Przecież pisałem, że ogólnie było powyżej 30 fps ale w kilku miejscach były bardzo niekomfortowe spadki. Nie, nie miałem burdelu w kompie, przy okazji premiery obu Wieśków robiłem specjalnie format z najnowszymi sterowniami i kompletnym brakiem śmiecia na dysku.
Ogólnie to chrzanię to. Nie będę znowu grał w średnich detalach bez Vsync, dokupuję drugą kartę. Nie mogę patrzeć na screen-tearing w grach. Oglądałem jakiś gameplay Lords of the Fallen na PS4 i tam obraz obrzydliwie rozrywał się co chwilę. Nie zdzierżę tego w Wiedźminie 3. Nie uważam też, że PS4/XONE będą w stanie wyświetlić płynnie grę w 1080p w wysokich detalach. Nie ma takiej siły, jeśli 3 razy silniejsza karta (GTX 980) walczy o płynność o utrzymanie 40fps na high.
W takim razie czego dotyczą wymagania sprzętowe wypuszczone przed REDów ??
Po takiej konfiguracji sprzętowej i przy takich ustawieniach grafiki, jakie opisujecie, spodziewałem się jakiś 50-60 klatek...
Innymi słowy spodziewasz się niezależnie od tytułu przy ustawieniach ~HIGH zawsze 50-60 klatek na sekundę?
To, że gra wygląda lepiej od tego co jest, co było nie ma znaczenia, bo przecież są takie ustawienia grafiki to ma być 50-60 klatek.
Na głowie
W sensie to nie screeny z gry, a obrobione?
Mowisz jakby na konsolach spadkow fps nie bylo... co ci po 30fps ze spadkami do 10-15? I to wlasnie sa cale konsole, gracz nic na te spadki nie poradzi, a na PC albo obnizy detale, albo kupi lepsza karte graficzna.
Pewnie na konsoli będzie 720p medium vs 1080p low
W takim razie czego dotyczą wymagania sprzętowe wypuszczone przed REDów ??
Po takiej konfiguracji sprzętowej i przy takich ustawieniach grafiki, jakie opisujecie, spodziewałem się jakiś 50-60 klatek...
Innymi słowy spodziewasz się niezależnie od tytułu przy ustawieniach ~HIGH zawsze 50-60 klatek na sekundę?
To, że gra wygląda lepiej od tego co jest, co było nie ma znaczenia, bo przecież są takie ustawienia grafiki to ma być 50-60 klatek.
Na głowie
W sensie to nie screeny z gry, a obrobione?
Mowisz jakby na konsolach spadkow fps nie bylo... co ci po 30fps ze spadkami do 10-15? I to wlasnie sa cale konsole, gracz nic na te spadki nie poradzi, a na PC albo obnizy detale, albo kupi lepsza karte graficzna.
Normalnie na konsolach spadków poniżej 30 klatek praktycznie nie ma. Patrz Uncharted, Killzone, DRIVECLUB, Forza, MGS, Watch_Dogs i wiele innych. Nawet Dragon Age Inkwizycja bardzo ładnie trzyma 30 klatek ze spadkami do 27-28. A przecież BioWare jest znane ze słabej optymalizacji. Jeśli Wiedźmin 3 będzie miał regularne spadki poniżej 30 klatek będzie to tylko świadczyło o kiepskiej jakości gry i samego dewelopera.