Dziwne te wasze wyniki testow, z tabel wynika ze prawie zadna karta nie zapewnia 60FPS w 1080p na High, a co dopiero Ultra, a tymczasem u mnie na 980 @1500MHz w 1080p wyniki sa nastepujace
83FPS - preset High
69FPS - preset Ultra
66FPS - absolutne maximum czyli wszystko ustawione recznie na Ultra+HBAO+HFTS+wszystkie suwaki na 100%
I masa ludzi na poczciwych 970 spokojnie sobie smiga na 60+ FPS, wiec nie mam pojecia skad takie slabe wyniki u was? Moze kwesta sterownikow (ja siedze na 362, a z tymi nowymi sa niezle jaja podobno)? Co prawda wbudowany test jest malo miarodajny bo poczatek i koncowka dema mocno zawyzaja FPSy i najlepiej sprawdzac ustawienia w samej grze. No i standardowo jak to w nowych produkcjach bywa w czesci opcji miedzy High a Ultra nie ma zadnej roznicy w grafice za to framerate leci na leb na szyje - efekty czasteczkowe i volumetric fog zabijaja tyle FPSow ze zjezdzajac z Ultra na High mozna dodajac HBAO+ a i tak mamy wiecej FPS, przy czym gra prezentuje sie o wiele lepiej.
Gra zarzyna mi na maxa 2500k@4,7GHz, wystarczy by wejść w dowolną misję fabularną gdzie przeciw sobie mam 6 lub 7 przeciwników. Spokojne zwiedzanie miasta faktycznie nie robi procku większego wrażenia.
P.S. Ciągle zdarzają się problemy z serwerami
Jeśli na low potrzeba 750ti to wiedz że jest słaba optymalizacja
Gra ma mnóstwo detali i efektów - dymu, sniegi, god rays itp, wygląda super, i nie jest to fps ktory faktycznie wymaga 60 fps do plynnej rozgrywki. No ale ty nie grając nawet, od razu krytykujesz, że gra nie chodzi superpłynnie na 1080p na kartach za 300zł sprzed 5 lat z 1 gb vramu xd. LOLLOLOLOL
Wymagania ma dość duże względem poprzednich gier z konsol.
Jeszcze niedawno gtx750ti+i3 wystarczyły do konsolowych ustawień.
Wraz z nowymi grami: ROTTR, QB, TD wymagania mocno poszły w górę. Można się spodziewać, że tak już pozostanie przy produkcjach AAA. Oczywiście w zamiast jest lepsze ośietlenie, odbicia, bogatsza geometria, LOD, tekstury etc, Efekty fajne i mile widziane ale wzrost wymagań na pewno nie adekwatny.
Jeśli chodzi o TD to wygląda nieziemsko jak na grę a'la MMO
Co do testów: myślę, że patrząc z perspektywy własnego komputera, warto odjąć 10% od wyników GPU - pomimo małego narzutu na CPI, Core i7-6700K @ 4,7 GHz na pewno mocno zawyża wyniki.
Panowie z PcLabu a ja mam taką sugestię, może warto było by w tych testach zrobić jedną stronę na której byście napisali jakie opcje w danej grze najbardziej zarzynają wydajność?
kolejna gra z dość niskim narzutem CPU i dość sporym GPU. Ciekawe.
Nic dziwnego, jeśli chodzi o konsole, to na GPU wrzucają wszystko co się tylko da (z oczywistych względów) - wiadomo, że projektowali silnik pod kątem konsol, więc i na PC głownie stoi na GPU.
Ile temu Focus odszedł, miesiąc? Prawdopodobnież jest to pierwszy tekst od podstaw pisany bez jego udziału. I co? I mamy testy we wbudowanym benchmarku (sic!), GFy na taktowaniach ref (sic!), bez podziału na miejsce graficzne i procesorowe (sic!). Dzieje się dokładnie to, czego się obawiałem, dowiedziawszy o jego odejściu. Zamiast 3 miejsc z wyszczególnieniem zależności od CPU i GPU, PCLab wraca do czasów 'sprzed ery Focusa'. Powoli, ale kurs już jakby obrany. PCLabie, nie idź tą drogą! Czyje testy teraz będę czytał?
Skąd mieli wciąć miejsce procesorowe jeżeli w grze takich nie ma? Jest CPU test, który to potwierdza - wykres jest praktycznie płaski, wiec nie ma sensu robić dodatkowych testów niż to co jest.
Czy można liczyć na przetestowanie najnowszych (16.3), które wg informacji z dzisiejszej aktualności zapewniają wzrost o 16 procent względem paczki 16.2?
W przypadku R9 290X w nowym TR po między sterownikami 16.1 a 16.3 nie ma nawet 1% różnicy!
W Ashes of The Singularity wydajność wzrosła o 3%
kolejna gra z dość niskim narzutem CPU i dość sporym GPU. Ciekawe.
W sumie screen pokazujący użycie GPU i CPU w czasie testu byłby fajny. To samo z poprzednimi grami...
Nic to Ci nie da. Zwłaszcza z poprzednimi grami.
Jedyne co może powiedzieć to jeśli czas CPU 100%/wątki procesora>x to prawdopodobnie użyty jest jeden wątek. Wszystko inne to nic nie znaczący parametr w grach.
Jeśli chodzi o GPU to jeśli czas GPU 100%>y to jest bardzo bardzo źle i jest jakieś poważne wąskie gardło prawdopodobnie przed GPU. Ale jeśli 100% to znów jest to problematyczne, bo dokładnie nie wiadomo co jest wąskim gardłem.
Ile temu Focus odszedł, miesiąc? Prawdopodobnież jest to pierwszy tekst od podstaw pisany bez jego udziału. I co? I mamy testy we wbudowanym benchmarku (sic!), GFy na taktowaniach ref (sic!), bez podziału na miejsce graficzne i procesorowe (sic!). Dzieje się dokładnie to, czego się obawiałem, dowiedziawszy o jego odejściu. Zamiast 3 miejsc z wyszczególnieniem zależności od CPU i GPU, PCLab wraca do czasów 'sprzed ery Focusa'. Powoli, ale kurs już jakby obrany. PCLabie, nie idź tą drogą! Czyje testy teraz będę czytał?
Dobrze wiedzieć że gra działa dobrze na Radeonach, nawet lepiej niż na NV pomimo gameworksów, gra nie ma dużych wymagań wobec procesora, to chyba stąd.
Panowie z PcLabu a ja mam taką sugestię, może warto było by w tych testach zrobić jedną stronę na której byście napisali jakie opcje w danej grze najbardziej zarzynają wydajność? Czasami wystarczy wystarczy wyłączyć jeden ficzer i gra dostaje kopa. Myśle ze to było by przydatne bardzo...
Wystarczy że Focus odszedł i stało się obiektywnie
Ciekawe, ile jeszcze pojawi się takich idiotycznych komentarzy.
Tak dl
Wystarczy że Focus odszedł i stało się obiektywnie
Ciekawe, ile jeszcze pojawi się takich idiotycznych komentarzy.
dlUgo jak amd będzie opłacać red team
83FPS - preset High
69FPS - preset Ultra
66FPS - absolutne maximum czyli wszystko ustawione recznie na Ultra+HBAO+HFTS+wszystkie suwaki na 100%
I masa ludzi na poczciwych 970 spokojnie sobie smiga na 60+ FPS, wiec nie mam pojecia skad takie slabe wyniki u was? Moze kwesta sterownikow (ja siedze na 362, a z tymi nowymi sa niezle jaja podobno)? Co prawda wbudowany test jest malo miarodajny bo poczatek i koncowka dema mocno zawyzaja FPSy i najlepiej sprawdzac ustawienia w samej grze. No i standardowo jak to w nowych produkcjach bywa w czesci opcji miedzy High a Ultra nie ma zadnej roznicy w grafice za to framerate leci na leb na szyje - efekty czasteczkowe i volumetric fog zabijaja tyle FPSow ze zjezdzajac z Ultra na High mozna dodajac HBAO+ a i tak mamy wiecej FPS, przy czym gra prezentuje sie o wiele lepiej.
P.S. Ciągle zdarzają się problemy z serwerami
Gra ma mnóstwo detali i efektów - dymu, sniegi, god rays itp, wygląda super, i nie jest to fps ktory faktycznie wymaga 60 fps do plynnej rozgrywki. No ale ty nie grając nawet, od razu krytykujesz, że gra nie chodzi superpłynnie na 1080p na kartach za 300zł sprzed 5 lat z 1 gb vramu xd. LOLLOLOLOL
Jeszcze niedawno gtx750ti+i3 wystarczyły do konsolowych ustawień.
Wraz z nowymi grami: ROTTR, QB, TD wymagania mocno poszły w górę. Można się spodziewać, że tak już pozostanie przy produkcjach AAA. Oczywiście w zamiast jest lepsze ośietlenie, odbicia, bogatsza geometria, LOD, tekstury etc, Efekty fajne i mile widziane ale wzrost wymagań na pewno nie adekwatny.
Jeśli chodzi o TD to wygląda nieziemsko jak na grę a'la MMO
Co do testów: myślę, że patrząc z perspektywy własnego komputera, warto odjąć 10% od wyników GPU - pomimo małego narzutu na CPI, Core i7-6700K @ 4,7 GHz na pewno mocno zawyża wyniki.
Akurat dla 'The Division' masz taki poradnik tutaj:
http://www.geforce.co.uk/whats-new/guides/...rformance-guide
Nic dziwnego, jeśli chodzi o konsole, to na GPU wrzucają wszystko co się tylko da (z oczywistych względów) - wiadomo, że projektowali silnik pod kątem konsol, więc i na PC głownie stoi na GPU.
Skąd mieli wciąć miejsce procesorowe jeżeli w grze takich nie ma? Jest CPU test, który to potwierdza - wykres jest praktycznie płaski, wiec nie ma sensu robić dodatkowych testów niż to co jest.
Czy można liczyć na przetestowanie najnowszych (16.3), które wg informacji z dzisiejszej aktualności zapewniają wzrost o 16 procent względem paczki 16.2?
W przypadku R9 290X w nowym TR po między sterownikami 16.1 a 16.3 nie ma nawet 1% różnicy!
W Ashes of The Singularity wydajność wzrosła o 3%
W sumie screen pokazujący użycie GPU i CPU w czasie testu byłby fajny. To samo z poprzednimi grami...
Nic to Ci nie da. Zwłaszcza z poprzednimi grami.
Jedyne co może powiedzieć to jeśli czas CPU 100%/wątki procesora>x to prawdopodobnie użyty jest jeden wątek. Wszystko inne to nic nie znaczący parametr w grach.
Jeśli chodzi o GPU to jeśli czas GPU 100%>y to jest bardzo bardzo źle i jest jakieś poważne wąskie gardło prawdopodobnie przed GPU. Ale jeśli 100% to znów jest to problematyczne, bo dokładnie nie wiadomo co jest wąskim gardłem.
Jak patrze gameplaye to tez nie widzę by ktoś narzekał na optymalizację.
Spadki do 40 klatek miałem tylko podczas cut scenek.
W sumie screen pokazujący użycie GPU i CPU w czasie testu byłby fajny. To samo z poprzednimi grami...
Gość ma spadki do 15 fps. Nie nazwałbym tego 'ładnie śmiga'