Star Wars Battlefront to trzecia część serii gier rozgrywających się w uniwersum Star Wars, wydana 10 lat po wcześniejszej. Dzisiaj o godzinie 16 Rebelianci będą mogli stoczyć walkę o galaktykę ze szturmowcami Imperium za sprawą udostępnionej przez DICE wersji BETA. W ciągu 4 dni chętni będą mogli przetestować trzy różne tryby rozgrywki na trzech różnych mapach, a my zmierzyliśmy w nowej grze wydajność kilkunastu kart graficznych. Oto nasz test.
Spis treści
- Star Wars: Battlefront BETA – test kart graficznych
- Platforma testowa
- Jakość obrazu a wydajność
- Wyniki kart graficznych (GPU test) – 1920 × 1080 Low
- Wyniki kart graficznych (GPU test) – 1920 × 1080 Medium
- Wyniki kart graficznych (GPU test) – 1920 × 1080 Ultra
- Wyniki kart graficznych (GPU test) – 2560 × 1440 Ultra
- Wyniki kart graficznych (GPU test) – 3840 × 2160 Ultra
- Wyniki procesorów (CPU test) – 1920 × 1080 Ultra
- Podsumowanie
Star Wars: Battlefront BETA
Star Wars: Battlefront to trzecia, najnowsza część serii, zaprezentowana po raz pierwszy na targach E3 2013, która oficjalnie ma być gotowa za nieco ponad miesiąc. Jednak już dzisiaj studio DICE, twórca gry, wraz z EA, wydawcą, udostępnili wersję BETA gry, w której Rebelianci zmierzą się ze szturmowcami Imperium. Otwarte testy wersji BETA najnowszego Battlefrontu rozpoczynają się o godzinie 16, a zainteresowani po pobraniu nieco ponad 10 GB danych będą mogli spróbować swoich sił w dwóch trybach dla wielu graczy na dwóch mapach oraz w jednym trybie dla pojedynczego gracza na jednej mapie. Gra wykorzystuje silnik FrostBite, przez co rozgrywka i oprawa artystyczna przypominają serię Battlefield, opartą na tym samym narzędziu.
Na razie karty graficzne przetestowaliśmy w ograniczonym zakresie ze względu na system zabezpieczeń, który dla jednego klucza do gry przewiduje „tylko” pięć zmian sprzętu w ciągu 24 godzin. Dla przeciętnego użytkownika nie jest to, oczywiście, żaden problem, ale żonglerka kartami graficznymi podczas testów skutecznie zeruje licznik aktywacji, więc pomiar wydajności pięciu kart w ciągu dnia to maksimum, co można zrobić w ramach jednego konta. Do testów postanowiliśmy wybrać popularne konstrukcje z większości segmentów, przy czym ograniczyliśmy się raczej do nowych modeli. W miarę jak system zabezpieczeń będzie nam zwalniał blokadę, będziemy dokładali kolejne wyniki.

Najsłabsza konfiguracja wymagana, zdaniem producenta Star Wars: Battlefront BETA, do uruchomienia gry:
- procesor – czterowątkowy: Intel Core i3-6300T 3,3 GHz;
- pamięć operacyjna – 8 GB;
- karta graficzna – kompatybilna z DirectX 11 z 2 GB pamięci: Nvidia GeForce GTX 660 lub AMD Radeon HD 7850;
- system operacyjny – Windows 64-bitowy (7, 8, 8.1 lub 10).
W wymaganiach dotyczących ustawień minimalnych znalazł się dwurdzeniowy i czterowątkowy procesor w architekturze Skylake, Core i3-6300T taktowany z częstotliwością 3,3 GHz, więc minimalny próg sugerowany przez producenta wydaje się rozsądny. Nieco dziwi 8 GB RAM-u, a także karta graficzna z 2 GB pamięci. Producent podaje, że do gry niezbędny będzie co najmniej GeForce GTX 660 lub Radeon HD 7850. Wiemy już jednak, że grę można uruchomić na komputerze z dwuwątkowym procesorem, 4 GB RAM-u i kartą graficzną wyposażoną w pamięć o wielkości 1 GB.
Konfiguracja zalecana do gry Star Wars: Battlefront BETA:
- procesor – czterordzeniowy: Intel Core i5-6600 3,30 GHz;
- pamięć operacyjna – 16 GB;
- karta graficzna – kompatybilna z DirectX 11 z 4 GB pamięci: Nvidia GeForce GTX 970 lub AMD Radeon R9 290;
- system operacyjny – Windows 10 64-bitowy.

W konfiguracji zalecanej, która prawdopodobnie pozwoli włączyć rozdzielczość Full HD i najwyższe ustawienia graficzne, znalazł się czterordzeniowy procesor Core i5 w architekturze Skylake, model i5-6600, którego bazowa częstotliwość wynosi 3,3 GHz (w trybie Turbo – do 3,9 GHz). Z drugiej strony znów przesadzono z pamięcią, której rzekomo potrzeba aż 16 GB, by dało się płynnie zagrać w wysokich ustawieniach jakości obrazu. Wymienione karty graficzne to już konstrukcje z wyższej półki: 4-gigabajtowe Radeony R9 290 oraz GeForce'y GTX-y 970.

Miejsce testowe i metodyka
Karty graficzne przetestowaliśmy w misji dla pojedynczego gracza, w której kierujemy żołnierzem Rebeliantów. Celem jest przeżyć przez kilka minut na planecie Tatooine, odpierając ataki kolejnych, dość licznych grup szturmowców Imperium. Pomiary wydajności wykonywaliśmy przy zwiększonym polu widzenia (FOV), które ze standardowej wartości 55 przestawiliśmy w menu gry na 90.
- Star Wars: Battlefront BETA – test kart graficznych
- Platforma testowa
- Jakość obrazu a wydajność
- Wyniki kart graficznych (GPU test) – 1920 × 1080 Low
- Wyniki kart graficznych (GPU test) – 1920 × 1080 Medium
- Wyniki kart graficznych (GPU test) – 1920 × 1080 Ultra
- Wyniki kart graficznych (GPU test) – 2560 × 1440 Ultra
- Wyniki kart graficznych (GPU test) – 3840 × 2160 Ultra
- Wyniki procesorów (CPU test) – 1920 × 1080 Ultra
- Podsumowanie

naiwnym użytkownikom .
To była najlepsza gra sieciowa , ale kolejnej nie kupie , niestety po tym nie mam do nich zaufania .
Zaraz padnie argument że pobiera więcej prądu.
Racja, smuty z tym pradem 2 zl wiecej miesiecznie czy rocznie?
Patrzac TYLKO na wydajnosc R9 390 to fajna propozycja i jestem w stanie to przyznac mimo, ze sam mam 970ke
Zaraz padnie argument że pobiera więcej prądu.
Możliwe, że do testów użyta była inna wersja GTX960. Na mojej też wychodzi więcej niż w testach - chociaż nie 60 fps (53~79). Masz podkręcony procesor - podejrzewam, że to też może mieć znaczenie...
Może dziś uda się to sprawdzić.
Mamy to w planie
i3-2120; 8gb ram ;gtx 560ti 1gb : na średnich ustawieniach (auto detekcja) chodzi płynnie i gra się dobrze ,jedyna zauważalna przycinka pojawia się zaraz po respowie ale to dosłownie jeden niewielki zgrzyt dalej już jest płynnie , a i nie za każdym razem się to dzieje , w trakcie rozgrywki fps wacha się między 43 a 54 ,myślę więc że całkiem przyzwoicie .
Tyle mogę powiedzieć po weekendzie z betą
W porównaniu do r9 380 wypadł bladziutko.
Miałem na myśli całokształt prac związanych z obmyśleniem architektury GCN (jako bardziej przyszłościowej), prace nad Mantle oraz Vulcan. Czego by nie mówić to faktem jest, iż AMD wcale nie upadło. Ich karty mogą sporo namieszać i to kuriozalnie w niedalekiej przyszłości. Nowy Windows 10 jeszcze pokarze kto miał rację...
Co Windows 10 ma do tego?
MS nie uaktualnia jądra i API DX w starych Windowsach. Dlatego pod nazwą W10 miał na myśli pewnie lepsze wykorzystanie funkcji dostępnych w GCN.
Miałem na myśli całokształt prac związanych z obmyśleniem architektury GCN (jako bardziej przyszłościowej), prace nad Mantle oraz Vulcan. Czego by nie mówić to faktem jest, iż AMD wcale nie upadło. Ich karty mogą sporo namieszać i to kuriozalnie w niedalekiej przyszłości. Nowy Windows 10 jeszcze pokarze kto miał rację...
Czyli tak jak myślałem, instruktaż. Dokładnie to samo czytaliśmy o Buldożerach i Windows 8.
Ano podobnie tylko porównując wyniki AMD/NV w DX12 na razie AMD więcej zyskuje niż NV. Powodem jest to, że stery AMD się pogorszyły, a stery NV się polepszyły jeśli o lekkość.
Więc odciążenie jakim jest DX12 pozwala rozwinąć AMD skrzydła, które samo sobie podcięło.
Przypomnę wchodzi DX10 AMD rządzi, naprawdę ich stery były dużo lepsze ale karty za słabe by to wykorzystać. Jednak na słabych CPU różnica była.
Potem wchodzi DX11 i wciąż ogromna różnica na słabych CPU, też trochę mocnych CPU (Nehalem).
Przy SB@oc widać było już różnica była mniejsza niż przy np. nehalemie...
W okolicach połowy 2013 4c NV>4c AMD i odziwo największa różnica była na FX-ach, i 2c NV<2c AMD. W 2014- dziś w zasadzie dominacja NV.
Te daty trzeba traktować orientacyjnie ponieważ optymalizacje NV czasem chwilowo nawet pogarszały działanie sterów na Nehalemie.
Dwa mam nieodparte poczucie, że AMD zrobiło coś kosztem czegoś... poprawił się FPS w grach kosztem większego obciążenia CPU. Widzę to w grach testując na starych/bardzo starych sterach-> które nie mają optymalizacji dla xyz gry. Sprowadza to do rozwarstwienia wyników (czyli będzie bardzo dobrze jak w SW:BF/BFie/W3 albo bardzo źle jak w Project Cars, Total War)