Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
jestem prawie pewien , że ktoś z redakcji ma w domu starszy zestaw(lub czesci). Jak by sie poprosiło to jestem pewien, że znalazł bys ei ktos kto by mogł taki zestaw udostępnić w zamian np. za możliwość przyjrzenia sie redakcji od środka
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce). Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
Pytanie czy redakcja jest w stanie takie starsze procesory w jakiś sposób dostać. Nie ma już ich w sklepach. Sklepy i producenci takiego Sandy Bridge czy Nehalem od lat nie mają w magazynie. Wydaje mi się że taki test może okazać się niemożliwy do wykonania. Dlatego redakcja użyła Skylake bo te jest dziś najłatwiej wypożyczyć na czas testów
Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
focus we wcześniejszych testach używał SB, IB i HW, a czasem nawet Lynnfielda
Ha ha ha. Pisałem co najmniej pół roku temu, że tak będzie. Nikt nie pozwoli na to żeby przy użyciu i3 dało się wykorzystać potencjał topowego GPU. Jak widać na załączonych obrazkach.
focus we wcześniejszych testach używał SB, IB i HW, a czasem nawet Lynnfielda
Taki test byłby idealny. Najlepiej jakby zestawić kilka generacji procesorów Intela z kilkoma generacjami procesorów AMD. Bo każdy z nich miał inną wydajność rdzenia oraz inne taktowanie. I część z nich mogłaby ograniczać wydajność nowych GPU podczas gdy inne byłyby wystarczające by GPU działało z pełną modą. W pierwszym przypadku Vulkan i DX12 miałyby przewagę, w drugim działanie byłoby identyczne jak DX11. Pytanie brzmi na która generacja CPU okazałaby się tą graniczną
Nie sądziłem, że taki portal jak Pclab może na tak wczesnym etapie wysnuwać wnioski na temat dx12. To nie jest Onet
Wysnuwa na tym etapie na jakim jesteśmy, co masz wyraźnie w podsumowaniu o tym, że DX12 nie rozwiązuje na obecną chwilę problemów znanych z DX11. Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
Zgadzam sie, przydalo bys ie przetestować zupelnie stare konstrukcje.
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce).
Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
Bądźmy poważni, ile osób może siedzieć na GTX 970 (czy nawet 380) z Q6600 ? Przecież argumentem za DX12 czy kartami Nvidii bądź Radkami nie będzie to, że nowe gry korzystające Dx12 działają dobrze z procesorami z.... 'Q1'07'!
Ich mocarność...pokazał G860 za 250zł Nie twierdzę, że w ogóle nie ma to sensu, bo pokaże zmiany w czasie i przy danej architekturze, ale trzeba wziąć poprawkę że poza wynikami dla porównania i zbadania danej rodziny cpu ma to znaczenie marginalne (chociażby dlatego, że nie są dostępne i nikt nawet gdyby było nie kupiłby ich bo wydajność przy innym użyciu byłaby niedzisiejsza).
Dzisiaj raczej ktoś siedzący na Q6600 nie kupował np. rok/półtora temu 970GTX czy dzisiaj R380X. Poza tym rynek - nie pozwolą na to producenci, produkt na swój czas życia i potem schodzi ze sceny, niezależnie czy to AMD czy Intel bądź inny obszar taka sytuacja byłoba dla danej firmy niekorzystna, nawet lowend całkiem świeży nigdy nie będzie dawał/'pozwalał' na super połączenie cpu za 300zł i karty za 1500zł Ja np. wielkiego progresu nie widzę u Sony w przypadku serii Compact, wiedzą że się dobrze sprzedaje, ale Z1C to 1799zł, Z3C to już 2299zł, a Z5C (która jak duża Z5 nie dostała 3GB) to już 2599zł. Brak konkurencji w sensie tak wydajnych telefonów o kompaktowych wymiarach, ciągle jednak dobre urządzenie więc nawet jeśli nie ma rewolucji czy znacznych zmian to mamy 800zł, 40% wzrost ceny w stosunku do tego ile kosztowała Z1C
Niskopoziomowe API, takie jak DirectX 12 czy Vulkan, oddają programowi kontrolę nad większością etapów procesu renderowania – również nad tymi, które do tej pory należały do systemu operacyjnego. Dlatego nie jest możliwe (na razie), żeby zewnętrzny kod dodawał swoje instrukcje do potoku renderowania. Zatem nie mogą działać typowe narzędzia do mierzenia wydajności: nakładki takie jak GUI MSI Afterburnera, żółte cyfry FRAPS-a czy paski FCAT. Łatwo zauważyć tendencję do wbudowywania narzędzi pomiarowych w samą grę. Twórcom gier (oraz ich mentorom ze świata sprzętu i systemów operacyjnych) zależy na tym, by pokazać zalety nowego API.
...program może o tym nie wiedzieć i raportować znacznie większą liczbę klatek na sekundę, niż widzi gracz....
...Po drugie, benchmarki we wszystkich trzech wymienionych grach nie pozwalają na konfigurację scen, w których mierzona jest wydajność. Usiłują pokazać przekrój całej rozgrywki, również momentów nieistotnych i tych, w których nie potrzeba dużej płynności...
W testu wbudowanych benchmarków wierzę jak w testy spalania producentów...a już najlepiej pokazał to oszust Volkswagen Mam na myśli celowe działania. To bo że wyniki odbiegają o 2-3, 5 czy nawet 10% każdy może sobie zdawać sprawę. Ale celowe działanie polegające na zaplanowanym procesie oszustwa władz i swoich klientów to po prostu działania przestępców
Nie twierdzę, że Microsoft czy producenci gier lub kart z góry mają podobne plany, ale nie jestem w stanie od tak bezkrytycznie dzisiaj czy nawet za ileś miesięcy czy lat 'kupić' ich marketingowego bełkotu, niezaleznie od znaczka.
Nagrywamy nieskompresowany obraz wysyłany do monitora; autorski program analizuje go klatka po klatce, wykrywa, kiedy pojawia się nowy obraz, i zapisuje dane w stabelaryzowanej postaci, którą możemy łatwo analizować i wykorzystać do utworzenia wykresów. Nasza metoda jest całkowicie niezależna od systemu operacyjnego, API, producenta karty graficznej czy jakiegokolwiek oprogramowania zainstalowanego w testowym komputerze. Nie ingeruje w żaden sposób w badany obiekt.
Kto go stworzył, maczał przy tym swoje paluszki, fajnie byłoby dowiedzieć się czegoś więcej.
Sytuacja to nadal producenci sprzętu, gier, producent Dx12 (MS) vs konsument. Każdy chce naszej kasy i wszyscy będą nas zapewniać o wspaniałości swoich produktów. Dlatego do wszystkiego trzeba podchodzić ostrożnie, sceptycznie, sprawdzić z każdej strony, najlepiej jeśli da się niezależnymi od twórców-producentów narzędziami, metodami. Tutaj dużo zależy od redakcji pism czy portali, ile włożą w to wysiłku, bo 'zwykli' użytkownicy mają mniejsze możliwości, szczególnie w próbach ilościowego, finansowego testowania czy napisania własnego 'programu' do tego służącego. Jak większość redakcji przy dalszym braku możliwości użycia znanych do tej pory zewnętrznych programów zadowoli się benchmarkami z gier to wyniki będą takie...jak ustawią, przygotują je sami producenci danej gry. Już widzę te aukcje allegro i setki klatek, procentów na wykresach u sprzedawców
Jak to jest niskopoziomowe API to ja jestem ksiądz.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Jak to jest niskopoziomowe API to ja jestem ksiądz.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Szczęść Boże
Masz widzę godmode jeśli potrafisz z 20FPSami grać w np. wyścigówkach.
Dzisiaj raczej ktoś siedzący na Q6600 nie kupował np. rok/półtora temu 970GTX czy dzisiaj R380X.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
Jak to jest niskopoziomowe API to ja jestem ksiądz.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Szczęść Boże
Masz widzę godmode jeśli potrafisz z 20FPSami grać w np. wyścigówkach.
Jedyna gra którą jako tako bez v-synca ograłem i było spoko to GRID, ale tam były sporadyczne cięcia (mówię o wersji konsolowej).
Co do samego V-sync to dziwię się, ze dopiero teraz tłumaczy się o co biega. To chyba logiczne, ze V-sync to bufforowanie klatek i miernik fps jest tu bez sensu. Jedyny miarodajny miernik fps to taki który mierzyłby to na kablu PC - Monitor.
Dzisiaj raczej ktoś siedzący na Q6600 nie kupował np. rok/półtora temu 970GTX czy dzisiaj R380X.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
Masz wyjaśnienie powyżej..bo będzie musiał Poza tym wydajność poszła do przodu nie tylko w grach, więc zmiana pewnie będzie się opłacała/będzie częściowo wymuszona (patrz chociażby na G860).
Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Mało to razy widziałeś że gra sponsorowana przez AMD działała lepiej na Nvidii? Nie sugerowałbym się więc tą listą
Świetny artykuł, dobrze że nie poszliście na łatwiznę. Widzę, że pracujecie również w święta Niestety takie uroki wielkich korpo.
Dodacie jakaś 1 kartę grafiki GTX7XX oraz HD7XXX/2X0?
I może w końcu cos zrobicie z tym agitatorem MS?
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Mało to razy widziałeś że gra sponsorowana przez AMD działała lepiej na Nvidii? Nie sugerowałbym się więc tą listą
Ale w DX12 jest mniej miejsca na optymalizację w sterownikach a więcej zależy od tego z kim współpracowali programiści. Niskopoziomowe programowanie w Vulkan, DX12 zawsze będzie optymalizowane pod jedno GPU.
Nie sądziłem, że taki portal jak Pclab może na tak wczesnym etapie wysnuwać wnioski na temat dx12. To nie jest Onet
Koleś problem polega na tym że microsoft sam sobie bata na tyłka ukręcił chwaląc jaki to DX12 jest wspaniały, więc trudno żeby portale i ludzie ich nie krytykowali że nie jest wspaniale.
Na kartach Nvidii dx12 może nic nie dać, a z pewnością pojawią się czasem spadki wydajności.
Słowa dewelopera gry są oczywiste, dla 5-10% async computing wzrost niewielki wydajności u AMD, Nvidii żadne zyski i powoduje ogromne problemy optymalizacyjne.
It’s not surprising, then, to find out from Jonas Meyer’s (Lead Render Programmer at IO Interactive) GDC 2016 presentation Advanced Graphics Techniques Tutorial Day: Rendering ‘Hitman’ with DirectX 12 that NVIDIA cards gained no benefit from Async Compute, though IO Interactive claimed to be working with NVIDIA to fix this.
On the other hand, it’s quite surprising to read that even AMD cards merely got a 5-10% performance boost, especially after AMD endorsed HITMAN’s implementation as the best one yet. Async Compute, which has been used for SSAA (Screen Space Anti Aliasing), SSAO (Screen Space Ambient Occlusion) and the calculation of light tiles in HITMAN, was also “super hard” to tune; according to IO Interactive, too much Async work can even make it a penalty, and then there’s also the fact that PC has lots of different configurations that need tuning.
Do tego pobór prądu należy wzdrożyć testy na to, bo dx12 'rozwala' system
A sam cpu jest niedożyłowany
Nie wiem co palą w mikroka$ie i AMD, ale coś to cienko wygląda z tym dx12.
Nie sądziłem, że taki portal jak Pclab może na tak wczesnym etapie wysnuwać wnioski na temat dx12. To nie jest Onet
Nie sądziłem, że można być takim ignorantem by to stwierdzić bez zapoznania się z całym artykułem:
'Dalsze testy różnych konfiguracji w DirectX 12 prawdopodobnie pozwolą wyciągnąć dokładniejsze wnioski, ale obecny zbiór wyników w trzech grach nie daje podstaw, by stwierdzić, że DirectX 12 zda egzamin lub nie.'
Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Gdzie czytałeś o współpracy AMD w WD2?
motiff @ 2016.03.28 10:50
Nie wiem co palą w mikroka$ie i AMD, ale coś to cienko wygląda z tym dx12.
Wow, wzrost poboru prądu na radkach dość radykalny, temperatura też pewnie skacze do góry. Nie warte tych 5-10%.
Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
jestem prawie pewien , że ktoś z redakcji ma w domu starszy zestaw(lub czesci). Jak by sie poprosiło to jestem pewien, że znalazł bys ei ktos kto by mogł taki zestaw udostępnić w zamian np. za możliwość przyjrzenia sie redakcji od środka
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce). Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
Pytanie czy redakcja jest w stanie takie starsze procesory w jakiś sposób dostać. Nie ma już ich w sklepach. Sklepy i producenci takiego Sandy Bridge czy Nehalem od lat nie mają w magazynie. Wydaje mi się że taki test może okazać się niemożliwy do wykonania. Dlatego redakcja użyła Skylake bo te jest dziś najłatwiej wypożyczyć na czas testów
Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
focus we wcześniejszych testach używał SB, IB i HW, a czasem nawet Lynnfielda
focus we wcześniejszych testach używał SB, IB i HW, a czasem nawet Lynnfielda
Taki test byłby idealny. Najlepiej jakby zestawić kilka generacji procesorów Intela z kilkoma generacjami procesorów AMD. Bo każdy z nich miał inną wydajność rdzenia oraz inne taktowanie. I część z nich mogłaby ograniczać wydajność nowych GPU podczas gdy inne byłyby wystarczające by GPU działało z pełną modą. W pierwszym przypadku Vulkan i DX12 miałyby przewagę, w drugim działanie byłoby identyczne jak DX11. Pytanie brzmi na która generacja CPU okazałaby się tą graniczną
Wysnuwa na tym etapie na jakim jesteśmy, co masz wyraźnie w podsumowaniu o tym, że DX12 nie rozwiązuje na obecną chwilę problemów znanych z DX11. Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
[quote name='Jacek1991' date='2016.03.28 09:23' post='960816']
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce).
Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
Bądźmy poważni, ile osób może siedzieć na GTX 970 (czy nawet 380) z Q6600 ? Przecież argumentem za DX12 czy kartami Nvidii bądź Radkami nie będzie to, że nowe gry korzystające Dx12 działają dobrze z procesorami z.... 'Q1'07'!
Ich mocarność...pokazał G860 za 250zł
Dzisiaj raczej ktoś siedzący na Q6600 nie kupował np. rok/półtora temu 970GTX czy dzisiaj R380X. Poza tym rynek - nie pozwolą na to producenci, produkt na swój czas życia i potem schodzi ze sceny, niezależnie czy to AMD czy Intel bądź inny obszar taka sytuacja byłoba dla danej firmy niekorzystna, nawet lowend całkiem świeży nigdy nie będzie dawał/'pozwalał' na super połączenie cpu za 300zł i karty za 1500zł
Niskopoziomowe API, takie jak DirectX 12 czy Vulkan, oddają programowi kontrolę nad większością etapów procesu renderowania – również nad tymi, które do tej pory należały do systemu operacyjnego. Dlatego nie jest możliwe (na razie), żeby zewnętrzny kod dodawał swoje instrukcje do potoku renderowania. Zatem nie mogą działać typowe narzędzia do mierzenia wydajności: nakładki takie jak GUI MSI Afterburnera, żółte cyfry FRAPS-a czy paski FCAT. Łatwo zauważyć tendencję do wbudowywania narzędzi pomiarowych w samą grę. Twórcom gier (oraz ich mentorom ze świata sprzętu i systemów operacyjnych) zależy na tym, by pokazać zalety nowego API.
...program może o tym nie wiedzieć i raportować znacznie większą liczbę klatek na sekundę, niż widzi gracz....
...Po drugie, benchmarki we wszystkich trzech wymienionych grach nie pozwalają na konfigurację scen, w których mierzona jest wydajność. Usiłują pokazać przekrój całej rozgrywki, również momentów nieistotnych i tych, w których nie potrzeba dużej płynności...
W testu wbudowanych benchmarków wierzę jak w testy spalania producentów...a już najlepiej pokazał to oszust Volkswagen
Nie twierdzę, że Microsoft czy producenci gier lub kart z góry mają podobne plany, ale nie jestem w stanie od tak bezkrytycznie dzisiaj czy nawet za ileś miesięcy czy lat 'kupić' ich marketingowego bełkotu, niezaleznie od znaczka.
Nagrywamy nieskompresowany obraz wysyłany do monitora; autorski program analizuje go klatka po klatce, wykrywa, kiedy pojawia się nowy obraz, i zapisuje dane w stabelaryzowanej postaci, którą możemy łatwo analizować i wykorzystać do utworzenia wykresów. Nasza metoda jest całkowicie niezależna od systemu operacyjnego, API, producenta karty graficznej czy jakiegokolwiek oprogramowania zainstalowanego w testowym komputerze. Nie ingeruje w żaden sposób w badany obiekt.
Kto go stworzył, maczał przy tym swoje paluszki, fajnie byłoby dowiedzieć się czegoś więcej.
Sytuacja to nadal producenci sprzętu, gier, producent Dx12 (MS) vs konsument. Każdy chce naszej kasy i wszyscy będą nas zapewniać o wspaniałości swoich produktów. Dlatego do wszystkiego trzeba podchodzić ostrożnie, sceptycznie, sprawdzić z każdej strony, najlepiej jeśli da się niezależnymi od twórców-producentów narzędziami, metodami. Tutaj dużo zależy od redakcji pism czy portali, ile włożą w to wysiłku, bo 'zwykli' użytkownicy mają mniejsze możliwości, szczególnie w próbach ilościowego, finansowego testowania czy napisania własnego 'programu' do tego służącego. Jak większość redakcji przy dalszym braku możliwości użycia znanych do tej pory zewnętrznych programów zadowoli się benchmarkami z gier to wyniki będą takie...jak ustawią, przygotują je sami producenci danej gry. Już widzę te aukcje allegro i setki klatek, procentów na wykresach u sprzedawców
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Szczęść Boże
Masz widzę godmode jeśli potrafisz z 20FPSami grać w np. wyścigówkach.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Szczęść Boże
Masz widzę godmode jeśli potrafisz z 20FPSami grać w np. wyścigówkach.
Jedyna gra którą jako tako bez v-synca ograłem i było spoko to GRID, ale tam były sporadyczne cięcia (mówię o wersji konsolowej).
Co do samego V-sync to dziwię się, ze dopiero teraz tłumaczy się o co biega. To chyba logiczne, ze V-sync to bufforowanie klatek i miernik fps jest tu bez sensu. Jedyny miarodajny miernik fps to taki który mierzyłby to na kablu PC - Monitor.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
Masz wyjaśnienie powyżej..bo będzie musiał
Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Mało to razy widziałeś że gra sponsorowana przez AMD działała lepiej na Nvidii? Nie sugerowałbym się więc tą listą
Dodacie jakaś 1 kartę grafiki GTX7XX oraz HD7XXX/2X0?
I może w końcu cos zrobicie z tym agitatorem MS?
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Mało to razy widziałeś że gra sponsorowana przez AMD działała lepiej na Nvidii? Nie sugerowałbym się więc tą listą
Ale w DX12 jest mniej miejsca na optymalizację w sterownikach a więcej zależy od tego z kim współpracowali programiści. Niskopoziomowe programowanie w Vulkan, DX12 zawsze będzie optymalizowane pod jedno GPU.
dobrze kolesiu
Słowa dewelopera gry są oczywiste, dla 5-10% async computing wzrost niewielki wydajności u AMD, Nvidii żadne zyski i powoduje ogromne problemy optymalizacyjne.
On the other hand, it’s quite surprising to read that even AMD cards merely got a 5-10% performance boost, especially after AMD endorsed HITMAN’s implementation as the best one yet. Async Compute, which has been used for SSAA (Screen Space Anti Aliasing), SSAO (Screen Space Ambient Occlusion) and the calculation of light tiles in HITMAN, was also “super hard” to tune; according to IO Interactive, too much Async work can even make it a penalty, and then there’s also the fact that PC has lots of different configurations that need tuning.
Do tego pobór prądu należy wzdrożyć testy na to, bo dx12 'rozwala' system
A sam cpu jest niedożyłowany
Nie wiem co palą w mikroka$ie i AMD, ale coś to cienko wygląda z tym dx12.
'Dalsze testy różnych konfiguracji w DirectX 12 prawdopodobnie pozwolą wyciągnąć dokładniejsze wnioski, ale obecny zbiór wyników w trzech grach nie daje podstaw, by stwierdzić, że DirectX 12 zda egzamin lub nie.'
Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Gdzie czytałeś o współpracy AMD w WD2?
Nie wiem co palą w mikroka$ie i AMD, ale coś to cienko wygląda z tym dx12.
Wow, wzrost poboru prądu na radkach dość radykalny, temperatura też pewnie skacze do góry. Nie warte tych 5-10%.