Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Mało to razy widziałeś że gra sponsorowana przez AMD działała lepiej na Nvidii? Nie sugerowałbym się więc tą listą
Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Dzisiaj raczej ktoś siedzący na Q6600 nie kupował np. rok/półtora temu 970GTX czy dzisiaj R380X.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
Masz wyjaśnienie powyżej..bo będzie musiał Poza tym wydajność poszła do przodu nie tylko w grach, więc zmiana pewnie będzie się opłacała/będzie częściowo wymuszona (patrz chociażby na G860).
Jak to jest niskopoziomowe API to ja jestem ksiądz.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Szczęść Boże
Masz widzę godmode jeśli potrafisz z 20FPSami grać w np. wyścigówkach.
Jedyna gra którą jako tako bez v-synca ograłem i było spoko to GRID, ale tam były sporadyczne cięcia (mówię o wersji konsolowej).
Co do samego V-sync to dziwię się, ze dopiero teraz tłumaczy się o co biega. To chyba logiczne, ze V-sync to bufforowanie klatek i miernik fps jest tu bez sensu. Jedyny miarodajny miernik fps to taki który mierzyłby to na kablu PC - Monitor.
Dzisiaj raczej ktoś siedzący na Q6600 nie kupował np. rok/półtora temu 970GTX czy dzisiaj R380X.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
Jak to jest niskopoziomowe API to ja jestem ksiądz.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Szczęść Boże
Masz widzę godmode jeśli potrafisz z 20FPSami grać w np. wyścigówkach.
Jak to jest niskopoziomowe API to ja jestem ksiądz.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Nie sądziłem, że taki portal jak Pclab może na tak wczesnym etapie wysnuwać wnioski na temat dx12. To nie jest Onet
Wysnuwa na tym etapie na jakim jesteśmy, co masz wyraźnie w podsumowaniu o tym, że DX12 nie rozwiązuje na obecną chwilę problemów znanych z DX11. Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
Zgadzam sie, przydalo bys ie przetestować zupelnie stare konstrukcje.
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce).
Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
Bądźmy poważni, ile osób może siedzieć na GTX 970 (czy nawet 380) z Q6600 ? Przecież argumentem za DX12 czy kartami Nvidii bądź Radkami nie będzie to, że nowe gry korzystające Dx12 działają dobrze z procesorami z.... 'Q1'07'!
Ich mocarność...pokazał G860 za 250zł Nie twierdzę, że w ogóle nie ma to sensu, bo pokaże zmiany w czasie i przy danej architekturze, ale trzeba wziąć poprawkę że poza wynikami dla porównania i zbadania danej rodziny cpu ma to znaczenie marginalne (chociażby dlatego, że nie są dostępne i nikt nawet gdyby było nie kupiłby ich bo wydajność przy innym użyciu byłaby niedzisiejsza).
Dzisiaj raczej ktoś siedzący na Q6600 nie kupował np. rok/półtora temu 970GTX czy dzisiaj R380X. Poza tym rynek - nie pozwolą na to producenci, produkt na swój czas życia i potem schodzi ze sceny, niezależnie czy to AMD czy Intel bądź inny obszar taka sytuacja byłoba dla danej firmy niekorzystna, nawet lowend całkiem świeży nigdy nie będzie dawał/'pozwalał' na super połączenie cpu za 300zł i karty za 1500zł Ja np. wielkiego progresu nie widzę u Sony w przypadku serii Compact, wiedzą że się dobrze sprzedaje, ale Z1C to 1799zł, Z3C to już 2299zł, a Z5C (która jak duża Z5 nie dostała 3GB) to już 2599zł. Brak konkurencji w sensie tak wydajnych telefonów o kompaktowych wymiarach, ciągle jednak dobre urządzenie więc nawet jeśli nie ma rewolucji czy znacznych zmian to mamy 800zł, 40% wzrost ceny w stosunku do tego ile kosztowała Z1C
Niskopoziomowe API, takie jak DirectX 12 czy Vulkan, oddają programowi kontrolę nad większością etapów procesu renderowania – również nad tymi, które do tej pory należały do systemu operacyjnego. Dlatego nie jest możliwe (na razie), żeby zewnętrzny kod dodawał swoje instrukcje do potoku renderowania. Zatem nie mogą działać typowe narzędzia do mierzenia wydajności: nakładki takie jak GUI MSI Afterburnera, żółte cyfry FRAPS-a czy paski FCAT. Łatwo zauważyć tendencję do wbudowywania narzędzi pomiarowych w samą grę. Twórcom gier (oraz ich mentorom ze świata sprzętu i systemów operacyjnych) zależy na tym, by pokazać zalety nowego API.
...program może o tym nie wiedzieć i raportować znacznie większą liczbę klatek na sekundę, niż widzi gracz....
...Po drugie, benchmarki we wszystkich trzech wymienionych grach nie pozwalają na konfigurację scen, w których mierzona jest wydajność. Usiłują pokazać przekrój całej rozgrywki, również momentów nieistotnych i tych, w których nie potrzeba dużej płynności...
W testu wbudowanych benchmarków wierzę jak w testy spalania producentów...a już najlepiej pokazał to oszust Volkswagen Mam na myśli celowe działania. To bo że wyniki odbiegają o 2-3, 5 czy nawet 10% każdy może sobie zdawać sprawę. Ale celowe działanie polegające na zaplanowanym procesie oszustwa władz i swoich klientów to po prostu działania przestępców
Nie twierdzę, że Microsoft czy producenci gier lub kart z góry mają podobne plany, ale nie jestem w stanie od tak bezkrytycznie dzisiaj czy nawet za ileś miesięcy czy lat 'kupić' ich marketingowego bełkotu, niezaleznie od znaczka.
Nagrywamy nieskompresowany obraz wysyłany do monitora; autorski program analizuje go klatka po klatce, wykrywa, kiedy pojawia się nowy obraz, i zapisuje dane w stabelaryzowanej postaci, którą możemy łatwo analizować i wykorzystać do utworzenia wykresów. Nasza metoda jest całkowicie niezależna od systemu operacyjnego, API, producenta karty graficznej czy jakiegokolwiek oprogramowania zainstalowanego w testowym komputerze. Nie ingeruje w żaden sposób w badany obiekt.
Kto go stworzył, maczał przy tym swoje paluszki, fajnie byłoby dowiedzieć się czegoś więcej.
Sytuacja to nadal producenci sprzętu, gier, producent Dx12 (MS) vs konsument. Każdy chce naszej kasy i wszyscy będą nas zapewniać o wspaniałości swoich produktów. Dlatego do wszystkiego trzeba podchodzić ostrożnie, sceptycznie, sprawdzić z każdej strony, najlepiej jeśli da się niezależnymi od twórców-producentów narzędziami, metodami. Tutaj dużo zależy od redakcji pism czy portali, ile włożą w to wysiłku, bo 'zwykli' użytkownicy mają mniejsze możliwości, szczególnie w próbach ilościowego, finansowego testowania czy napisania własnego 'programu' do tego służącego. Jak większość redakcji przy dalszym braku możliwości użycia znanych do tej pory zewnętrznych programów zadowoli się benchmarkami z gier to wyniki będą takie...jak ustawią, przygotują je sami producenci danej gry. Już widzę te aukcje allegro i setki klatek, procentów na wykresach u sprzedawców
focus we wcześniejszych testach używał SB, IB i HW, a czasem nawet Lynnfielda
Taki test byłby idealny. Najlepiej jakby zestawić kilka generacji procesorów Intela z kilkoma generacjami procesorów AMD. Bo każdy z nich miał inną wydajność rdzenia oraz inne taktowanie. I część z nich mogłaby ograniczać wydajność nowych GPU podczas gdy inne byłyby wystarczające by GPU działało z pełną modą. W pierwszym przypadku Vulkan i DX12 miałyby przewagę, w drugim działanie byłoby identyczne jak DX11. Pytanie brzmi na która generacja CPU okazałaby się tą graniczną
Ha ha ha. Pisałem co najmniej pół roku temu, że tak będzie. Nikt nie pozwoli na to żeby przy użyciu i3 dało się wykorzystać potencjał topowego GPU. Jak widać na załączonych obrazkach.
Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
focus we wcześniejszych testach używał SB, IB i HW, a czasem nawet Lynnfielda
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce). Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
Pytanie czy redakcja jest w stanie takie starsze procesory w jakiś sposób dostać. Nie ma już ich w sklepach. Sklepy i producenci takiego Sandy Bridge czy Nehalem od lat nie mają w magazynie. Wydaje mi się że taki test może okazać się niemożliwy do wykonania. Dlatego redakcja użyła Skylake bo te jest dziś najłatwiej wypożyczyć na czas testów
Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
jestem prawie pewien , że ktoś z redakcji ma w domu starszy zestaw(lub czesci). Jak by sie poprosiło to jestem pewien, że znalazł bys ei ktos kto by mogł taki zestaw udostępnić w zamian np. za możliwość przyjrzenia sie redakcji od środka
Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
Ja dx12 nigdy nie ujrzę na oczy. Ale dzięki testowi widze, że w przypadku GF+intel(czyli co mam aktualnie) nie wiele się zmienia.
Z drugiej strony czekam na upowszechnienie się mantleVulkan
(...)
Zgadzam sie, przydalo bys ie przetestować zupelnie stare konstrukcje.
BTW z tymi rdzeniami to zależy od gry, skyrim i 16 wątków wykorzysta(po małym modzie)... gry na javie to w sumie podobna bajka
Spokojnie, wcześniej czy później MS zmusi cię do przejścia na Windows 10
Przyślą do mnie smutnych panów w czarnych garniturach?
SunTzu @ 2016.03.28 09:13
Mantle i Vulkan to zupełnie coś innego. Nie mieszaj Nie wiemy o co chodzi jeśli nie napiszesz
to napisze. Od wielu lat mówiło sie o mantle. O vulkanie od niedawna. W głowie miałem 2 technologie dotyczące tego samego od tej samej firmy działające na podobnych zasadach i mi się pomieszało ;P
Ja dx12 nigdy nie ujrzę na oczy. Ale dzięki testowi widze, że w przypadku GF+intel(czyli co mam aktualnie) nie wiele się zmienia.
Z drugiej strony czekam na upowszechnienie się mantleVulkan
Mcix @ 2016.03.28 09:00
...
Zgadzam sie, przydalo bys ie przetestować zupelnie stare konstrukcje.
BTW z tymi rdzeniami to zależy od gry, skyrim i 16 wątków wykorzysta(po małym modzie)... gry na javie to w sumie podobna bajka
Spokojnie, wcześniej czy później MS zmusi cię do przejścia na Windows 10
Zgadzam sie, przydalo bys ie przetestować zupelnie stare konstrukcje.
Ewidentnie zabrakło jakiegoś słąbszego procesora. Wydajność Pentium G4400, I3 6100, i5 6600K oraz i7 6700K jest przecież praktycznie identyczna. To to są procesory Skylake i mają dokładnie taką samą wydajność pojedynczego rdzenia. Niczym się nie różnią poza ilością rdzeni która w testach nie ma żadnego znaczenia bo DX11 działa tylko na jednym rdzeniu. I tylko gdy ten jeden rdzeń jest zbyt słaby i zaczyna ograniczać GPU to widać spadki.
Nie zdziwiłbym się jakby Core i5 z serii Haswell miał w DX11 gorsze wyniki niż Pentium G4400. Bo rdzenie w Haswell były wolniejsze niż rdzenie w Skylake. Wiec potencjalnie istnieje szansa że Core i5 na Haswell miałby problem z najnowszymi GPU podczas gdy Pentium na rdzeniu Skylake radziłby sobie bez problemów
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce).
Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
a roznica jest pomiedzy rdzeniami na pentiumie i i7... moze nie jakas kolosalna ale jest
Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Mało to razy widziałeś że gra sponsorowana przez AMD działała lepiej na Nvidii? Nie sugerowałbym się więc tą listą
Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:
Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate
AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity
Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
Masz wyjaśnienie powyżej..bo będzie musiał
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Szczęść Boże
Masz widzę godmode jeśli potrafisz z 20FPSami grać w np. wyścigówkach.
Jedyna gra którą jako tako bez v-synca ograłem i było spoko to GRID, ale tam były sporadyczne cięcia (mówię o wersji konsolowej).
Co do samego V-sync to dziwię się, ze dopiero teraz tłumaczy się o co biega. To chyba logiczne, ze V-sync to bufforowanie klatek i miernik fps jest tu bez sensu. Jedyny miarodajny miernik fps to taki który mierzyłby to na kablu PC - Monitor.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Szczęść Boże
Masz widzę godmode jeśli potrafisz z 20FPSami grać w np. wyścigówkach.
Kolejna ściema od MS. Z tą synchronizacją pionową tez jaja. Choć osobiście wole 20fps niż 60fps bez v-sync.
Wysnuwa na tym etapie na jakim jesteśmy, co masz wyraźnie w podsumowaniu o tym, że DX12 nie rozwiązuje na obecną chwilę problemów znanych z DX11. Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.
[quote name='Jacek1991' date='2016.03.28 09:23' post='960816']
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce).
Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
Bądźmy poważni, ile osób może siedzieć na GTX 970 (czy nawet 380) z Q6600 ? Przecież argumentem za DX12 czy kartami Nvidii bądź Radkami nie będzie to, że nowe gry korzystające Dx12 działają dobrze z procesorami z.... 'Q1'07'!
Ich mocarność...pokazał G860 za 250zł
Dzisiaj raczej ktoś siedzący na Q6600 nie kupował np. rok/półtora temu 970GTX czy dzisiaj R380X. Poza tym rynek - nie pozwolą na to producenci, produkt na swój czas życia i potem schodzi ze sceny, niezależnie czy to AMD czy Intel bądź inny obszar taka sytuacja byłoba dla danej firmy niekorzystna, nawet lowend całkiem świeży nigdy nie będzie dawał/'pozwalał' na super połączenie cpu za 300zł i karty za 1500zł
Niskopoziomowe API, takie jak DirectX 12 czy Vulkan, oddają programowi kontrolę nad większością etapów procesu renderowania – również nad tymi, które do tej pory należały do systemu operacyjnego. Dlatego nie jest możliwe (na razie), żeby zewnętrzny kod dodawał swoje instrukcje do potoku renderowania. Zatem nie mogą działać typowe narzędzia do mierzenia wydajności: nakładki takie jak GUI MSI Afterburnera, żółte cyfry FRAPS-a czy paski FCAT. Łatwo zauważyć tendencję do wbudowywania narzędzi pomiarowych w samą grę. Twórcom gier (oraz ich mentorom ze świata sprzętu i systemów operacyjnych) zależy na tym, by pokazać zalety nowego API.
...program może o tym nie wiedzieć i raportować znacznie większą liczbę klatek na sekundę, niż widzi gracz....
...Po drugie, benchmarki we wszystkich trzech wymienionych grach nie pozwalają na konfigurację scen, w których mierzona jest wydajność. Usiłują pokazać przekrój całej rozgrywki, również momentów nieistotnych i tych, w których nie potrzeba dużej płynności...
W testu wbudowanych benchmarków wierzę jak w testy spalania producentów...a już najlepiej pokazał to oszust Volkswagen
Nie twierdzę, że Microsoft czy producenci gier lub kart z góry mają podobne plany, ale nie jestem w stanie od tak bezkrytycznie dzisiaj czy nawet za ileś miesięcy czy lat 'kupić' ich marketingowego bełkotu, niezaleznie od znaczka.
Nagrywamy nieskompresowany obraz wysyłany do monitora; autorski program analizuje go klatka po klatce, wykrywa, kiedy pojawia się nowy obraz, i zapisuje dane w stabelaryzowanej postaci, którą możemy łatwo analizować i wykorzystać do utworzenia wykresów. Nasza metoda jest całkowicie niezależna od systemu operacyjnego, API, producenta karty graficznej czy jakiegokolwiek oprogramowania zainstalowanego w testowym komputerze. Nie ingeruje w żaden sposób w badany obiekt.
Kto go stworzył, maczał przy tym swoje paluszki, fajnie byłoby dowiedzieć się czegoś więcej.
Sytuacja to nadal producenci sprzętu, gier, producent Dx12 (MS) vs konsument. Każdy chce naszej kasy i wszyscy będą nas zapewniać o wspaniałości swoich produktów. Dlatego do wszystkiego trzeba podchodzić ostrożnie, sceptycznie, sprawdzić z każdej strony, najlepiej jeśli da się niezależnymi od twórców-producentów narzędziami, metodami. Tutaj dużo zależy od redakcji pism czy portali, ile włożą w to wysiłku, bo 'zwykli' użytkownicy mają mniejsze możliwości, szczególnie w próbach ilościowego, finansowego testowania czy napisania własnego 'programu' do tego służącego. Jak większość redakcji przy dalszym braku możliwości użycia znanych do tej pory zewnętrznych programów zadowoli się benchmarkami z gier to wyniki będą takie...jak ustawią, przygotują je sami producenci danej gry. Już widzę te aukcje allegro i setki klatek, procentów na wykresach u sprzedawców
focus we wcześniejszych testach używał SB, IB i HW, a czasem nawet Lynnfielda
Taki test byłby idealny. Najlepiej jakby zestawić kilka generacji procesorów Intela z kilkoma generacjami procesorów AMD. Bo każdy z nich miał inną wydajność rdzenia oraz inne taktowanie. I część z nich mogłaby ograniczać wydajność nowych GPU podczas gdy inne byłyby wystarczające by GPU działało z pełną modą. W pierwszym przypadku Vulkan i DX12 miałyby przewagę, w drugim działanie byłoby identyczne jak DX11. Pytanie brzmi na która generacja CPU okazałaby się tą graniczną
Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
focus we wcześniejszych testach używał SB, IB i HW, a czasem nawet Lynnfielda
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce). Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
Pytanie czy redakcja jest w stanie takie starsze procesory w jakiś sposób dostać. Nie ma już ich w sklepach. Sklepy i producenci takiego Sandy Bridge czy Nehalem od lat nie mają w magazynie. Wydaje mi się że taki test może okazać się niemożliwy do wykonania. Dlatego redakcja użyła Skylake bo te jest dziś najłatwiej wypożyczyć na czas testów
Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
jestem prawie pewien , że ktoś z redakcji ma w domu starszy zestaw(lub czesci). Jak by sie poprosiło to jestem pewien, że znalazł bys ei ktos kto by mogł taki zestaw udostępnić w zamian np. za możliwość przyjrzenia sie redakcji od środka
Gdyby do Skylake nie było potrzebne DX12 to byś nie obserwował różnicy między i5 a i3 czy Pentium a widać ją wyraźnie
Ale wydajność Pentium G4400, Core i3 6100 czy Core i5 6600 jest prawie identyczna. Wszystkie te procesory mają ten sam rdzeń obliczeniowy Skylake o identycznej ilości operacji na takt. Różnią się tylko taktowaniem. I te drobne różnice o których piszesz są wynikiem odmiennego taktowania.
Dużo większą różnicę miałbyś jakbyś wykorzystał starsze procesory np. Haswell lub Sandy Bridge. A przy porównaniu Core i5 Skylake do Core i5 Nehalem mogłoby się okazać że ten drugi jest o połowę wolniejszy. I gdybyś tą samą kartę GTX 980 zainstalował w zestawie ze Skylake to miałbyś 60fps a po zainstalowaniu w komputerze Core i5 Nehalem miałbyś 20fps bo CPU ograniczałoby wygajność GPU bo liczy się wydajność pojedynczego rdzenia.
W teście bardzo brakuje takich starszych zestawów które ludzie ciągle mają w domach. Ale trudno o taki test bo skąd redakcja miałaby zabrać 4-5 letni procesor. To dziś jest już nieosiągalne
Z drugiej strony czekam na upowszechnienie się
mantleVulkanZgadzam sie, przydalo bys ie przetestować zupelnie stare konstrukcje.
BTW z tymi rdzeniami to zależy od gry, skyrim i 16 wątków wykorzysta(po małym modzie)... gry na javie to w sumie podobna bajka
Spokojnie, wcześniej czy później MS zmusi cię do przejścia na Windows 10
Przyślą do mnie smutnych panów w czarnych garniturach?
Mantle i Vulkan to zupełnie coś innego. Nie mieszaj
to napisze. Od wielu lat mówiło sie o mantle. O vulkanie od niedawna. W głowie miałem 2 technologie dotyczące tego samego od tej samej firmy działające na podobnych zasadach i mi się pomieszało ;P
Z drugiej strony czekam na upowszechnienie się
mantleVulkanZgadzam sie, przydalo bys ie przetestować zupelnie stare konstrukcje.
BTW z tymi rdzeniami to zależy od gry, skyrim i 16 wątków wykorzysta(po małym modzie)... gry na javie to w sumie podobna bajka
Spokojnie, wcześniej czy później MS zmusi cię do przejścia na Windows 10
Ewidentnie zabrakło jakiegoś słąbszego procesora. Wydajność Pentium G4400, I3 6100, i5 6600K oraz i7 6700K jest przecież praktycznie identyczna. To to są procesory Skylake i mają dokładnie taką samą wydajność pojedynczego rdzenia. Niczym się nie różnią poza ilością rdzeni która w testach nie ma żadnego znaczenia bo DX11 działa tylko na jednym rdzeniu. I tylko gdy ten jeden rdzeń jest zbyt słaby i zaczyna ograniczać GPU to widać spadki.
Nie zdziwiłbym się jakby Core i5 z serii Haswell miał w DX11 gorsze wyniki niż Pentium G4400. Bo rdzenie w Haswell były wolniejsze niż rdzenie w Skylake. Wiec potencjalnie istnieje szansa że Core i5 na Haswell miałby problem z najnowszymi GPU podczas gdy Pentium na rdzeniu Skylake radziłby sobie bez problemów
Ja posiadam w miare mocny cpu w kompie(co prawda ivy ale nadal mocny) ale brat ma np. i3 3xxx a kumpel i7 ta pierwsza na 1366. mysle ze jest sporo osob z Q6600 jeszcze(bo to nadal mocne proce).
Z drugiej strony znam tylko 1 osobe ze skylake(kupowala kompa w grudniu, od zera).
Wiem, że to początek testów ale przydało by sie(w ramach możliwości) zrobić te testy na starszych konstrukcjach
a roznica jest pomiedzy rdzeniami na pentiumie i i7... moze nie jakas kolosalna ale jest