Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
Dobry przykład jaki wpływ na wydajność może mieć kolejkowanie (na przykładzie dysków SSD) pokazuje CrystalDiskMark - 4K i 4KQD32.
No i dobrze. Nie muszę się przesiadać z 7mki na 10ke
człowkieu te 3 gierki nawet w pełni dx12 nie wykorzystuja. Najlepiej to widac na spierd..ym Gears of War ktory od szpiku kosci jest zatruty shitworksem NVIDII. DX12 jeszcze raczkuje ale bije na łeb ten przeżytek niepotrafiący w pełni wykorzystac sprzęt zwany dx11.
Takie wyliczenia z dupy możesz sobie wsadzić między rolki papieru. Skoro mówimy o grach, na testach można zobaczyć że wykręcony sandy nie odbiega o więcej niż 7% najnowszemu skajlejkowi w niektórych grach, więc nie wiem skąd te twoje 0,75 wydajności skylake... wszystko zależy od gry.
Ciekawe w których tych grach?
Takich co to nawet na Pentium chodzą bez problemu?
Wyjdzie jakaś porządna strategia z mocnym SI i Piaskowy Most się rozsypie
I tak byłem łaskawy dla Sandy Bridge.
CPU World daje SB mniejsze fory. http://www.cpu-world.com/Compare/577/Intel...7_i7-6700K.html
i7 2700K to 75% wydajności i7 6700K w większości zastosowań i 50% wydajności w specyficznych zastosowaniach. Wnioski sobie wyciągnij sam na podstawie wyników Skylake
Takie wyliczenia z dupy możesz sobie wsadzić między rolki papieru. Skoro mówimy o grach, na testach można zobaczyć że wykręcony sandy nie odbiega o więcej niż 7% najnowszemu skajlejkowi w niektórych grach, więc nie wiem skąd te twoje 0,75 wydajności skylake... wszystko zależy od gry.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
Nie zobaczy, bo E8600 jest wolniejszy niż obecne Celerony, a Quady - niż i3.
Skylake jest w zestawieniu z FX - tak jakby ktoś sugerował, że to porównywalne produkty. Moim zdaniem fxy powinny wylecieć z procedur testowych, bo szkoda czasu lekarzy na badanie zwłok.
Jednak skoro już redakcja bada wydajność FXA to powinni również przetestować sandy bridge.
i7 2700K to 75% wydajności i7 6700K w większości zastosowań i 50% wydajności w specyficznych zastosowaniach. Wnioski sobie wyciągnij sam na podstawie wyników Skylake
Gdzie przeciwnicy amd ze swojej epoki - sandy bridge, ivy i haswell? .
Sugerujesz, by olać, to co aktualnie jest dostępne i testować jakieś trupy, które można kupić tylko poprzez portale aukcyjne?
To z czym byś chciał Skylake porównywać? Jak ZEN kiedyś wyjdzie, to też nie będziemy go testować, bo Intel będzie miał proce sprzed roku?
Skylake jest w zestawieniu z FX - tak jakby ktoś sugerował, że to porównywalne produkty. Moim zdaniem fxy powinny wylecieć z procedur testowych, bo szkoda czasu lekarzy na badanie zwłok.
Jednak skoro już redakcja bada wydajność FXA to powinni również przetestować sandy bridge.
Z ostatniej chwili: sterownik Crimson 16.4.1 pozwala już wyłączyć synchronizację pionową w grach DirectX 12 na kartach graficznych AMD (pisaliśmy o tym na drugiej stronie). Wybór jest znów w rękach gracza
Nie ma to jak porównywać 4-letni procesor AMD za 800 zł, do najnowszego procesora Intela za 1600 zł i pisać, że 'bezpieczniej' jest kupić produkt 'niebieskich'
A czy to wina portalu, że AMD nie ma nic innego, lepszego w swojej ofercie?
Od zawsze w takich zestawieniach porównuje się procesory, które aktualnie są w oficjalnej sprzedaży.
Przeczytałem tylko tytuł artykułu 'Rewolucji brak' i na tym skończyło się moje czytanie tego artykułu/testu. Przecież dzieciaki w gimnazjum już wiedzą, że każda z trzech gier ma zwaloną implementację DX 12 i nie tylko. Więc po co robić takie testy. Już wychodzą nowe gry na DX 12 można by je wziąć pod lupę i zobaczyć jak działa w nich DX 12. Może też bez rewolucji, ale było by to poparte jakąś konkretniejszą liczbą gier, które możliwe, że już wykorzystują jakiś potencjał DX12.
Nic dziwnego, że zakopali Twój komentarz. Obecna sytuacja, jest na rękę dzieciarni i fanatyków nvidii. Na podstawie trzech gier, wyciągnęli wnioski, że DX12 to zło, polecieli lajkować się na fejsach i puszczać w internet kolejne kłamstwa. A przez takie testy i wnioski, kolejny raz dokładnie widać, na czym zależy temu portalowi. W sumie to dziwi mnie, że nie ograniczyli się do jednej gry. Noooo ale przecież TRZY, to już jest coś, można wyciągać wnioski.
Nie ma to jak porównywać 4-letni procesor AMD za 800 zł, do najnowszego procesora Intela za 1600 zł i pisać, że 'bezpieczniej' jest kupić produkt 'niebieskich'. Jakbym czytał znerwicowanych 12-nastolatków na onecie, którym rodzice kupili drogie intele oraz nvidie a ci szpanują na internecie.
A kiedy procesor AMD oferuje lepszą wydajność od Intela, to już entuzjazm mniejszy i najczęściej wymieszany z wnioskami, że jednak lepiej 'dołożyć' i kupić droższego intela, i tak w każdym 'segmencie', aż dokładając dojdziemy poza zasięg AMD, a wtedy intel objawia się jako 'JEDYNA' opcja.
Ten portal przyzwyczaja ludzi właśnie do takich zachowań. Zestaw gorsze i tańsze, z lepszym i droższym, a następnie pastw się, wyśmiewaj, wyszydzaj, nic dziwnego, że później z pclabu rozlewa się na internet tyle dziecinnego chamstwa spod znaku intel i nvidia.
Dobrze zaimplementowany DX12 potrafi mocno odciazyc CPU, tak ze nawet pierwsza generacja i5 daje rade z najnowszymi kartami. Jednak to dlugo nie potrwa, bo kazda wolna moc, deweloperzy beda po prostu przeznaczac na dodatkowe finczery, efekty itp lub skroca proces optymalizacji, co pozwoli obnizyc koszty i czas wydania gry.
Stare CPU dalej pozostana na tym samym poziomie na ktorym sa w obecnie.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
...bo GTX 960 potężną kartą graficzną jest
Ostatnio odkryłem geniusz człowieka definiującego profile GPU w Nvidia Experience. Po auto-dopasowaniu karta graficzna chodzi jak zła a gry wyglądają bardzo ładnie.
p.s. Jeśli włączysz w przeglądarce Opera pełną akcelerację sprzętową to odejmiesz ok. 20% obciążenia CPU przy oglądaniu filmów 4K@60fps.
Te trupy posłużą przeciętnym czytelnikom jeszcze przez kilka dobrych lat, więc co jest w tym złego?
Co jest w tym złego? To, że AMD chcemy dawać taryfy ulgowe. To AMD nie wydało CPU od lat i dlatego obecnym konkurentem FXów są Skylake'i. Ofertę AMD ma jaką ma i to tylko ich wina, że nic z tym nie robią/ nie potrafią zrobić.
Ja też bym chciał zobaczyć, jak dzisiaj wypadają Phenomy i C2Q, ale cóż - Roboty przy testowaniu już teraz nie brakuje na pewno.
To jeszcze takie pytanie. Co by dało przetestowanie np. SandyB? Jeśli AMD by ich wyprzedziło, to byśmy obwieścili wielki sukces?
Chodzi o to że są ludzie co chcą zmienić grafike mając stare i5/i7 sandy/ivy i nie zamierzają zmieniać jeszcze bazowej platformy, takie porównanie pozwoli realnie ocenić czy warto pchać się w grafiki amd skoro coraz wiecej ma gier wychodzić w dx12/vulkan czy jednak zostać z nvidią ... Już tu nie chodzi o samo dawanie taryfy ulgowej prockom amd a o faktyczną przydatność tego testu.
Czy dałoby się przetestować grę (nie bechmark), ashes of singularity?
Relacje wydajnościowe z gry w 99% pokrywają się z wynikami z wbudowanego benchmarka
Pełna wersja gry nic nie zmienia w kwestii relacji po między poszczególnym kartami choć od ostatniego testu BETY wydajność zarówno na NV jak i AMD poszła w górę.
Tak samo jak w BECIE w momencie gdy launcher wykryje kartę NV wyłącza Async Compute w pliku konfiguracyjnym gry.
Te trupy posłużą przeciętnym czytelnikom jeszcze przez kilka dobrych lat, więc co jest w tym złego?
Co jest w tym złego? To, że AMD chcemy dawać taryfy ulgowe. To AMD nie wydało CPU od lat i dlatego obecnym konkurentem FXów są Skylake'i. Ofertę AMD ma jaką ma i to tylko ich wina, że nic z tym nie robią/ nie potrafią zrobić.
Ja też bym chciał zobaczyć, jak dzisiaj wypadają Phenomy i C2Q, ale cóż - Roboty przy testowaniu już teraz nie brakuje na pewno.
To jeszcze takie pytanie. Co by dało przetestowanie np. SandyB? Jeśli AMD by ich wyprzedziło, to byśmy obwieścili wielki sukces?
Tak w DX11 można było dane asynchronicznie zbierać, ale potem one i tak trafiały do jednej wąskiej rury przez którą probowaly wplynac do GPU.
W DX12/Vulkan dane można asynchronicznie zbierać i wysyłać na GPU.
Dobry przykład jaki wpływ na wydajność może mieć kolejkowanie (na przykładzie dysków SSD) pokazuje CrystalDiskMark - 4K i 4KQD32.
http://www.cdrlabs.com/images/stories/revi...20evo%20cdm.png
Mam same Intele w domu (jeśli nie liczyć Jaguara 8c 1.75GHz
człowkieu te 3 gierki nawet w pełni dx12 nie wykorzystuja. Najlepiej to widac na spierd..ym Gears of War ktory od szpiku kosci jest zatruty shitworksem NVIDII. DX12 jeszcze raczkuje ale bije na łeb ten przeżytek niepotrafiący w pełni wykorzystac sprzęt zwany dx11.
Takie wyliczenia z dupy możesz sobie wsadzić między rolki papieru. Skoro mówimy o grach, na testach można zobaczyć że wykręcony sandy nie odbiega o więcej niż 7% najnowszemu skajlejkowi w niektórych grach, więc nie wiem skąd te twoje 0,75 wydajności skylake... wszystko zależy od gry.
Ciekawe w których tych grach?
Takich co to nawet na Pentium chodzą bez problemu?
Wyjdzie jakaś porządna strategia z mocnym SI i Piaskowy Most się rozsypie
I tak byłem łaskawy dla Sandy Bridge.
CPU World daje SB mniejsze fory.
http://www.cpu-world.com/Compare/577/Intel...7_i7-6700K.html
i7 2700K to 75% wydajności i7 6700K w większości zastosowań i 50% wydajności w specyficznych zastosowaniach. Wnioski sobie wyciągnij sam na podstawie wyników Skylake
Takie wyliczenia z dupy możesz sobie wsadzić między rolki papieru. Skoro mówimy o grach, na testach można zobaczyć że wykręcony sandy nie odbiega o więcej niż 7% najnowszemu skajlejkowi w niektórych grach, więc nie wiem skąd te twoje 0,75 wydajności skylake... wszystko zależy od gry.
Nie zobaczy, bo E8600 jest wolniejszy niż obecne Celerony, a Quady - niż i3.
Jednak skoro już redakcja bada wydajność FXA to powinni również przetestować sandy bridge.
i7 2700K to 75% wydajności i7 6700K w większości zastosowań i 50% wydajności w specyficznych zastosowaniach. Wnioski sobie wyciągnij sam na podstawie wyników Skylake
Sugerujesz, by olać, to co aktualnie jest dostępne i testować jakieś trupy, które można kupić tylko poprzez portale aukcyjne?
To z czym byś chciał Skylake porównywać? Jak ZEN kiedyś wyjdzie, to też nie będziemy go testować, bo Intel będzie miał proce sprzed roku?
Skylake jest w zestawieniu z FX - tak jakby ktoś sugerował, że to porównywalne produkty. Moim zdaniem fxy powinny wylecieć z procedur testowych, bo szkoda czasu lekarzy na badanie zwłok.
Jednak skoro już redakcja bada wydajność FXA to powinni również przetestować sandy bridge.
A czy to wina portalu, że AMD nie ma nic innego, lepszego w swojej ofercie?
Od zawsze w takich zestawieniach porównuje się procesory, które aktualnie są w oficjalnej sprzedaży.
Nic dziwnego, że zakopali Twój komentarz. Obecna sytuacja, jest na rękę dzieciarni i fanatyków nvidii. Na podstawie trzech gier, wyciągnęli wnioski, że DX12 to zło, polecieli lajkować się na fejsach i puszczać w internet kolejne kłamstwa. A przez takie testy i wnioski, kolejny raz dokładnie widać, na czym zależy temu portalowi. W sumie to dziwi mnie, że nie ograniczyli się do jednej gry. Noooo ale przecież TRZY, to już jest coś, można wyciągać wnioski.
A kiedy procesor AMD oferuje lepszą wydajność od Intela, to już entuzjazm mniejszy i najczęściej wymieszany z wnioskami, że jednak lepiej 'dołożyć' i kupić droższego intela, i tak w każdym 'segmencie', aż dokładając dojdziemy poza zasięg AMD, a wtedy intel objawia się jako 'JEDYNA' opcja.
Ten portal przyzwyczaja ludzi właśnie do takich zachowań. Zestaw gorsze i tańsze, z lepszym i droższym, a następnie pastw się, wyśmiewaj, wyszydzaj, nic dziwnego, że później z pclabu rozlewa się na internet tyle dziecinnego chamstwa spod znaku intel i nvidia.
Stare CPU dalej pozostana na tym samym poziomie na ktorym sa w obecnie.
Ten kto ma Q6600, E8600 czy Q9xxx i zobaczyłby, że jego CPU z GTX960, czy R380 daje mniej 10% w DX12 jak i7k skylake, po co miałby kupować cały nowy komp.
...bo GTX 960 potężną kartą graficzną jest
Ostatnio odkryłem geniusz człowieka definiującego profile GPU w Nvidia Experience. Po auto-dopasowaniu karta graficzna chodzi jak zła a gry wyglądają bardzo ładnie.
p.s. Jeśli włączysz w przeglądarce Opera pełną akcelerację sprzętową to odejmiesz ok. 20% obciążenia CPU przy oglądaniu filmów 4K@60fps.
Te trupy posłużą przeciętnym czytelnikom jeszcze przez kilka dobrych lat, więc co jest w tym złego?
Co jest w tym złego? To, że AMD chcemy dawać taryfy ulgowe. To AMD nie wydało CPU od lat i dlatego obecnym konkurentem FXów są Skylake'i. Ofertę AMD ma jaką ma i to tylko ich wina, że nic z tym nie robią/ nie potrafią zrobić.
Ja też bym chciał zobaczyć, jak dzisiaj wypadają Phenomy i C2Q, ale cóż - Roboty przy testowaniu już teraz nie brakuje na pewno.
To jeszcze takie pytanie. Co by dało przetestowanie np. SandyB? Jeśli AMD by ich wyprzedziło, to byśmy obwieścili wielki sukces?
Chodzi o to że są ludzie co chcą zmienić grafike mając stare i5/i7 sandy/ivy i nie zamierzają zmieniać jeszcze bazowej platformy, takie porównanie pozwoli realnie ocenić czy warto pchać się w grafiki amd skoro coraz wiecej ma gier wychodzić w dx12/vulkan czy jednak zostać z nvidią ... Już tu nie chodzi o samo dawanie taryfy ulgowej prockom amd a o faktyczną przydatność tego testu.
Relacje wydajnościowe z gry w 99% pokrywają się z wynikami z wbudowanego benchmarka
Pełna wersja gry nic nie zmienia w kwestii relacji po między poszczególnym kartami choć od ostatniego testu BETY wydajność zarówno na NV jak i AMD poszła w górę.
Tak samo jak w BECIE w momencie gdy launcher wykryje kartę NV wyłącza Async Compute w pliku konfiguracyjnym gry.
Dzięki za info
Te trupy posłużą przeciętnym czytelnikom jeszcze przez kilka dobrych lat, więc co jest w tym złego?
Co jest w tym złego? To, że AMD chcemy dawać taryfy ulgowe. To AMD nie wydało CPU od lat i dlatego obecnym konkurentem FXów są Skylake'i. Ofertę AMD ma jaką ma i to tylko ich wina, że nic z tym nie robią/ nie potrafią zrobić.
Ja też bym chciał zobaczyć, jak dzisiaj wypadają Phenomy i C2Q, ale cóż - Roboty przy testowaniu już teraz nie brakuje na pewno.
To jeszcze takie pytanie. Co by dało przetestowanie np. SandyB? Jeśli AMD by ich wyprzedziło, to byśmy obwieścili wielki sukces?