Ze względu na ograniczony czas udało się nam wykonać tylko tyle testów. Jutro postaramy się uzupełnić część braków, w szczególności Battlefielda 4.
Jeszcze dzisiaj będą wyniki w trzech dodatkowych grach, tak jak prosił użytkownik 'FarCry3'.
A co nie mogliście poczekać i wstawić skończonego artykułu? Wrzucanie niedokończonego projektu i jeszcze chwalenie się tym jest bardzo nieprofesjonalne.
Nie wiem czym sie podniecać. Takie sterowniki maja to do siebie, ze poprawiaj wydajnosc tylko w konkretnych grach.
Dlaczego poprawiaj wydajnosc z konkretnych grach ? Dlatego, ze sterownik podmienia kod gry na swoj wlasny zopatymalizowany pod konkretna karte graficzna.
Te sterowniki niczego rozwiazuja, poza poprawa wydajnosci z konkretnych tytułach.
Dlaczego NVIDIA tego wczesniej nie robiła ? A wiecie ile rocznie wychodzi gier AAA ? I ze do kazdej trzeba pisac osobny kod w sterowniku ? Bo chyba nie myslicie, ze sterowniki maja ponad 140MB dlatego, ze... E nie wiem co myslicie, ale powodem jest wlasnie kod dla konkretnych gier i aplikacji.
A po drugie to nie musieli tego robic, bo nie mieli zadnej konkurencji.
Dokładnie nie wiemy... pytanie co zweryfikowałoby to i po co to robić?
Nie wiemy czy optymalizacja w sterowniku czy optymalizacja pod x grę...
... jak to zweryfikować?
Nawet jeśli to i tak grasz w x grę, a nie y benchmark.
Focus nie rzucaj się tak. Fani NV od tygodnia jak na szpilkach czekali na tego 'killera mantle' w postaci nowych sterowników gdzie NV sama słupki walnęła zarąbiste (tylko nie na tym procku co trzeba). Skoro ta konkretna wersja takich rewolucji NIE przynosi to dla mnie jest jasne, że żadnej magii, super optymalizacji sterownika dla DX11 nie ma, za to prawdopodobnie NV jak to i przecież AMD miało w zwyczaju cały czas coś poprawia i cały czas tu i ówdzie przyrosty się między kolejnymi wersjami pojawiają. Wielu sądząc po 'zachętach' zielonych żyło w przekonaniu, że z DX11 da się wykrzesać tyle co z mantle, trzeba tylko lepsze sterowniki. No i nie jest to akurat całkowicie poprawna konkluzja, szczególnie, że nie ma ani jednej gry tworzonej z myślą o mantle od początku. Jest parę roboczych tytułów i 2 już wydane gdzie mantle DODANO pod koniec produkcji a i tak (przynajmniej na słabych procesorach) wyniki są imponujące.
Przydałoby się więcej testów na większej ilości kart. Akurat podniesienie wydajności na jednym modelu karty, do tego topowym to w sumie prawie żadna korzyść dla (strzelam) 80% użytkowników. Mam prośbę do redakcji- możliwe byłoby przeprowadzenie testów na mobilnych kartach nvidii?
Nie wiem czym sie podniecać. Takie sterowniki maja to do siebie, ze poprawiaj wydajnosc tylko w konkretnych grach.
Dlaczego poprawiaj wydajnosc z konkretnych grach ? Dlatego, ze sterownik podmienia kod gry na swoj wlasny zopatymalizowany pod konkretna karte graficzna.
Te sterowniki niczego rozwiazuja, poza poprawa wydajnosci z konkretnych tytułach.
Dlaczego NVIDIA tego wczesniej nie robiła ? A wiecie ile rocznie wychodzi gier AAA ? I ze do kazdej trzeba pisac osobny kod w sterowniku ? Bo chyba nie myslicie, ze sterowniki maja ponad 140MB dlatego, ze... E nie wiem co myslicie, ale powodem jest wlasnie kod dla konkretnych gier i aplikacji.
A po drugie to nie musieli tego robic, bo nie mieli zadnej konkurencji.
No właśnie czekam na te wyniki w BF4. Niedawno testowałem zestaw i3 Haswell (z obniżonym zegarem) + GTX750Ti w BF3 na mapie Caspian Border (sterowniki dośc świeże, 332 albo 335). Wprawdzie z wyłączonym HT nie było tragicznie (tylko sporadycznie spadało poniżej 30 kl./s) to jednak z HT było zdecydowanie lepiej, o dobre 30%. Więc tutaj jest szansa na spory wzrost względem FW 335.23.
Inna sprawa, że dobrodziejstwa które obserwujemy na Haswellu niekoniecznie muszą się powtarzać w przypadku innych architektur (SB/IB, FX, nie wspominając już o Core 2 czy Phenomach). Fajnie byłoby to zweryfikować, choć wiem, że to dużo pracy...
Chcemy to wykonać, przynajmniej częściowo, ale z pewnością nie uda się to dziś ani jutro.
No właśnie czekam na te wyniki w BF4. Niedawno testowałem zestaw i3 Haswell (z obniżonym zegarem) + GTX750Ti w BF3 na mapie Caspian Border (sterowniki dośc świeże, 332 albo 335). Wprawdzie z wyłączonym HT nie było tragicznie (tylko sporadycznie spadało poniżej 30 kl./s) to jednak z HT było zdecydowanie lepiej, o dobre 30%. Więc tutaj jest szansa na spory wzrost względem FW 335.23.
Inna sprawa, że dobrodziejstwa które obserwujemy na Haswellu niekoniecznie muszą się powtarzać w przypadku innych architektur (SB/IB, FX, nie wspominając już o Core 2 czy Phenomach). Fajnie byłoby to zweryfikować, choć wiem, że to dużo pracy...
'GeForce w połączeniu z 2-wątkowym procesorem osiągnął we wszystkich przetestowanych przez nas grach wyniki wyższe, niż analogiczny zestaw z Radeonem'
Ale ktoś tu nieładnie kłamie, przecież wynik w SC II pokazuje co innego, to samo Thief. Więc nie są to wszystkie gry a 50% przetestowanych tytułów. Tak naprawdę, tylko w jednej grze widzimy jakąś znaczącą poprawę, jeśli chodzi o 2 wątkowe procesory, więc pisanie o diametralnej różnicy przy składaniu tańszych zestawów z Pentiumami G i NVIDIą jest BEZ SENSU. Z resztą kto kupuje Pentiuma G i dokłada do niego GTX 780 GHZ? A na takich właśnie wynikach opieracie swoje podsumowanie.
To jest ładny preview/teaser, ale nie powinniście formować jakichś znaczących podsumowań na podstawie wyników z 4 gier i benchmarka, który w ogóle nie powinien być brany pod uwagę, bo nie daje żadnego odniesienia jeśli chodzi o wydajność w grach. Poza tym przetestowaliście jedną kartę graficzną, naprawdę w redakcji nie było więcej GeForców, same Radeony macie, czy jak? Chyba, że dorzucicie jeszcze testy z jakimiś Keplerami.
Przejrzyj wyniki teraz. Pozostał nam jeszcze Battlefield 4.
Cóż kolejny wyścig zbrojeń, wojna o klienta trwa, nie wprowadzą czegoś, póki konkurencja nie drgnie, a drgnęło u AMD to Nvidia ripostuje.
Taki świat, zmienia się tylko wtedy, kiedy wyłożą kasę na stół, bo 5 lat dx11 wszyscy przespali.
@Focus, nie twierdzę, że nv nie poprawiła sterowników, również nie twierdzę, że test jest niewiarygodny, ale sam wiesz, że duża cześć osób nie zerka na wykresy tylko czyta jedynie podsumowanie, co doskonale widać w komentarzach. Owe podsumowanie przypomina mowę pochwalną z pokazu garnków dla emerytów i o to jest głównie raban.
Napiszę to raz jeszcze: pisząc to mamy na względzie wyniki, które jeszcze nie zostały opublikowane, to po pierwsze. Po drugie nie patrzymy wyłącznie na różnicę między tymi nowymi sterownikami, a bezpośrednimi poprzednikami, a względem tego co było powiedzmy 2-3 miesiące temu. Faktem jest, że nvidia poprawiała wydajność stopniowo, co jak widać i nam umknęło w dużym stopniu i podsumowanie najwyraźniej nieprecyzyjnie określa co dokładnie określamy (tu może chodzić o to, że inaczej czyta się swój tekst na podstawie testów które się samemu przeprowadziło).
Podsumowując nie jest to żadna rewolucja a ewolucja na przestrzeni ostatnich miesięcy. Proponuję coś w podobie dodać do podsumowania i moim zdaniem sprawa się zakończy.
@Focus, nie twierdzę, że nv nie poprawiła sterowników, również nie twierdzę, że test jest niewiarygodny, ale sam wiesz, że duża cześć osób nie zerka na wykresy tylko czyta jedynie podsumowanie, co doskonale widać w komentarzach. Owe podsumowanie przypomina mowę pochwalną z pokazu garnków dla emerytów i o to jest głównie raban.
Napiszę to raz jeszcze: pisząc to mamy na względzie wyniki, które jeszcze nie zostały opublikowane, to po pierwsze. Po drugie nie patrzymy wyłącznie na różnicę między tymi nowymi sterownikami, a bezpośrednimi poprzednikami, a względem tego co było powiedzmy 2-3 miesiące temu. Faktem jest, że nvidia poprawiała wydajność stopniowo, co jak widać i nam umknęło w dużym stopniu i podsumowanie najwyraźniej nieprecyzyjnie określa co dokładnie określamy (tu może chodzić o to, że inaczej czyta się swój tekst na podstawie testów które się samemu przeprowadziło).
@Focus, nie twierdzę, że nv nie poprawiła sterowników, również nie twierdzę, że test jest niewiarygodny, ale sam wiesz, że duża cześć osób nie zerka na wykresy tylko czyta jedynie podsumowanie, co doskonale widać w komentarzach. Owe podsumowanie przypomina mowę pochwalną z pokazu garnków dla emerytów i o to jest głównie raban.
'Rewolucja' może i była, ale taka trochę 'pełzająca'. Wygląda na to, że od kilku generacji sterowników Nvidia poprawia działanie sterowników, zwłaszcza w przypadku procesorów 2c/2t ( bo i tam było najwięcej do poprawy). Teraz po prostu widać tego efekty.
Rozumiem, że PcLab prowadzi jakąś dziwną zakulisową wojenkę z AMD, m.in. dlatego, próżno szukać testu 295x2, ale do wuja pana, przestańcie zaklinać rzeczywistość w imię dopieprzenia komuś, z kim wojujecie.
żeby dowalić AMD to wystarczy tylko, jak mawia Kolonko, napisać jak jest. AMD Polska prowadzi bardzo podobną politykę do HP Polska. Jak skończył oddział HP Polska niedawno można było poczytać
@wuzetkowiec: bo cały czas ograniczasz się do myślenia o tych konkretnych sterownikach i nie patrzysz na to co zmieniło się względem tego co było powiedzmy 2 miesiące temu. Nvidia jak widać poprawiała sterowniki systematycznie i efekt tego jest teraz. Cały czas mamy w głowie wyniki, których jeszcze nie opublikowaliśmy, a ponad wszystko i najważniejsze: trzeba z głową analizować opublikowane wyniki. Nie wszystko jest podane na tacy i kto jak kto, ale Ty nie powinieneś mieć problemu z właściwym rozszyfrowaniem zaszytych informacji.
Choć są to dopiero wstępne testy nowych sterowników Nvidia GeForce 337.50, to już teraz możemy powiedzieć, że są one znaczącym krokiem w dziedzinie poprawy wydajności w grach
Ja tam nie widzę nic na temat rewolucyjności, a jedynie zwrot 'znaczący krok'.
Osobiście odebrałem to jako informację, że nie trzeba kupować nowej karty, nie trzeba tworzyć nowego API ani pisać gry na nowo, wystarczyło poprawić/optymalizować to co jest i jakaś poprawa jest widoczna.
Jasne, że nie trzeba, bo uzyskując wzrost rzędu 3 - 5 fps, gra staje się nagle płynna? Jaja sobie robisz? Mam ci zacytować, co kilka dni temu wypisywano na tym śmiesznym porataliku?
''Nvidia udostępniła dzisiaj nowe sterowniki, o których od jakiegoś czasu jest w Internecie bardzo głośno. GeForce 337.50 Beta mają przynieść bardzo duży wzrost wydajności w grach korzystających z API DirectX 11 i to zarówno na konfiguracjach z jedną kartą graficzną, jak i tych z wieloma GPU''.
Wspomniane 3 - 5 fps, to ma być ten bardzo duży wzrost wydajności? To jest rewolucja? Czym różnię się te rewolucyjne stery od wcześniejszych, niby nierewolucyjnych, gdzie prawie zawsze pisano, że przynoszą wzrostu kilku procent? Autor testu zamiast skonkludować, że z dużej chmury mały deszcz, zaczyna walić jakiś hymny pochwalne, zupełnie nieadekwatne do tego, co widać na wykresach.
Rozumiem, że PcLab prowadzi jakąś dziwną zakulisową wojenkę z AMD, m.in. dlatego, próżno szukać testu 295x2, ale do wuja pana, przestańcie zaklinać rzeczywistość w imię dopieprzenia komuś, z kim wojujecie.
Rewolucja czy nie Nvidia pokazała że potrafi z DirectX zrobić to na co AMD udało się dopiero z Mantle. Różnica jest taka że Nvidia oferuje to w 9/10 gier, a AMD zaledwie w dwóch
Teraz pomyśl w drugą stronę, te dwie gry to wymusił na nVidii. To jest chyba w tym wszystkim najważniejsze, bo zostało znów udowodnione jak nas korporacje dymaja z kasy.
Rome 2 TW faktycznie, ale ja u siebie nie zauważyłem takiego boost-a, ile jednostek macie na ekranie podczas testu (pisze jak dobrze pamiętam podczas ładowania się map-y bitwy). Nie wiem ja nie mam 290tki, więc nie mogę ocenić wzrostu tutaj wydajności vs radeon, ale generalnie nic się tu o zgrozo nie zmieniło po 10 patchach, po aktualizacji sterowników dalej biednie.
Gra jak miała problemy, tak wciąż je ma, ale należy tutaj patrzeć nie tyle na sterowniki 337.50 kontra 335.23, co na 'nowe' kontra 'stare', bo okazuje się, że wcześniej na 2-wątkowym CPU na Nvidii nie dało się grać praktycznie (a przynajmniej było znacznie gorzej niż na Radeonie), a teraz wygląda na to, że to właśnie na Nvidii będzie szybciej. Ale jeszcze raz mówię: póki co to taki rzut oka bardziej, bo wymaga to badań w dużo większej grupie gier.
Nie mogę tego zweryfikować jak na AMD... ale u mnie jak było 18-20FPSów tak jest 18-20FPSów, a limitem nie jest karta graficzna, bo zmiana rozdzielczości nic nie daje.
Żadne stery patche jak nie naprawiły problemów tutaj.
Druga gra z którą mam problemy to simcity... miasto, które ma parę mln ludzi/turystów mam problem z FPSem i ciągnie koło 18.
Na podkręcony i7 jest ok... ale bez OC generalnie 'tnie'.
Jeszcze dzisiaj będą wyniki w trzech dodatkowych grach, tak jak prosił użytkownik 'FarCry3'.
A co nie mogliście poczekać i wstawić skończonego artykułu? Wrzucanie niedokończonego projektu i jeszcze chwalenie się tym jest bardzo nieprofesjonalne.
Dlaczego poprawiaj wydajnosc z konkretnych grach ? Dlatego, ze sterownik podmienia kod gry na swoj wlasny zopatymalizowany pod konkretna karte graficzna.
Te sterowniki niczego rozwiazuja, poza poprawa wydajnosci z konkretnych tytułach.
Dlaczego NVIDIA tego wczesniej nie robiła ? A wiecie ile rocznie wychodzi gier AAA ? I ze do kazdej trzeba pisac osobny kod w sterowniku ? Bo chyba nie myslicie, ze sterowniki maja ponad 140MB dlatego, ze... E nie wiem co myslicie, ale powodem jest wlasnie kod dla konkretnych gier i aplikacji.
A po drugie to nie musieli tego robic, bo nie mieli zadnej konkurencji.
Dokładnie nie wiemy... pytanie co zweryfikowałoby to i po co to robić?
Nie wiemy czy optymalizacja w sterowniku czy optymalizacja pod x grę...
... jak to zweryfikować?
Nawet jeśli to i tak grasz w x grę, a nie y benchmark.
Dlaczego poprawiaj wydajnosc z konkretnych grach ? Dlatego, ze sterownik podmienia kod gry na swoj wlasny zopatymalizowany pod konkretna karte graficzna.
Te sterowniki niczego rozwiazuja, poza poprawa wydajnosci z konkretnych tytułach.
Dlaczego NVIDIA tego wczesniej nie robiła ? A wiecie ile rocznie wychodzi gier AAA ? I ze do kazdej trzeba pisac osobny kod w sterowniku ? Bo chyba nie myslicie, ze sterowniki maja ponad 140MB dlatego, ze... E nie wiem co myslicie, ale powodem jest wlasnie kod dla konkretnych gier i aplikacji.
A po drugie to nie musieli tego robic, bo nie mieli zadnej konkurencji.
Inna sprawa, że dobrodziejstwa które obserwujemy na Haswellu niekoniecznie muszą się powtarzać w przypadku innych architektur (SB/IB, FX, nie wspominając już o Core 2 czy Phenomach). Fajnie byłoby to zweryfikować, choć wiem, że to dużo pracy...
Chcemy to wykonać, przynajmniej częściowo, ale z pewnością nie uda się to dziś ani jutro.
Inna sprawa, że dobrodziejstwa które obserwujemy na Haswellu niekoniecznie muszą się powtarzać w przypadku innych architektur (SB/IB, FX, nie wspominając już o Core 2 czy Phenomach). Fajnie byłoby to zweryfikować, choć wiem, że to dużo pracy...
Ale ktoś tu nieładnie kłamie, przecież wynik w SC II pokazuje co innego, to samo Thief. Więc nie są to wszystkie gry a 50% przetestowanych tytułów. Tak naprawdę, tylko w jednej grze widzimy jakąś znaczącą poprawę, jeśli chodzi o 2 wątkowe procesory, więc pisanie o diametralnej różnicy przy składaniu tańszych zestawów z Pentiumami G i NVIDIą jest BEZ SENSU. Z resztą kto kupuje Pentiuma G i dokłada do niego GTX 780 GHZ? A na takich właśnie wynikach opieracie swoje podsumowanie.
To jest ładny preview/teaser, ale nie powinniście formować jakichś znaczących podsumowań na podstawie wyników z 4 gier i benchmarka, który w ogóle nie powinien być brany pod uwagę, bo nie daje żadnego odniesienia jeśli chodzi o wydajność w grach. Poza tym przetestowaliście jedną kartę graficzną, naprawdę w redakcji nie było więcej GeForców, same Radeony macie, czy jak? Chyba, że dorzucicie jeszcze testy z jakimiś Keplerami.
Przejrzyj wyniki teraz. Pozostał nam jeszcze Battlefield 4.
Są wyniki w grach, o które prosiłeś. Pamiętajcie tylko, że w Assassin's Creed jest limit do 60 kl./s, którego nie da się zdjąć.
Taki świat, zmienia się tylko wtedy, kiedy wyłożą kasę na stół, bo 5 lat dx11 wszyscy przespali.
Napiszę to raz jeszcze: pisząc to mamy na względzie wyniki, które jeszcze nie zostały opublikowane, to po pierwsze. Po drugie nie patrzymy wyłącznie na różnicę między tymi nowymi sterownikami, a bezpośrednimi poprzednikami, a względem tego co było powiedzmy 2-3 miesiące temu. Faktem jest, że nvidia poprawiała wydajność stopniowo, co jak widać i nam umknęło w dużym stopniu i podsumowanie najwyraźniej nieprecyzyjnie określa co dokładnie określamy (tu może chodzić o to, że inaczej czyta się swój tekst na podstawie testów które się samemu przeprowadziło).
Podsumowując nie jest to żadna rewolucja a ewolucja na przestrzeni ostatnich miesięcy. Proponuję coś w podobie dodać do podsumowania i moim zdaniem sprawa się zakończy.
Napiszę to raz jeszcze: pisząc to mamy na względzie wyniki, które jeszcze nie zostały opublikowane, to po pierwsze. Po drugie nie patrzymy wyłącznie na różnicę między tymi nowymi sterownikami, a bezpośrednimi poprzednikami, a względem tego co było powiedzmy 2-3 miesiące temu. Faktem jest, że nvidia poprawiała wydajność stopniowo, co jak widać i nam umknęło w dużym stopniu i podsumowanie najwyraźniej nieprecyzyjnie określa co dokładnie określamy (tu może chodzić o to, że inaczej czyta się swój tekst na podstawie testów które się samemu przeprowadziło).
Rozumiem, że PcLab prowadzi jakąś dziwną zakulisową wojenkę z AMD, m.in. dlatego, próżno szukać testu 295x2, ale do wuja pana, przestańcie zaklinać rzeczywistość w imię dopieprzenia komuś, z kim wojujecie.
żeby dowalić AMD to wystarczy tylko, jak mawia Kolonko, napisać jak jest. AMD Polska prowadzi bardzo podobną politykę do HP Polska. Jak skończył oddział HP Polska niedawno można było poczytać
Ja tam nie widzę nic na temat rewolucyjności, a jedynie zwrot 'znaczący krok'.
Osobiście odebrałem to jako informację, że nie trzeba kupować nowej karty, nie trzeba tworzyć nowego API ani pisać gry na nowo, wystarczyło poprawić/optymalizować to co jest i jakaś poprawa jest widoczna.
Jasne, że nie trzeba, bo uzyskując wzrost rzędu 3 - 5 fps, gra staje się nagle płynna? Jaja sobie robisz? Mam ci zacytować, co kilka dni temu wypisywano na tym śmiesznym porataliku?
''Nvidia udostępniła dzisiaj nowe sterowniki, o których od jakiegoś czasu jest w Internecie bardzo głośno. GeForce 337.50 Beta mają przynieść bardzo duży wzrost wydajności w grach korzystających z API DirectX 11 i to zarówno na konfiguracjach z jedną kartą graficzną, jak i tych z wieloma GPU''.
Wspomniane 3 - 5 fps, to ma być ten bardzo duży wzrost wydajności? To jest rewolucja? Czym różnię się te rewolucyjne stery od wcześniejszych, niby nierewolucyjnych, gdzie prawie zawsze pisano, że przynoszą wzrostu kilku procent? Autor testu zamiast skonkludować, że z dużej chmury mały deszcz, zaczyna walić jakiś hymny pochwalne, zupełnie nieadekwatne do tego, co widać na wykresach.
Rozumiem, że PcLab prowadzi jakąś dziwną zakulisową wojenkę z AMD, m.in. dlatego, próżno szukać testu 295x2, ale do wuja pana, przestańcie zaklinać rzeczywistość w imię dopieprzenia komuś, z kim wojujecie.
Teraz pomyśl w drugą stronę, te dwie gry to wymusił na nVidii. To jest chyba w tym wszystkim najważniejsze, bo zostało znów udowodnione jak nas korporacje dymaja z kasy.
Gra jak miała problemy, tak wciąż je ma, ale należy tutaj patrzeć nie tyle na sterowniki 337.50 kontra 335.23, co na 'nowe' kontra 'stare', bo okazuje się, że wcześniej na 2-wątkowym CPU na Nvidii nie dało się grać praktycznie (a przynajmniej było znacznie gorzej niż na Radeonie), a teraz wygląda na to, że to właśnie na Nvidii będzie szybciej. Ale jeszcze raz mówię: póki co to taki rzut oka bardziej, bo wymaga to badań w dużo większej grupie gier.
Nie mogę tego zweryfikować jak na AMD... ale u mnie jak było 18-20FPSów tak jest 18-20FPSów, a limitem nie jest karta graficzna, bo zmiana rozdzielczości nic nie daje.
Żadne stery patche jak nie naprawiły problemów tutaj.
Druga gra z którą mam problemy to simcity... miasto, które ma parę mln ludzi/turystów mam problem z FPSem i ciągnie koło 18.
Na podkręcony i7 jest ok... ale bez OC generalnie 'tnie'.
Też pokazują jak ogólnie producenci marnują zasoby nie dopracowanymi sterwonikami. To się przekłada na grubą kasę.