Te testy są tendencyjne i na pierwszy rzut oka widać że sponsorował go dystrybutor procesorów x, a te jak wiadomo są 8 rdzeniowe i 16 wątkowe
Ale cenowa promocja mi się podoba
Chcialbym zobaczyc jaki jest wplyw procesora przy GTX980/ti/Titan w 1440p/4K vs 1080p
Jak to sie skaluje.
Nie widać go w porównaniu 1280:1024 vs. 3,5k + AA przy Celeronie D i GTX'ie 780 Ti, dlaczego uważasz że przy mocniejszym procku będzie bardziej widoczny ?
Źródło : http://forum.pclab.pl/topic/964186-Legendy...;#entry12572078
Rozdzielczość w jakiej grasz/testujesz, nie ma znaczenia dla CPU.
Czyli powiedzmy, ze przewaga 6700k nad 2600k jest 25% w 1080p to bedzie to tak samo 25% w 4K? wiadomo ilosc klatek bedzie inna ale dalej to bedzie 25%?
Pytam bo nie znam sie na tym tyle co wy. Na forum czytalem, ze przewaga nowej generacji procesorów ma mniejsze znaczenie (jest mniejszy wzrost) wraz ze zwiekszona rozdzielczoscia.
Dobra to już od dawna tak niektóre serwisy robią, ale zastawiające jest to, że to są duże serwisy i nikt jeszcze nie zauważył u nich tych jaj z testami i dalej to samo robią, kto to robi 12 latkowie czy jak.
Przecież nowe procesory są dla osób wymieniających bardzo starego kompa, którego elementy w ogóle już sobie nie dają rady, albo dla kogoś kto kupuje całkowicie nowego kompa. Przecież to oczywiste, że jak ktoś 4 lata temu kupił mocnego i5 czy i7 nie wymieni go, bo ma świetną wydajność. Poza tym zapytam - czy Wy naprawdę potrzebujecie wymieniać większość waszego komputera po 4 latach? Chyba po to kiedyś wydaliście 3000-4000zł, żeby mieć spokój na wiele lat
1) wszystkie dostępne karty graficzne, niezależnie od producenta, są zbyt słabe aby ukazały zalety nowych procesorów intela;
albo:
2) metodologia testowa jest niedostosowana do nowoczesnych podzespołów.
Czy zatem testy realnej wydajności procesorów powinny być przeprowadzane przy użyciu min dwóch kart graficznych w ramach CF/SLi, lub kart dwuukładowych? Ewentualnie, czy przesiedka na W10 i DX12 będzie miała znaczący wpływ na wyniki?
Swoją drogą, trochę dziwi mnie, że intel swoim najnowszym 'dzieciom' poskąpił L4 dając je tym nieco tylko starszym? Czyżby stwierdzili, że wobec zastoju po stronie konkurencji, nie warto jeszcze rzucać na stół wszystkich kart, a dysponować nimi stopniowo, w celu - wiadomo - napełniania mieszka dutkami..?
Nawet monopol spirytusowy za komuny miał realną konkurencję w postaci domowej produkcji!
Czyli powiedzmy, ze przewaga 6700k nad 2600k jest 25% w 1080p to bedzie to tak samo 25% w 4K? wiadomo ilosc klatek bedzie inna ale dalej to bedzie 25%.
Nie. Jeśli masz odpowiednio szybką kartę i wydajność w danej grze/miejscu jest limitowana procesorem, to liczba klatek na sekundę będzie zawsze taka sama niezależnie od rozdzielczości. W przypadku 4K może co najwyżej nastąpić taka sytuacja, że karta okaże się za słaba i to karta zacznie limitować wydajność, a nie procesor. Tylko wtedy to już przestaje być test wydajności procesora.
Chcialbym zobaczyc jaki jest wplyw procesora przy GTX980/ti/Titan w 1440p/4K vs 1080p
Jak to sie skaluje.
Dzieki i pozdrawiam!
Ale cenowa promocja mi się podoba
Jak to sie skaluje.
No to nie rozumiesz.
Jak to sie skaluje.
Źródło : http://forum.pclab.pl/topic/964186-Legendy...;#entry12572078
Rozdzielczość w jakiej grasz/testujesz, nie ma znaczenia dla CPU.
Jak to sie skaluje.
Źródło : http://forum.pclab.pl/topic/964186-Legendy...;#entry12572078
Rozdzielczość w jakiej grasz/testujesz nie ma znaczenia dla CPU.
Czyli powiedzmy, ze przewaga 6700k nad 2600k jest 25% w 1080p to bedzie to tak samo 25% w 4K? wiadomo ilosc klatek bedzie inna ale dalej to bedzie 25%?
Pytam bo nie znam sie na tym tyle co wy. Na forum czytalem, ze przewaga nowej generacji procesorów ma mniejsze znaczenie (jest mniejszy wzrost) wraz ze zwiekszona rozdzielczoscia.
Chciałbym wiedzieć na jakiej podstawie tak sądzisz ?
Ciekawe wnioski, na szczęście totalnie nieprawdziwe.
Chciałbym wiedzieć na jakiej podstawie tak sądzisz ?
Ciekawe wnioski, na szczęście totalnie nieprawdziwe.
Bo karta będzie ograniczać procesor.
Chciałbym wiedzieć na jakiej podstawie tak sądzisz ?
Ciekawe wnioski, na szczęście totalnie nieprawdziwe.
Tam gdzie zaczynają się detale ULTRA kończy się GTX 970, więc kolega wyżej napisał dobrze.
Bo karta będzie ograniczać procesor.
SB ograniczał już starego GTX780, a co dopiero 980ti. Nie wspominając o radkach gdzie narzut jest większy. Bzdury wypisujesz.
1) wszystkie dostępne karty graficzne, niezależnie od producenta, są zbyt słabe aby ukazały zalety nowych procesorów intela;
albo:
2) metodologia testowa jest niedostosowana do nowoczesnych podzespołów.
Czy zatem testy realnej wydajności procesorów powinny być przeprowadzane przy użyciu min dwóch kart graficznych w ramach CF/SLi, lub kart dwuukładowych? Ewentualnie, czy przesiedka na W10 i DX12 będzie miała znaczący wpływ na wyniki?
Swoją drogą, trochę dziwi mnie, że intel swoim najnowszym 'dzieciom' poskąpił L4 dając je tym nieco tylko starszym? Czyżby stwierdzili, że wobec zastoju po stronie konkurencji, nie warto jeszcze rzucać na stół wszystkich kart, a dysponować nimi stopniowo, w celu - wiadomo - napełniania mieszka dutkami..?
Nawet monopol spirytusowy za komuny miał realną konkurencję w postaci domowej produkcji!
Bo karta będzie ograniczać procesor.
SB ograniczał już starego GTX780, a co dopiero 980ti. Nie wspominając o radkach gdzie narzut jest większy. Bzdury wypisujesz.
Żart roku.
Swoją drogą, trochę dziwi mnie, że intel swoim najnowszym 'dzieciom' poskąpił L4 dając je tym nieco tylko starszym?
Albo L4 będzie tylko w Skylake-E, albo/i dodadzą go w Skylake Refresh, żeby zachęcić ludzi do wymiany.
Nie. Jeśli masz odpowiednio szybką kartę i wydajność w danej grze/miejscu jest limitowana procesorem, to liczba klatek na sekundę będzie zawsze taka sama niezależnie od rozdzielczości. W przypadku 4K może co najwyżej nastąpić taka sytuacja, że karta okaże się za słaba i to karta zacznie limitować wydajność, a nie procesor. Tylko wtedy to już przestaje być test wydajności procesora.