Też się śmieję z testów 4k... czysto teoretycznie mnie to zwisa czy test robiony w 4k czy 900p o ile różnica wydajności (ilości FPS) w obu będzie minmalna Jeśli tak nie będzie to znaczy, że albo trzeba zmniejszyć rozdzielczość albo kupić wydajniejszą grafę. Pytanie co da użyszkodnikom 4k jeśli wydajność będzie na poziomie 1080p... uśmiech na ustach?
Może chodzi o te, że te osoby też liczą swoje pieniądze, i wiedzą jakie im optymalnie GPU wystarczy do tego w co grają w 4K (bo GPU są testowane), ale nie wiedzą jaki poziom wydajności CPU przestaje mieć znaczenie (bo nie są testowane). Skoro teoretycznie w większości gier od jakiegoś i5 wszystko by się spłaszczało dla najmocniejszej karty, to wiadomo by było, że po wyższe modele nie muszą sięgać.
Dokładnie. A nawet gdy gry będą korzystać ze wszystkich wątków i9 na max, okaże się, że zegar zejdzie do 3.5GHz... po 20s grania. To tak jakby producent samochodów montował chłodnicę i intercooler pozwalające utrzymać moc przez 20 sekund, a później ze 150KM 350Nm robiłoby się 105KM 200Nm
Akurat zasada działania tego boosta jest niegłupia. Każdy układ scalony jest w stanie przez pewien czas działać na parametrach przekraczających teoretyczne możliwości układu chłodzenia (przykładowo: cooler jest w stanie odprowadzić 200W, procesor ciągnie 250W i przez pewien czas jest ok, ale temperatura radiatora rośnie i w końcu osiągnie niepożądany poziom). Można to wykorzystać aby jak najszybciej zakończyć krótkie, ale obciążające obliczeniowo zadania albo uniknąć spadków fps w krytycznych momentach wymagającej gry.
Jest tylko kilka 'ale'. Testując taki procesor w zastosowaniach wymagających typowo wielu godzin ciągłego działania na wysokich obrotach (np. rendering) należy albo przeprowadzać dłuższy test, ale po protu wyłączyć boosta, bo w przeciwnym razie wynik będzie nieco wypaczony na korzyść (w stosunku do procesorów nie wykorzystujących opisanego zjawiska). Poza tym w przypadku utrzymywania akceptowalnej temperatury częstotliwość nie powinna lecieć 'na łeb na szyję' tylko z powodu upływu czasu i wysokiego wykorzystania zasobów. W przypadku tego konkretnego testowanego procesora wg mnie Intel przesadził z limitem TDP, powinien dać 125W - na lowendowych płytach z sekcją zasilania na styk i tak nikt tego nie będzie trzymał.
A co do tego waszego 4K to naprawdę nie rozumiem czego byście jeszcze chcieli. Chyba każdy wie, czy potrzebuje 60, 75. 90, 100 czy może 120 kl./s. No to patrzycie na testy i jeśli min. fps jest wyższe od potrzebnego to dany procesor spokojnie pociągnie daną grę w 4K. Gdyby testować tak jak chcecie to test byłoby w jakimś tam znikomym stopniu przydatny tylko w razie posiadania identycznego GPU jak w platformie testowej. Jeśli macie lepsze to spłaszczony przez GPU wynik na poziomie np. 40 kl./s nic wam nie powie.
Ten procek to się przyda zimą . Już widzę jego temperatury i pobór prądu po OC.
Lato go zweryfikuje. Ja dokonałem wyboru w tej samej cenie. https://moniox.wordpress.com.
a teraz chodzi 4.1 przy 1.34v -- pełne obciążenie-- max 74 stopni Nocuta 1 wentylator.
W sumie masz racje, jeżeli jakaś karta X w 4K na najmocniejszym procku robi w jakichś tam ustawieniach min. 60fps i max 70, i dajmy na to jest jakiś słabszy procek Y co w tej samej grze z mocniejszymi kartami jest w tyle, ale też daje min. 60fps i max np. 100 tylko, że w innej rozdzielczości to połączenie X i Y powinno dać min. 60fps w 4K a mocniejszy procek od Y nic nie da więcej.
@DaviM
Ale jaki bardziej przyszłościowy jak 'Wyniki wydajności mniej więcej na remis'. A cena dzisiaj taka a za miesiąc może być odwrotnie bo Intel już robi jakieś ruchy. ...
O których ruchach intela mówisz? O tym np. jak przestawił się nagle z produkcji procesów dla ludu 4 core po 7 latach na 8 core i ma problemy z wyprodukowaniem odpowiedniej liczby procków przez co ceny są kosmiczne?
Takie ruchy, że dziś i9-9900K można kupić za 2450 zł.
Taaaa. Pamiętam jak mnie bobki minusowały jak mówiłem, że 8 rdzeni w i7 9700K przebije w grach i7 8700K z 6/12. To nieeeee, głupoty. Proszę bardzo, pokazane idealnie jak gry są upośledzone jeśli chodzi o HT
Jest dużo testów w innych serwisach gdzie karta nie jest wąskim gardłem i co 'dziwne' nowe gry potrafią zrobić użytek z HT. Nie będę tu przywoływać innych serwisów, ale wystarczy zapytać wujka o 'ile rdzeni potrzeba do grania' co prawda testy ze starszym bratem 9700k. Ale sens ten sam.
Też się śmieję z testów 4k... czysto teoretycznie mnie to zwisa czy test robiony w 4k czy 900p o ile różnica wydajności (ilości FPS) w obu będzie minmalna
Może chodzi o te, że te osoby też liczą swoje pieniądze, i wiedzą jakie im optymalnie GPU wystarczy do tego w co grają w 4K (bo GPU są testowane), ale nie wiedzą jaki poziom wydajności CPU przestaje mieć znaczenie (bo nie są testowane). Skoro teoretycznie w większości gier od jakiegoś i5 wszystko by się spłaszczało dla najmocniejszej karty, to wiadomo by było, że po wyższe modele nie muszą sięgać.
Dokładnie. A nawet gdy gry będą korzystać ze wszystkich wątków i9 na max, okaże się, że zegar zejdzie do 3.5GHz... po 20s grania. To tak jakby producent samochodów montował chłodnicę i intercooler pozwalające utrzymać moc przez 20 sekund, a później ze 150KM 350Nm robiłoby się 105KM 200Nm
Principled Technologies przygotowywało wytyczne testowania procesorów?
Jest tylko kilka 'ale'. Testując taki procesor w zastosowaniach wymagających typowo wielu godzin ciągłego działania na wysokich obrotach (np. rendering) należy albo przeprowadzać dłuższy test, ale po protu wyłączyć boosta, bo w przeciwnym razie wynik będzie nieco wypaczony na korzyść (w stosunku do procesorów nie wykorzystujących opisanego zjawiska). Poza tym w przypadku utrzymywania akceptowalnej temperatury częstotliwość nie powinna lecieć 'na łeb na szyję' tylko z powodu upływu czasu i wysokiego wykorzystania zasobów. W przypadku tego konkretnego testowanego procesora wg mnie Intel przesadził z limitem TDP, powinien dać 125W - na lowendowych płytach z sekcją zasilania na styk i tak nikt tego nie będzie trzymał.
A co do tego waszego 4K to naprawdę nie rozumiem czego byście jeszcze chcieli. Chyba każdy wie, czy potrzebuje 60, 75. 90, 100 czy może 120 kl./s. No to patrzycie na testy i jeśli min. fps jest wyższe od potrzebnego to dany procesor spokojnie pociągnie daną grę w 4K. Gdyby testować tak jak chcecie to test byłoby w jakimś tam znikomym stopniu przydatny tylko w razie posiadania identycznego GPU jak w platformie testowej. Jeśli macie lepsze to spłaszczony przez GPU wynik na poziomie np. 40 kl./s nic wam nie powie.
Lato go zweryfikuje. Ja dokonałem wyboru w tej samej cenie.
https://moniox.wordpress.com.
a teraz chodzi 4.1 przy 1.34v -- pełne obciążenie-- max 74 stopni Nocuta 1 wentylator.
W sumie masz racje, jeżeli jakaś karta X w 4K na najmocniejszym procku robi w jakichś tam ustawieniach min. 60fps i max 70, i dajmy na to jest jakiś słabszy procek Y co w tej samej grze z mocniejszymi kartami jest w tyle, ale też daje min. 60fps i max np. 100 tylko, że w innej rozdzielczości to połączenie X i Y powinno dać min. 60fps w 4K a mocniejszy procek od Y nic nie da więcej.
Ale jaki bardziej przyszłościowy jak 'Wyniki wydajności mniej więcej na remis'. A cena dzisiaj taka a za miesiąc może być odwrotnie bo Intel już robi jakieś ruchy. ...
O których ruchach intela mówisz? O tym np. jak przestawił się nagle z produkcji procesów dla ludu 4 core po 7 latach na 8 core i ma problemy z wyprodukowaniem odpowiedniej liczby procków przez co ceny są kosmiczne?
Takie ruchy, że dziś i9-9900K można kupić za 2450 zł.
Jest dużo testów w innych serwisach gdzie karta nie jest wąskim gardłem i co 'dziwne' nowe gry potrafią zrobić użytek z HT. Nie będę tu przywoływać innych serwisów, ale wystarczy zapytać wujka o 'ile rdzeni potrzeba do grania' co prawda testy ze starszym bratem 9700k. Ale sens ten sam.