@Piioo - blad. 'tu i teraz' mialo znaczenie 10 lat temu, a dzis kiedy taki CPU spokojnie starczy na ponad 5 lat, trzeba myslec z wyprzedzeniem.
Juz od premiery ryzenow nie oplaca sie kupowac 4 watkowego CPU kiedy sa alternatywy o podobnej wydajnosci, ktore w przyszlosci beda jeszcze lepiej wykorzystane.
Dotyczy to osob ktore nie wymianiaja co rok-dwa komputera, a takich w Polsce jest zdecydowana wiekszosc. Doradzanie wiec ZABLOKOWANEGO i5 to strzal w stope jak w podobnej kwocie bedzie 8 watkow od konkurencji, zwlaszcza jak wezmeimy pod uwage OC.
Najtansze i5 traca juz teraz racje bytu, bo maja relatywnie za niskie zegary i zablokowane OC.
Doradzanie wiec ZABLOKOWANEGO i5 to strzal w stope jak w podobnej kwocie bedzie 8 watkow od konkurencji, zwlaszcza jak wezmeimy pod uwage OC.
Pardon, kiedy i gdzie ja doradzałem komuś wybranie zablokowanej i5?
Sam siedzę na 2500k od 2012 roku więc też często nie wymieniam, ale wtedy ten procek był najbardziej opłacalny, bo był za 860zł, a za 2600k było trzeba dac sporo więcej. Wtedy nie zakładałem, że się okaże taką legendą i na tyle lat starczy.
Co za brednie. Ile daje HT widać na przykładzie i5 vs. i7. Tymczasem SMT raz daje kilka % wydajności, a raz zaniża o 30%. Procki 8c za 2500 zł dla graczy? O czym Ty mówisz? Segment CPU za 600-1200zł to najistotniejszy kawałek gamingowego tortu. Chyba nie wierzysz w to, że 50% userów bawi się w renderowanie i photoshopy. R5 4c/8t przy taktach sięgających po oc 4GHz, będzie w grach stał poniżej i3-7100. Pozdrawiam.
To ile HT daje widać po G3258@4.7GHz vs i3.
'4-rdzenie do gier/do domu? TO SZALEŃSTWO' tak było w czasach E8400@3.6GHz vs Q6600. Co się działo później każdy widzi.
Ja osobiście okazjonalnie coś renderuję, robię obróbkę foto/video, zdarza się zamodelować jakieś rozwiązanie np. w matlabie. Trochę dłubię w CPLEXie i okolicach. Absolutnie wszędzie tam gdzie da się coś zrównoleglić są dostępne są rozwiązania wspierające CPGPU.
Jednocześnie zawodowo posiadam całkiem duże zaplecze serwerowe, gdzie wydajność obliczeniowa ma znaczenie wtórne a przede wszystkim liczy się dostępność, która przekłada się na liczbę rdzenii, RAM i dostęp do zasobów dyskowych oraz skalowalność, którą od kilku lat załatwia się poprzez dołożenie kolejnego blade'a. Od około 15 lat nie interesuje mnie potencjał ogólny danego CPU tylko jak to się przełoży na moje konkretne w danym czasie potrzeby. Kupowanie dzisiaj 8C do gier z nadzieją na wykorzystanie potencjału w przyszłości to nieporozumienie. To samo dotyczy każdego innego zastosowania. Kiedy nadejdzie ta oczekiwana przyszłość to dzisiejsze R8 będą tym czym są Pentium II góra III.
Ale kto mówi o kupowaniu 8C do gier? Tu jest mowa o 6 i 4C. Jeszcze rok temu co niektórzy polecali pentiumy do gier. Teraz można się zaśmiać na takie hasło. Już i3 zaczynają odstawać. A procesory wydane 5 lat temu nadal pozwalają na komfortową rozrywkę w przyzwoitych ustawieniach. Czasy podwajania wydajności ala pentium II i III minęły. Nikt na nowo koła nie wymyśli. Kolejne generacje dadzą 10-15 % boostu.
Ja osobiście okazjonalnie coś renderuję, robię obróbkę foto/video, zdarza się zamodelować jakieś rozwiązanie np. w matlabie. Trochę dłubię w CPLEXie i okolicach. Absolutnie wszędzie tam gdzie da się coś zrównoleglić są dostępne są rozwiązania wspierające CPGPU.
Jednocześnie zawodowo posiadam całkiem duże zaplecze serwerowe, gdzie wydajność obliczeniowa ma znaczenie wtórne a przede wszystkim liczy się dostępność, która przekłada się na liczbę rdzenii, RAM i dostęp do zasobów dyskowych oraz skalowalność, którą od kilku lat załatwia się poprzez dołożenie kolejnego blade'a. Od około 15 lat nie interesuje mnie potencjał ogólny danego CPU tylko jak to się przełoży na moje konkretne w danym czasie potrzeby. Kupowanie dzisiaj 8C do gier z nadzieją na wykorzystanie potencjału w przyszłości to nieporozumienie. To samo dotyczy każdego innego zastosowania. Kiedy nadejdzie ta oczekiwana przyszłość to dzisiejsze R8 będą tym czym są Pentium II góra III.
AD pierwsze pogrubienie - no, zwlaszcza tam gdzie jest mnostwo instrukcji warunkowych...
AD drugie:
A) Nie znasz sie, a sie wypowiadasz
B) Brac Ci wyobrazni
C) Obie powyzsze odpowiedzi sa poprawne
Juz widze, te kompilatory latajace na GPU... I wirtualizacje tez... A baza z sekwencjami DNA z doktoratu mojej dziewczyny tak smiga na GPU...
Haha przed premierą Ryzena wszyscy czekali na wyniki w grach (patrz komentarze pod pierwszymi przeciekami R7), a teraz nagle PONAD POŁOWA konsumentów zainteresowanych wydajnym pc renderuje lub tworzy jakieś inne cuda, albo streamuje żenujący jesteście. Może jeszcze powiecie, że Ryzen podbije zaraz OEM i będzie masowo stosowany w biurach do ERP, CRM, Symfonii itp?
Słysząc narzekania userów, jak im się XLSX-y otwierają minutę na i5 (a z każdym miesiącem im te XSLX-y puchną), jestem pewien, że z Ryzena 1700 byliby zadowoleni. Nie każdy pracuje na kasie i drukuje co najwyżej paragony
@Kameleonn: W ciągu tych 5 lat wiele w grach się nie zmieni. Większość to i tak porty z konsol, które żyją swoimi ograniczeniami. Poza tym przytłaczająca większość (jeśli nie wszyscy) graczy obecnie to 2-4C. Zanim rynek nasyci się rozwiązaniami >4C w takiej ilości żeby developerzy chętniej sięgali po kolejne rdzenie bez obaw o zbytnie zawężenie grona odbiorców wiele wody w Wiśle jeszcze upłynie. Wystarczy spojrzeć na powszechność wykorzystania nowych rozszerzeń dostępnych co generację nowego CPU. Mało co wykorzystuje coś więcej niż SSE2 (tak wiem smutne to ale prawdziwe). Tak więc kupowanie dzisiaj wolniejszego CPU w grach z nadzieją, że w przyszłości sytuacja się odwróci jest totalnym bezsensem.
Ja osobiście okazjonalnie coś renderuję, robię obróbkę foto/video, zdarza się zamodelować jakieś rozwiązanie np. w matlabie. Trochę dłubię w CPLEXie i okolicach. Absolutnie wszędzie tam gdzie da się coś zrównoleglić są dostępne są rozwiązania wspierające CPGPU.
Jednocześnie zawodowo posiadam całkiem duże zaplecze serwerowe, gdzie wydajność obliczeniowa ma znaczenie wtórne a przede wszystkim liczy się dostępność, która przekłada się na liczbę rdzenii, RAM i dostęp do zasobów dyskowych oraz skalowalność, którą od kilku lat załatwia się poprzez dołożenie kolejnego blade'a. Od około 15 lat nie interesuje mnie potencjał ogólny danego CPU tylko jak to się przełoży na moje konkretne w danym czasie potrzeby. Kupowanie dzisiaj 8C do gier z nadzieją na wykorzystanie potencjału w przyszłości to nieporozumienie. To samo dotyczy każdego innego zastosowania. Kiedy nadejdzie ta oczekiwana przyszłość to dzisiejsze R8 będą tym czym są Pentium II góra III.
AD pierwsze pogrubienie - no, zwlaszcza tam gdzie jest mnostwo instrukcji warunkowych...
AD drugie:
A) Nie znasz sie, a sie wypowiadasz
B) Brac Ci wyobrazni
C) Obie powyzsze odpowiedzi sa poprawne
Juz widze, te kompilatory latajace na GPU... I wirtualizacje tez... A baza z sekwencjami DNA z doktoratu mojej dziewczyny tak smiga na GPU...
Z racji wykonywanego zawodu i doświadczenia mam w tym zakresie pojęcie jednak wielokrotnie szersze od ciebie. Poza tym masz pewne problemy ze zrozumieniem przeczytanego tekstu. Tam gdzie obliczenia da się zrównoleglić tam da się użyć GPU z lepszym (z racji skali) skutkiem. Sądząc po tym co piszesz śmiem twierdzić, że jesteś jakimś mało ogarniętym studenciakiem w brylach ze szkiełkami o grubości 2cm, który na samą myśl o CPU 8C/16T ma mokro w gaciach - tym samym jesteś wzorcowym przykładem tzw. entuzjasty do którego adresowane są Ryzeny R8 czy HEDT intela.
Z racji wykonywanego zawodu i doświadczenia mam w tym zakresie pojęcie jednak wielokrotnie szersze od ciebie. Poza tym masz pewne problemy ze zrozumieniem przeczytanego tekstu. Tam gdzie obliczenia da się zrównoleglić tam da się użyć GPU z lepszym (z racji skali) skutkiem. Sądząc po tym co piszesz śmiem twierdzić, że jesteś jakimś mało ogarniętym studenciakiem w brylach ze szkiełkami o grubości 2cm, który na samą myśl o CPU 8C/16T ma mokro w gaciach - tym samym jesteś wzorcowym przykładem tzw. entuzjasty do którego adresowane są Ryzeny R8 czy HEDT intela.
Jejku jejku ego zabolalo. Ale powtarzasz drugi raz z rzedu to samo bledne zdanie 'Tam gdzie obliczenia da się zrównoleglić tam da się użyć GPU z lepszym (z racji skali) skutkiem.' - NIE ZAWSZE. I nawet Ci napisalem dlaczego nie, ale widze nie dotarlo. Tam gdzie masz rozgaleziony kod z mnostwem instrukcji warunkowych tam GPU sie zatyka i co najwyzej cicho piszczy cewkami. Stad nie ma kompilatorow, serwerow bazodanowych i mnostwa innych rzeczy ktore sa tylko na CPU mimo, ze sie swietnie daja zrownoleglac. Wiec faktycznie a) brak ci wyraznie wiedzy b) wyobrazni tez, siedzisz sobie w jakiejs dziedzinie, moze i jestes w niej dobry, ale o reszcie wiesz jak widac malo, a zgrywasz medrca z siwa broda.
PS. Okularow nie nosze, studentem juz dawno nie jestem, poziom chamstwa masz podobny do poziomu ignorancji
Wiadomo, lepiej dać 1400zł za i7 z zablokowanym mnożnikiem albo 1600zł za łaskawie odblokowaną podczas gdy u AMD można mieć to już za 820zł.
What? To w procesorach nie liczy się wydajność, tylko odblokowany mnożnik? ach ci fanboye czerwonych, zawsze coś wymyślą byle wybielić swoje głupie teorie.
Moja dzialalnosc nie jest niszowa. Zapotrzebowanie na takie proce jest ogromne, to tylko graczom (czyli 90% ludzi tu?) wydaje sie, ze sa najwazniejsi.
Samo AMD testuje proce w cineczymśtam i w grach, więc skoro gry to takie niszowe zastosowanie, to po co w ogóle sobie zadają trud mydlenia oczu? Odpuścili by sobie i oszczędzili wstydu. Po co psuć obraz doskonałego profesjonalnego produktu? No więc co tu jest niszą? Farmy, czy gry na PC, których rynek w 2016 roku osiągnął około 30 mld $. Kto wydał na gry 30 mld dolców - 3 graczy na krzyż? AMD ma takiego pro proca, że może sobie rynek gier na PC odpuścić. Te 30 mld zostało wydane na gry odpalane na procach intela...
W 2016 roku rynek gier video zarobił blisko 90 mld$. Z czego rynek gier PC niespełna 1/3 tego bo około 27mld, te 3 mld to duża różnica. Teraz weźmy pod uwagę jak dużą część tej sumy stanowiły gry MMO które działają na byle kalkulatorze, choćby LOL który sam zarobił ponad 1.7mld. Nie doczytałem się jaki procent tej sumy stanowią zyski z samych gier MMO i tym podobnych, ale jestem niemal że pewien że jest to ~30%. Teraz wypadało by odseparować jeszcze gry które wymagają nowego sprzętu a za tym i bardzo wydajnego od tych które będą działać w pełni zadowalająco na podzespołach pokroju tych gdzie w lolu możemy się cieszyć stała ilością 60 klatek.
I ta pula gier która faktycznie jest wymagająca dla naszych podzespołów nagle bardzo się kurczy jak i te gry nie stanowiły filaru tej piramidy kasy jaką ów gry zarobiły.
Dlaczego o tym mówię?
Bo owszem rynek gier jest dochodowy jednak trzeba wziąć pod uwagę fakt, że gry które tak lubią zawyżać nam minimalne jak i rekomendowane wymagania sprzętowe, wprawiać nas w zachwyt swoją grafiką czy też wkurwiać swoją optymalizacją są tylko czubkiem góry tych pieniędzy jakie ta branża zarabia.
Gdyby było tak że te najbardziej wymagające gry tyle kasy zarabiały to już dawno wykorzystywały by w pełni 8 wątków jak nie więcej a taki Ubi by nie marudził że DX12 jest zbyt wymagający.
No ale tak nie jest i większość tych dochodów pochodzi z gier o małych wymaganiach które bez problemów będą działały na pierwszych procesorach i5/i7 czy PII x4/x6.
'dobrze myśl tak dalej, kup pentiuma i gf 1080, wyrenderuj porządnie film, ja osobiście patrzę z niepokojem, posiadam i5 6600k i podobną legendą do i5 2500k to on raczej nie będzie
aha i żeby nie było, ja na swoim sprzęcie nic nie renderuję ale mój ojciec już zajmuje się półprofesjonalnie zdjęciami i video, ku mojemu zdziwieniu gdy pokazał mi taki proces karta graf praktycznie w ogóle nie jest obciążona, według niego najistotniejszy jest proc i szybki ssd, jego konf i7 6700k gf 1080 ssd plekstor(jakiś) 16gb 3200mhz ram
jak? może mu cos poradzę, ale proszę o odp z sensem bo mnie w ryj wyśmieje :p
chodzi o CUDA? nie wierze w to ze on sam by a to nie wpadł... tym bardziej mając 1080...'
dostałem minusy, ok, ale nie ma(nie widzę) żadnej odpowiedzi na nie, która mnie gani lub z błędu wyprowadza, ktoś pomoże?
wyrażenie 'półprofesjonalne' odnosi się do tego jak oceniam poziom jego prac i wkład finansowy w sprzęt, komputer ok 10k + lustrzanka, obiektywy lampy statywy itp. ok12-15k, nie ma firmy i nie sprzedaje(robi to dla siebie) nie pozwala mi go nazwać profesjonalistą a jednak amator również mi tu nie pasuje , aha i napomnę jeszcze tylko ze nie jest to jego żadna nowa zajawka ale ilość sprzętu która nam się przewinęła przez palce jest już naprawdę duża i mamy co wspominać
Wiadomo, lepiej dać 1400zł za i7 z zablokowanym mnożnikiem albo 1600zł za łaskawie odblokowaną podczas gdy u AMD można mieć to już za 820zł.
What? To w procesorach nie liczy się wydajność, tylko odblokowany mnożnik? ach ci fanboye czerwonych, zawsze coś wymyślą byle wybielić swoje głupie teorie.
Ciekawe ile osób było by skłonnych dopłacić 600 albo nawet 800zł dla paru % wydajności więcej.
'4-rdzenie do gier/do domu? TO SZALEŃSTWO' tak było w czasach E8400@3.6GHz vs Q6600. Co się działo później każdy widzi.
Jesteś pewny, że 4 jajca tak szybko odejdą w zapomnienie? Mam naprawdę spore wątpliwości czy tak będzie - a dlaczego? O ile łatwo rozbić na dziesiątki wątków zadania typowo multimedialne (rendering, kompresja wideo) to z innego rodzaju oprogramowaniem jest zdecydowanie gorzej. Pewnego rodzaju zadania po prostu muszą być liczone krok po kroku i siła jednego wątku cały czas będzie miała znaczenie. Tak jak w przypadku taktowania pojedynczego rdzenia, tak i w grach będzie ściana, którą ciężko będzie przebić (nie mnie oceniać, czy zatrzyma się to na 6-, 8-, 10-wątkach, czy jeszcze na innej ich ilości).
Myślę, że zwykłemu zjadaczowi chleba cztery mocne rdzenie wystarczą na naprawdę długi okres. Jak już się okażą zbyt słabe, to kiepskie będą również wszelkie obecne jednostki 4c/8t (i7 / Ryzeny)...
'4-rdzenie do gier/do domu? TO SZALEŃSTWO' tak było w czasach E8400@3.6GHz vs Q6600. Co się działo później każdy widzi.
Jesteś pewny, że 4 jajca tak szybko odejdą w zapomnienie? Mam naprawdę spore wątpliwości czy tak będzie - a dlaczego? O ile łatwo rozbić na dziesiątki wątków zadania typowo multimedialne (rendering, kompresja wideo) to z innego rodzaju oprogramowaniem jest zdecydowanie gorzej. Pewnego rodzaju zadania po prostu muszą być liczone krok po kroku i siła jednego wątku cały czas będzie miała znaczenie. Tak jak w przypadku taktowania pojedynczego rdzenia, tak i w grach będzie ściana, którą ciężko będzie przebić (nie mnie oceniać, czy zatrzyma się to na 6-, 8-, 10-wątkach, czy jeszcze na innej ich ilości).
Myślę, że zwykłemu zjadaczowi chleba cztery mocne rdzenie wystarczą na naprawdę długi okres. Jak już się okażą zbyt słabe, to kiepskie będą również wszelkie obecne jednostki 4c/8t (i7 / Ryzeny)...
I w jednym i w drugim jest sporo racji.
Pytanie jak długo będzie trzeba czekać na to by gry w pełni korzystały z procesorów 8 wątkowych czy też wyposażonych w jeszcze większą ich ilość.
Napewno nie można tego bagatelizować bo jak wiadomo każdy producent gier chce by o ich grach było głośno, to oprawą audiowizualną to wsparciem dla jakiejś konkretnej technologii to inne duperele.
Cały czas jest jakiś postęp technologiczny dlatego też z biegiem czasu wyższość konstrukcji 4r/8w czy to 6r/12w itd będzie coraz to bardziej widoczna względem rozwiązań 4r/4w, a może nawet i 4/8 i jedyne sensowne będą konstrukcje posiadające pełne 6 jajek i drugie tyle wątków.
Kiedyś C2D był w zupełności wystarczający do gier, C2Q był traktowany jak jakiś powiedzmy wymysł, co zresztą sporo osób tutaj napisało, jednak w niedługim czasie ten trend się zmienił i nie trwało to zbyt długo.
AMD przełamało pewien kamień milowy wprowadzając na rynek w bardzo przystępnej cenie procesory o dużej ilości rdzeni co powinno się mocno przełożyć do postępu technologicznego.
Pytanie tylko jak szybko producenci gier nauczą czy też zechcą z tego korzystać...
Bo bez wątpienia do tego będzie to zmierzało tylko jak szybko to się stanie.
Juz od premiery ryzenow nie oplaca sie kupowac 4 watkowego CPU kiedy sa alternatywy o podobnej wydajnosci, ktore w przyszlosci beda jeszcze lepiej wykorzystane.
Dotyczy to osob ktore nie wymianiaja co rok-dwa komputera, a takich w Polsce jest zdecydowana wiekszosc. Doradzanie wiec ZABLOKOWANEGO i5 to strzal w stope jak w podobnej kwocie bedzie 8 watkow od konkurencji, zwlaszcza jak wezmeimy pod uwage OC.
Najtansze i5 traca juz teraz racje bytu, bo maja relatywnie za niskie zegary i zablokowane OC.
Wiadomo, lepiej dać 1400zł za i7 z zablokowanym mnożnikiem albo 1600zł za łaskawie odblokowaną podczas gdy u AMD można mieć to już za 820zł.
Nie mam problemu z i7 k. Jeśli trzeba będzie, to nabędę następnego i7 k
Poza tym nikt nie uwzględnia cienkich chipsetów AMD. Czy myślisz, że mogli je poprawić z okazji premiery Ryzen-a?
Pardon, kiedy i gdzie ja doradzałem komuś wybranie zablokowanej i5?
Sam siedzę na 2500k od 2012 roku więc też często nie wymieniam, ale wtedy ten procek był najbardziej opłacalny, bo był za 860zł, a za 2600k było trzeba dac sporo więcej. Wtedy nie zakładałem, że się okaże taką legendą i na tyle lat starczy.
Wiadomo, lepiej dać 1400zł za i7 z zablokowanym mnożnikiem albo 1600zł za łaskawie odblokowaną podczas gdy u AMD można mieć to już za 820zł.
Nie mam problemu z i7 k. Jeśli trzeba będzie, to nabędę następnego i7 k
Poza tym nikt nie uwzględnia cienkich chipsetów AMD. Czy myślisz, że mogli je poprawić z okazji premiery Ryzen-a?
testy są w sieci więc nie trzeba myśleć tylko je przejrzeć.
Co za brednie. Ile daje HT widać na przykładzie i5 vs. i7. Tymczasem SMT raz daje kilka % wydajności, a raz zaniża o 30%. Procki 8c za 2500 zł dla graczy? O czym Ty mówisz? Segment CPU za 600-1200zł to najistotniejszy kawałek gamingowego tortu. Chyba nie wierzysz w to, że 50% userów bawi się w renderowanie i photoshopy. R5 4c/8t przy taktach sięgających po oc 4GHz, będzie w grach stał poniżej i3-7100. Pozdrawiam.
To ile HT daje widać po G3258@4.7GHz vs i3.
'4-rdzenie do gier/do domu? TO SZALEŃSTWO' tak było w czasach E8400@3.6GHz vs Q6600. Co się działo później każdy widzi.
Jednocześnie zawodowo posiadam całkiem duże zaplecze serwerowe, gdzie wydajność obliczeniowa ma znaczenie wtórne a przede wszystkim liczy się dostępność, która przekłada się na liczbę rdzenii, RAM i dostęp do zasobów dyskowych oraz skalowalność, którą od kilku lat załatwia się poprzez dołożenie kolejnego blade'a. Od około 15 lat nie interesuje mnie potencjał ogólny danego CPU tylko jak to się przełoży na moje konkretne w danym czasie potrzeby. Kupowanie dzisiaj 8C do gier z nadzieją na wykorzystanie potencjału w przyszłości to nieporozumienie. To samo dotyczy każdego innego zastosowania. Kiedy nadejdzie ta oczekiwana przyszłość to dzisiejsze R8 będą tym czym są Pentium II góra III.
Ale kto mówi o kupowaniu 8C do gier? Tu jest mowa o 6 i 4C. Jeszcze rok temu co niektórzy polecali pentiumy do gier. Teraz można się zaśmiać na takie hasło. Już i3 zaczynają odstawać. A procesory wydane 5 lat temu nadal pozwalają na komfortową rozrywkę w przyzwoitych ustawieniach. Czasy podwajania wydajności ala pentium II i III minęły. Nikt na nowo koła nie wymyśli. Kolejne generacje dadzą 10-15 % boostu.
Jednocześnie zawodowo posiadam całkiem duże zaplecze serwerowe, gdzie wydajność obliczeniowa ma znaczenie wtórne a przede wszystkim liczy się dostępność, która przekłada się na liczbę rdzenii, RAM i dostęp do zasobów dyskowych oraz skalowalność, którą od kilku lat załatwia się poprzez dołożenie kolejnego blade'a. Od około 15 lat nie interesuje mnie potencjał ogólny danego CPU tylko jak to się przełoży na moje konkretne w danym czasie potrzeby. Kupowanie dzisiaj 8C do gier z nadzieją na wykorzystanie potencjału w przyszłości to nieporozumienie. To samo dotyczy każdego innego zastosowania. Kiedy nadejdzie ta oczekiwana przyszłość to dzisiejsze R8 będą tym czym są Pentium II góra III.
AD pierwsze pogrubienie - no, zwlaszcza tam gdzie jest mnostwo instrukcji warunkowych...
AD drugie:
A) Nie znasz sie, a sie wypowiadasz
B) Brac Ci wyobrazni
C) Obie powyzsze odpowiedzi sa poprawne
Juz widze, te kompilatory latajace na GPU... I wirtualizacje tez... A baza z sekwencjami DNA z doktoratu mojej dziewczyny tak smiga na GPU...
Słysząc narzekania userów, jak im się XLSX-y otwierają minutę na i5 (a z każdym miesiącem im te XSLX-y puchną), jestem pewien, że z Ryzena 1700 byliby zadowoleni. Nie każdy pracuje na kasie i drukuje co najwyżej paragony
Jednocześnie zawodowo posiadam całkiem duże zaplecze serwerowe, gdzie wydajność obliczeniowa ma znaczenie wtórne a przede wszystkim liczy się dostępność, która przekłada się na liczbę rdzenii, RAM i dostęp do zasobów dyskowych oraz skalowalność, którą od kilku lat załatwia się poprzez dołożenie kolejnego blade'a. Od około 15 lat nie interesuje mnie potencjał ogólny danego CPU tylko jak to się przełoży na moje konkretne w danym czasie potrzeby. Kupowanie dzisiaj 8C do gier z nadzieją na wykorzystanie potencjału w przyszłości to nieporozumienie. To samo dotyczy każdego innego zastosowania. Kiedy nadejdzie ta oczekiwana przyszłość to dzisiejsze R8 będą tym czym są Pentium II góra III.
AD pierwsze pogrubienie - no, zwlaszcza tam gdzie jest mnostwo instrukcji warunkowych...
AD drugie:
A) Nie znasz sie, a sie wypowiadasz
B) Brac Ci wyobrazni
C) Obie powyzsze odpowiedzi sa poprawne
Juz widze, te kompilatory latajace na GPU... I wirtualizacje tez... A baza z sekwencjami DNA z doktoratu mojej dziewczyny tak smiga na GPU...
Z racji wykonywanego zawodu i doświadczenia mam w tym zakresie pojęcie jednak wielokrotnie szersze od ciebie. Poza tym masz pewne problemy ze zrozumieniem przeczytanego tekstu. Tam gdzie obliczenia da się zrównoleglić tam da się użyć GPU z lepszym (z racji skali) skutkiem. Sądząc po tym co piszesz śmiem twierdzić, że jesteś jakimś mało ogarniętym studenciakiem w brylach ze szkiełkami o grubości 2cm, który na samą myśl o CPU 8C/16T ma mokro w gaciach - tym samym jesteś wzorcowym przykładem tzw. entuzjasty do którego adresowane są Ryzeny R8 czy HEDT intela.
Nie mam problemu z i7 k. Jeśli trzeba będzie, to nabędę następnego i7 k
Poza tym nikt nie uwzględnia cienkich chipsetów AMD. Czy myślisz, że mogli je poprawić z okazji premiery Ryzen-a?
testy są w sieci więc nie trzeba myśleć tylko je przejrzeć.
No tak, ale ja pytam o własne zdanie
Z racji wykonywanego zawodu i doświadczenia mam w tym zakresie pojęcie jednak wielokrotnie szersze od ciebie. Poza tym masz pewne problemy ze zrozumieniem przeczytanego tekstu. Tam gdzie obliczenia da się zrównoleglić tam da się użyć GPU z lepszym (z racji skali) skutkiem. Sądząc po tym co piszesz śmiem twierdzić, że jesteś jakimś mało ogarniętym studenciakiem w brylach ze szkiełkami o grubości 2cm, który na samą myśl o CPU 8C/16T ma mokro w gaciach - tym samym jesteś wzorcowym przykładem tzw. entuzjasty do którego adresowane są Ryzeny R8 czy HEDT intela.
Jejku jejku ego zabolalo. Ale powtarzasz drugi raz z rzedu to samo bledne zdanie 'Tam gdzie obliczenia da się zrównoleglić tam da się użyć GPU z lepszym (z racji skali) skutkiem.' - NIE ZAWSZE. I nawet Ci napisalem dlaczego nie, ale widze nie dotarlo. Tam gdzie masz rozgaleziony kod z mnostwem instrukcji warunkowych tam GPU sie zatyka i co najwyzej cicho piszczy cewkami. Stad nie ma kompilatorow, serwerow bazodanowych i mnostwa innych rzeczy ktore sa tylko na CPU mimo, ze sie swietnie daja zrownoleglac. Wiec faktycznie a) brak ci wyraznie wiedzy b) wyobrazni tez, siedzisz sobie w jakiejs dziedzinie, moze i jestes w niej dobry, ale o reszcie wiesz jak widac malo, a zgrywasz medrca z siwa broda.
PS. Okularow nie nosze, studentem juz dawno nie jestem, poziom chamstwa masz podobny do poziomu ignorancji
Wiadomo, lepiej dać 1400zł za i7 z zablokowanym mnożnikiem albo 1600zł za łaskawie odblokowaną podczas gdy u AMD można mieć to już za 820zł.
What? To w procesorach nie liczy się wydajność, tylko odblokowany mnożnik?
Samo AMD testuje proce w cineczymśtam i w grach, więc skoro gry to takie niszowe zastosowanie, to po co w ogóle sobie zadają trud mydlenia oczu? Odpuścili by sobie i oszczędzili wstydu. Po co psuć obraz doskonałego profesjonalnego produktu? No więc co tu jest niszą? Farmy, czy gry na PC, których rynek w 2016 roku osiągnął około 30 mld $. Kto wydał na gry 30 mld dolców - 3 graczy na krzyż? AMD ma takiego pro proca, że może sobie rynek gier na PC odpuścić. Te 30 mld zostało wydane na gry odpalane na procach intela...
W 2016 roku rynek gier video zarobił blisko 90 mld$. Z czego rynek gier PC niespełna 1/3 tego bo około 27mld, te 3 mld to duża różnica. Teraz weźmy pod uwagę jak dużą część tej sumy stanowiły gry MMO które działają na byle kalkulatorze, choćby LOL który sam zarobił ponad 1.7mld. Nie doczytałem się jaki procent tej sumy stanowią zyski z samych gier MMO i tym podobnych, ale jestem niemal że pewien że jest to ~30%. Teraz wypadało by odseparować jeszcze gry które wymagają nowego sprzętu a za tym i bardzo wydajnego od tych które będą działać w pełni zadowalająco na podzespołach pokroju tych gdzie w lolu możemy się cieszyć stała ilością 60 klatek.
I ta pula gier która faktycznie jest wymagająca dla naszych podzespołów nagle bardzo się kurczy jak i te gry nie stanowiły filaru tej piramidy kasy jaką ów gry zarobiły.
Dlaczego o tym mówię?
Bo owszem rynek gier jest dochodowy jednak trzeba wziąć pod uwagę fakt, że gry które tak lubią zawyżać nam minimalne jak i rekomendowane wymagania sprzętowe, wprawiać nas w zachwyt swoją grafiką czy też wkurwiać swoją optymalizacją są tylko czubkiem góry tych pieniędzy jakie ta branża zarabia.
Gdyby było tak że te najbardziej wymagające gry tyle kasy zarabiały to już dawno wykorzystywały by w pełni 8 wątków jak nie więcej a taki Ubi by nie marudził że DX12 jest zbyt wymagający.
No ale tak nie jest i większość tych dochodów pochodzi z gier o małych wymaganiach które bez problemów będą działały na pierwszych procesorach i5/i7 czy PII x4/x6.
'dobrze myśl tak dalej, kup pentiuma i gf 1080, wyrenderuj porządnie film, ja osobiście patrzę z niepokojem, posiadam i5 6600k i podobną legendą do i5 2500k to on raczej nie będzie
aha i żeby nie było, ja na swoim sprzęcie nic nie renderuję ale mój ojciec już zajmuje się półprofesjonalnie zdjęciami i video, ku mojemu zdziwieniu gdy pokazał mi taki proces karta graf praktycznie w ogóle nie jest obciążona, według niego najistotniejszy jest proc i szybki ssd, jego konf i7 6700k gf 1080 ssd plekstor(jakiś) 16gb 3200mhz ram
jak? może mu cos poradzę, ale proszę o odp z sensem bo mnie w ryj wyśmieje :p
chodzi o CUDA? nie wierze w to ze on sam by a to nie wpadł... tym bardziej mając 1080...'
dostałem minusy, ok, ale nie ma(nie widzę) żadnej odpowiedzi na nie, która mnie gani lub z błędu wyprowadza, ktoś pomoże?
wyrażenie 'półprofesjonalne' odnosi się do tego jak oceniam poziom jego prac i wkład finansowy w sprzęt, komputer ok 10k + lustrzanka, obiektywy lampy statywy itp. ok12-15k, nie ma firmy i nie sprzedaje(robi to dla siebie) nie pozwala mi go nazwać profesjonalistą a jednak amator również mi tu nie pasuje
Wiadomo, lepiej dać 1400zł za i7 z zablokowanym mnożnikiem albo 1600zł za łaskawie odblokowaną podczas gdy u AMD można mieć to już za 820zł.
What? To w procesorach nie liczy się wydajność, tylko odblokowany mnożnik?
Ciekawe ile osób było by skłonnych dopłacić 600 albo nawet 800zł dla paru % wydajności więcej.
To ile HT daje widać po G3258@4.7GHz vs i3.
'4-rdzenie do gier/do domu? TO SZALEŃSTWO' tak było w czasach E8400@3.6GHz vs Q6600. Co się działo później każdy widzi.
Jesteś pewny, że 4 jajca tak szybko odejdą w zapomnienie? Mam naprawdę spore wątpliwości czy tak będzie - a dlaczego? O ile łatwo rozbić na dziesiątki wątków zadania typowo multimedialne (rendering, kompresja wideo) to z innego rodzaju oprogramowaniem jest zdecydowanie gorzej. Pewnego rodzaju zadania po prostu muszą być liczone krok po kroku i siła jednego wątku cały czas będzie miała znaczenie. Tak jak w przypadku taktowania pojedynczego rdzenia, tak i w grach będzie ściana, którą ciężko będzie przebić (nie mnie oceniać, czy zatrzyma się to na 6-, 8-, 10-wątkach, czy jeszcze na innej ich ilości).
Myślę, że zwykłemu zjadaczowi chleba cztery mocne rdzenie wystarczą na naprawdę długi okres. Jak już się okażą zbyt słabe, to kiepskie będą również wszelkie obecne jednostki 4c/8t (i7 / Ryzeny)...
To ile HT daje widać po G3258@4.7GHz vs i3.
'4-rdzenie do gier/do domu? TO SZALEŃSTWO' tak było w czasach E8400@3.6GHz vs Q6600. Co się działo później każdy widzi.
Jesteś pewny, że 4 jajca tak szybko odejdą w zapomnienie? Mam naprawdę spore wątpliwości czy tak będzie - a dlaczego? O ile łatwo rozbić na dziesiątki wątków zadania typowo multimedialne (rendering, kompresja wideo) to z innego rodzaju oprogramowaniem jest zdecydowanie gorzej. Pewnego rodzaju zadania po prostu muszą być liczone krok po kroku i siła jednego wątku cały czas będzie miała znaczenie. Tak jak w przypadku taktowania pojedynczego rdzenia, tak i w grach będzie ściana, którą ciężko będzie przebić (nie mnie oceniać, czy zatrzyma się to na 6-, 8-, 10-wątkach, czy jeszcze na innej ich ilości).
Myślę, że zwykłemu zjadaczowi chleba cztery mocne rdzenie wystarczą na naprawdę długi okres. Jak już się okażą zbyt słabe, to kiepskie będą również wszelkie obecne jednostki 4c/8t (i7 / Ryzeny)...
I w jednym i w drugim jest sporo racji.
Pytanie jak długo będzie trzeba czekać na to by gry w pełni korzystały z procesorów 8 wątkowych czy też wyposażonych w jeszcze większą ich ilość.
Napewno nie można tego bagatelizować bo jak wiadomo każdy producent gier chce by o ich grach było głośno, to oprawą audiowizualną to wsparciem dla jakiejś konkretnej technologii to inne duperele.
Cały czas jest jakiś postęp technologiczny dlatego też z biegiem czasu wyższość konstrukcji 4r/8w czy to 6r/12w itd będzie coraz to bardziej widoczna względem rozwiązań 4r/4w, a może nawet i 4/8 i jedyne sensowne będą konstrukcje posiadające pełne 6 jajek i drugie tyle wątków.
Kiedyś C2D był w zupełności wystarczający do gier, C2Q był traktowany jak jakiś powiedzmy wymysł, co zresztą sporo osób tutaj napisało, jednak w niedługim czasie ten trend się zmienił i nie trwało to zbyt długo.
AMD przełamało pewien kamień milowy wprowadzając na rynek w bardzo przystępnej cenie procesory o dużej ilości rdzeni co powinno się mocno przełożyć do postępu technologicznego.
Pytanie tylko jak szybko producenci gier nauczą czy też zechcą z tego korzystać...
Bo bez wątpienia do tego będzie to zmierzało tylko jak szybko to się stanie.