Jeśli te ceny będą prawdziwe... to świat oszalał...
Drogie płyty główne i tanie procesory na AMD.
Nie cierpię producentów płyt głównych. AMD bomba!
Pytanie tylko jaka będzie wydajnośc skylake x vs AMD. Oby w wielowątkowości tak super.
Wątpię by L2 + archi + MHz mogło dać skylakowi takiego kopa by 2x mniej rdzeni mogło się zbliżyć.
Jeśli faktycznie produkcja TR kosztuje 120$ a cena będzie 849$ to jest jakieś 600% marży, przy takim narzucie bić brawo...
Producentów płyt można trochę bronić bo ~3600 pinów trzeba po płycie rozprowadzić (konkurencja ma tylko ~2000), prawdopodobnie będzie bardzij skomplikowany laminat(więcej warstw). W czasach pentium 4 z rambu płyty też były drogie bo z 8mio warstwowych laminatów podczas gdy athlon z sdram miał 6cio warstwowe, więc to nie zawsze jest 'chciwość' producentów.
By intel z połową rdzeni się zbliżył to aplikacja musiała by jeszcze intensywnie korzystać z avxów. Chociaż 32T nawet w hedt w wielu sytacjach okaże się jednak ilością zbyt dużą i ryzen nie rozwinie w pełni swych skrzydeł.
@SunTzu - GCC w zasadzie już powoli ustępuje Clangowi. LLVM to jednak dobry kierunek, wszystkie ILe itp. To ma w większych projektach coraz większy sens.
@mjwhite - a jakie to wszystko ma znaczenie, że miał RISC? Ten procesor nie nadawał się do niczego oprócz specyficznych rzeczy jak DSP czy wspomaganie generowania grafiki. To taki średnio udany prototyp Cella Pseudo SIMD, pseudo 64bit (bo ALU dalej 32bitowe więc i adresowanie), pseudo VLIW. Procesor w niektórych zastosowaniach wymiatał, ale jako ogólny był niezwykle kiepski dlatego nie odniósł komercyjnego sukcesu i pchanie się w to byłoby nierozsądne. Szczególnie, że miał wszystkie wady Itanium.
Dziwne argumenty, 32bitowe ALU, przecież można było rozszerzyć do 64bitów w następnym modelu.
Po prostu gdybyśmy zostali w RISC to dzisiejsze PCty miały by możliwości na poziomie dobrego kalkulatora a ich programowanie dalej zajmowali by się naukowcy w laboratoriach.
64 bitowy procesor ma 64 bitową przestrzeń adresową, a nie chodzi o szerokość wewnętrznych magistrali pamięci. Gdyby o to miało chodzić to intele od dłuższego czasu mają 256bit. Zatem argument nie jest dziwny tylko w pełni racjonalny. Można było rozszerzyć, ale co z tego skoro i tak nie było do tego wynalazku dobrego kompilatora? A cały obowiązek wszelkiej optymalizacji spoczywał na programiście. Bez sensu.
Po prostu gdybyśmy zostali w RISC
Sorry, ale jak swój smartfon rozpoznający mowę i twarze porównujesz do kalkulatora to dalsza dyskusja jest bez sensu.
@SunTzu - GCC w zasadzie już powoli ustępuje Clangowi. LLVM to jednak dobry kierunek, wszystkie ILe itp. To ma w większych projektach coraz większy sens.
Pewnie LLVM dziś powoli się przebija naprzemiennie są raz ten raz tamten...
W dodatku ICC wcale nie jest tak.
Może za parę lat wszystko przejdzie na LLVM.
Trzeba mieć jednak świadomość, że te kompilatory powstają przy wsparciu firm. Duży wkład jest tu Intela. AMD postawiło LLVM sądzę, że dobrze - tylko szkoda, że zrobili to kosztem GCC.
@SunTzu - ICC i tak dla x86 jest aktualnie najlepsze, ale tylko x86. GCC to jednak cała masa architektur, z najpopularniejszych to MIPS, x86, ARM, AVR, POWER (i więcej). LLVM jest głównie po to żeby łatwiej można było to ogarnąć, zauważ że gdyby nie ciśnienie z tej strony to GCC nie byłoby w tym miejscu gdzie jest teraz. AMD w ogóle wchodzi w różne technologie niestety większość z nich to ślepe zaułki (mantle, trueaudio itp).
Cały obowiązek wszelkiej optymalizacji spoczywał na programiście. Bez sensu.
Po prostu gdybyśmy zostali w RISC
Sorry, ale jak swój smartfon rozpoznający mowę i twarze porównujesz do kalkulatora to dalsza dyskusja jest bez sensu.
Brawo właśnie o to chodzi, że zredukowana lista rozkazów procesora (risc) to ogrom pracy programowej, więc bez sensu było iść w tą stronę.
A czy smartfon nie powstał przypadkiem dzięki komputerom? No właśnie. Wybranie risca spowodowało by że komputery teraz były by poniżej poziomu smartfona a smartfonów pewnie jeszcze nie byłoby wcale....
@SunTzu - ICC i tak dla x86 jest aktualnie najlepsze, ale tylko x86. GCC to jednak cała masa architektur, z najpopularniejszych to MIPS, x86, ARM, AVR, POWER (i więcej). LLVM jest głównie po to żeby łatwiej można było to ogarnąć, zauważ że gdyby nie ciśnienie z tej strony to GCC nie byłoby w tym miejscu gdzie jest teraz. AMD w ogóle wchodzi w różne technologie niestety większość z nich to ślepe zaułki (mantle, trueaudio itp).
No właśnie ICC nie jest zawsze. GCC nie rzadko jest lepsze.
Źle się wypowiedziałem. Fakt ICC najczęsciej jest najlepsze. Najrzadziej LLVM jest najlepsze. GCC gdzieś po środku.
No tak AMD często pakuje głową w mur - bez przebicia. W dodatku nie lubi adoptować cudzych technologii. CUDA np. jest otwarte i jest nawet działające CUDA na AMD w jednym programie.
Spora część staje się też standardem.
x64 się przebili totalnie, podobnie Async shadery czy pomysł ATI- tesalatory.
No i wiecznie ciągnący się bullet niby standard, pokazali DEMO na PS4... wciąż jeśli dobrze wiem nie działa to tak jak powinno czyli na GPU.
AMD tworzy ciekawe technologie tylko nie tam gdzie trzeba, w złym momencie, bez odpowiedniego marketingu, w zły sposób.
Gdyby trueaudio czy mantle powstało w czasach visty- zmianiono model sterów, wprowadzono CPUżerny DX10...
@taith
Usiądź i na spokojnie przemyśl czemu Intel zdominował rynek? A potem przyjdź i pochwal się wnioskami.
Miłego czekania na poprawki firmware do Ryzen
M.in. nieuczciwe praktyki w czasach, gdy AMD miało konkurencyjne produkty. Słono zapłacili za to, choć i tak o wiele za mało.
CUDA nie jest otwarte, to jest równie zamknięta technologia co MANTLE. NV mogła spokojnie zrobić własną implementację mantle i tego nie zrobiła, AMD mogło zrobić swoją implementację CUDA i tego nie zrobiło. Cały nadzór nad rozwojem Mantle miało
AMD, cały nadzór nad rozwojem CUDA ma nvidia. Trudno by można to było nazwać 'open'. Tesselacja AMD? Czekaj... 1 gen truform - kiepsko, parę gier i tyle. DX8. Wejście shaderów dx9 spowodowało niekompatybilność dlatego karty DX9 nie posiadały wsparcia sprzętowego i klepały truform na vertex shaderach. Od catalyst 5.x bodajże wsparcie wycofano. R600 - wspaniałe nowe teselatory DX10. Nie obsługiwała ich żadna gra. Trzeba było czekać do DX11 i HD5k gdzie nv pokazała lepsze i mocniejsze. Po prostu kiepski żart.
Musiałem się odezwać po ostatnim komunikacie INTELA.AMD nie ma konkurencji na kilkanaście miesięcy bo wie INTEL wiec ,że jego 18c na chwilę obecną jest za słabe na 16c AMD.Biorąc pod uwagę cenę jaką chcieli sobie NIEBIESCY liczyć za te procki na pewno u Siebie dorwali testy próbek inżynieryjnych RT i ten szok musieli ogłosić w komunikacie.
Niestety procki INTELA od 14 wzwyż nie mogą mieć na chwilę obecną takich zegarów ,które pozwoliły by im konkurować z rozwiązaniem AMD.
PS: Jest już kilka programów ,w których GCN emuluje CUDA i to z takim skutkiem ,że nawet sam GEFORCE gorzej sobie radzi.Nie będę podawał linków bo możesz na googlach znaleźć.
Rozpruwacz Wątków bardzo przypomina stare Syjony.
Ale nie węszyłbym tu teorii spiskowych
Drogie płyty główne i tanie procesory na AMD.
Nie cierpię producentów płyt głównych. AMD bomba!
Pytanie tylko jaka będzie wydajnośc skylake x vs AMD. Oby w wielowątkowości tak super.
Wątpię by L2 + archi + MHz mogło dać skylakowi takiego kopa by 2x mniej rdzeni mogło się zbliżyć.
Jeśli faktycznie produkcja TR kosztuje 120$ a cena będzie 849$ to jest jakieś 600% marży, przy takim narzucie bić brawo...
Producentów płyt można trochę bronić bo ~3600 pinów trzeba po płycie rozprowadzić (konkurencja ma tylko ~2000), prawdopodobnie będzie bardzij skomplikowany laminat(więcej warstw). W czasach pentium 4 z rambu płyty też były drogie bo z 8mio warstwowych laminatów podczas gdy athlon z sdram miał 6cio warstwowe, więc to nie zawsze jest 'chciwość' producentów.
By intel z połową rdzeni się zbliżył to aplikacja musiała by jeszcze intensywnie korzystać z avxów. Chociaż 32T nawet w hedt w wielu sytacjach okaże się jednak ilością zbyt dużą i ryzen nie rozwinie w pełni swych skrzydeł.
@mjwhite - a jakie to wszystko ma znaczenie, że miał RISC? Ten procesor nie nadawał się do niczego oprócz specyficznych rzeczy jak DSP czy wspomaganie generowania grafiki. To taki średnio udany prototyp Cella
Dziwne argumenty, 32bitowe ALU, przecież można było rozszerzyć do 64bitów w następnym modelu.
Po prostu gdybyśmy zostali w RISC to dzisiejsze PCty miały by możliwości na poziomie dobrego kalkulatora a ich programowanie dalej zajmowali by się naukowcy w laboratoriach.
zwykły avx daje realnie w aplikacjach 30-40% mocy, 512tka to przerost formy nad treścią w tym segmencie
64 bitowy procesor ma 64 bitową przestrzeń adresową, a nie chodzi o szerokość wewnętrznych magistrali pamięci. Gdyby o to miało chodzić to intele od dłuższego czasu mają 256bit. Zatem argument nie jest dziwny tylko w pełni racjonalny. Można było rozszerzyć, ale co z tego skoro i tak nie było do tego wynalazku dobrego kompilatora? A cały obowiązek wszelkiej optymalizacji spoczywał na programiście. Bez sensu.
Sorry, ale jak swój smartfon rozpoznający mowę i twarze porównujesz do kalkulatora to dalsza dyskusja jest bez sensu.
Pewnie LLVM dziś powoli się przebija naprzemiennie są raz ten raz tamten...
W dodatku ICC wcale nie jest tak.
Może za parę lat wszystko przejdzie na LLVM.
Trzeba mieć jednak świadomość, że te kompilatory powstają przy wsparciu firm. Duży wkład jest tu Intela. AMD postawiło LLVM sądzę, że dobrze - tylko szkoda, że zrobili to kosztem GCC.
Cały obowiązek wszelkiej optymalizacji spoczywał na programiście. Bez sensu.
Sorry, ale jak swój smartfon rozpoznający mowę i twarze porównujesz do kalkulatora to dalsza dyskusja jest bez sensu.
Brawo właśnie o to chodzi, że zredukowana lista rozkazów procesora (risc) to ogrom pracy programowej, więc bez sensu było iść w tą stronę.
A czy smartfon nie powstał przypadkiem dzięki komputerom? No właśnie. Wybranie risca spowodowało by że komputery teraz były by poniżej poziomu smartfona a smartfonów pewnie jeszcze nie byłoby wcale....
No właśnie ICC nie jest zawsze. GCC nie rzadko jest lepsze.
Źle się wypowiedziałem. Fakt ICC najczęsciej jest najlepsze. Najrzadziej LLVM jest najlepsze. GCC gdzieś po środku.
No tak AMD często pakuje głową w mur - bez przebicia. W dodatku nie lubi adoptować cudzych technologii. CUDA np. jest otwarte i jest nawet działające CUDA na AMD w jednym programie.
Spora część staje się też standardem.
x64 się przebili totalnie, podobnie Async shadery czy pomysł ATI- tesalatory.
No i wiecznie ciągnący się bullet niby standard, pokazali DEMO na PS4... wciąż jeśli dobrze wiem nie działa to tak jak powinno czyli na GPU.
AMD tworzy ciekawe technologie tylko nie tam gdzie trzeba, w złym momencie, bez odpowiedniego marketingu, w zły sposób.
Gdyby trueaudio czy mantle powstało w czasach visty- zmianiono model sterów, wprowadzono CPUżerny DX10...
Usiądź i na spokojnie przemyśl czemu Intel zdominował rynek? A potem przyjdź i pochwal się wnioskami.
Miłego czekania na poprawki firmware do Ryzen
M.in. nieuczciwe praktyki w czasach, gdy AMD miało konkurencyjne produkty. Słono zapłacili za to, choć i tak o wiele za mało.
AMD, cały nadzór nad rozwojem CUDA ma nvidia. Trudno by można to było nazwać 'open'. Tesselacja AMD? Czekaj... 1 gen truform - kiepsko, parę gier i tyle. DX8. Wejście shaderów dx9 spowodowało niekompatybilność dlatego karty DX9 nie posiadały wsparcia sprzętowego i klepały truform na vertex shaderach. Od catalyst 5.x bodajże wsparcie wycofano. R600 - wspaniałe nowe teselatory DX10. Nie obsługiwała ich żadna gra. Trzeba było czekać do DX11 i HD5k gdzie nv pokazała lepsze i mocniejsze. Po prostu kiepski żart.
Niestety procki INTELA od 14 wzwyż nie mogą mieć na chwilę obecną takich zegarów ,które pozwoliły by im konkurować z rozwiązaniem AMD.
PS: Jest już kilka programów ,w których GCN emuluje CUDA i to z takim skutkiem ,że nawet sam GEFORCE gorzej sobie radzi.Nie będę podawał linków bo możesz na googlach znaleźć.