komentarze
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2017.11.16, 05:42
18#1
Zatrudnili Raje który im zaprojektuje prawdziwe GPU to i Larabee poszło do kosza.
KynarethZobacz profil
Poziom ostrzeżenia: 0%
Kynareth2017.11.16, 06:11
Po prostu pójdą w GPGPU, jak NVidia, zamiast w MCP Xeon Phi. Do tego im Raja Koduri. Oby spisał się lepiej niż przy VEGA.
BogieZobacz profil
Poziom ostrzeżenia: 0%
Bogie2017.11.16, 06:25
19#3
Powinni ten projekt nazwać teraz death knight ;)
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2017.11.16, 07:23
Sprzęt AMD w GPGPU spisuje się nieźle, problemem jest oprogramowanie (ograniczenia OpenCL, brak dobrych kompilatorów). Nowa architektura miałaby więc szanse na sukces. Mimo wszystko ewentualne wycofanie się z x86 byłoby pewnego rodzaju porażką.
bartosz92Zobacz profil
Poziom ostrzeżenia: 0%
bartosz922017.11.16, 07:53
A może firma Intel zrealizowała ten projekt przypuśćmy dla jakiegoś rządu i oświadczyła, że będzie istniał taki projekt w ich rozliczeniach. Teraz, aby nie dzielić się rozwiązaniami ze światem nazbyt prędko po prostu ukręcili projektowi łeb! jest szał na moc obliczeniową. w innym newsie było o tym jak Nvidia buduje sobie centrum obliczeniowe ze swoich kart.
KaliphastZobacz profil
Poziom ostrzeżenia: 0%
Kaliphast2017.11.16, 09:45
Bogie @ 2017.11.16 06:25  Post: 1108780
Powinni ten projekt nazwać teraz death knight ;)

Albo Black Knight

https://www.youtube.com/watch?v=dhRUe-gz690
luca7sZobacz profil
Poziom ostrzeżenia: 0%
luca7s2017.11.16, 09:46
10#7
bartosz92 @ 2017.11.16 07:53  Post: 1108790
A może firma Intel zrealizowała ten projekt przypuśćmy dla jakiegoś rządu i oświadczyła, że będzie istniał taki projekt w ich rozliczeniach. Teraz, aby nie dzielić się rozwiązaniami ze światem nazbyt prędko po prostu ukręcili projektowi łeb! jest szał na moc obliczeniową. w innym newsie było o tym jak Nvidia buduje sobie centrum obliczeniowe ze swoich kart.


Tralalala...
Jakie to się człowiek nie napoci i jakich bredni nie nawymyśla, by nie przyznać po prostu, że zdupili kartę wokół zrobili mega szum i wolą uśmiercić niż wystawić się na pośmiewisko. To po to Raja tam poszedł, choć wielu się z niego zbijało jak był w AMD, choć ja sam co do jego osoby mam mieszane uczucia. Ale jeszcze się taki nie urodził, kto czego by się nie dotknął, to miałby pasmo samych sukcesów. Chyba, że znacie kogoś takiego.
aqvarioZobacz profil
Poziom ostrzeżenia: 0%
aqvario2017.11.16, 10:26
Czyste spekulacje. Ukręcenie łba projektowi ma tylko jeden powód - spodziewany sukces finansowy nie wyglądał na realny. Nie ma znaczenia, czy układ byłby do dupy, czy faktycznie konkurowałby z nVidią. Jeśli obliczyli, że bardziej się opłaca zrobić coś innego lub nie robić niczego, to tak zadecydowali. To nie pierwszy już raz, gdy względy ekonomiczne górują nad ideą.

A to, czy Raja im pomoże w tym akurat projekcie, to inna sprawa. Może ma pomysł. A może nie ma to z nim nic wspólnego. Dowiemy się, JEŚLI Intel zrobi nowy projekt. Nie omieszka się pochwalić, kto za tym będzie stał. :)
DistanceshadowZobacz profil
Poziom ostrzeżenia: 0%
Distanceshadow2017.11.16, 11:13
-1#9
Przeciez to, ze beżowy poszedl do intela to nic nie zmienia.Intel ma slaba grafike zupelnie nie dlatego, ze nie potrafia zrobic nic lepszego.Maja najlepszych z najlepszych i cale bunkry gotowki w workach. Nie moga zrobic dobrego gpu bo technologie sa opatentowane przez konkurencje. A wy tu, ze jakis koles zza biurka bedzie teraz intelowi robil gpu na miare 2017. Lol, co za bzdura roku.
AlejajcaZobacz profil
Poziom ostrzeżenia: 0%
Alejajca2017.11.16, 11:28
Assassin @ 2017.11.16 07:23  Post: 1108786
Sprzęt AMD w GPGPU spisuje się nieźle, problemem jest oprogramowanie (ograniczenia OpenCL, brak dobrych kompilatorów). Nowa architektura miałaby więc szanse na sukces. Mimo wszystko ewentualne wycofanie się z x86 byłoby pewnego rodzaju porażką.

Jeśli Intel zabierze się za GPGPU na poważnie a nie kasując kolejne projekty to pojawią sie odpowiednie kompilatory.
x86 ma swoje lata, nie można w nieskończoność dokładać doń kolejnych instrukcji bo dekompilatory i jednostki wykonawcze w CPU powoli dostają zadyszki. Już teraz trzeba zacząć projektować nową architekturę CPU, może rozwiązaniem będzie połączenie rdzeni CPU i GPU w jedną całość.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2017.11.16, 12:05
Alejajca @ 2017.11.16 11:28  Post: 1108831
Assassin @ 2017.11.16 07:23  Post: 1108786
Sprzęt AMD w GPGPU spisuje się nieźle, problemem jest oprogramowanie (ograniczenia OpenCL, brak dobrych kompilatorów). Nowa architektura miałaby więc szanse na sukces. Mimo wszystko ewentualne wycofanie się z x86 byłoby pewnego rodzaju porażką.

Jeśli Intel zabierze się za GPGPU na poważnie a nie kasując kolejne projekty to pojawią sie odpowiednie kompilatory.
x86 ma swoje lata, nie można w nieskończoność dokładać doń kolejnych instrukcji bo dekompilatory i jednostki wykonawcze w CPU powoli dostają zadyszki. Już teraz trzeba zacząć projektować nową architekturę CPU, może rozwiązaniem będzie połączenie rdzeni CPU i GPU w jedną całość.

Cell
michu_roztoczZobacz profil
Poziom ostrzeżenia: 0%
michu_roztocz2017.11.16, 16:29
Było wzgórze i nie ma wzgórza

Nie mogę się przestać śmiać, ale może to tylko ja :D
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2017.11.16, 18:15
-6#13
Assassin @ 2017.11.16 07:23  Post: 1108786
Sprzęt AMD w GPGPU spisuje się nieźle, problemem jest oprogramowanie (ograniczenia OpenCL, brak dobrych kompilatorów). Nowa architektura miałaby więc szanse na sukces. Mimo wszystko ewentualne wycofanie się z x86 byłoby pewnego rodzaju porażką.

To co napisałeś to trochę sprzeczność. Bo faktycznie AMD radzi sobie dobrze tam gdzie wystarczy kiepski kompilator- sterowniki, np. kryptowaluty. Gdyby nie to mieliby problem.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2017.11.16, 18:15
Nie wiem czy za to, że za krótko napisałem, czy ktoś nie wie co to Cell, czy za przypomnienie o Cell dostałem raport więc napiszę dłużej:

Alejajca @ 2017.11.16 11:28  Post: 1108831
może rozwiązaniem będzie połączenie rdzeni CPU i GPU w jedną całość.

Takie rozwiązanie istnieje/istniało - Cell Broadband Engine Architecture
Duke NukemZobacz profil
Poziom ostrzeżenia: 0%
Duke Nukem2017.11.16, 18:48
sevae @ 2017.11.16 18:15  Post: 1108888
Nie wiem czy za to, że za krótko napisałem, czy ktoś nie wie co to Cell, czy za przypomnienie o Cell dostałem raport więc napiszę dłużej:

Alejajca @ 2017.11.16 11:28  Post: 1108831
może rozwiązaniem będzie połączenie rdzeni CPU i GPU w jedną całość.

Takie rozwiązanie istnieje/istniało - Cell Broadband Engine Architecture

Oczywiście polskie strony obfitują w techniczne informacje o tym procesorze. Nie dziw się raportom. :)
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2017.11.16, 18:53
michu_roztocz @ 2017.11.16 16:29  Post: 1108874
Było wzgórze i nie ma wzgórza

Nie mogę się przestać śmiać, ale może to tylko ja :D

'Nie mamy Pańskiego wzgórza i co nam Pan zrobi' ;)

Grave @ 2017.11.16 05:42  Post: 1108776
Zatrudnili Raje który im zaprojektuje prawdziwe GPU to i Larabee poszło do kosza.

Ależ nie poszło do kosza: https://en.wikipedia.org/wiki/Xeon_Phi#Knights_Mill
Poza tym Knights Hill miało znaleźć zastosowanie w rządowych projektach, a tam nie jest tak łatwo stwierdzić 'je**o to je**o, na c**j drążyć temat' i skasować projekt, bo się nagle przestało opłacać... ;)
Ponadto rozwój mikroarchitektury to kwestia lat, a nie miesięcy.
Duke NukemZobacz profil
Poziom ostrzeżenia: 0%
Duke Nukem2017.11.16, 19:58
-4#17
Telvas @ 2017.11.16 18:53  Post: 1108895
michu_roztocz @ 2017.11.16 16:29  Post: 1108874
(...)

Nie mogę się przestać śmiać, ale może to tylko ja :D

'Nie mamy Pańskiego wzgórza i co nam Pan zrobi' ;)

Grave @ 2017.11.16 05:42  Post: 1108776
Zatrudnili Raje który im zaprojektuje prawdziwe GPU to i Larabee poszło do kosza.

Ależ nie poszło do kosza: https://en.wikipedia.org/wiki/Xeon_Phi#Knights_Mill
Poza tym Knights Hill miało znaleźć zastosowanie w rządowych projektach, a tam nie jest tak łatwo stwierdzić 'je**o to je**o, na c**j drążyć temat' i skasować projekt, bo się nagle przestało opłacać... ;)
Ponadto rozwój mikroarchitektury to kwestia lat, a nie miesięcy.

Taaa, a teraz nakarm te 72 rdzenie CISC transkodowane do RISC i wyprowadź z nich wyniki tymi samymi drzwiami. Żaden energetyk i oskarżyciel CO2 by tego nie podpisał. :)
DaviMZobacz profil
Poziom ostrzeżenia: 0%
DaviM2017.11.16, 20:05
-6#18
Vega
Knights Hill - projekt skasowany.
Było wzgórze i nie ma wzgórza.

To ja dodam: Silent Hill.
h63619Zobacz profil
Poziom ostrzeżenia: 0%
h636192017.11.16, 22:12
A moim zdaniem to projekt poległ jak skasowali Willow Trail i przez ostatnie półtora roku był zombie. Xeony Phi bazują na atomowych rdzeniach i są opłacalne tylko jeśli koszt opracowania nowej architektury rozłoży się na różne segmenty rynku. Intel planował sukcesy na rynku highendowych smartphonów i średniej klasy tabletów i nic z tego nie wyszło. Gwoździem do trumny był udany debiut Ryzena i konieczność zwiększania rdzeni w i7. Za rok i7 będzie miał 8 rdzeni więc desktopowe Pentiumy i Celerony będą mogły być tylko na 2 rdzeniowych 4 i 2 wątkowych Kabby Lake. Nie zdziwię się jak niedługo ogłoszą skasowanie 10nn Atoma.
Kilka miesięcy temu szukali kogoś do projektowania nowej architektury i jak się okazało znaleźli Raja. Nie sądzę, żeby go zatrudnili dopiero jak poszedł na urlop i żeby AMD go tak od razu puściło. Prawdopodobnie Intel ma umowę z AMD by wspólnie rozwijać GPU.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2017.11.16, 23:01
SunTzu @ 2017.11.16 18:15  Post: 1108887
To co napisałeś to trochę sprzeczność. Bo faktycznie AMD radzi sobie dobrze tam gdzie wystarczy kiepski kompilator- sterowniki, np. kryptowaluty. Gdyby nie to mieliby problem.

Kompilatory to akurat konik Intela, więc podobna architektura hardware'u w ich rękach ma szansę pokazać znacznie więcej.
Zaloguj się, by móc komentować