komentarze
gotrunksZobacz profil
Poziom ostrzeżenia: 0%
gotrunks2012.06.20, 23:04
-10#1
Hmm czyli to jakby nie karta graficzna tylko dodatkowe procesory na karcie PCIE? taka ciekawostka raczej...
sesefZobacz profil
Poziom ostrzeżenia: 0%
sesef2012.06.20, 23:09
Niby x86, ale i tak trzeba będzie stosować techniki programowania równoległego, żeby zapełnić te rdzenie, więc OpenCL jest tutaj jak najbardziej na miejscu bo zapewni łatwy sposób zapełnienia tych rdzeni. Jedyny plus będzie dla programów które nie używają OpenCL a obsługują wielowątkowość.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2012.06.20, 23:10
12#3
'Teoretyczna wydajność Xeona Phi w operacjach na liczbach zmiennoprzecinkowych podwójnej precyzji wynosi 1 teraflops, czyli tyle samo, ile zapewnia najnowsza karta AMD z rodziny FirePro – oparty na dwóch procesorach Tahiti model W9000'

skoro jeden thaiti ma 950Gflops w DP, to w jaki sposób W9000 złożony z 2 takich GPU i to ponoć taktowanych zegarem 1Ghz ma... tyle samo praktycznie? Więc nie 1, a 2 Tflops.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2012.06.20, 23:12
-3#4
sesef @ 2012.06.20 23:09  Post: 579626
Niby x86, ale i tak trzeba będzie stosować techniki programowania równoległego, żeby zapełnić te rdzenie, więc OpenCL jest tutaj jak najbardziej na miejscu bo zapewni łatwy sposób zapełnienia tych rdzeni. Jedyny plus będzie dla programów które nie używają OpenCL a obsługują wielowątkowość.

a jaki soft serwerowy działa w open cl?
szmonZobacz profil
Poziom ostrzeżenia: 0%
szmon2012.06.20, 23:22
-12#5
sesef @ 2012.06.20 23:09  Post: 579626
Niby x86, ale i tak trzeba będzie stosować techniki programowania równoległego, żeby zapełnić te rdzenie, więc OpenCL jest tutaj jak najbardziej na miejscu bo zapewni łatwy sposób zapełnienia tych rdzeni. Jedyny plus będzie dla programów które nie używają OpenCL a obsługują wielowątkowość.


Przecież masz napisane:

Według producenta, ogromna przewaga Xeona Phi nad konkurencyjnym rozwiązaniami wynika z możliwości zastosowania znanego modelu programowania i braku konieczności zmuszania doświadczonych programistów do uczenia się od podstaw takich technologii jak CUDA czy OpenCL. Architekturę MIC można programować tak jak każdą inną korzystającą z zestawu rozkazów x86, co ma nie tylko przyspieszyć proces tworzenia oprogramowania, ale także pozwolić na uruchamianie aplikacji przygotowanych wcześniej dla standardowych procesorów.
.

Nie ma ani słowa o generowaniu obrazu przez tą kartę, ale skoro stawia się ją obok firelame to chyba generuje obraz? W końcu AMD nie ma karty do obliczeń.

Intel podkreśla, że dzięki Phi, najszybsze superkomputery cały czas będą mogły wykorzystywać jednolitą architekturę – tak jak czwarty w rankingu Top500 niemiecki SuperMUC, najpotężniejszy superkomputer w Europie, który opiera się jedynie na procesorach Intela. Co ciekawe, klaster obliczeniowy złożony z koprocesorów Phi i 8-rdzeniowych procesorów Xeon E5 już działa – znajduje się w komputerze Discovery, zajmującym 150 miejsce w rankingu Top500.


To w końcu z czym to ma konkurować? Z NVIDIA Tesla czy może Quadro i FireLame? Między kartami do grania, profesjonalnymi i kartami do obliczeń są pewne różnice. A może to tylko dodatkowy procek na pcie?
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2012.06.20, 23:28
11#6
Amitoza @ 2012.06.20 23:12  Post: 579628
sesef @ 2012.06.20 23:09  Post: 579626
Niby x86, ale i tak trzeba będzie stosować techniki programowania równoległego, żeby zapełnić te rdzenie, więc OpenCL jest tutaj jak najbardziej na miejscu bo zapewni łatwy sposób zapełnienia tych rdzeni. Jedyny plus będzie dla programów które nie używają OpenCL a obsługują wielowątkowość.

a jaki soft serwerowy działa w open cl?

Wszelkie serwery renderujące, jak mnie pamięć nie myli np. Indygo
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2012.06.20, 23:29
@Amitoza
Chodzi zapewne o kartę AMD z 1 GPU. Na tej samej konferencji, na której podali specyfikację W9000, pokazali fizyczny egzemplarz (albo makietę) karty 2-procesorowej. Stąd prawdopodobnie to przekłamanie.
aqvarioZobacz profil
Poziom ostrzeżenia: 0%
aqvario2012.06.21, 00:29
Jeśli te rdzenie x86 będą zawierały wszystkie obecne instrukcje, włącznie z SSEx i całą resztą (jak AES), to zdaje się, że zainteresowanie może być całkiem spore. Bardzo dużo zależy od realizacji sprzętowej + oprogramowanie. Czy taki linux/windows nagle zobaczą, że mają 2 procesory na pokładzie, jeden 4 rdzeniowy, a drugi 50 rdzeniowy? Jeśli tak to mogłoby wyglądać, to rewelka. I w czym te procesory będą gorsze od tych montowanych na płytach głównych? Cache? Skądś musi wynikać te 50 rdzeni na małej powierzchni i czemu Phi nie mógłby zastąpić normalnych procesorów.
szefonsZobacz profil
Poziom ostrzeżenia: 0%
szefons2012.06.21, 01:57
-7#9
aqvario @ 2012.06.21 00:29  Post: 579641

O czym ty piszesz?
kasdejaZobacz profil
Poziom ostrzeżenia: 0%
kasdeja2012.06.21, 02:02
xeon phi to 50 x 64-bitowy wariant Pentium I z dołożoną potężną jednostką wektorową

jako firmware na tym będzie pracował Linux, o windows pewnie można zapomnieć
raczej jeden system nie będzie widział naraz rdzeni xeona phi i procesora głównego (choć z czasem może i do tego dojdzie, ale modyfikacje w systemie operacyjnym musiałby być dość poważne)

http://software.intel.com/en-us/blogs/2012...ecture-support/
http://software.intel.com/en-us/blogs/2012...software-stack/
agent_x007Zobacz profil
Poziom ostrzeżenia: 0%
agent_x0072012.06.21, 02:15
OK, ale czy renderowanie grafiki 3D na procesorze ogólnego przeznaczenia (x86/CPU) nie było uznane za 'nie dobre', ładnych kilkanaście lat temu ?
Przecież GPU zostało stworzone z dobrego powodu..., jakoś nie wierzę, że regres do starych dobrych czasów, to właściwe podejście.

Ale widzę czemu Intel tak postąpił :
Po co kupować klastry serwów, skoro można mieć jedną taką kartę.

Taki PS : Pamiętacie jeszcze 'Polarisa' ?
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2012.06.21, 04:48
Larrabee (Xeon Phi) będzie doskonale nadawał się do obliczeń, w których GPGPU się nie sprawdzają, czyli do wykonywania algorytmów wymagających warunkowego wykonywania kodu (np. minimax).
GPGPU sprawdzają się natomiast tam gdzie potrzebne jest tylko 'mielenie' liczb, bez podejmowania żadnych decyzji w trakcie obliczeń, najwyżej po uzyskaniu wyniku tak jak w przypadku Bitcoin. Ale w tym i podobnych zastosowaniach GPGPU są powoli wypierane przez programowalne układy logiczne FPGA, które są 10 razy sprawniejsze energetycznie.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2012.06.21, 06:28
agent_x007 @ 2012.06.21 02:15  Post: 579647
OK, ale czy renderowanie grafiki 3D na procesorze ogólnego przeznaczenia (x86/CPU) nie było uznane za 'nie dobre', ładnych kilkanaście lat temu ?
Przecież GPU zostało stworzone z dobrego powodu..., jakoś nie wierzę, że regres do starych dobrych czasów, to właściwe podejście.

Ale widzę czemu Intel tak postąpił :
Po co kupować klastry serwów, skoro można mieć jedną taką kartę.

Taki PS : Pamiętacie jeszcze 'Polarisa' ?


Tylko co innego renderowanie grafiki w grach, a co innego do wizek, filmów itp...
Różnica jakości.
fuxuanckZobacz profil
Poziom ostrzeżenia: 0%
fuxuanck2012.06.21, 08:42
Dobry artykuł! Dobry pomysł!
Konkurencja napędza postęp, a skoro Nvidia i AMD zostaną zmuszone do poprawy wydajności swoich układów przeznaczonych na rynek profesjonalny, nie przejdzie to bez echa w segmencie kart graficznych.
mokoplZobacz profil
Poziom ostrzeżenia: 0%
mokopl2012.06.21, 08:43
aqvario @ 2012.06.21 00:29  Post: 579641
Jeśli te rdzenie x86 .

x86 tak ale architektura inna niz core, mowa tam o Pentium. Brak out-of-order execution, ogolnie wlasnie uproscili procek x86 i zrobili z niego mega kalkulator a przez to ze jest uproszczony moze byc tych rdzeni wiecej... chyba
losiuZobacz profil
Poziom ostrzeżenia: 0%
losiu2012.06.21, 09:59
http://www.theinquirer.net/inquirer/news/2...ergy-efficiency
Core i5 zapewnia większą wydajność na W niż to ustrojstwo, IMO Intel się pomylił. To jest panie i panowie (jak sam Intel twierdzi) alternatywa dla NV TESLA, ale T K20 ma zapewniać 50% większą wydajność DP więc bez monstrualnego marketingu bedziemy mieli kolejne Itanium.

Może to jeszcze uratować lenistwo programistów, którzy zamiast uczyć się wykorzystywać GPU do obliczeń będą jechali nadal na standardowym x86 (które to już ma milion komputerowych lat i blokuje rozwój całego sektora)
kwahooZobacz profil
Poziom ostrzeżenia: 0%
kwahoo2012.06.21, 10:25
losiu @ 2012.06.21 09:59  Post: 579671
http://www.theinquirer.net/inquirer/news/2...ergy-efficiency
Core i5 zapewnia większą wydajność na W niż to ustrojstwo, IMO Intel się pomylił.


featuring 2,475 quad-core Intel Core i5 processors running at 2.93GHz and using ATI Radeon GPUs.

Nie i5 a Radeon. Tylko w przypadku Radeona bardzo trudno osiągnąć wydajność szczytową. I tu Intel widzi swoją szansę.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2012.06.21, 10:26
Ten klaster DEGIMA z i5 używał kart AMD do obliczeń, więc płyty główne z i5 były tylko 'podstawkami'.
Jeżeli ktoś kupi Xeona Phi, to po to  żeby liczyć na nim rzeczy których nie można efektywnie policzyć na typowym GPGPU.
pawełpclabZobacz profil
Poziom ostrzeżenia: 0%
pawełpclab2012.06.21, 11:28
-1#19
sesef @ 2012.06.20 23:09  Post: 579626
Niby x86, ale i tak trzeba będzie stosować techniki programowania równoległego, żeby zapełnić te rdzenie, więc OpenCL jest tutaj jak najbardziej na miejscu bo zapewni łatwy sposób zapełnienia tych rdzeni. Jedyny plus będzie dla programów które nie używają OpenCL a obsługują wielowątkowość.


Techniki programowania, równoległego nie będą konieczne. Jest o tym mowa w newsie. Nie będzie potrzeby stosowania openCl i cuda.
Makroarchitektura nowego xenona podobnie jak architektura larrabee odpowiada systemowi rozproszonemu i to tych technik będzie sie używało do oprogramowania.
A programowanie rozproszone jest całkiem popularne w PC. Wpiszcie w linii komend netstat - a i sprawdźcie ile na waszych komach działa serwerów oczekujących na obsługę nadchodzących żądań
ParamidesZobacz profil
Poziom ostrzeżenia: 0%
Paramides2012.06.21, 11:38
fuxuanck @ 2012.06.21 08:42  Post: 579666
Dobry artykuł! Dobry pomysł!
Konkurencja napędza postęp, a skoro Nvidia i AMD zostaną zmuszone do poprawy wydajności swoich układów przeznaczonych na rynek profesjonalny, nie przejdzie to bez echa w segmencie kart graficznych.


Po co cytujesz tekst artykułu i tego nie zaznaczasz? Przecież sam tych słów nie ułożyłeś..
Ze względu na obowiązującą ciszę wyborczą funkcja komentowania została wyłączona do dn. 2019-05-26 godz. 21:00.