Komentarze
Komentarzy na stronę
1 2 3
Ryzen (2017.10.02, 18:49)
Ocena: 64
#1

0%
Szczególnie u Intela, gdzie w PC mało brakowało a 4-core byłoby do końca świata w wersji 14nm+++++.
crush (2017.10.02, 19:04)
Ocena: 30
#3

0%
hexon06 @ 2017.10.02 19:00  Post: 1098757
Ciekawe co na to Intel:D? Coś tak mi się wydaję, że Intel niedługo będzie zwijał interes.

Jeżeli świat ma iść w GPU to AMD zawinie chyba razem z nim... :E
Ryzen (2017.10.02, 19:13)
Ocena: 32
#4

0%
Facet wie, że NVIDIA jest w świetnej formie a na zapleczu Volta czeka, ale trochę go poniosło, bo pewnie nie pamięta już jak miał spocone czoło trzymając w ręce atrapę Fermi.
Po tej wypowiedzi u Intela będą zapewne rozdawane kolejne baty dla inżynierów, co tylko nam wyjdzie na dobre. Niech tylko AMD nie zawiedzie z Ryzenem 2 na początku 2018 a będzie naprawdę ciekawie.
Kitu (2017.10.02, 19:14)
Ocena: 40
#5

0%
Nvidia przynajmniej w jednym jest lepsza od Intela - co generację gwarantuje wyraźny wzrost wydajności - kilkanaście do kilkudziesięciu procent, zamiast 2-3%, czyli w sumie błąd pomiarowy albo zwiększenie zegarów.

A zastąpienie CPU przez GPU - wydajność w sieciach neuronowych, uczeniu maszynowym, AI, we wszelkich renderowaniach może i jest wyższa, ale w PC raczej się tego nie zastąpi. Chociaż z drugiej strony - kto wie, co jeszcze wymyślą, do czego to doprowadzi i ile nas to będzie kosztować.
kaczy99 (2017.10.02, 19:20)
Ocena: 10
#7

0%
crush @ 2017.10.02 19:04  Post: 1098758
hexon06 @ 2017.10.02 19:00  Post: 1098757
Ciekawe co na to Intel:D? Coś tak mi się wydaję, że Intel niedługo będzie zwijał interes.

Jeżeli świat ma iść w GPU to AMD chyba razem z nim... :E


Chciałbym wreszcie zobaczyć połączenie FPGA z GPU lub CPU. Ciekawe czy twórcy gier byli by w stanie wykorzystać jego możliwości w jakimś znacznym stopniu wpływając na rozgrywkę w porównaniu do standardowego zestawu GPU+CPU.
Putout (2017.10.02, 19:22)
Ocena: 9
#8

0%
no supi. tylko tutaj mamy do cyz nienienia z dwiema różnymi koncepcjami więc nie przenoście tego na desktopy. niektórzy mocno się już zaczęli napalać.
nie widać opcji aby domowi użytkownicy mogli w miare płynnie przejść z kilku (-nastu) mocnych rdzeni na setki czy tysiące słabych bo te obliczenia zwyzajnie do dupy się zrównoleglają. już AMD zrobiło i wysrało modułowe archi. 8 słabych rdzeni z czego zazwyczaj wykorzystywane były 2 lub 4. dopiero od niedawna zaczęto częściej wykorzystywać więcej niż 4 rdzenie/wątki. za małą rewolucje uznaje się niskopoziomowe API bo te dają możliuwość efektywnego zagospodarowania większje liczyb rdzeni. a obecnie co? w takim Ryzenie 5 1600 masa mocy leży odłogiem a tu niektórzy snują opowiastki o GPU zastępującym CPU XD
Ambasador (2017.10.02, 19:26)
Ocena: 11
#9

0%
Jestem ciekaw co Raja ma do powiedzenia na ten temat.
wwad (2017.10.02, 19:44)
Ocena: 1
#10

0%
Z CPU to w ogóle jest bajzel bo trzeba go dobierac pod zastosowanie a nie po samej cenie i ilosci rdzeni. Co mi np. po 8 rdzeniach przy taktowaniu 3GHz w grach = nic, to sie dobrze sprawdzi do zastosowan obliczeniowych, natomiast 4 rdzenie po 4.5GHz znacznie lepiej wyjda w grach niz w obliczeniach. W CPU jest blokada tachnologiczna i by isc dalej trzeba by cos nowego wymyslec co sie sprawdzi do wiekszej wydajnosci obliczen liniowych ( mowa o komputerach domowych ).
Z GPU maja tu laita na razie bo obliczenia rownolegle nie wymagaja az tak duzego taktowania a wiekszej liczby jednostek obliczeniowych i tu jest potencjal by cos liczyc dodatkowo w przyszlosci na GPU pytanie tylko kto to wykorzysta bo jak patrze na branże np. gier to mozna zapomniec bo to wymaga czasu na implementacje a wydawca go developerom nie da.
Orzel94 (2017.10.02, 19:54)
Ocena: 6
#12

0%
Ryzen @ 2017.10.02 19:13  Post: 1098760
Facet wie, że NVIDIA jest w świetnej formie a na zapleczu Volta czeka, ale trochę go poniosło, bo pewnie nie pamięta już jak miał spocone czoło trzymając w ręce atrapę Fermi.
Po tej wypowiedzi u Intela będą zapewne rozdawane kolejne baty dla inżynierów, co tylko nam wyjdzie na dobre. Niech tylko AMD nie zawiedzie z Ryzenem 2 na początku 2018 a będzie naprawdę ciekawie.

to już cię zawiedzie bo Zen 2 to 2019 rok i 7nm, 1Q2018 to Zen+ w 12nm LP
taith (2017.10.02, 19:58)
Ocena: -1
#13

0%
OJ OJ fanboje intela mają problem, bo nvidia, ich graficzny bożek śmie kpić z ich wspaniałego intela. Co robić? Książkowy przykład dysonansu poznawczego.
Szczota (2017.10.02, 20:03)
Ocena: 3
#14

0%
Ambasador @ 2017.10.02 19:26  Post: 1098766
Jestem ciekaw co Raja ma do powiedzenia na ten temat.

Raja jest bezrobotny. Przecież AMD go wywaliło i był nawet news o tym
revcorey (2017.10.02, 20:09)
Ocena: 8
#15

0%
GPU niedługo zastąpi CPU

tośmy się dowiedzieli że układy wyspecjalizowane w konkretnych zdaniach będą lepsze od procesora ogólnego przeznaczenia intela/amd. Mierna pr-owa zagrywka. CPU będą się miały zawsze dobrze, wiadomo nie będą używane masowo w sieciach neuronowych czy innych wyspecjalizowanych zadaniach. Ale w pozostałych? Excel, internet itd. Będzie nadal po staremu.
mleczan (2017.10.02, 20:32)
Ocena: 7
#16

0%
Ambasador @ 2017.10.02 19:26  Post: 1098766
Jestem ciekaw co Raja ma do powiedzenia na ten temat.


Very kool, very kłajet, poor Navi :)
Żywy (2017.10.02, 20:37)
Ocena: 7
#17

0%
Heh, jak zwykle 'spece' z komentarzy znaja branze na wylot i wiedza wszystko najlepiej, ale zaden nawet nie przeczytal pierwszego zdania newsa, w ktorym jest jasno napisane, ze caly kontekst wypowiedzi dotyczy szeroko pojetej sztycznej inteligencji, w ktorych faktycznie GPU skutecznie wygryza CPU, jak zreszta w kazdych obliczeniach rownoleglych, a do tego z roku na rok niesamowicie progresuja.
szefons (2017.10.02, 20:39)
Ocena: 1
#18

0%
50% to jest między sb, a kb, więc oczywiście, ze prawo martwe już dawno.

Ale wiadomo, trzeba podtrzymywać iluzję. Ktoś powie, że prawdo dotyczy tylko ilości, a czy istnieje jakikolwiek produkt intela, który zyskał na tym podwojeniu 100% wydajności, bo co komu po podwajaniu jak wydajność biednie rośnie.
SunTzu (2017.10.02, 21:04)
Ocena: 1
#20

0%
Ojojo albo autor źle przetłumaczyył albo nieładny pan miesza fakty. To oczywistość- tak jakby powiedział, że w grach GPU są wydajniejsze od CPU.
Tak to ujęte w newsie jakby robił z ludzi idiotów.
GPU w wielu zadaniach będzie wolniejszy i jego stopień wykorzystania będzie marny.
Dlatego CPU będzie potrzebny...
... dlatego zwiększa się dla tych 10% wydajności ilość tranzystorów i nie jest to tak spektakularne jak w GPU.

Oba produkty będą jeszcze długo istnieć. Nvidii bardzo dużo czasu zajmie by zrobić CPU na poziomie AMD.
Zaloguj się, by móc komentować
Aktualności
Akcja wsparcia w związku z pożarem katedry Notre-Dame de Paris. 26
To chyba nie będzie zabójca Fortnite. 29
Lepsza, ale niestety też droższa niż poprzedniczka. 10
Edycja specjalna. AMD zamierza hucznie obchodzić swoje 50. 15
Dla wielu osób wyniki badań mogą być zaskakujące.  22
Od zapowiedzi do sklepowej dostępności minie kilka tygodni. 18
Spodziewajcie się wzrostu wydajności. 19
Facebook
Ostatnio komentowane