komentarze
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2014.05.05, 12:17
11#1
I tak te procki idą do biurek w wersji okrojonej H, ale co najbardziej smutne to nawet nowa architektura nie wniesie nic ciekawego, dalej tylko rozbudowa nudnej integry i 4 rdzenie, tragedia intelikowa.
PremislausZobacz profil
Poziom ostrzeżenia: 0%
Premislaus2014.05.05, 13:00
Szkoda, że Broadwell ukazuje się tak późno. Bardzo mnie ciekawi jego integra z eDRAMem. Większość ludzi jakich znam, siedzi właśnie na integrach albo słabych GPU. Nie grają w ogóle, bo komp raczej służy zarabianiu kasy lub robieniu czegoś ciekawego: programowanie, hackowanie jakichś urządzeń, rysowanie, komponowanie czegoś, obróbka. A jak grają to jakieś puzzle, arcade, MMO, sadzenie marchewki na FB. Ja akurat gram sporo w strategie (ale nie takie jak Starcraft) i tam jest mi niezbędne mocne CPU.

Jeszcze parę generacji i integra starczy do większości gier w full hd i na high (porty z konsol). W Skyrima gram na high na laptopie, a GPU podkrada sobie pamięć z głównego RAMu. Ja tam się cieszę, że integry wystarczają do czegoś więcej niż ledwie zakcelerowany pulpit.

Poza tym Broadwell z tego co się orientuję nie będzie miał już gluta i będzie miał kilka nowych instrukcji - http://en.wikipedia.org/wiki/Broadwell_%28..._set_extensions
BTW nigdy nie wierzyłem w post-pc. Moi znajomi kupują masę sprzętu, ostatnio typu niskonapięciowe Intele, Celerony, NUC, AM1.

Sam już nie zamierzam kupować normalnych kart graficznych.
ROBERTNIKZobacz profil
Poziom ostrzeżenia: 0%
ROBERTNIK2014.05.05, 13:15
-6#3
Ja zajmuję się obróbką video i trend mi się podoba, zwłaszcza ze wchodzi 4k(obecne już w niektórych Smartphone), a liczenie tego na samym CPU trwało by długie godziny...
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2014.05.05, 13:28
15#4
intelik pcha te integry tylko po to, żeby w laptopach nie było miejsca na karty graficzne, zwyczajnie chcą się pozbyć tego. W biurkach do prostych gierek i do prostej pracy wystarczy i3 z tymi zdechłymi gma, ale kompletnie nie rozumiem tego, żeby ładować do i5 i7 duże integry kosztem tych 4 rdzeni, to szkodliwe dla tych procków.
Jedynym uzasadnieniem wydaje się istnienie i7 na podstawce od serwerów, tam nie ma tego szajsu gma, ale ceny straszne.
losarturosZobacz profil
Poziom ostrzeżenia: 0%
losarturos2014.05.05, 15:25
Lepsza grafa? A czego się spodziewać skoro przyśpieszanie części x86 idzie coraz bardziej opornie i w zasadzie to amd w tym temacie ma większe pole do popisu. ;-) A biorąc pod uwagę, że procka kupuje się nie raz na rok ale na kilka lat i fakt nadciągającego UHD to wszyscy producenci graf będą musieli się trochę postarać żeby w tym UHD dało się pociągnąć gry w 60Hz. :D
Gonzo3211Zobacz profil
Poziom ostrzeżenia: 0%
Gonzo32112014.05.05, 15:40
A bardzo chętnie. Dzisiaj zostałem zmuszony do skręcenia i ponownego wrzucenia hd7750 do budy, choć działanie na integrze bardzo mi się podoba (poza wydajnością) - jeden radiator, można nawet w pasywie zarzucić, albo to i tak jeden wiatraczek.
BTW. W Gears of War można grać na integrze i5-2400 na low w 1280x1024 :E. Teoretycznie by mi nie przeszkadzało, bo gra się na konsolach, ale skoro niezła grafa leży w szufladzie, to czemu nie.
*Konto usunięte*2014.05.05, 15:58
Ciekawe jak GT3e wyjdzie na tle Kaverii.
Kriss_HietalaZobacz profil
Poziom ostrzeżenia: 0%
Kriss_Hietala2014.05.05, 16:07
Broadwell? Czyli Intel -AMD 5:0 ?
KazHZobacz profil
Poziom ostrzeżenia: 0%
KazH2014.05.05, 16:13
-5#9
Chciałbym by kiedyś Intel kupił Nvidię tak jak kiedyś AMD kupiło ATI. Wtedu Intel mógłby zrobić naprawdę udane APU łączące najszybsze rdzenie CPU z wydajnymi rdzeniami GPU od Nvidii. Jakby takie APU wykonali w 14nm to byłby to idealny procesor dla notebooków.
Gonzo3211Zobacz profil
Poziom ostrzeżenia: 0%
Gonzo32112014.05.05, 16:14
-1#10
Niedoczekanie. A później kupiło by ich Apple :E.
duda007Zobacz profil
Poziom ostrzeżenia: 0%
duda0072014.05.05, 16:15
-1#11
@KazH, tak, byłby idealny pomijając oczywiście jeden aspekt - cenę...
Pablos55Zobacz profil
Poziom ostrzeżenia: 0%
Pablos552014.05.05, 16:41
Układ graficzny to niech sobie wsadzą w d.pe
DisconnecTZobacz profil
Poziom ostrzeżenia: 0%
DisconnecT2014.05.05, 17:10
motiff @ 2014.05.05 13:28  Post: 745480
intelik pcha te integry tylko po to, żeby w laptopach nie było miejsca na karty graficzne, zwyczajnie chcą się pozbyć tego. W biurkach do prostych gierek i do prostej pracy wystarczy i3 z tymi zdechłymi gma, ale kompletnie nie rozumiem tego, żeby ładować do i5 i7 duże integry kosztem tych 4 rdzeni, to szkodliwe dla tych procków.
Jedynym uzasadnieniem wydaje się istnienie i7 na podstawce od serwerów, tam nie ma tego szajsu gma, ale ceny straszne.


Nie ma integry ale też nie ma podkręcania i taki CPU już jest dla wielu osób spalony, w dupach im się powaliło i tyle powinna normalnie być i7 z integrą i bez niej do wyboru, ale intel musi sobie fapać z radości jak debile twierdzą że sprzedaje najwięcej kart graficznych, (GMA to na pewno karta graficzna :E) do tego jeszcze pewnie 80 % tych układów jest uśpiona bo większość korzysta z normalnej karty

Pominę całkowicie fakt że gdyby nie ten zintegrowany szajs w i7 to już dawno byśmy mieli bez problemu na LGA 1150 6 rdzeniowe potforki
DisconnecTZobacz profil
Poziom ostrzeżenia: 0%
DisconnecT2014.05.05, 17:16
-1#14
KazH @ 2014.05.05 16:13  Post: 745544
Chciałbym by kiedyś Intel kupił Nvidię tak jak kiedyś AMD kupiło ATI. Wtedu Intel mógłby zrobić naprawdę udane APU łączące najszybsze rdzenie CPU z wydajnymi rdzeniami GPU od Nvidii. Jakby takie APU wykonali w 14nm to byłby to idealny procesor dla notebooków.


Już lepiej wracaj do trollowania na temat wspaniałości windows 8 całego M$ i nokii, bo na tym polu idzie Ci już poniżej niemożliwej granicy, gdyby intel wykupił nv i miał pod kontrolą rynek CPU i GPU to ty byś rok zbierał na takie szajsowate i3
marcin_kgZobacz profil
Poziom ostrzeżenia: 0%
marcin_kg2014.05.05, 19:02
DisconnecT @ 2014.05.05 17:16  Post: 745581
KazH @ 2014.05.05 16:13  Post: 745544
Chciałbym by kiedyś Intel kupił Nvidię tak jak kiedyś AMD kupiło ATI. Wtedu Intel mógłby zrobić naprawdę udane APU łączące najszybsze rdzenie CPU z wydajnymi rdzeniami GPU od Nvidii. Jakby takie APU wykonali w 14nm to byłby to idealny procesor dla notebooków.


Już lepiej wracaj do trollowania na temat wspaniałości windows 8 całego M$ i nokii, bo na tym polu idzie Ci już poniżej niemożliwej granicy, gdyby intel wykupił nv i miał pod kontrolą rynek CPU i GPU to ty byś rok zbierał na takie szajsowate i3

Odpowiednei instytucje na pewno nie wydałyby zgody na takie przejęcie. Nie ma obawy.
cichy45Zobacz profil
Poziom ostrzeżenia: 0%
cichy452014.05.05, 21:17
A ja tam się cieszę z rozwoju integr. Jak w desktopie padł mi GTX wystarczyło przepiąć monitor i dalej można używać i nawet coś zagrać. Gdyby nie to komp stałby nieużywany.
Master HuskyZobacz profil
Poziom ostrzeżenia: 0%
Master Husky2014.05.05, 21:28
KazH @ 2014.05.05 16:13  Post: 745544
Chciałbym by kiedyś Intel kupił Nvidię tak jak kiedyś AMD kupiło ATI. Wtedu Intel mógłby zrobić naprawdę udane APU łączące najszybsze rdzenie CPU z wydajnymi rdzeniami GPU od Nvidii. Jakby takie APU wykonali w 14nm to byłby to idealny procesor dla notebooków.

który kosztowałby tyle co teraz cały laptop ze średniej półki
szmarioszZobacz profil
Poziom ostrzeżenia: 0%
szmariosz2014.05.05, 22:30
Poprawianie integry w cpu (w komputerach stacjonarnych), z której korzysta chyba tylko pani w biurze przy pracy w excelu, wordzie tudzież innym oprogramowaniu do biur to jak poprawianie przyśpieszenia w walcu drogowym.
marcin_kgZobacz profil
Poziom ostrzeżenia: 0%
marcin_kg2014.05.05, 23:20
-2#19
szmariosz @ 2014.05.05 22:30  Post: 745723
Poprawianie integry w cpu (w komputerach stacjonarnych), z której korzysta chyba tylko pani w biurze przy pracy w excelu, wordzie tudzież innym oprogramowaniu do biur to jak poprawianie przyśpieszenia w walcu drogowym.

To porównaj sobie wydajność pierwszej integry Intela z tym co obecnie i zestaw to z walcem drogowym. Teraz brzmi bez sensu?
johnnylabZobacz profil
Poziom ostrzeżenia: 0%
johnnylab2014.05.05, 23:44
Nie rozumiem, dlaczego nie pisze się o wydajności procesora tylko grafiki? Kogo obchodzi kiepska grafika, przecież to jest uboczny efekt, trzeba pomówić o wydajności samego procesora.
Zaloguj się, by móc komentować