komentarze
Markiz88Zobacz profil
Poziom ostrzeżenia: 0%
Markiz882015.08.30, 21:03
-6#21
ale czego trzeba czekać aż 12 dni aż ktoś opisz architekturę skylake?
http://myeventagenda.com/sessions/0B9F4191...5D7520025A8/7/5
Rozumie że trzeba parę dni żeby dobrze ją opisać ale nie dwa tygodnie
LartesZobacz profil
Poziom ostrzeżenia: 0%
Lartes2015.08.30, 21:49
-6#22
Markiz88 @ 2015.08.30 21:03  Post: 902246
ale czego trzeba czekać aż 12 dni aż ktoś opisz architekturę skylake?
http://myeventagenda.com/sessions/0B9F4191...5D7520025A8/7/5
Rozumie że trzeba parę dni żeby dobrze ją opisać ale nie dwa tygodnie

Tłumacz maszynowy szwankuje :E
jaskólZobacz profil
Poziom ostrzeżenia: 0%
jaskól2015.08.30, 21:52
Dawać testy tego GPU, pewnie przep.... z Broadwellem, ciekawe tylko jak bardzo
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2015.08.30, 22:07
Ciekawy artykuł. Dobrze, że Intel w końcu uchylił trochę rąbka tajemnicy o architekturze swoich procesorów - lepiej późno niż wcale.

Pewne fragmenty jednak trochę mnie zdziwiły:

Taka konfiguracja ma 3 × 6 = 18 EU, ale takie same możliwości pobierania i przetwarzania tekstur jak wersja z 24 EU. Wyłączenie jednostek wykonawczych jest motywowane głównie oszczędnością energii, więc zapewne zobaczymy taki układ graficzny w procesorach serii U oraz Y.

Stawiam dolary przeciw orzechom, że jednak wersja z 24EU i niższym zegarem/napięciem byłaby bardziej efektywna ;) Ta nowa 'funkcja' pewnie wykorzystana zostanie w grafikach Pentium i Celeronów.

Choć segmenty wyglądają na dość odrębne twory, renderowanie grafiki z użyciem tak zorganizowanych jednostek wykonawczych nie jest proste. Segmenty współpracują nad jedną klatką obrazu przy użyciu mechanizmu podobnego do SFR (ang. split-frame rendering): każdy segment przetwarza wybrane piksele obrazu wyjściowego. Intel milczy na temat szczegółów implementacji, ale taki mechanizm oznacza, że dodawanie kolejnych segmentów nie jest banalne i nie musi się wiązać z liniowym wzrostem wydajności.

Jakoś nie chce mi się w to wierzyć. Zawsze mówiono, że współczesne gry są zbyt skomplikowane, żeby stosować w nich metody podziału pracy między GPU oparte o SFR, bo obraz na jednej części klatki zależny jest od obrazu innej części (cienie itp.). Podejrzewam, że to nadinterpretacja, a te segmenty nie różnią się wiele od SMM Maxwella.

Dałoby się to zweryfikować testując GT2 @ 1200 MHz vs GT3 @ 600 MHz (ze szczególnym uwzględnieniem frame time'a).
AbrahaMZobacz profil
Poziom ostrzeżenia: 0%
AbrahaM2015.08.30, 22:52
Oczywiście, układ GT4 będzie dostępny w konfiguracji z pamięcią eDRAM... ale nie w wymiennym, desktopowym procesorze.


Cache L4 wycięty, eDRAM w stacjonarkach wycięty, choć widać [po Broadwellach 'C'], że to całkiem nieźle mogło by się spisywać... Leo, Why?
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2015.08.30, 23:02
Brakuje szczegółowych testów gpu Skylaka w grach, starych grach, multimediach (dekodery) i programach. Brakuje też całkowicie testów po OC. Nie można ignorować najważniejszej zdaniem Intela części Skylake. Producent główny nacisk kładzie na rozwój gpu, a redakcja pclaba wykazuje się populistyczną ignorancją skupiając się głównie na wydajności z dodatkowym gpu.
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2015.08.30, 23:05
bad-wolf @ 2015.08.30 20:26  Post: 902239
Luk4s @ 2015.08.30 19:44  Post: 902229
(...)

Quick Sync to osobny wyspecjalizowany dekoder/enkoder, który ma odciążyć CPU i GPU aby układ zużywał mniej energii przy zabawie z wideo.

Znów przeinaczasz fakty. Quick Sync umożliwia kilkukrotnie szybsze kodowanie wideo, a przy okazji udało się zmniejszyć zapotrzebowanie na prąd.

Luk4s @ 2015.08.30 19:44  Post: 902229
Skrót APU rozwija się jako accelerated processing unit, więc teoretycznie zwykła sklejka CPU + GPU się na to nie łapie. Jeżeli GPU ma jakieś możliwości compute to wtedy już tak.

AMD reklamowało Llano jako APU a to była zwykła sklejka CPU i GPU w twojej definicji

Co do pierwszego. Jak wyspecjalizowany to samo się narzuca, że chodzi również o szybkość. Po to tworzy się układy specjalizowane pod kątem konkretnego zadania żeby to konkretne zadanie wykonać szybciej, efektywniej niż gdyby wykorzystać układy ogólnego przeznaczenia jak CPU czy GPU. A co oznacza szybciej, efektywniej? Również oszczędniej. Więc nie, nic nie przeinaczam.

Co do drugiego. GPU w Llano posiadało wsparcie dla OpenCL i nawet dało się to wykorzystać w paru programach. Więc jednak ta 'sklejka' Llano była accelerated, bo GPU potrafiło przemielić coś więcej niż tylko grafikę.

Na tym kończę, bo to artykuł o Intelu. Do tego ciekawy, zresztą jak zwykle w wykonaniu Mateusza Brzostka któremu 'leżą' takie techniczne arty.
mbe2015.08.30, 23:13
-5#28
bad-wolf @ 2015.08.30 19:27  Post: 902223
decorator12 @ 2015.08.30 19:23  Post: 902219
(...)

Czy AMD kiedykolwiek bawiło się w trademarki? Mi się wydawało że APU to możliwośc użycia iGPU i CPU do wykonania jednego zadania, a 'CPU z integrą' to coś innego, ale ja widze nie można tutaj o nic zapytać, bo fanboye Intela od razu sprzedają minusy.

A słyszałeś o Intel Quick Sync?

A mi się wydawalo ze QS to wyspecjalizowany układ...
mbe2015.08.30, 23:16
-4#29
decorator12 @ 2015.08.30 19:23  Post: 902219
snape666 @ 2015.08.30 19:19  Post: 902217
(...)


W sensie potocznym raczej tak, ale zawsze się może znaleźć debil z amd, który powie, że to trademark. Tak samo jak ptasie mleczko jest tylko wedla.

Czy AMD kiedykolwiek bawiło się w trademarki? Mi się wydawało że APU to możliwośc użycia iGPU i CPU do wykonania jednego zadania, a 'CPU z integrą' to coś innego, ale ja widze nie można tutaj o nic zapytać, bo fanboye Intela od razu sprzedają minusy.

Praktycznie wszystkie jesli chodzi o OCL...

W przypadku intela od SB ale kulawo to działało.

Pełne HSA będzie podobno dopiero w Carrizo.
S.H.O.D.A.N.Zobacz profil
Poziom ostrzeżenia: 0%
S.H.O.D.A.N.2015.08.31, 01:57
-7#30
.
*Konto usunięte*2015.08.31, 07:49
-3#31
Assassin @ 2015.08.30 22:07  Post: 902256
Dałoby się to zweryfikować testując GT2 @ 1200 MHz vs GT3 @ 600 MHz (ze szczególnym uwzględnieniem frame time'a).

GPU w teorii (i praktyce najczęściej też) lepiej skaluje się z zegarem niż jednostkami. Teoretycznie już można dać odpowiedź. Tylko dlatego teoretycznie bo w praktyce takich testów nie ma jeszcze :P
imiennickZobacz profil
Poziom ostrzeżenia: 0%
imiennick2015.08.31, 08:30
Sprzętowa kompresja tekstur jest osiągalna już od dawien dawna. Już staruteńkie S3 Savage z 1998 roku potrafiło kompresować tekstury. Oczywiście inną techniką ale nie jest to nowość w każdym razie.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2015.08.31, 08:34
Można by było dodatkowo porównać GTX960 z GTX980 na takich samych ustawieniach (2x niższe zegary na 980) ;)

Jeśli GT3 radziłby sobie dużo gorzej w stosunku do GT2 w porównaniu do GTX980 i GTX960 to faktycznie mamy jakieś dziwne quasi-SFR. Jeśli nie, to byłaby to typowa blokowa budowa współczesnego GPU, wzbogacona o Intelowską 'modularność' (łatwe fizyczne 'wyjmowanie' segmentów bez konieczności gruntownej przebudowy całego układu).
darkmartinZobacz profil
Poziom ostrzeżenia: 0%
darkmartin2015.08.31, 08:57
-5#34
Parę tygodni temu pojawiła się informacja (być może plotka) na wccftech, że Skylake ma technologie reverse HT. Czyli wiele rdzeni potrafi sumować swoją moc obliczeniową do wykonywania jednego wątku.
Moglibyście zbadać ten temat - jeżeli oczywiście potraficie.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2015.08.31, 08:57
AbrahaM @ 2015.08.30 22:52  Post: 902266
Oczywiście, układ GT4 będzie dostępny w konfiguracji z pamięcią eDRAM... ale nie w wymiennym, desktopowym procesorze.


Cache L4 wycięty, eDRAM w stacjonarkach wycięty, choć widać [po Broadwellach 'C'], że to całkiem nieźle mogło by się spisywać... Leo, Why?


L4 będzie w mobilnych Skylake'ach a do desktopów powróci wraz z Kaby Lake w przyszłym roku.

Do tego eDRAM został w Skylake'u ulepszony, więc będzie to działać jeszcze lepiej niż w Broadwellu.
Orzel94Zobacz profil
Poziom ostrzeżenia: 0%
Orzel942015.08.31, 09:17
Mam pytanie. Czy ktoś tego używa w PC na swoim core i5 i7?
kryss20Zobacz profil
Poziom ostrzeżenia: 0%
kryss202015.08.31, 09:36
Wszystkiego więcej niż w broadwellu super szkoda tylko że wydajność mówi co innego
decorator12Zobacz profil
Poziom ostrzeżenia: 0%
decorator122015.08.31, 09:52
Ale po co mocniejsza integra w CPU za 1100zł?
W cpu za 500zł to jeszcze rozumiem...
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2015.08.31, 09:58
-2#39
Orzel94 @ 2015.08.31 09:17  Post: 902303
Mam pytanie. Czy ktoś tego używa w PC na swoim core i5 i7?

Na pewno dużo osób, choć niekoniecznie na tym forum. Core i7 i i5 wykorzystuje się m.in. do wymagających obliczeń, gdzie grafika służy do 'wyświetlania pulpitu' . Poza tym wiele osób kupuje komputer na lata, więc w ich przypadku i7/i5 ma sens nawet w przypadku sprzętu biurowego. No i integry Intela obecnie radzą sobie całkiem całkiem z casualowym graniem, HD 530 odpowiada mniej więcej dGPU za 250 zł, a HD 6200 - ~350-400 zł.

kryss20 @ 2015.08.31 09:36  Post: 902310
Wszystkiego więcej niż w broadwellu super szkoda tylko że wydajność mówi co innego

2x mniej jednostek wykonawczych i brak eDRAM robią swoje.
*Konto usunięte*2015.08.31, 10:08
-3#40
darkmartin @ 2015.08.31 08:57  Post: 902297
Parę tygodni temu pojawiła się informacja (być może plotka) na wccftech, że Skylake ma technologie reverse HT. Czyli wiele rdzeni potrafi sumować swoją moc obliczeniową do wykonywania jednego wątku.
Moglibyście zbadać ten temat - jeżeli oczywiście potraficie.

Coś aka CMT w FPU buldku
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.