Ciekawy artykuł. Dobrze, że Intel w końcu uchylił trochę rąbka tajemnicy o architekturze swoich procesorów - lepiej późno niż wcale.
Pewne fragmenty jednak trochę mnie zdziwiły:
Taka konfiguracja ma 3 × 6 = 18 EU, ale takie same możliwości pobierania i przetwarzania tekstur jak wersja z 24 EU. Wyłączenie jednostek wykonawczych jest motywowane głównie oszczędnością energii, więc zapewne zobaczymy taki układ graficzny w procesorach serii U oraz Y.
Stawiam dolary przeciw orzechom, że jednak wersja z 24EU i niższym zegarem/napięciem byłaby bardziej efektywna Ta nowa 'funkcja' pewnie wykorzystana zostanie w grafikach Pentium i Celeronów.
Choć segmenty wyglądają na dość odrębne twory, renderowanie grafiki z użyciem tak zorganizowanych jednostek wykonawczych nie jest proste. Segmenty współpracują nad jedną klatką obrazu przy użyciu mechanizmu podobnego do SFR (ang. split-frame rendering): każdy segment przetwarza wybrane piksele obrazu wyjściowego. Intel milczy na temat szczegółów implementacji, ale taki mechanizm oznacza, że dodawanie kolejnych segmentów nie jest banalne i nie musi się wiązać z liniowym wzrostem wydajności.
Jakoś nie chce mi się w to wierzyć. Zawsze mówiono, że współczesne gry są zbyt skomplikowane, żeby stosować w nich metody podziału pracy między GPU oparte o SFR, bo obraz na jednej części klatki zależny jest od obrazu innej części (cienie itp.). Podejrzewam, że to nadinterpretacja, a te segmenty nie różnią się wiele od SMM Maxwella.
Dałoby się to zweryfikować testując GT2 @ 1200 MHz vs GT3 @ 600 MHz (ze szczególnym uwzględnieniem frame time'a).
Brakuje szczegółowych testów gpu Skylaka w grach, starych grach, multimediach (dekodery) i programach. Brakuje też całkowicie testów po OC. Nie można ignorować najważniejszej zdaniem Intela części Skylake. Producent główny nacisk kładzie na rozwój gpu, a redakcja pclaba wykazuje się populistyczną ignorancją skupiając się głównie na wydajności z dodatkowym gpu.
Quick Sync to osobny wyspecjalizowany dekoder/enkoder, który ma odciążyć CPU i GPU aby układ zużywał mniej energii przy zabawie z wideo.
Znów przeinaczasz fakty. Quick Sync umożliwia kilkukrotnie szybsze kodowanie wideo, a przy okazji udało się zmniejszyć zapotrzebowanie na prąd.
Luk4s @ 2015.08.30 19:44
Skrót APU rozwija się jako accelerated processing unit, więc teoretycznie zwykła sklejka CPU + GPU się na to nie łapie. Jeżeli GPU ma jakieś możliwości compute to wtedy już tak.
AMD reklamowało Llano jako APU a to była zwykła sklejka CPU i GPU w twojej definicji
Co do pierwszego. Jak wyspecjalizowany to samo się narzuca, że chodzi również o szybkość. Po to tworzy się układy specjalizowane pod kątem konkretnego zadania żeby to konkretne zadanie wykonać szybciej, efektywniej niż gdyby wykorzystać układy ogólnego przeznaczenia jak CPU czy GPU. A co oznacza szybciej, efektywniej? Również oszczędniej. Więc nie, nic nie przeinaczam.
Co do drugiego. GPU w Llano posiadało wsparcie dla OpenCL i nawet dało się to wykorzystać w paru programach. Więc jednak ta 'sklejka' Llano była accelerated, bo GPU potrafiło przemielić coś więcej niż tylko grafikę.
Na tym kończę, bo to artykuł o Intelu. Do tego ciekawy, zresztą jak zwykle w wykonaniu Mateusza Brzostka któremu 'leżą' takie techniczne arty.
Czy AMD kiedykolwiek bawiło się w trademarki? Mi się wydawało że APU to możliwośc użycia iGPU i CPU do wykonania jednego zadania, a 'CPU z integrą' to coś innego, ale ja widze nie można tutaj o nic zapytać, bo fanboye Intela od razu sprzedają minusy.
A słyszałeś o Intel Quick Sync?
A mi się wydawalo ze QS to wyspecjalizowany układ...
W sensie potocznym raczej tak, ale zawsze się może znaleźć debil z amd, który powie, że to trademark. Tak samo jak ptasie mleczko jest tylko wedla.
Czy AMD kiedykolwiek bawiło się w trademarki? Mi się wydawało że APU to możliwośc użycia iGPU i CPU do wykonania jednego zadania, a 'CPU z integrą' to coś innego, ale ja widze nie można tutaj o nic zapytać, bo fanboye Intela od razu sprzedają minusy.
Dałoby się to zweryfikować testując GT2 @ 1200 MHz vs GT3 @ 600 MHz (ze szczególnym uwzględnieniem frame time'a).
GPU w teorii (i praktyce najczęściej też) lepiej skaluje się z zegarem niż jednostkami. Teoretycznie już można dać odpowiedź. Tylko dlatego teoretycznie bo w praktyce takich testów nie ma jeszcze
Sprzętowa kompresja tekstur jest osiągalna już od dawien dawna. Już staruteńkie S3 Savage z 1998 roku potrafiło kompresować tekstury. Oczywiście inną techniką ale nie jest to nowość w każdym razie.
Można by było dodatkowo porównać GTX960 z GTX980 na takich samych ustawieniach (2x niższe zegary na 980)
Jeśli GT3 radziłby sobie dużo gorzej w stosunku do GT2 w porównaniu do GTX980 i GTX960 to faktycznie mamy jakieś dziwne quasi-SFR. Jeśli nie, to byłaby to typowa blokowa budowa współczesnego GPU, wzbogacona o Intelowską 'modularność' (łatwe fizyczne 'wyjmowanie' segmentów bez konieczności gruntownej przebudowy całego układu).
Parę tygodni temu pojawiła się informacja (być może plotka) na wccftech, że Skylake ma technologie reverse HT. Czyli wiele rdzeni potrafi sumować swoją moc obliczeniową do wykonywania jednego wątku.
Moglibyście zbadać ten temat - jeżeli oczywiście potraficie.
Mam pytanie. Czy ktoś tego używa w PC na swoim core i5 i7?
Na pewno dużo osób, choć niekoniecznie na tym forum. Core i7 i i5 wykorzystuje się m.in. do wymagających obliczeń, gdzie grafika służy do 'wyświetlania pulpitu' . Poza tym wiele osób kupuje komputer na lata, więc w ich przypadku i7/i5 ma sens nawet w przypadku sprzętu biurowego. No i integry Intela obecnie radzą sobie całkiem całkiem z casualowym graniem, HD 530 odpowiada mniej więcej dGPU za 250 zł, a HD 6200 - ~350-400 zł.
kryss20 @ 2015.08.31 09:36
Wszystkiego więcej niż w broadwellu super szkoda tylko że wydajność mówi co innego
2x mniej jednostek wykonawczych i brak eDRAM robią swoje.
Parę tygodni temu pojawiła się informacja (być może plotka) na wccftech, że Skylake ma technologie reverse HT. Czyli wiele rdzeni potrafi sumować swoją moc obliczeniową do wykonywania jednego wątku.
Moglibyście zbadać ten temat - jeżeli oczywiście potraficie.
http://myeventagenda.com/sessions/0B9F4191...5D7520025A8/7/5
Rozumie że trzeba parę dni żeby dobrze ją opisać ale nie dwa tygodnie
http://myeventagenda.com/sessions/0B9F4191...5D7520025A8/7/5
Rozumie że trzeba parę dni żeby dobrze ją opisać ale nie dwa tygodnie
Tłumacz maszynowy szwankuje
Pewne fragmenty jednak trochę mnie zdziwiły:
Stawiam dolary przeciw orzechom, że jednak wersja z 24EU i niższym zegarem/napięciem byłaby bardziej efektywna
Jakoś nie chce mi się w to wierzyć. Zawsze mówiono, że współczesne gry są zbyt skomplikowane, żeby stosować w nich metody podziału pracy między GPU oparte o SFR, bo obraz na jednej części klatki zależny jest od obrazu innej części (cienie itp.). Podejrzewam, że to nadinterpretacja, a te segmenty nie różnią się wiele od SMM Maxwella.
Dałoby się to zweryfikować testując GT2 @ 1200 MHz vs GT3 @ 600 MHz (ze szczególnym uwzględnieniem frame time'a).
Cache L4 wycięty, eDRAM w stacjonarkach wycięty, choć widać [po Broadwellach 'C'], że to całkiem nieźle mogło by się spisywać... Leo, Why?
Quick Sync to osobny wyspecjalizowany dekoder/enkoder, który ma odciążyć CPU i GPU aby układ zużywał mniej energii przy zabawie z wideo.
Znów przeinaczasz fakty. Quick Sync umożliwia kilkukrotnie szybsze kodowanie wideo, a przy okazji udało się zmniejszyć zapotrzebowanie na prąd.
AMD reklamowało Llano jako APU a to była zwykła sklejka CPU i GPU w twojej definicji
Co do pierwszego. Jak wyspecjalizowany to samo się narzuca, że chodzi również o szybkość. Po to tworzy się układy specjalizowane pod kątem konkretnego zadania żeby to konkretne zadanie wykonać szybciej, efektywniej niż gdyby wykorzystać układy ogólnego przeznaczenia jak CPU czy GPU. A co oznacza szybciej, efektywniej? Również oszczędniej. Więc nie, nic nie przeinaczam.
Co do drugiego. GPU w Llano posiadało wsparcie dla OpenCL i nawet dało się to wykorzystać w paru programach. Więc jednak ta 'sklejka' Llano była accelerated, bo GPU potrafiło przemielić coś więcej niż tylko grafikę.
Na tym kończę, bo to artykuł o Intelu. Do tego ciekawy, zresztą jak zwykle w wykonaniu Mateusza Brzostka któremu 'leżą' takie techniczne arty.
Czy AMD kiedykolwiek bawiło się w trademarki? Mi się wydawało że APU to możliwośc użycia iGPU i CPU do wykonania jednego zadania, a 'CPU z integrą' to coś innego, ale ja widze nie można tutaj o nic zapytać, bo fanboye Intela od razu sprzedają minusy.
A słyszałeś o Intel Quick Sync?
A mi się wydawalo ze QS to wyspecjalizowany układ...
W sensie potocznym raczej tak, ale zawsze się może znaleźć debil z amd, który powie, że to trademark. Tak samo jak ptasie mleczko jest tylko wedla.
Czy AMD kiedykolwiek bawiło się w trademarki? Mi się wydawało że APU to możliwośc użycia iGPU i CPU do wykonania jednego zadania, a 'CPU z integrą' to coś innego, ale ja widze nie można tutaj o nic zapytać, bo fanboye Intela od razu sprzedają minusy.
Praktycznie wszystkie jesli chodzi o OCL...
W przypadku intela od SB ale kulawo to działało.
Pełne HSA będzie podobno dopiero w Carrizo.
GPU w teorii (i praktyce najczęściej też) lepiej skaluje się z zegarem niż jednostkami. Teoretycznie już można dać odpowiedź. Tylko dlatego teoretycznie bo w praktyce takich testów nie ma jeszcze
Jeśli GT3 radziłby sobie dużo gorzej w stosunku do GT2 w porównaniu do GTX980 i GTX960 to faktycznie mamy jakieś dziwne quasi-SFR. Jeśli nie, to byłaby to typowa blokowa budowa współczesnego GPU, wzbogacona o Intelowską 'modularność' (łatwe fizyczne 'wyjmowanie' segmentów bez konieczności gruntownej przebudowy całego układu).
Moglibyście zbadać ten temat - jeżeli oczywiście potraficie.
Cache L4 wycięty, eDRAM w stacjonarkach wycięty, choć widać [po Broadwellach 'C'], że to całkiem nieźle mogło by się spisywać... Leo, Why?
L4 będzie w mobilnych Skylake'ach a do desktopów powróci wraz z Kaby Lake w przyszłym roku.
Do tego eDRAM został w Skylake'u ulepszony, więc będzie to działać jeszcze lepiej niż w Broadwellu.
W cpu za 500zł to jeszcze rozumiem...
Na pewno dużo osób, choć niekoniecznie na tym forum. Core i7 i i5 wykorzystuje się m.in. do wymagających obliczeń, gdzie grafika służy do 'wyświetlania pulpitu' . Poza tym wiele osób kupuje komputer na lata, więc w ich przypadku i7/i5 ma sens nawet w przypadku sprzętu biurowego. No i integry Intela obecnie radzą sobie całkiem całkiem z casualowym graniem, HD 530 odpowiada mniej więcej dGPU za 250 zł, a HD 6200 - ~350-400 zł.
2x mniej jednostek wykonawczych i brak eDRAM robią swoje.
Moglibyście zbadać ten temat - jeżeli oczywiście potraficie.
Coś aka CMT w FPU buldku