Jak już tak chwalicie wydajność Iris Pro to nie zapominajcie o 128 MiB eDRAMu. Im niższe ustawienia, tym większa część danych mieści się w eDRAMie, a co za tym idzie porównanie staje się coraz mniej sensowne. Wejście DDR4 sprawi, że podskoczą grywalne rozdzielczości, a co za tym idzie, mniejsza część danych zmieści się w 128 MiB eDRAM i kolejna wersja Iris Pro odejdzie do tyłu, no chyba, że znowu zwiększą jej ilość, utrzymując tym samym wysokie koszty.
Zastanawiam się dlaczego AMD nie zrobi mniejszego rdzenia graficznego i nie wykręci zegarów. Wydajność była by mniej wiecej taka sama za to zostało by wiecej miejsca na CPU i wtedy nie trzeba by oszczędzać miejsca kosztem FPU...
Bo dla nich przyszłość FPU to GPU z HSA.
PCLab
Kaveri – test rdzeni Steamroller. Wydajność z osobną kartą graficzną
Athlony, Athlonami, fajna sprawa dla ludzi o konserwatywnych zapatrywaniach na technikę, ale na odpalaniu już istniejących gierek świat się, nawet domowego użytkownika, nie kończy.
Myślę, że teraz najważniejsze jest, żeby w najbliższej przyszłości zaczęto wykorzystywać tę całą HSA w APU, bo tylko w tym wypadku widać znaczący wzrost wydajności (w przypadku AMD, bo Intel woli raczej przyjść na gotowe, jak zwykle zresztą).
Potrafię sobie wyobrazić taką sytuację, że układ obecnie nazywany GPU staje się integralną częścią procesora, z ewentualną możliwością wyświetlania obrazu dla biurowców, a do grania instaluje się zewnętrzną kartę graficzną, co w sumie zapewnia skokowy wzrost wydajności. Nie potrafię sobie natomiast wyobrazić tego, ile jeszcze ALU, FPU, pamięci podręcznej trzeciego, czwartego, piątego poziomu itd. można wrzucać w procesor, żeby zyskać kolejny znaczący, bo o 6,66 %, wzrost wydajności 'jednego mocnego wątku'.
Zastanawiam się dlaczego AMD nie zrobi mniejszego rdzenia graficznego i nie wykręci zegarów. Wydajność była by mniej wiecej taka sama za to zostało by wiecej miejsca na CPU i wtedy nie trzeba by oszczędzać miejsca kosztem FPU...
Nie ma tu o czym dyskutować .Zrobili wszystko co się dało by zakończyć swoją karierę na rynku .Gdybym był akcjonariuszem AMD to wynajął bym od Putina jedną z kopalń uranu na ziemi białych niedźwiedzi i tam zesłał tych przygłupów by odpracowali zmarnowaną kasę
Gdyby porównywać wydajność zegar w zegar, to całkiem możliwe, że najszybsze okazałoby się... Llano, zapomniane już przez wszystkich. I to był materiał na następcę Phenomów. Przecież jakby temu dorzucić 6MB L3...a przeniesienie w 32nm dobrze tej architekturze zrobiło wespół zespół z drobnymi wprowadzonymi usprawnieniami. Pobór mocy to raczej liga FM2 i późniejszych, niż 45-nm Phenomów.
@up
Zapominasz, że GPU Intel-a ma ogromną wydajność/tranzystor. Jest bardzo małe, a osiąga wydajność już w desktopie porównywalną.
Testy w wysokich rozdzielczość OK, ale jeśli FPS jest większy niż 30. Zauważ relacje pomiędzy A10, a 6750. Z twojego założenia można by wynioskować, 6750 jest może 10% mniej wydajne od A10....
Wg. mnie to byłaby abstrakcja taki wniosek.
miekrzy @ 2014.01.16 10:35
SunTzu @ 2014.01.16 10:26
Wydajność w rozumieniu ile klatek GPU przetworzy na sekundę?
Oj, nie dyskutujmy o definicjach Przecież wiesz o co mi chodzi
Ojj, wiem... Ale dla mnie użytkownik ma to w głębokim poważaniu czy GPU/Karta graficzna, liczy się FPS, głównie ten focus-a
Im większa przepustowość tym, większa wydajność GPU Bo GPU pracuje 'wydajniej', nawet to samo GPU oferujące taką samą moc obliczenią.
Ewidentnie dobierałeś przykłady w których ogranicznikiem było cpu, nie gpu. Jeśli chcesz komuś udowadniać błąd w stwierdzeniu o wydajności GPU, to właśnie testy w wysokich rozdzielczościach powinny cię interesować.
Na przykładzie właśnie tych testów w wysokich rozdzielczościach widać jasno jak strasznym chłamem jeśli chodzi o realną moc obliczeniową jest HD5200, a przecież ma doskonałe warunki do bycia wydajnym:
-bardzo wydajne rdzenie cpu
-współdzielona pamięć L3 (znacznie szybsza niż w fx'ach, w apu nie ma jej wcale)
-wielki 64MB bufor L4
-bez porównania wydajniejsze kontrolery pamięci ram niż w procesorach amd.
Jedyny element który tu nie pasuje to właśnie gpu intela.
GCN otoczony tak wydajnym 'środowiskiem' najpewniej pracowałby szybciej od dedykowanych rozwiązań na GDDR3.
Trochę AMD zbłądziło. Poświęciło furę kasy na nową architekturę i cięło koszty wyrobu procków pozbywając się pewnych części procesora. A teraz gdy okazało się że one właśnie są potrzebne to je przywracją. Super plan. Chcę jak najlepiej dla AMD ale to nic innego jak złe zarządzanie firmą.
Serial pod tytulem bulldozer jeszcze trwa, chociaz nikt nie pamieta ktory to juz odcinek, a poza najtrwardszymi fanami juz nikt go od dawna nie oglada. Glowny bohater ma juz zbyt wypalony wizerunek, wiec pewnie nie dlugo rezyserowie go usmierca, ale piniedzy na nowego tasiemca juz nie starczy.
hehe, czyli jak testujesz 650m@DDR3 i 660m (te same GPU) to też powiesz, że nie testujesz mocy graficznej?
Wydajność karty graficznej będzie inna, ale GPU taka sama
Wydajność w rozumieniu ile klatek GPU przetworzy na sekundę?
tomcug @ 2014.01.16 10:20
Bruno@Home @ 2014.01.16 08:56
Bez obaw Grave - zawsze z checia skomentuje Twoje zapedy jak tylko zauwaze, ze masa krytyczna fanbojowania i selekcjonowania tresci zostala przekroczona.
Pozdrawiam,
Bruno
(wklejanie wykresów wyłącznie z niegrywalnych ustawień).
Wkleił jeszcze minimalny FPS, bo przy średnim AMD remisuje.
Bez obaw Grave - zawsze z checia skomentuje Twoje zapedy jak tylko zauwaze, ze masa krytyczna fanbojowania i selekcjonowania tresci zostala przekroczona.
Pozdrawiam,
Bruno
Zdefiniuj proszę, co dla Ciebie znaczy 'przekroczenie masy krytycznej sekcjonowania treści', gdyż samemu popełniasz tę samą, a nawet gorszą 'zbrodnię' (wklejanie wykresów wyłącznie z niegrywalnych ustawień).
miekrzy...
Niestety mylił się. Gdyby tak było 4770k i 4770r miałyby podobną wydajność. GT3 ma zdaję się 2x tyle shaderów co GT2 i osiąga też prawie 2x tyle większą wydajność. Trudno więc o bardziej mylne twierdzenie
Patrzyłem na ten wykres i patrzyłem i im dłużej patrzę, tym mniej ma on sens. Intel skaluje się niemal idealnie (Iris Pro ma 2x więcej EU niż HD4600 i w tym teście prawie 2x wyższą wydajność), a AMD powyżej pewnego poziomu nie skaluje się prawie w ogóle, więc ma jakiegoś bottlenecka. Na początku założyłem, że na wydajności procesora, ale może jest to bottleneck na przepustowości pamięci. Nie wiem do końca o co chodzi w tym wykresie, ale w przypadku AMD nie jest on testem wydajności GPU, tylko czegoś innego, choć nie zmienia to faktu, że gdy się porównuje APU do APU i platformę do platformy, to intel dzięki wyższej wydajności procka i eDRAM tu wygrywa.
Porównaj 4600 do 5100 a nie 5200 bo w przypadku 5200 dochodzi 128MB edram
Że co? I tak jest wolniejszy od Phenoma II x4 z 2009 roku? Ktoś sobie żarty stroi
Cały czas to podkreślam, ta architektura przyniosła AMD fatalną sytuację, a grabarze ciągle chcą ją rozwijać. fenomie wróć, jedyna nadzieja na stabilizację.
pybek @ 2014.01.16 10:00
Jestem pozytywni i negatywnie zaskoczony jednocześnie. Duży boost ale jak dużo mają jeszcze do nadrobienia.....
Takie kroczki robili za fenoma, intel takie drobi, nie nadrobią tymi modułami nigdy.
mbe @ 2014.01.16 09:40
Znając życie EX dostanie pewnie FPU na rdzeń.
Niestety ale AMD obcinając wszystkie stare projekty w tym moduły gdy przyszedł RR straciłoby dużo więcej niż po prostu wprowadzić jej na rynek i kminić w tym czasie coś nowego.
Już wyszły przecieki, AMD specjalnie nie wprowadzi procesorów o tdp 95W, chyba po to, żeby ich nie wyśmiali.
miekrzy...
Niestety mylił się. Gdyby tak było 4770k i 4770r miałyby podobną wydajność. GT3 ma zdaję się 2x tyle shaderów co GT2 i osiąga też prawie 2x tyle większą wydajność. Trudno więc o bardziej mylne twierdzenie
Patrzyłem na ten wykres i patrzyłem i im dłużej patrzę, tym mniej ma on sens. Intel skaluje się niemal idealnie (Iris Pro ma 2x więcej EU niż HD4600 i w tym teście prawie 2x wyższą wydajność), a AMD powyżej pewnego poziomu nie skaluje się prawie w ogóle, więc ma jakiegoś bottlenecka. Na początku założyłem, że na wydajności procesora, ale może jest to bottleneck na przepustowości pamięci. Nie wiem do końca o co chodzi w tym wykresie, ale w przypadku AMD nie jest on testem wydajności GPU, tylko czegoś innego, choć nie zmienia to faktu, że gdy się porównuje APU do APU i platformę do platformy, to intel dzięki wyższej wydajności procka i eDRAM tu wygrywa.
hehe, czyli jak testujesz 650m@DDR3 i 660m (te same GPU) to też powiesz, że nie testujesz mocy graficznej?
W przypadku top-owych APU przepustowość jest najważniejsza. Anandtech bardzo rozmyślnie dał HD6750
A10 7850k
8CU -512SP- 720MHz
6750
9SIMD- 720SP- 700MHz
Gdyby A10 był podpięty pod pamięci równie szybkie, z opóźnieniami DDR3, a rdzeniami o wydajności 4770 można by oczekiwać właśnie takiej wydajnosci
Akurat ten wykres nie jest najbardziej fortunny, bo to bardziej test procesora, niż karty graficznej, ale Iris faktycznie jest szybki
no tak, dlatego jest montowany w core i3, Pentium oraz Celeron
porównywać tylko cenowo - i to całe platformy z założeniem, że płyta ma mieć nie mniejsza funkcjonalność niż konkurencja.
Jest całkiem spora grupa ludzi, dla których cena nie jest kryterium porównawczym. Śmiem nawet twierdzić, że może to być co najmniej połowa populacji samodzielnie składającej swojego blaszaka.
Trochę AMD zbłądziło. Poświęciło furę kasy na nową architekturę i cięło koszty wyrobu procków pozbywając się pewnych części procesora. A teraz gdy okazało się że one właśnie są potrzebne to je przywracją. Super plan. Chcę jak najlepiej dla AMD ale to nic innego jak złe zarządzanie firmą.
Znając życie EX dostanie pewnie FPU na rdzeń.
Niestety ale AMD obcinając wszystkie stare projekty w tym moduły gdy przyszedł RR straciłoby dużo więcej niż po prostu wprowadzić jej na rynek i kminić w tym czasie coś nowego.
Bo dla nich przyszłość FPU to GPU z HSA.
Athlony, Athlonami, fajna sprawa dla ludzi o konserwatywnych zapatrywaniach na technikę, ale na odpalaniu już istniejących gierek świat się, nawet domowego użytkownika, nie kończy.
Myślę, że teraz najważniejsze jest, żeby w najbliższej przyszłości zaczęto wykorzystywać tę całą HSA w APU, bo tylko w tym wypadku widać znaczący wzrost wydajności (w przypadku AMD, bo Intel woli raczej przyjść na gotowe, jak zwykle zresztą).
Potrafię sobie wyobrazić taką sytuację, że układ obecnie nazywany GPU staje się integralną częścią procesora, z ewentualną możliwością wyświetlania obrazu dla biurowców, a do grania instaluje się zewnętrzną kartę graficzną, co w sumie zapewnia skokowy wzrost wydajności. Nie potrafię sobie natomiast wyobrazić tego, ile jeszcze ALU, FPU, pamięci podręcznej trzeciego, czwartego, piątego poziomu itd. można wrzucać w procesor, żeby zyskać kolejny znaczący, bo o 6,66 %, wzrost wydajności 'jednego mocnego wątku'.
Zapominasz, że GPU Intel-a ma ogromną wydajność/tranzystor. Jest bardzo małe, a osiąga wydajność już w desktopie porównywalną.
Testy w wysokich rozdzielczość OK, ale jeśli FPS jest większy niż 30. Zauważ relacje pomiędzy A10, a 6750. Z twojego założenia można by wynioskować, 6750 jest może 10% mniej wydajne od A10....
Wg. mnie to byłaby abstrakcja taki wniosek.
Oj, nie dyskutujmy o definicjach
Ojj, wiem... Ale dla mnie użytkownik ma to w głębokim poważaniu czy GPU/Karta graficzna, liczy się FPS, głównie ten focus-a
Im większa przepustowość tym, większa wydajność GPU
Ewidentnie dobierałeś przykłady w których ogranicznikiem było cpu, nie gpu. Jeśli chcesz komuś udowadniać błąd w stwierdzeniu o wydajności GPU, to właśnie testy w wysokich rozdzielczościach powinny cię interesować.
Na przykładzie właśnie tych testów w wysokich rozdzielczościach widać jasno jak strasznym chłamem jeśli chodzi o realną moc obliczeniową jest HD5200, a przecież ma doskonałe warunki do bycia wydajnym:
-bardzo wydajne rdzenie cpu
-współdzielona pamięć L3 (znacznie szybsza niż w fx'ach, w apu nie ma jej wcale)
-wielki 64MB bufor L4
-bez porównania wydajniejsze kontrolery pamięci ram niż w procesorach amd.
Jedyny element który tu nie pasuje to właśnie gpu intela.
GCN otoczony tak wydajnym 'środowiskiem' najpewniej pracowałby szybciej od dedykowanych rozwiązań na GDDR3.
Jak będzie bardzo źle, to zmienią naklejki
Oj, nie dyskutujmy o definicjach
Wydajność karty graficznej będzie inna, ale GPU taka sama
Wydajność w rozumieniu ile klatek GPU przetworzy na sekundę?
Pozdrawiam,
Bruno
(wklejanie wykresów wyłącznie z niegrywalnych ustawień).
Wkleił jeszcze minimalny FPS, bo przy średnim AMD remisuje.
Pozdrawiam,
Bruno
Zdefiniuj proszę, co dla Ciebie znaczy 'przekroczenie masy krytycznej sekcjonowania treści', gdyż samemu popełniasz tę samą, a nawet gorszą 'zbrodnię' (wklejanie wykresów wyłącznie z niegrywalnych ustawień).
Wydajność karty graficznej będzie inna, ale GPU taka sama
miekrzy...
Niestety mylił się. Gdyby tak było 4770k i 4770r miałyby podobną wydajność. GT3 ma zdaję się 2x tyle shaderów co GT2 i osiąga też prawie 2x tyle większą wydajność. Trudno więc o bardziej mylne twierdzenie
Patrzyłem na ten wykres i patrzyłem i im dłużej patrzę, tym mniej ma on sens. Intel skaluje się niemal idealnie (Iris Pro ma 2x więcej EU niż HD4600 i w tym teście prawie 2x wyższą wydajność), a AMD powyżej pewnego poziomu nie skaluje się prawie w ogóle, więc ma jakiegoś bottlenecka. Na początku założyłem, że na wydajności procesora, ale może jest to bottleneck na przepustowości pamięci. Nie wiem do końca o co chodzi w tym wykresie, ale w przypadku AMD nie jest on testem wydajności GPU, tylko czegoś innego, choć nie zmienia to faktu, że gdy się porównuje APU do APU i platformę do platformy, to intel dzięki wyższej wydajności procka i eDRAM tu wygrywa.
Porównaj 4600 do 5100 a nie 5200 bo w przypadku 5200 dochodzi 128MB edram
Cały czas to podkreślam, ta architektura przyniosła AMD fatalną sytuację, a grabarze ciągle chcą ją rozwijać. fenomie wróć, jedyna nadzieja na stabilizację.
Takie kroczki robili za fenoma, intel takie drobi, nie nadrobią tymi modułami nigdy.
Znając życie EX dostanie pewnie FPU na rdzeń.
Niestety ale AMD obcinając wszystkie stare projekty w tym moduły gdy przyszedł RR straciłoby dużo więcej niż po prostu wprowadzić jej na rynek i kminić w tym czasie coś nowego.
Już wyszły przecieki, AMD specjalnie nie wprowadzi procesorów o tdp 95W, chyba po to, żeby ich nie wyśmiali.
miekrzy...
Niestety mylił się. Gdyby tak było 4770k i 4770r miałyby podobną wydajność. GT3 ma zdaję się 2x tyle shaderów co GT2 i osiąga też prawie 2x tyle większą wydajność. Trudno więc o bardziej mylne twierdzenie
Patrzyłem na ten wykres i patrzyłem i im dłużej patrzę, tym mniej ma on sens. Intel skaluje się niemal idealnie (Iris Pro ma 2x więcej EU niż HD4600 i w tym teście prawie 2x wyższą wydajność), a AMD powyżej pewnego poziomu nie skaluje się prawie w ogóle, więc ma jakiegoś bottlenecka. Na początku założyłem, że na wydajności procesora, ale może jest to bottleneck na przepustowości pamięci. Nie wiem do końca o co chodzi w tym wykresie, ale w przypadku AMD nie jest on testem wydajności GPU, tylko czegoś innego, choć nie zmienia to faktu, że gdy się porównuje APU do APU i platformę do platformy, to intel dzięki wyższej wydajności procka i eDRAM tu wygrywa.
hehe, czyli jak testujesz 650m@DDR3 i 660m (te same GPU) to też powiesz, że nie testujesz mocy graficznej?
W przypadku top-owych APU przepustowość jest najważniejsza. Anandtech bardzo rozmyślnie dał HD6750
A10 7850k
8CU -512SP- 720MHz
6750
9SIMD- 720SP- 700MHz
Gdyby A10 był podpięty pod pamięci równie szybkie, z opóźnieniami DDR3, a rdzeniami o wydajności 4770 można by oczekiwać właśnie takiej wydajnosci
Akurat ten wykres nie jest najbardziej fortunny, bo to bardziej test procesora, niż karty graficznej, ale Iris faktycznie jest szybki
no tak, dlatego jest montowany w core i3, Pentium oraz Celeron
porównywać tylko cenowo - i to całe platformy z założeniem, że płyta ma mieć nie mniejsza funkcjonalność niż konkurencja.
Jest całkiem spora grupa ludzi, dla których cena nie jest kryterium porównawczym. Śmiem nawet twierdzić, że może to być co najmniej połowa populacji samodzielnie składającej swojego blaszaka.
Znając życie EX dostanie pewnie FPU na rdzeń.
Niestety ale AMD obcinając wszystkie stare projekty w tym moduły gdy przyszedł RR straciłoby dużo więcej niż po prostu wprowadzić jej na rynek i kminić w tym czasie coś nowego.