komentarze
rainyZobacz profil
Poziom ostrzeżenia: 0%
rainy2010.11.19, 17:20
SuLac0 @ 2010.11.19 17:11  Post: 432464

ale tutaj nie chodzi o wymiar, a o zlozonosc gpu. przeciez latwiej przygoowac gpu zajmujacy 250mm2, 1mld trn, niz 500mm2i 3mld.


Natomiast jak chodzi o Ciebie, to moim zdaniem jesteś ciężkim przypadkiem.
Nawet w przykładach rozmijasz się z rzeczywistością, żeby określić to delikatnie.

Cypress ma 334 mm2 i 2,15 mld tranzystórów, co pokazuje tylko, iż inżynierowie Nvdii nie są wcale takimi geniuszami jak Ci się wydaje.
SuLac0Zobacz profil
Poziom ostrzeżenia: 0%
SuLac02010.11.19, 17:17
rainy @ 2010.11.19 17:12  Post: 432465
Skoti48, szanuję Twoją wiedzę odnośnie kart graficznych i ich wykorzystywania, ale w niektórych przypadkach, zachowujesz się jak ' rasowy' fanboy Nvidii.

ja tam widze glownie zwroty 'podobno' i 'prawdopodobnie'. wyraza swoja opinie na podstawie plotek i domyslow. jak wszyscy tutaj. moze? dziekuje.

sevae @ 2010.11.19 17:14  Post: 432469
Ło jezu ale naciągasz... nie 1mln a 1,7 toż to blizej mu do 2mln niż 1mln

a gdzie ja sie odnioslem do konkretnego przykladu? to bylo ogolne nakreslenie 'problemu'
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2010.11.19, 17:14
SuLac0 @ 2010.11.19 17:11  Post: 432464
Promilus1984 @ 2010.11.19 16:59  Post: 432459
W 40nm nie, w innych tak. Nie wierzę w niski uzysk, bo akurat doświadczenia w 40nm tak czy inaczej AMD miało więcej niż NV z GF100

ale tutaj nie chodzi o wymiar, a o zlozonosc gpu. przeciez latwiej przygoowac gpu zajmujacy 250mm2, 1mld trn, niz 500mm2i 3mld. wlasnie dlatego nv sie 'odbilo' z pierwszym rev. gf100. amd nie ma zadnego doswiadczenie w tak duzych ukladach w tym wymiarze. o to tutaj chodzi.

Ło jezu ale naciągasz... nie 1mln a 1,7 toż to blizej mu do 2mln niż 1mln

EDIT: i nie 3mln na 500mm2 a 529mm2.
rainyZobacz profil
Poziom ostrzeżenia: 0%
rainy2010.11.19, 17:12
Skoti48, szanuję Twoją wiedzę odnośnie kart graficznych i ich wykorzystywania, ale w niektórych przypadkach, zachowujesz się jak ' rasowy' fanboy Nvidii.

Wyciągasz np. dość daleko idące wnioski na podstawie wątpliwych przesłanek/informacji czy wręcz plotek.

Skąd wiesz, że GTX 580 ma b.dobry uzysk albo skąd jest Ci znana dokładna powierzchnia Caymana (warianty w przedziale 380-420 mm2)?

Btw, nawet jeśli ta ostatnia wartość jest prawdziwa, to mamy do czynienia z układem sporo mniejszym niż GTX 580 (529 mm2 lub zbliżona).
SuLac0Zobacz profil
Poziom ostrzeżenia: 0%
SuLac02010.11.19, 17:11
-1#92
Promilus1984 @ 2010.11.19 16:59  Post: 432459
W 40nm nie, w innych tak. Nie wierzę w niski uzysk, bo akurat doświadczenia w 40nm tak czy inaczej AMD miało więcej niż NV z GF100

ale tutaj nie chodzi o wymiar, a o zlozonosc gpu. przeciez latwiej przygoowac gpu zajmujacy 250mm2, 1mld trn, niz 500mm2i 3mld. wlasnie dlatego nv sie 'odbilo' z pierwszym rev. gf100. amd nie ma zadnego doswiadczenie w tak duzych ukladach w tym wymiarze. o to tutaj chodzi.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2010.11.19, 17:10
goly @ 2010.11.19 17:07  Post: 432461
tylko po co te karty
skoro taki 4850 wszystko łapie w najwyższych obrotach
tak z ciekawości pytam :E

Do fullHD i żeby oszczędzać energię w 2D :P
golyZobacz profil
Poziom ostrzeżenia: 0%
goly2010.11.19, 17:07
tylko po co te karty
skoro taki 4850 wszystko łapie w najwyższych obrotach
tak z ciekawości pytam :E
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.11.19, 16:59
Co do wydajności na mm2 to zależy od zastosowania ;p

Pewnie że tak, ale ograniczmy się w tym przypadku do gier, bo w gpgpu rozrzut jest bardzo zależny od tego CO się robi.
W GPGPU wychodzi to trochę inaczej

Tak, z jednej strony duża przewaga w choćby kryptografii po stronie AMD, z drugiej strony w innych dziedzinach po stronie NV.
AMD jeszcze nigdy nie bawiło się w 40nm z tak dużym rdzeniem jak ma mieć Cayman

W 40nm nie, w innych tak. Nie wierzę w niski uzysk, bo akurat doświadczenia w 40nm tak czy inaczej AMD miało więcej niż NV z GF100, a skoro wreszcie NV wyszedł ten układ to i AMD musi. Problemy były nie z samym projektem układu, a przygotowaniem procesu u TSMC, teraz jest dość wysoki uzysk, powyżej 60%.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482010.11.19, 16:51
-1#88
Promilus1984 @ 2010.11.19 16:42  Post: 432455
@skoti - zapominasz o 2 rzeczach. Przede wszystkim AMD bawiło się 40nm niewiele później niż nv przeszła na 55nm z GT200 (tak, mowa o rv740) czyli już sporo czasu - i tak, mają z tym procesem znacznie więcej doświadczenia od NV. Sprawa druga - na mm2 AMD ma większą wydajność od NV i Cayman pod tym względem nie powinien być wyjątkiem. Jeśli zatem powierzchnia byłaby porównywalna do GF110 to wydajność również - o ile nie większa.

Nie zapominam, jednak AMD jeszcze nigdy nie bawiło się w 40nm z tak dużym rdzeniem jak ma mieć Cayman (do tej pory największy to było o 1/3 mniejszy niż fermi), a co do rozmiaru to przecież napisałem, że będzie miał prawie tyle tranzystorów nie więcej (czyli powinien i tak być mniejszy ;p). Co do wydajności na mm2 to zależy od zastosowania ;p. W GPGPU wychodzi to trochę inaczej (i właśnie dla GPGPU nVidia ma taką arch, przez co wymaga więcej tranzystorów)
cyrix133Zobacz profil
Poziom ostrzeżenia: 0%
cyrix1332010.11.19, 16:43
-17#87
nie pokona gtx580

po za tym technologicznie będzie jak zwykle cienko

no doubt
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.11.19, 16:42
@skoti - zapominasz o 2 rzeczach. Przede wszystkim AMD bawiło się 40nm niewiele później niż nv przeszła na 55nm z GT200 (tak, mowa o rv740) czyli już sporo czasu - i tak, mają z tym procesem znacznie więcej doświadczenia od NV. Sprawa druga - na mm2 AMD ma większą wydajność od NV i Cayman pod tym względem nie powinien być wyjątkiem. Jeśli zatem powierzchnia byłaby porównywalna do GF110 to wydajność również - o ile nie większa.
lolek.oloZobacz profil
Poziom ostrzeżenia: 0%
lolek.olo2010.11.19, 16:39
-1#85
sevae @ 2010.11.19 16:17  Post: 432446
lolek.olo @ 2010.11.19 16:10  Post: 432441
(...)
Dokładnie o to mi chodziło.
Trudno żeby było więcej niż +50% skoro nawet producent tak twierdzi!
Przecież nie zapowiadaliby gorszej wydajności niż jest w rzeczywistości.
Logicznie rzecz biorąc jeśli średni wynik miałby być faktycznie +50%, to powinni zapowiadać coś w tym stylu: 'w sprzyjających warunkach wzrost wydajności będzie nawet dwukrotny'.

Dwukrotny to wydajniejszy o 100%, też się machnąłem tak już.

EDIT:
Wydajniejszy o 50% od HD6870 to jak dołożyć do HD6870 jeszcze pół takiego HD6870 i to jest chyba możliwe co nie? Wydajniejszy o 100% to dwa razy wydajniejszy czyli dołożyć jeszcze jednego całego w stu procentach HD6870 by trzeba.


O to mi chodziło, o 100% wzrost.
Przecież skalowanie nie jest liniowe. Więc jak damy wszystkiego x2 teoretycznie mamy 100% wzrost realnie ok 40-60%.
Z tym, że to mówi przedstawiciel producenta podgrzewając atmosferę.
Ja na jego miejscu bym powiedział, że wzrost jest 100% - bo w laboratorium przecież się nam udało - to się nazywa marketing :)
No a skoro ta pani sama mówi o wzroście rzędu 30-50% - to na więcej raczej liczyć nie można bo nie dyskredytowałaby swojego produktu przecież. Dla mnie to jest oczywiste.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482010.11.19, 16:39
-1#84
GandalfG @ 2010.11.19 15:46  Post: 432432

Możesz podać rzetelne źródła Twoich sensacyjnych informacji o wysokim uzysku GTX580 i kiepskim Caymana ?

Główną (jedyną?) zmianą właśnie w arch GF110 w porównaniu do GF100 były na poziomie tranzystorów co według ludzi z nvidii pozwoliło na znaczne zwiększenie uzysku (zresztą to widać po mniejszej ilości tranzystorów mimo, większej ilości rdzeni). Co do rzetelnych źródeł na temat Caymata to jak napisałem 'podobno' (bo to plotka która zresztą też na tym portalu się pojawiła).

GandalfG @ 2010.11.19 15:46  Post: 432432
Od początku to AMD lepiej sobie radzi w 40nm ponieważ mają specjalistów i doświadczenie z produkcji w własnych fabrykach które prowadzili długo wcześniej zanim powstała nVidia. Tego się nie da kupić (doświadczenia) tym bardziej że AMD konkuruje z najlepszym na świecie czyli z Intelem od dziesiątek lat.

AMD nie dlatego radzi sobie lepiej w 40nm bo mają specjalistów od produkcji półprzewodników z GlobalFoundries, a dlatego, że po prostu ich karty były dużo mniej skomplikowane i prostsze w produkcji, ale za to Cayman to już prawdopodobnie będzie smok niewiele ustępujący Fermi pod względem ilości tranzystorów (i AMD dopiero odrobi lekcję niskiego uzysku którą nVidia odrobiła przy GF100)

GandalfG @ 2010.11.19 15:46  Post: 432432

W temacie uzysku to wystarczy popatrzeć na wyniki z poniższej stronki gdzie widać jak słaby maja w tym roku przychód i ujemny dochód co wyraźnie wskazuje na sprzedaż poniżej kosztów.

Co mają zyski firmy do uzysku GeForce? Nvidia inwestuje w nowe gałęzie (Tegra, Tesla...) z których zyski są póki co dużo mniejsze niż koszty, ale w przyszłości zaowocują) i tam wydaje masę gotówki, przez co ma więcej wydatków niż zysków (i nie świadczy to w żaden sposób o uzysku).
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2010.11.19, 16:37
zsx111 @ 2010.11.19 16:07  Post: 432439
Amitoza @ 2010.11.19 14:20  Post: 432390
tu nie chodzi o liczbę shaderów, a o liczbę bloków. HD6870 ma 224SPU, a HD6970 ma 384SPU. W pierwszym przypadku mamy architekturę 5D w której piąta jednostka była praktycznie nie wykorzystana w przypadku gier, zaś w drugim mamy architekturę 4D, w której jednostki będą wykorzystywane bardziej efektywnie. Więc spokojnie można liczyć to w taki sposób - 224*4=896, 384*4=1536. Co daje nam 70% wzrost ilości wykorzystanych SP. Kolejna sprawa to kości pamięci - w bartsie masz 4,2Gbps, a w caymanie 6Gbps co stanowi wzrost przepustowości o ponad 40%. Następna sprawa - ilość TMU - również wzrost o 70% jak w przypadku shaderów (96vs56).

Hmm... jeszcze zobaczymy jak to będzie. Barts też miał być niby oparty na architekturze 4D, a wyszło co innego. Właściwie jeśli wcześniej wierzyłem w taką zmianę w serii HD6000, to teraz nie rozumiem po co mieliby robić HD68xx w starej architekturze, a chwilkę później wydawać HD69xx w nowej? O wiele rozsądniejsze byłoby zrobienie mniejszego Bartsa od razu z 4D, na którym mogliby więcej zarobić. Plotki mówią na razie o wersji 4D, ale przykładowo kilka dni przed premierą GTX580 nadal według plotek myślano, że układ będzie miał 128 jednostek teksturujących. Także ja żadnym plotkom o specyfikacji Caymana póki co nie ufam.

A osobiście myślę, że wydajność będzie zbliżona do GTX580 i bardzo cieszę się, że nie odpuszczają rywalizacji o miano najszybszego GPU.

akurat to że cayman będzie miał architekturę VLIW4 wiadomo ze skaldów od AMD.
SuLac0Zobacz profil
Poziom ostrzeżenia: 0%
SuLac02010.11.19, 16:34
-4#82
mooon @ 2010.11.19 15:36  Post: 432425
Sulaco nie chcę być wredny ale czy to nie Ty pisałeś 'Double gun double fun' czy jakoś tak ? Jakoś zachwalanie rozwiązań na jednym gpu nie brzmi w twoim wypadku przekonywująco.

bo jestem zwolennikiem multi na dwoch topowych kartach z prostego powodu, jezeli w jakis sposob mutli nie zadziala, to i tak mam najelpsza dostepna wydajnosc single.
lolek.oloZobacz profil
Poziom ostrzeżenia: 0%
lolek.olo2010.11.19, 16:31
zsx111 @ 2010.11.19 16:07  Post: 432439
Amitoza @ 2010.11.19 14:20  Post: 432390
tu nie chodzi o liczbę shaderów, a o liczbę bloków. HD6870 ma 224SPU, a HD6970 ma 384SPU. W pierwszym przypadku mamy architekturę 5D w której piąta jednostka była praktycznie nie wykorzystana w przypadku gier, zaś w drugim mamy architekturę 4D, w której jednostki będą wykorzystywane bardziej efektywnie. Więc spokojnie można liczyć to w taki sposób - 224*4=896, 384*4=1536. Co daje nam 70% wzrost ilości wykorzystanych SP. Kolejna sprawa to kości pamięci - w bartsie masz 4,2Gbps, a w caymanie 6Gbps co stanowi wzrost przepustowości o ponad 40%. Następna sprawa - ilość TMU - również wzrost o 70% jak w przypadku shaderów (96vs56).

Hmm... jeszcze zobaczymy jak to będzie. Barts też miał być niby oparty na architekturze 4D, a wyszło co innego. Właściwie jeśli wcześniej wierzyłem w taką zmianę w serii HD6000, to teraz nie rozumiem po co mieliby robić HD68xx w starej architekturze, a chwilkę później wydawać HD69xx w nowej? O wiele rozsądniejsze byłoby zrobienie mniejszego Bartsa od razu z 4D, na którym mogliby więcej zarobić. Plotki mówią na razie o wersji 4D, ale przykładowo kilka dni przed premierą GTX580 nadal według plotek myślano, że układ będzie miał 128 jednostek teksturujących. Także ja żadnym plotkom o specyfikacji Caymana póki co nie ufam.

A osobiście myślę, że wydajność będzie zbliżona do GTX580 i bardzo cieszę się, że nie odpuszczają rywalizacji o miano najszybszego GPU.


Ja bym nie był taki pewny, co do tego braku przejścia na 4D.
Zauważ, że zwykle wydaje się najwydajniejszy układ z serii, a potem tnie się go na kawałki(w uproszczeniu oczywiście).
W tym wypadku mamy inną sytuację.
Pytasz dlaczego HD68xx wyszło w wersji 5D ? Dla mnie odpowiedź jest oczywista: GTX460 - AMD musiało błyskawicznie, coś zrobić więc poszli po najmniejszej linii oporu.
Hd69xx to może być dopiero docelowy projekt serii HD6xxx.
Z resztą cała ta seria wygląda na przejściową. Z przecieków wynika, że projekt serii HD7xxx, podobno jest prawie gotowy (właściwie to miała być seria HD6xxx) i czeka na proces produkcyjny 28nm.

W tej sytuacji AMD wrzuca poszczególne elementy opracowanych technologi go serii HD6.
Wystarczy prześledzić:
HD68xx - jak najszybsza odpowiedź na GTX460 - wrzucamy to co jest na tą chwilę gotowe i starczy na ten segment.
HD63xx - zmiana nazwy słabszych kart serii HD5xxx, na ten segment rynku wystarczy, konkurencja i tak nie ma nic lepszego.
HD69xx - tu już trzeba się wstrzymać chwilkę i dorzucić coś więcej(4D), bo konkurencja odskoczyła na ok 40% i samo lepsze upakowanie rdzenia może nie wystarczyć.

Oczywiście są to tylko analizy i przypuszczenia, ale moim zdaniem nie pozbawione sensu.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2010.11.19, 16:17
-1#80
lolek.olo @ 2010.11.19 16:10  Post: 432441
kwasior500 @ 2010.11.19 13:06  Post: 432337
Będzie takie miażdżenie, że nie zdziwię się jak nie będzie szybszy od gtx580. http://img197.imageshack.us/img197/5888/clipboard01aq.png
Dokładnie o to mi chodziło.
Trudno żeby było więcej niż +50% skoro nawet producent tak twierdzi!
Przecież nie zapowiadaliby gorszej wydajności niż jest w rzeczywistości.
Logicznie rzecz biorąc jeśli średni wynik miałby być faktycznie +50%, to powinni zapowiadać coś w tym stylu: 'w sprzyjających warunkach wzrost wydajności będzie nawet dwukrotny'.

Dwukrotny to wydajniejszy o 100%, też się machnąłem tak już.

EDIT:
Wydajniejszy o 50% od HD6870 to jak dołożyć do HD6870 jeszcze pół takiego HD6870 i to jest chyba możliwe co nie? Wydajniejszy o 100% to dwa razy wydajniejszy czyli dołożyć jeszcze jednego całego w stu procentach HD6870 by trzeba.

EDIT: więc jak będzie wzrost +50% to nie będzie dwukrotny a połowiczny.
lolek.oloZobacz profil
Poziom ostrzeżenia: 0%
lolek.olo2010.11.19, 16:10
kwasior500 @ 2010.11.19 13:06  Post: 432337
Będzie takie miażdżenie, że nie zdziwię się jak nie będzie szybszy od gtx580. http://img197.imageshack.us/img197/5888/clipboard01aq.png
Dokładnie o to mi chodziło.
Trudno żeby było więcej niż +50% skoro nawet producent tak twierdzi!
Przecież nie zapowiadaliby gorszej wydajności niż jest w rzeczywistości.
Logicznie rzecz biorąc jeśli średni wynik miałby być faktycznie +50%, to powinni zapowiadać coś w tym stylu: 'w sprzyjających warunkach wzrost wydajności będzie nawet dwukrotny'.

Na szczęście już nie cały miesiąc do premiery i wszystko będzie jasne :)
zsx111Zobacz profil
Poziom ostrzeżenia: 0%
zsx1112010.11.19, 16:07
Amitoza @ 2010.11.19 14:20  Post: 432390
tu nie chodzi o liczbę shaderów, a o liczbę bloków. HD6870 ma 224SPU, a HD6970 ma 384SPU. W pierwszym przypadku mamy architekturę 5D w której piąta jednostka była praktycznie nie wykorzystana w przypadku gier, zaś w drugim mamy architekturę 4D, w której jednostki będą wykorzystywane bardziej efektywnie. Więc spokojnie można liczyć to w taki sposób - 224*4=896, 384*4=1536. Co daje nam 70% wzrost ilości wykorzystanych SP. Kolejna sprawa to kości pamięci - w bartsie masz 4,2Gbps, a w caymanie 6Gbps co stanowi wzrost przepustowości o ponad 40%. Następna sprawa - ilość TMU - również wzrost o 70% jak w przypadku shaderów (96vs56).

Hmm... jeszcze zobaczymy jak to będzie. Barts też miał być niby oparty na architekturze 4D, a wyszło co innego. Właściwie jeśli wcześniej wierzyłem w taką zmianę w serii HD6000, to teraz nie rozumiem po co mieliby robić HD68xx w starej architekturze, a chwilkę później wydawać HD69xx w nowej? O wiele rozsądniejsze byłoby zrobienie mniejszego Bartsa od razu z 4D, na którym mogliby więcej zarobić. Plotki mówią na razie o wersji 4D, ale przykładowo kilka dni przed premierą GTX580 nadal według plotek myślano, że układ będzie miał 128 jednostek teksturujących. Także ja żadnym plotkom o specyfikacji Caymana póki co nie ufam.

A osobiście myślę, że wydajność będzie zbliżona do GTX580 i bardzo cieszę się, że nie odpuszczają rywalizacji o miano najszybszego GPU.
*Konto usunięte*2010.11.19, 15:50
-4#77
ZimnyJanek @ 2010.11.19 15:25  Post: 432416
kwasior500 @ 2010.11.19 13:06  Post: 432337
Będzie takie miażdżenie, że nie zdziwię się jak nie będzie szybszy od gtx580. http://img197.imageshack.us/img197/5888/clipboard01aq.png
Fajne, tylko mowa jest o porównaniu do poprzedniej generacji kart.

Czyli wstaw tam wyniki 5870 jako bazowe. ;)

Albo GTX480. :D

karty z Caymanami osiągają wydajność od 30 do 50% wyższą niż te z układami Barts

Nie fajne.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.