komentarze
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482012.03.05, 20:17
-10#101
SunTzu @ 2012.03.05 20:03  Post: 551842
lukaszk99 @ 2012.03.05 19:41  Post: 551834
No to teraz czekam na ruch zielonych i późniejszy spadek cen, następnie kupuje HD7870 :D, no chyba że Nvidia zaskoczy czymś bardziej opłacalnym.

Czemu zaskoczy? Jeżeli aktualna architektura wykonana w 28nm powinna być lepsza od GCN w zastosowaniach graficznych, ale gorsza w GPGPU. Mnie w ogóle nie zaskoczy tylko potwierdzi przypuszczenia...
... tak, więc na pewno będą mogli, ale faktycznie pytanie brzmi czy będą chcieli.

Możesz powiedzieć dlaczego miałaby być gorsza w GPGPU - w ciekawszych testach (nie nic nie mówiących jak te tu) jak np. Bullet PhysX to 570 jest sporo szybszy niż 7970, więc w wypadku szybszych nowych w 28nm powinna się jeszcze przewaga zwiększyć.
Wątpię jednak, że zaskoczy opłacalnością, bo przez słabą wydajność w grach 7970 (słaba jak na 28nm, bo ledwo wygrywa z kartami 40nm) zmienili plany i GK104 trafi nie do 660 jak miał, nie do 670 jak się obawiano, a do 680... co oznacza, że po prostu chip przygotowywany na walkę o średni rynek, będzie walczył na rynku hi-end (czyli coś co miało w założeniu kosztować 1k zł lub mniej będzie pozycjonowane na rynku w cenie 7970 - ofc nie oznacza to, że cena nie może być bardziej atrakcyjna niż konkurencji, bo może, ale nie będzie takiego skoku wydajności jaki powinien być przy zmianie technologii i na wydajniejsze karty poczekamy do serii 700 i 8k).
AvitrZobacz profil
Poziom ostrzeżenia: 0%
Avitr2012.03.05, 20:29
cyrix133 @ 2012.03.05 18:48  Post: 551794
ale za kilka dni skończą się dobre czasy bo kepler już czeka w blokach startowych:]

Zmartwię cię. W konsolach następnej generacji będą nie tylko GPU AMD, ale CPU AMD prawdopodobnie też.
arbasZobacz profil
Poziom ostrzeżenia: 0%
arbas2012.03.05, 20:33
Karciochy fajne ale nie w tej cenie - o ile jakiegoś szału nie ma jeśli chodzi o wydajność to jest prawdziwa rewolucja w kwestii wydajności per WAT - i bardzo dobrze. Jednak mimo wszystko nadal wydajnościowo to trochę stagnacja - karta 2 generacje wstecz czyli taki radek 5870 jest nadal bardzo wydajny i nie opłaca się go zmieniać... Niech juz w końcu wyjdą nowe konsole bo bez tego to dupa niestety...
x123xZobacz profil
Poziom ostrzeżenia: 0%
x123x2012.03.05, 20:39
-17#104
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482012.03.05, 20:39
-11#105
Avitr @ 2012.03.05 20:29  Post: 551855
cyrix133 @ 2012.03.05 18:48  Post: 551794
ale za kilka dni skończą się dobre czasy bo kepler już czeka w blokach startowych:]

Zmartwię cię. W konsolach następnej generacji będą nie tylko GPU AMD, ale CPU AMD prawdopodobnie też.

GPU bardzo możliwe, że w niektórych konsolach będzie, ale nikt nie wie w jakich, co do CPU to prawdopodobieństwo, że w konsolach będziesz miał CPU od AMD dąży do zera (takie rzeczy to tylko w plotkach tak wiarygodnych jak te o PowerVR czy Larrabee).
*Konto usunięte*2012.03.05, 20:42
skoti48 @ 2012.03.05 20:17  Post: 551852
SunTzu @ 2012.03.05 20:03  Post: 551842
(...)

Czemu zaskoczy? Jeżeli aktualna architektura wykonana w 28nm powinna być lepsza od GCN w zastosowaniach graficznych, ale gorsza w GPGPU. Mnie w ogóle nie zaskoczy tylko potwierdzi przypuszczenia...
... tak, więc na pewno będą mogli, ale faktycznie pytanie brzmi czy będą chcieli.

Możesz powiedzieć dlaczego miałaby być gorsza w GPGPU - w ciekawszych testach (nie nic nie mówiących jak te tu) jak np. Bullet PhysX to 570 jest sporo szybszy niż 7970, więc w wypadku szybszych nowych w 28nm powinna się jeszcze przewaga zwiększyć.
Wątpię jednak, że zaskoczy opłacalnością, bo przez słabą wydajność w grach 7970 (słaba jak na 28nm, bo ledwo wygrywa z kartami 40nm) zmienili plany i GK104 trafi nie do 660 jak miał, nie do 670 jak się obawiano, a do 680... co oznacza, że po prostu chip przygotowywany na walkę o średni rynek, będzie walczył na rynku hi-end (czyli coś co miało w założeniu kosztować 1k zł lub mniej będzie pozycjonowane na rynku w cenie 7970 - ofc nie oznacza to, że cena nie może być bardziej atrakcyjna niż konkurencji, bo może, ale nie będzie takiego skoku wydajności jaki powinien być przy zmianie technologii i na wydajniejsze karty poczekamy do serii 700 i 8k).

natomiast w renderingu 7970 jest sporo szybszy od fermi. Pytanie czy bullet@GPU jest dopracowany i powszechnie stosowany... bo Rendery GPU tak.

Co do dalszej części twojej wypowiedzi też co news to czytam o innej specyfikacji GPU. Trzeba czekać na konkrety, ale jeżeli GPU topowe będzie miało 'mniej' shaderów niż zapowiedzi, a powierzchnia będzie mieć 500mm^2 to raczej nie można uznać, że NV zastosowała trick o którym piszesz.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482012.03.05, 21:02
SunTzu @ 2012.03.05 20:42  Post: 551863
natomiast w renderingu 7970 jest sporo szybszy od fermi. Pytanie czy bullet@GPU jest dopracowany i powszechnie stosowany... bo Rendery GPU tak.

Nie... w renderingu 7970 zależnie od renderera jest porównywalny, wolniejszy lub szybszy. Nie sugeruj się LuxMark w wersji 1, bo to słaby benchmark i test obciążający bardzo CPU (przez to obrywa się głównie sterownikom Nvidii), jednak w wypadku wersji LuxMark 2.0 w którym poprawili wady przez co to był benchmark CPU, a nie OpenCL i co prawda wygrywa 7970 z 580, ale mniej więcej tak jak to wynika z różnicy wydajności w grach, a już 7950 jest wolnejszy (stare serie jak 5k i 6k zupełnie odpadają (w starym teście były powyżej 580, nie przez realne możliwości, a słaby test i szybkie sterowniki)). Jednak jak wspominasz o powszechności stosowania Rendererów GPU to zauważ, że większość tych powszechnie stosowanych jest CUDA-only, a inne jak VRay RT w minimalnym stopniu obciążają CPU i liczy się wydajność GPU i tu nowe Radeony się dopiero zrównały (lub wyprzedziły na tyle nieznacznie, że wstyd mówić, że to 28nm vs 40nm).

SunTzu @ 2012.03.05 20:42  Post: 551863
Co do dalszej części twojej wypowiedzi też co news to czytam o innej specyfikacji GPU. Trzeba czekać na konkrety, ale jeżeli GPU topowe będzie miało 'mniej' shaderów niż zapowiedzi, a powierzchnia będzie mieć 500mm^2 to raczej nie można uznać, że NV zastosowała trick o którym piszesz.

680 ma być na GK104, czyli ~350mm^2
RazorQsZobacz profil
Poziom ostrzeżenia: 0%
RazorQs2012.03.05, 21:07
Chyba już niebawem trzeba będzie zmienić na coś nowego, bo mój 4890 już trochę wysłużony jest. Ale wiecie co? Do tej pory daje radę:).
AvitrZobacz profil
Poziom ostrzeżenia: 0%
Avitr2012.03.05, 21:13
skoti48 @ 2012.03.05 20:39  Post: 551861
Avitr @ 2012.03.05 20:29  Post: 551855
(...)

Zmartwię cię. W konsolach następnej generacji będą nie tylko GPU AMD, ale CPU AMD prawdopodobnie też.

GPU bardzo możliwe, że w niektórych konsolach będzie, ale nikt nie wie w jakich, co do CPU to prawdopodobieństwo, że w konsolach będziesz miał CPU od AMD dąży do zera (takie rzeczy to tylko w plotkach tak wiarygodnych jak te o PowerVR czy Larrabee).

Xenon czy Cell były zupełnie niezależnymi (nie należącymi do żadnej 'rodziny' ) procesorami, opracowanymi specjalnie dla konsol. Więc co stoi na przeszkodzie żeby AMD stworzyło zupełnie nowy procesor (w ogóle niezwiązany z linią CPU dla pecetów) specjalnie dla konsoli? Szczególnie że mógłby być odrazu zintegrowany z GPU.
majkel84Zobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjimajkel842012.03.05, 21:27
skoti48 @ 2012.03.05 18:31  Post: 551783

Labovsky @ 2012.03.05 13:39  Post: 551692
http://pclab.pl/art46777-7.html
Dziwne wnioski IMHO:
Konkluzja może być tylko jedna: karty Nvidii to nie najlepsi towarzysze dla względnie słabego, dwu–trzyrdzeniowego procesora....

Cała przewaga nie może zostać zjedzona przez słabe wykorzystanie mocy... bo przewaga jest właśnie zyskana przez mocne wykorzystanie procesora ;].

Dziwne. Piszesz jakbyś w ogóle nie spoglądał na wykresy z powyższego linka.
majkel84Zobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjimajkel842012.03.05, 21:32
Płotek @ 2012.03.05 12:16  Post: 551656
Rozumiem Waszą frustrację(...) jak to podkreślacie, problem jest jednostkowy i nie występuje u wszystkich....


Mam nadzieję, że zainwestujesz w okulary, bo nigdzie tak nie napisano. Gdyby problem był jednostkowy na pewno nie byłoby w internecie miliardów podobnych tematów. Ot choćby: http://www.google.pl/search?q=ccc+does+not+lounch&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:pl:official&client=firefox-a

mikilys @ 2012.03.05 08:23  Post: 551595
... Obraz czystego systemu chyba da się zrobić i poświęcić kilkanaście minut na jego przywrócenie ...


Genialne: wymieniam 7850 na 7870, a później na 7970 i 7950. Jeszcze tylko 6970, 6950, 6870 i za każdym razem 40 minut ghosta. Świetny pomysł. A ten artykuł czytałbyś wówczas za dwa tygodnie, a nie dziś o 6 rano.

skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482012.03.05, 21:38
Avitr @ 2012.03.05 21:13  Post: 551876
Xenon czy Cell były zupełnie niezależnymi (nie należącymi do żadnej 'rodziny' ) procesorami, opracowanymi specjalnie dla konsol. Więc co stoi na przeszkodzie żeby AMD stworzyło zupełnie nowy procesor (w ogóle niezwiązany z linią CPU dla pecetów) specjalnie dla konsoli? Szczególnie że mógłby być odrazu zintegrowany z GPU.

Procek z PS3 to IBM PowerXCell 8i i jest używany w wielu innych zastosowaniach (Blade Servers od IBM) - nie został zaprojektowany tylko z myślą o konsolach, a znaczna część jego sprzedaży to serwery i superkomputery... Xenon to procek od IBM oparty o Cell - i 3x rdzenie PPE z PowerXCell z wyciętymi SPE (na które patent ma Sony). AMD nie jest w stanie zrobić konkurencji dla PPC pod względem wydajność / pobór energii, a z pewnością nie zrobią zupełnie nowego procka zaprojektowanego od zera specjalnie dla jakiejś konsoli.

W konsolach pojawi się zapewne procki z rodziny POWER7 (następcy Cella)... co więcej w Wii U już wiadomo, że taki się pojawi, ale u konkurencji bardziej prawdopodobne są ARMv8 czy Denver od jakiegokolwiek x86 (niezależnie czy to Intel czy AMD).

Co do szczególnie, że mógłby być odrazu z GPU to argument świetny, tylko szkoda, że to żadna zaleta dla konsol, które mają specjalne połączenia pomiędzy GPU i CPU (RSX ma Cell FlexIO (specjalna szybka szyna komunikacji GPU z prockiem i jego pamięcią) czy w Xbox360 XCGPU gdzie Xenon i Xenos są w jednym chipie) - w konsolach integracja pomiędzy GPU i CPU (a to stara generacja) jest znacznie większa niż w najnowszych APU AMD.

majkel84 @ 2012.03.05 21:27  Post: 551881
Dziwne. Piszesz jakbyś w ogóle nie spoglądał na wykresy z powyższego linka.

Chyba nie zrozumiałeś tego co napisałem - w wypadku Nvidii sterowniki nadrabiają wydajność, ale przy okazji mocniej obciążają procek - dajmy taki teoretyczny przykład gra z CPU2x ma 25FPS, a z CPU 4x ma 50FPS, jeśli Nvidia zrobiłaby mniej obciążające CPU sterowniki to różnica byłaby niższa, ale wydajność też czyli na przykład CPU2x 20FPS i CPU4x 28FPS (sterowniki mniej obciążają, ale przez to gorzej radzi sobie GPU (bo dostaje słabiej dostosowane do jej arch dane, których odpowiednią obróbką zajmował się CPU w sterach obciążających)).
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.03.05, 21:39
Avitr @ 2012.03.05 20:29  Post: 551855
cyrix133 @ 2012.03.05 18:48  Post: 551794
ale za kilka dni skończą się dobre czasy bo kepler już czeka w blokach startowych:]

Zmartwię cię. W konsolach następnej generacji będą nie tylko GPU AMD, ale CPU AMD prawdopodobnie też.


Zmartwię Cię, ale w Wii U CPU IBM, w następcy X360 też będzie procesor IBM, a w PS4 póki co nie wiadomo, ale szansa na to żeby było tam X86 jest bliska 0%.
*Konto usunięte*2012.03.05, 21:43
skoti48 @ 2012.03.05 21:02  Post: 551871
SunTzu @ 2012.03.05 20:42  Post: 551863
natomiast w renderingu 7970 jest sporo szybszy od fermi. Pytanie czy bullet@GPU jest dopracowany i powszechnie stosowany... bo Rendery GPU tak.

Nie... w renderingu 7970 zależnie od renderera jest porównywalny, wolniejszy lub szybszy. Nie sugeruj się LuxMark w wersji 1, bo to słaby benchmark i test obciążający bardzo CPU (przez to obrywa się głównie sterownikom Nvidii), jednak w wypadku wersji LuxMark 2.0 w którym poprawili wady przez co to był benchmark CPU, a nie OpenCL i co prawda wygrywa 7970 z 580, ale mniej więcej tak jak to wynika z różnicy wydajności w grach, a już 7950 jest wolnejszy (stare serie jak 5k i 6k zupełnie odpadają (w starym teście były powyżej 580, nie przez realne możliwości, a słaby test i szybkie sterowniki)). Jednak jak wspominasz o powszechności stosowania Rendererów GPU to zauważ, że większość tych powszechnie stosowanych jest CUDA-only, a inne jak VRay RT w minimalnym stopniu obciążają CPU i liczy się wydajność GPU i tu nowe Radeony się dopiero zrównały (lub wyprzedziły na tyle nieznacznie, że wstyd mówić, że to 28nm vs 40nm).

Moim zdaniem dogonił i przegonił, bardzo często właśnie 7970 jest szybszy. Nie ma tu znaczenia proces technologiczny 28nm, bo jednak często w GPGPU różnica jest wyraźna na korzyść radeonów. Radeony jest szybszy tam gdzie seria VLIW była wolniejsza o klikadziesiąt %. Moim zdaniem to duży progres. 7970 to małe GPU, ma mało shaderów, mało SIMD. Nie można oczekiwać cudów. Nie można oczekiwać, że nawet 28nm GPU będzie dużo szybsze gdy AMD wsadziło tak mało SIMDów. Dlaczego ma małe znaczenie 28nm proces technologiczny? Bo na uwadze trzeba mieć, że rywalizujemy z 40nm GPU, ale o powierzchni 500mm^2.
skoti48 @ 2012.03.05 21:02  Post: 551871

SunTzu @ 2012.03.05 20:42  Post: 551863
Co do dalszej części twojej wypowiedzi też co news to czytam o innej specyfikacji GPU. Trzeba czekać na konkrety, ale jeżeli GPU topowe będzie miało 'mniej' shaderów niż zapowiedzi, a powierzchnia będzie mieć 500mm^2 to raczej nie można uznać, że NV zastosowała trick o którym piszesz.

680 ma być na GK104, czyli ~350mm^2

jak widzisz poczekamy zobaczymy. Gdybać se możemy, ale to będzie wyzysk w biały dzień jeśli karty 350mm^2 będą latały po 1,5-2k... Innymi słowy firmy będą nas frajerować.
mef666Zobacz profil
Poziom ostrzeżenia: 0%
mef6662012.03.05, 21:57
Nie ogarniam...wszystko idzie do przodu, gry stoja w miejscu a ludzie nadal musza wydawac w cholere kasy by pograc. No nie ogarniam.

Producenci kart niedlugo sie obudza jak konsole roznej masci zdominuja rynek calkiem i zostanie im rynek profesjonalny.

Debilizm naprawde karty od kilku lat maja minimalny wzrost wydajnosci w stosunku do wydawanych gier.

Nie dziwie sie ludziom, ktorych stac na karte do 500 zl ze wola kupic lapka i miec taka sama wydajnosc jak w piecu zyskujac na mobilnosci. Laptop z GT560 i i5 kosztuje juz 2400.

Paranoja az strach sie bac co bedzie za kilka lat.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482012.03.05, 22:01
SunTzu @ 2012.03.05 21:43  Post: 551891

Moim zdaniem dogonił i przegonił, bardzo często właśnie 7970 jest szybszy. Nie ma tu znaczenia proces technologiczny 28nm, bo jednak często w GPGPU różnica jest wyraźna na korzyść radeonów. Radeony jest szybszy tam gdzie seria VLIW była wolniejsza o klikadziesiąt %. Moim zdaniem to duży progres. 7970 to małe GPU, ma mało shaderów, mało SIMD. Nie można oczekiwać cudów. Nie można oczekiwać, że nawet 28nm GPU będzie dużo szybsze gdy AMD wsadziło tak mało SIMDów.

Często jeśli portale takie jak ten testują hashe i inne sposoby testowania wydajności bliskiej RAW, ale w praktycznych zastosowaniach jest inaczej. OFC progres w GCN jest spory nad VLIW, jednak nie aż taki jaki powinien być przy podwojeniu liczby tranzystorów (w wypadku czystego podwojenia Fermi dzięki 28nm wydajność 7970 już nie wyglądałaby interesująco).

Co do 'mało shaderów, mało SIMD' to akurat tych jest sporo bo 2048 shaderów czy 128 SIMD akurat robią wrażenie (przy 512 i 32 w GTX580), a spoglądając na pobór mocy 7970 mimo 28nm ( http://pclab.pl/zdjecia/artykuly/majkel/78...esy/mocload.png ) to po prostu więcej dać nie mogli i może w 8k uda im się usprawnić nową dla nich Arch, żeby przyspieszyć.

mef666 @ 2012.03.05 21:57  Post: 551902
Nie dziwie sie ludziom, ktorych stac na karte do 500 zl ze wola kupic lapka i miec taka sama wydajnosc jak w piecu zyskujac na mobilnosci. Laptop z GT560 i i5 kosztuje juz 2400.

Ja tego nie rozumiem, bo i5 mobilny jest ponad 2x słabszy niż desktopowy, a 560M jest słabsza od desktopowego 550 (około 2x słabsza niż 560) i można mieć ponad 2-3x wydajniejszego desktopa za te 2400zł.
PłotekZobacz profil
Poziom ostrzeżenia: 0%
Płotek2012.03.05, 22:49
majkel84 @ 2012.03.05 21:32  Post: 551883

Mam nadzieję, że zainwestujesz w okulary, bo nigdzie tak nie napisano. Gdyby problem był jednostkowy na pewno nie byłoby w internecie miliardów podobnych tematów. Ot choćby: http://www.google.pl/search?q=ccc+does+not+lounch&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:pl:official&client=firefox-a

Może Szanowny Pan Redaktor byłby konsekwentny w tym co pisze?

Nie możemy jednoznacznie stwierdzić, jak często zdarza się to użytkownikom Radeonów

To w końcu zdarza się 'miliard' razy, czy nie macie pojęcia jak często?

Genialne: wymieniam 7850 na 7870, a później na 7970 i 7950. Jeszcze tylko 6970, 6950, 6870 i za każdym razem 40 minut ghosta. Świetny pomysł. A ten artykuł czytałbyś wówczas za dwa tygodnie, a nie dziś o 6 rano.

Tego zupełnie nie rozumiem!
Testujecie każdą z tych kart na różnych wersjach sterowników?? Dlaczego wszystkie nie na najnowszych?? Raz zainstalowane sterowniki - test wszystkich Radeonów. Zmiana na GFy - uninstall i driver sweeper. Nie widzę problemu.
Jak się z tego wytłumaczyć?

Sterowniki:
AMD Radeon HD 7950, HD 7970 – Catalyst 11.12 (Preview_Jan20);
wszystkie pozostałe karty graficzne AMD Radeon – Catalyst 12.1.

Obecnie są dostępne 12.3 Preview!
-----
Ponawiam prośbę, o problemach sterowników rozpisujcie się na osobnej stronie do tego przeznaczonej. Jeśli problem jest poważny, jak najbardziej należy wspomnieć o tym w podsumowaniu, ale jednym, dwoma zdaniami. W zakończeniu powinny znaleźć się tylko najważniejsze informacje, wnioski z przeprowadzonego testu, streszczenie recenzji, nie wnikliwy opis problemu.
*Konto usunięte*2012.03.05, 22:51
skoti48 @ 2012.03.05 22:01  Post: 551903
SunTzu @ 2012.03.05 21:43  Post: 551891

Moim zdaniem dogonił i przegonił, bardzo często właśnie 7970 jest szybszy. Nie ma tu znaczenia proces technologiczny 28nm, bo jednak często w GPGPU różnica jest wyraźna na korzyść radeonów. Radeony jest szybszy tam gdzie seria VLIW była wolniejsza o klikadziesiąt %. Moim zdaniem to duży progres. 7970 to małe GPU, ma mało shaderów, mało SIMD. Nie można oczekiwać cudów. Nie można oczekiwać, że nawet 28nm GPU będzie dużo szybsze gdy AMD wsadziło tak mało SIMDów.

Często jeśli portale takie jak ten testują hashe i inne sposoby testowania wydajności bliskiej RAW, ale w praktycznych zastosowaniach jest inaczej. OFC progres w GCN jest spory nad VLIW, jednak nie aż taki jaki powinien być przy podwojeniu liczby tranzystorów (w wypadku czystego podwojenia Fermi dzięki 28nm wydajność 7970 już nie wyglądałaby interesująco).

Co do 'mało shaderów, mało SIMD' to akurat tych jest sporo bo 2048 shaderów czy 128 SIMD akurat robią wrażenie (przy 512 i 32 w GTX580), a spoglądając na pobór mocy 7970 mimo 28nm ( http://pclab.pl/zdjecia/artykuly/majkel/78...esy/mocload.png ) to po prostu więcej dać nie mogli i może w 8k uda im się usprawnić nową dla nich Arch, żeby przyspieszyć.

SunTzu @ 2012.03.05 21:43  Post: 551891
Nie dziwie sie ludziom, ktorych stac na karte do 500 zl ze wola kupic lapka i miec taka sama wydajnosc jak w piecu zyskujac na mobilnosci. Laptop z GT560 i i5 kosztuje juz 2400.

Ja tego nie rozumiem, bo i5 mobilny jest ponad 2x słabszy niż desktopowy, a 560M jest słabsza od desktopowego 550 (około 2x słabsza niż 560) i można mieć ponad 2-3x wydajniejszego desktopa za te 2400zł.

Źle liczysz. 2048/4=512 procesorów strumieniowych, zgrupowanych w 32 procesory SIMD, czyli tyle samo ile 580. Każdy SIMD w AMD ma po 16 PS. Inaczej by wychodziło po 4PS/SIMD...
Jakby nie patrzeć AMD stworzyło Fermi BIS...

O tym też pisałem, że 28nm Fermi bez problemu rozprawi się z Radeonem. Zresztą pierwszy komentarz jaki mnie cytowałeś dotyczył właśnie tego, że wcale się nie będę się dziwić.... Jednak 7970 na tle 580tki jest po prostu lepszy. 7870 moim zdaniem też, przy cenie niższej o 400zł-600zł. W tej cenie masz 570, a ten zostaje bez dwóch zdań pobity.

Pobór energii jednak nie jest tak ważny jak temperatura i napięcie. Niech sobie ciągnie- to w końcu top. Jednak o ile kiedyś napięcia nie stanowiły problemu, gdyż limitem była temperatura to dziś wydaję się, że jest problemem. 7970 mimo dużego TDP to dość chłodny układ. Pytanie czy większe napięcie nie obniży drastycznie żywotności układu.

Źle zacytowałeś drugi post....
dnetskyZobacz profil
Poziom ostrzeżenia: 0%
dnetsky2012.03.05, 23:29
a te wykresy to dobrze opisane ?

bo Artykuł o karcie 7850 a na wykresach 7950 ?

to lekka różnica .... nie sądzicie ?
arbasZobacz profil
Poziom ostrzeżenia: 0%
arbas2012.03.05, 23:42
majkel84 @ 2012.03.05 21:32  Post: 551883

Genialne: wymieniam 7850 na 7870, a później na 7970 i 7950. Jeszcze tylko 6970, 6950, 6870 i za każdym razem 40 minut ghosta. Świetny pomysł. A ten artykuł czytałbyś wówczas za dwa tygodnie, a nie dziś o 6 rano.


Oj tam oj tam - kto czyta o 6stej rano ? :P A tak serio dysków macie za mało - tak z 6 by się przydało na OS zamiast jednego - co to za wydatek dla Onetu albo nawet za free od OCZ ...
Zaloguj się, by móc komentować