komentarze
agent_x007Zobacz profil
Poziom ostrzeżenia: 0%
agent_x0072010.11.08, 21:31
Dla mnie ta grafa (z zewnątrz) wygląda jak mój GTX280 albo GTX260 tylko ma inny numerek :)
Jutro zobaczymy czy różni się czymś więcej aniżeli samą cyferką w nazwie :)

PS. Czy PCLab dostał/dostanie w najbliższym czasie swój przydział GTX'a580 do testów ?
McMenelZobacz profil
Poziom ostrzeżenia: 0%
McMenel2010.11.08, 21:37
-3#82
Krzychu2009pro @ 2010.11.08 21:23  Post: 428501
Franiuu @ 2010.11.08 20:02  Post: 428438
(...)

Hehe, doprawdy? :)
A moze to jednak potrzeby rynku i wyniki sprzedazy kart serii 400 sklonily nvidie do pojscia w te druga strone?
Wiele serwisow po premierze gtx 480 mowilo otwarcie - realna wydajnosc nowej architektury w grach jest duzo nizsza niz teoretycznie byc powinna.
Juz wtedy mowilem, ze Nvidia strzelila sobie w kolanu, tworzac architekture zaprojektowana pod maksymalizacje wydajnosci w zastosowaniach GPGPU - czyms co dzis jeszcze raczkuje. A nie w grach ktore, dla odmiany, sa duzym i pewnym kawalkiem tortu.

Konstrukcja gpu w radeonach, choć zgodna z DX11 jednak dość płytka(nie wiele się zmieniła od serii 3, doszła teselacja). Wydajność w większości gier Dobra, nawet lepsza. Jednak ja nie opieram się tylko na wynikach FPS w grze. Wszystkie testy w sieci owszem. No tak dla graczy to jest pkt. odniesienia. Owszem nvidii nie wyszła poprzednia seria, za dużo chęci mieli. Musieli przebudować . Już nawet nie mówię o obsłudze Cuda i PhysX. Te sprawy są dla wymagających Dodatkowych Możliwości. W zasadzie to nvidia cały czas próbuje wyprzedzić czas. Wykorzystanie Cuda w grach. APEX/PhysX, Sli skaluje się Dobrze.
Technologia 3D jednak mnie nie interesuje.

Właśnie chodzi o fakt taki, że Nvidia musi pogodzić dwie warstwy, obliczenia gpgpu i wydobyć z nich tyle ile sie da. I wydajność w grach, teselacja itd. Coś z nich musiało ucierpieć. AMD jak narazie nie myśli o obliczeniach GPGPU na poważnie. Więc optymalizuje konstrukcje rdzenia pod kątem gier. W radeonach jakby zwiększyli liczbę teselatorów, pobór mocy skoczył by. Różnice by się wyrównały. Teraz Nvidia po prostu przygotowało gpu pod kątem gier.

Dobra załóżmy iż NV nie zmieniło podejścia. Co za dwie generacje będziemy mięli ?? 4x 480? Gdzieś trzeba wyznaczyć granicę między uniwersalnością a wielkością układu. Nie można w nieskończoność powiększać chipa. W pewnym momencie nie będzie można zejść z procesem niżej i co wtedy? Grafen? Za drogi na dzień dzisiejszy. Przyszłość to właśnie dosyć wyspecjalizowane układy. 480 pokazało iż to ślepa uliczka gdzie za uniwersalność płaci się dużą cenę w postaci ciepła i trudności z produkcją.

WuwuZobacz profil
Poziom ostrzeżenia: 0%
Wuwu2010.11.08, 21:41
Widzę, że naprawdę zapowiada się ofensywa zimowa w wykonaniu NVIDII.
*Konto usunięte*2010.11.08, 21:44
kampania listopadowa sie zaczyna ;)
radoskór007Zobacz profil
Poziom ostrzeżenia: 0%
radoskór0072010.11.08, 21:59
@McMenel
Prawdopodobnie wtedy będziemy korzystać z dwóch kart, jednej do gier a drugiej do obliczeń. Może sterowniki będą podziałem się zajmować a jak nie to fizycznie będzie istnieć nowa seria specjalnych kart graficznych.
Jest jeszcze możliwość taka że będzie do tego dodatkowy specjalizowany układ obok GPU coć jak SoC
cyrix133Zobacz profil
Poziom ostrzeżenia: 0%
cyrix1332010.11.08, 22:01
-4#86
o której recenzja....nie moge się doczekać ...to będzie sądny dzień dla ati
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2010.11.08, 22:01
@McMenel, radoskór007

Może przy końcu możliwości krzemu programiści wezmą się za optymalizację (a nie trwonienie mocy obliczeniowej) i realistyczna grafika już zostanie osiągnięta :)
GlenroyZobacz profil
Poziom ostrzeżenia: 0%
Glenroy2010.11.08, 22:15
-1#88
Krzychu2009pro @ 2010.11.08 18:29  Post: 428389

Jeśli chodzi o te spekulacje, to mi chodziło o Komentujących w tym wątku. Ich wyliczenia są spekulacjami. I będą tak długo jak długo nie wyjdą niezależne testy.


Zapewniam Cię, że znajdzie się grono takich, którzy nawet po testach będą 'mądrzejsi' i gdzieś te kilka % więcej znajdą. Na to nie ma rady :P
Co do karty, szkoda że NV zaczyna wchodzić na obroty dopiero teraz, mogli nie dawać, aż tak dużego pola do popisu dla ATI. Chociaż lepiej późno niż wcale, ATI wykorzystało chwilę niemocy Nvidii, teraz NV wykorzystuje moment gdy ATI spoczęło na laurach i uważa, że nie ma żadnego konkurenta na rynku i zaczyna kombinoiwać jak NV wcześniej, odgrzewając kotlety poprzez zmianę kilku numerów w modelu ;)
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2010.11.08, 22:20
-1#89
s0d @ 2010.11.08 20:36  Post: 428463
Amitoza @ 2010.11.08 15:02  Post: 428254
ta wydajność to chyba z kapelusza. 10% wyższy zegar + 4TMU i 32SP więcej (co dawało by jakieś +5%).

z kapelusza to są Twoje wnioski, przecież architektura została reorganizowana i oprócz innych zegarów rdzen został lepiej zoptymalizowany co także odbiło się na poborze prądu, szybkości i temperaturze/głośności

tak, magiczna moc z kapelusza. Owszem, poprawa możliwości OC jest możliwa przy reorganizacji, zmniejszenie poboru prądu także, ale magiczna moc nie. Dalej mamy tyle samo jednostek. Rozumiem, gdyby użyto bloków z GF104 - 48SP i 8TMU na blok, to jeszcze, ale tutaj mamy to samo co w przypadku gf100 - 32SP i 4 TMU na blok - serio wydajność nie bierze się z kosmosu, a każda jednostka ma określoną wydajność. Gdyby to miały być duże zmiany, to nie trzymali by się 32SP, tylko przeszli by na 48SP, lub nawet 64SP na blok (im mniej bloków tym więcej SP się zmieści na tej samej powierzchni. Poza tym ilość bloków ma znaczenie w przypadku CUDA, ale nie w przypadku gier), a skoro trzymają się dalej 32SP, to widocznie jest to GF100 z wyciętymi jednostkami których przeznaczeniem było GPGPU.
RomanTyczkaZobacz profil
Poziom ostrzeżenia: 0%
RomanTyczka2010.11.08, 22:24
< do usunięcia >
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2010.11.08, 22:31
Glenroy @ 2010.11.08 22:15  Post: 428523
Chociaż lepiej późno niż wcale, ATI wykorzystało chwilę niemocy Nvidii, teraz NV wykorzystuje moment gdy ATI spoczęło na laurach i uważa, że nie ma żadnego konkurenta na rynku i zaczyna kombinoiwać jak NV wcześniej, odgrzewając kotlety poprzez zmianę kilku numerów w modelu ;)

jesli HD68xx nazywasz kotletem to GTX580 tez nim jest. w obu przypadkach poprawiono rdzeń (ta sama lub lepsza wydajność przy mniejszej liczbie tranzystorów) i w obu przypadkach zwiększono wydajność na wat. dodajmy jeszcze podobny zabieg marketingowy z numeracją. duze podobieństwo, nie? ;)
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2010.11.08, 22:34
Z Fermi GF100 problem był taki, że dla nas, szaraczków, prawie żadnych korzyści nie było z tego HPC. ECC wyłączone, DP sztucznie ograniczone (by nie robić konkurencji Teslom za grube tysiące $), a pobór mocy wysoki. Dlatego ja za tymi profesjonalnymi funkcjami płakał nie będę. Do 'mojego' GPGPU wystarczy to, co będzie w GF1109 lub to, co już jest w GF104.
malyperelkaZobacz profil
Poziom ostrzeżenia: 0%
malyperelka2010.11.08, 22:50
Niedawno czytałem iż NV nie będzie się koncentrować na robieniu kart dla graczy ,a tu nagła zmiana , ups , sprawa kolejna , GPU NV miało być do wszystkiego , a jak znam życie do wszystkiego znaczy do niczego , ten kitajec (bos NV) pieprzy od rzeczy a robi co innego ,dalej ,CYRIX miał zgolić łepetyne i walnąć fotke , fotki brak , a łepetyny i tak nie miał , dalej , AMD zaczyna walić w ciula , jakieś poślizgi w produkcji (czytaj sranie w banie),przestraszyli się gtx 580 , pewnie łoi im dupsko , i nie będzie już takiej kasiorki z bidnego polaczka , dalej , ide spać , narka wszystkim
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2010.11.08, 22:52
malyperelka @ 2010.11.08 22:50  Post: 428541
kitajec

AoC :)
BuLiNNZobacz profil
Poziom ostrzeżenia: 0%
BuLiNN2010.11.08, 23:01
-1#95
ee , nie kminie tego .. skoro gtx 580 jest taki wyjebany w kosmos , to szef nvidi by nie szczedzil ilosci wywiadow oraz achow i ochow? A tymczasem wszyscy podniecacie sie plotkami ;|
malyperelkaZobacz profil
Poziom ostrzeżenia: 0%
malyperelka2010.11.08, 23:13
BuLiNN @ 2010.11.08 23:01  Post: 428549
ee , nie kminie tego .. skoro gtx 580 jest taki wyjebany w kosmos , to szef nvidi by nie szczedzil ilosci wywiadow oraz achow i ochow? A tymczasem wszyscy podniecacie sie plotkami ;|


Pomimo że już sobie śpię proponuje abyś edytował swoją wypowiedź i przemianował słowo na np. wywalony w kosmos . Taka sugestia , po co za 100 lat twoje wnuki mają czytać takie brzydkie słowa :)

ten minusik to nie ja , kapusiem nie jestem i nie raportowałem , a poza tym to śpię
ConeZobacz profil
Poziom ostrzeżenia: 0%
Cone2010.11.08, 23:15
Żeby karta brała więcej prądu jak mój lcd 46 cali. Paranoja
RomanTyczkaZobacz profil
Poziom ostrzeżenia: 0%
RomanTyczka2010.11.08, 23:33
-1#98
wuzetkowiecZobacz profil
Poziom ostrzeżenia: 0%
wuzetkowiec2010.11.08, 23:38
Szczytowa wartość TDP karty GeForce GTX 580 to 244 W, a więc sporo mniej niż spekulowano. Niektóre media plotkowały nawet o zbliżeniu do pułapu 300 W. Oznacza to, że nowy model jest bardziej wydajny niż poprzedni i pobiera mniej energii. To rzadkość.

:lol2:

Współczynnik TDP ma wynieść 244 W, jednak nie wiadomo czy liczba ta odnosi się do maksymalnego poboru energii, czy wartości uśrednionej, tak jak w GeForce GTX 480 (NVIDIA podaje TDP rzędu 250 W, tymczasem pod maksymalnym obciążeniem karta pobiera nawet 300 W).

^^^ Cytat z innego portalu. Najwyraźniej nie wszyscy mają mokro w majtach i potrafią wykazać się zdrowym rozsądkiem.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2010.11.08, 23:41
macie swoje 30%.

;]

nawet rozdzielczość 2560x1600 wiele nie zmienia



No ale najlepiej to zjeść, zaminusować i ślepo pisać o ponad 30% bez patrzenia na fakty. Tak jak można było się spodziewać - odblokowany i lekko podkręcony GTX480.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.