komentarze
GalvatronZobacz profil
Poziom ostrzeżenia: 0%
Galvatron2014.03.14, 10:27
18#1
Małe sprostowanie: Po zakończeniu wsparcia dla tych kart w nowych sterownikach linia 343.xx otrzyma status 'legacy' i nadal będzie okresowo dostawać pewne krytyczne poprawki błędów i bezpieczeństwa, albo np. zgodność z nowymi wersjami kernela Linux i X.org's. Podobnie jest z 304.xxx dla kart DX9.
GobliZobacz profil
Poziom ostrzeżenia: 0%
Gobli2014.03.14, 10:30
30#2
nie wiem czemu miało by to kogoś zaboleć... co nowego można wprowadzić dla tak starych konstrukcji?
Jacek1991Zobacz profil
Poziom ostrzeżenia: 0%
Jacek19912014.03.14, 10:33
11#3
Jak gierki nowe chodza, to nowe sterowniki juz nie sa potrzebne.
szmonZobacz profil
Poziom ostrzeżenia: 0%
szmon2014.03.14, 10:45
-8#4
Galvatron @ 2014.03.14 10:27  Post: 731910
Małe sprostowanie: Po zakończeniu wsparcia dla tych kart w nowych sterownikach linia 343.xx otrzyma status 'legacy' i nadal będzie okresowo dostawać pewne krytyczne poprawki błędów i bezpieczeństwa, albo np. zgodność z nowymi wersjami kernela Linux i X.org's. Podobnie jest z 304.xxx dla kart DX9.


Długi okres wsparcia - kolejny powód żeby wybrać NVIDIĘ :)
RanndolfZobacz profil
Poziom ostrzeżenia: 0%
Ranndolf2014.03.14, 10:47
-17#5
Czyli trzeba w końcu wymienić swojego Gf 8800GTS, mimo, że jeszcze na gwarancji xD
_RockyZobacz profil
Poziom ostrzeżenia: 0%
_Rocky2014.03.14, 10:48
-3#6
Problemem może być np. nowy system Windows 9?
'Stare' karty np. moja 'stara' GT 240 DDR5, która siedzi w kompie u mojego syna radzi sobie wystarczająco w multimediach, internecie i większości gier (przy tych nowszych trzeba zjechać z ustawieniami ew. rozdzielczością i jest ok). Na dodatek jest to karta, która jest wydajniejsza od wielu 'nowych' konstrukcji budżetowych..
ZakuTSTZobacz profil
Poziom ostrzeżenia: 0%
ZakuTST2014.03.14, 10:54
10#7
Wbrew pozorom GTX 260 czy 275 to wciąż całkiem fajne układy. Za Wręcz śmieszne pieniadze oferują naprawde wystarczającą wydajność. połowa nowych gier chodzi w 1440x900 na wysokich detalach a druga polowa spokojnie na średnich (pomijajac wyjątki) a to wszystklo za 150-200zł podczas gdy nie odstają wiele od nowych produktów wartych 350-400.
Kris194Zobacz profil
Poziom ostrzeżenia: 0%
Kris1942014.03.14, 11:03
No cóż, kiedyś musiało do tego dojść. Może teraz jak będą mieli dużo mniej układów na głowie to sterowniki się zaczną poprawiać.
StjepanZobacz profil
Poziom ostrzeżenia: 0%
Stjepan2014.03.14, 11:09
13#9
Mam w drugim kompie GF 9600GT, na razie na XP, używam do niej sterowników 196.XX bo nowszych nie potrzeba, wszystko dobrze śmiga, multimedia, internet i gry.
fajny RafałekZobacz profil
Poziom ostrzeżenia: 0%
fajny Rafałek2014.03.14, 11:24
14#10
Czyli sytuacja podobna jak z seriami HD4k u AMD.
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2014.03.14, 11:32
Nie oszukujmy się, że 8 lat w IT to wieczność. Oczywiście zawsze znajdzie się kto stwierdzi że ma jakiś topowy model karty DX10 którego wydajność jest wystarczająca i będzie pytał 'dlaczego już koniec'. Ale nie oszukujmy się że większość kart z epoki DX10 pod gry które będą się ukazywać w najbliższym czasie jest już zdecydowane za wolna. Osobiście uważam ze większy problem jest taki że większość najnowszych gier posiada tryb DX11, albo DX9, nie wykorzystując możliwości graficznych kart DX10. Taki problem miałem i ja ze swoim HD4850. Wydajność miał akurat na styk pod Far Cry 3, no i zdążyły się jeszcze ukazać ostatnie dla HD4XXX, Catalyst 13.1, które coś tam pod tego Far Cry optymalizowały. W opcjach prawie na maksa (kilka ustawień trzeba było obniżyć) było 25-35 fps. Ale był to sygnał że czas tej karty dobiegł już końca.

Nie wspomnę już o nieproporcjonalnie dużym w stosunku do wydajności, zużyciu energii konstrukcji z tamtego okresu.

Tak więc bez płaczu, można sobie kupić za 200-250 pln nową kartę DX11, i wcale nie jest prawdą że nie będzie ona wydajniejsza od 'potwora DX10'. Postęp techniczny jest nieubłagany, dziś low endy pozycjonują się jak top of the top DX10.
SebZMCZobacz profil
Poziom ostrzeżenia: 0%
SebZMC2014.03.14, 12:42
Problem niskiej wydajności przy CPU 2T/2C + GPU nV nie został naprawiony do dziś..
wirmoZobacz profil
Poziom ostrzeżenia: 0%
wirmo2014.03.14, 12:47
Mam GTS-a 250.. jakoś mnie to nie interesuje. Wszystko działa.
BogieZobacz profil
Poziom ostrzeżenia: 0%
Bogie2014.03.14, 13:02
Prawdę mówiąc w starszych konstrukcjach i tak nie ma większego sensu aktualizacja sterowników - ja robię to przy okazji reinstalki. Jedyny ważny powód - nowa gra ma błędy, ale nie pamiętam kiedy ostatni raz się na coś takiego natknąłem. Mój HD6870 działa jak należy, a nowe wersje sterowników w 99% skupiają się na najnowszym sprzęcie. Ale brawo dla NV za i tak długie wsparcie.
matsiZobacz profil
Poziom ostrzeżenia: 0%
matsi2014.03.14, 13:03
'Legendarny' GTS 8800... sfajczył się miesiąc po gwarancji. Zastąpił tą głośną farelkę genialny Radeon HD4850, cudeńko :)
hajapackageZobacz profil
Poziom ostrzeżenia: 0%
hajapackage2014.03.14, 13:10
ZakuTST @ 2014.03.14 10:54  Post: 731924
Wbrew pozorom GTX 260 czy 275 to wciąż całkiem fajne układy. Za Wręcz śmieszne pieniadze oferują naprawde wystarczającą wydajność. połowa nowych gier chodzi w 1440x900 na wysokich detalach a druga polowa spokojnie na średnich (pomijajac wyjątki) a to wszystklo za 150-200zł podczas gdy nie odstają wiele od nowych produktów wartych 350-400.

Dokładnie, sam na lekko podkręconym GTX260 216 55nm gram w BF4 w 1080p :E.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2014.03.14, 13:13
Ciekawe jak to będzie z profilami SLI dla nowych gier. Planuję dla zabawy złożyć zestaw typu 'old school' z dawnego highendu i rozważałem wykorzystanie GTX295...
StjepanZobacz profil
Poziom ostrzeżenia: 0%
Stjepan2014.03.14, 13:17
12#18
Assassin @ 2014.03.14 13:13  Post: 731970
Ciekawe jak to będzie z profilami SLI dla nowych gier. Planuję dla zabawy złożyć zestaw typu 'old school' z dawnego highendu i rozważałem wykorzystanie GTX295...

Nie lepiej było by kupić 2x 8800Ultra to true old scool niż jakiś tam GTX295 który kultowy nie był.
Ja SLI planuje zrobić z 2x 3DFX Voodoo 2 12MB, pierwsze kultowe SLI które tylko najstarsi górale pamiętają. :]
radek_zZobacz profil
Poziom ostrzeżenia: 0%
radek_z2014.03.14, 14:00
-5#19
Bawienie się w SLI w starszych układach, jest totalnie pozbawione sensu. Test FCAT-em pokazał jak wygląda efektywność układów wielochipowych. Przypominam wszystkim entuzjastom nVidii, że sprzętowe wsparcie SLI, nVidia wprowadziła dopiero w najnowszych układach, we wcześniejszych generacja wyglądało to zapewne niewiele lepiej jak obecnie u AMD.

Dodać do tego kosmiczne zużycie energii nawet w spoczynku = sztuka dla sztuki.
marcin_kgZobacz profil
Poziom ostrzeżenia: 0%
marcin_kg2014.03.14, 14:11
fajny Rafałek @ 2014.03.14 11:24  Post: 731931
Czyli sytuacja podobna jak z seriami HD4k u AMD.

Tylko 2 lata później.
Zaloguj się, by móc komentować