Gry na DX 11 będą działąć wolniej? Jesteś specem od programowania to znasz specyfikację DX11 i wies że jest znacznie wyajniejszy od DX10, + tesselacja
Szybkości nie definiuje wersja dx (no w jakimś stopniu tak), ale szybkość gier nie zmienia się od wielu lat i wersji i dalej się na to nie zanosi... sama tesselacja to fajna rzecz, bo omija się wąskie gardło przesyłania wierzchołków do karty graficznej... ale za to karta graficzna ma później robotę z wykonaniem na tej geometrii dzielenia na mniejsze części (~shadery geometrii). Karty graficzne przyspieszą, ale znowu nowa generacja gier będzie wykorzystywać GI (CryTech już pokazali jakiś czas temu papierki) i inne techniki, będą się wspomagać raytracingiem/przenosić zadania z którymi sobie procek nie radzi (patrz gta4) czyli fizyka/AI/Animacja w OpenCL/Dx Compute (pierwsza gra o której wiem to Skate 2 od EA gdzie animację ubrań z użyciem kości liczone na GPU mają się pojawić (EA napisało tak w papierku na temat swojego wykorzystania OpenCL w grach))... więc sumarycznie może okazać się, że gra w dx11 na nowych kartach, będzie wolniejsza niż gra w dx10 na starych kartach ;] - po prostu gry wykorzystają całość mocy jaką daje nowa generacja, a i tak będzie im mało ;p.
Gry na DX 11 będą działąć wolniej? Jesteś specem od programowania to znasz specyfikację DX11 i wies że jest znacznie wyajniejszy od DX10, + tesselacja
Wniosek- nowe gry na DX11 będą działać szybeij i wyglądać lepiej niż gdyby zostały zrobione na DX10. Of korz trzeba będzie mieć kartyzgodne z DX11.
Ja już zacieram ręce bo codemasters przerzucają się na DX11.
No i Aliens Vs Predator
Co do eyefinity - technologia już jest - teraz wsyztsko w rękach proucentów sprzętu. Do gier na 3 monitorach z tymi askudnymi paskami odnosę się z rezerwą, aczkowiek to kwestia gier bo:
Symulatory lotow - ma sens, Supreme commander - chyba najlepszy przyklad jak można t wykorzystać.
Cele biznesowe - jak najbardziej . Poza tym wole grać na 30' max rodziałka niż na TV42' full HD...
FullHD 1920×1080... czyli mniej więcej taką jaką byś musiał łącznie ustawić na wielu monitorach, bo nowe gry które będą to obsługiwać nie będą działać wydajnie na większej.
znafca @ 2009.09.18 14:43
hjakbym chcial gra na plazmie to bym kupił konsole...
Zgadzam się... ale w podłączeniu do PC to i tak lepsze wyjście niż na wielu ekranach.
To chyba lekka przesada mówić, że nic nie wiadomo o GT300:
Nowe chipy zostaną wyprodukowane w 32nm lub 40nm wymiarze technologicznym i będą współpracowały z pamięciami GDDR5
GT300 ma w pełni obsługiwać interfejsy programowania DirectX 11, OpenGL 3.1 i OpenCL.
GPU ma mieć 512 procesorów strumieniowych. Architektura nowego GPU nie będzie już przypominać tych, które znamy dziś (np. GT200). Będzie to architektura MIMD (Multiple-Instruction, Multiple Data), zamiast SIMD (Single-Instruction Multiple Data). Ma to usprawnić przetwarzanie prostych i/lub skomplikowanych funkcji, zależnie od potrzeb. Efektywna wydajność obliczeniowa nowego GPU może być zatem bardzo duża, w porównaniu do GeForce GTX 285.
Ilość shaderów zastosowana w karcie to skok aż o 112.5% w porównaniu do modeli opartych na chipie GT200 który posiada 240 SP. Liczba shaderów na klaster została zwiększona z 24 do 32, liczba klastrów natomiast wynosi 16 (16 x 32 = 512 SP). Poza tym na każdym klastrze będzie 8 jednostek pamięci tekstur, co daje nam ich w sumie 128.
GT300 zostanie wyposażony w pamięć typu GDDR5 i 512-bitowy interfejs pamięci. 'Zieloni' zapowiadają zastosowanie kości z najniższymi opóźnieniami, jakie będą dostępne na rynku w chwili premiery karty. Dzięki temu transfer danych ma osiągnąć prędkość 256GB/s. Dla porównania GTX285 ma transfer rzędu 155.2GB/s a Radeon 4870X2 tylko 112.4GB/s.
NVIDIA GT300 ma mieć 2,4 miliarda tranzystorów upakowanych na powierzchni zaledwie 495 mm2. Obecnie montowane układy GT200 mają 'zaledwie' 1,4 miliarda tranzystorów, które zmieszczono na powierzchni 576 mm2.
Dla porównania, produkowany w wymiarze technologicznym 45 nm Larrabee firmy Intel ma mieć wymiary 700 mm2.
jak nvidia tyle tego tam napcha to hd 5 będzie konkurowało ze średnią półką nvidi jak za dawnych dobrych czasów g80
Rozumiem, wtedy ati było w dołku, ale teraz mogli by to przywrócić. Radeon byłby wtedy zdecydowanie mocniejszy..
I drozszy
W cenie nvidiowskich topów. Bo jeśli ati zostawiając taką magistralę ma zamiar dawać ceny jak nvidia GT200 w czasie premiery, to ja już nie lubię ati.
Bo teraz troche role sie odrwrocily. Wczesniej to GT200 byl okropnie drogi, wprawdzie wydajniejszy od radków ale sporo droższy. Jednak ati dobrze chwycilo moment i dalo niskie ceny i chwala im za to. Teraz natomiast wyjdą nowe radeony które mogą (acz nie muszą) być cholernie drogie, a potem gf które pewnie bedzie wydajniejsze i jeszcze droższe. Ciekawe kto zbije ceny?
Jeżeli NVidia nie zrobi czegoś w rodzaju Eyefinity, czyli karty trójmonitorowej z możliwością grania na trzech monitorach, to kupię Ati.
Zresztą sprzęt tanieje dopiero w marcu, kupowanie nowości przed gwiazdką to luksus na który mnie nie stać. Poza tym te karty będą kierowane głównie na rynki krajów wysoko rozwiniętych, w przypadku problemów produkcyjnych (niski uzysk) Polacy będą musieli poczekać.
W konfiguracji 3 monitory, z tego, co widziałem, ramki aż tak bardzo nie przeszkadzają - a w zamian wrażenia przestrzenne. Gorzej przy 6/9. Choć nie powiem, gdybym miał na tyle, to kusiłoby mnie kupno 3 monitorów i mod ramek
GT300 na pewno będzie miał CUDA PhysiX i może DX11.
AMD ma w swoich nowych kartach DX11, Eyefinity, nowy tryb AF i co ciekawe poprzez OpenCL obsługę trzech standardów fizyki w grach Havox Bullet Pixelux.
GT300 nie może tylko będzie miał obsługę dx11, a jeśli piszesz o silnikach dostępnych w amd to warto zaznaczyć, że będą one dostępne we wszystkich kartach nVidii od 8x00 (z tym że do bullet już ma od bardzo dawna przez CUDA, ale dojdzie teraz do tego OpenCL), a w wypadku amd tylko w kilku z serii 4xxx i nowych.
Eyefinity fajna rzecz, ale taniej i lepiej kupić jeden duży ekran, a nie 6x/9x mniejszych.
Nie wiemy nic o wydajności GT300 więc news jest napisany by wywołać flame war i zwiększyć ilość odsłon portalu
GT300 na pewno będzie miał CUDA PhysiX i może DX11.
AMD ma w swoich nowych kartach DX11, Eyefinity, nowy tryb AF i co ciekawe poprzez OpenCL obsługę trzech standardów fizyki w grach Havox Bullet Pixelux.
Hmm jak jesteście wróżki wszyscy to dajcie mi numery jak będzie jakaś wielka loteria A bronicie Amd jakbyście dla nich pracowali a oni wam płacili ,ale zaraz ktoś mądry się odezwie ze nvidia mi płaci.
a nie płaci? pewnie nie - to my jej płacimy kupując ich karty...
zawsze tak jest, i zawsze będzie, każdy news i czymś nowym od nv: amd jest lepsze!
tak samo kiedy coś nowego od amd: nv lepsza!
spoko, wyrażajcie swoje zdanie, ale nie pogrążajcie się jak pseudokibice po meczu
5% to granica błędu pomiarowego i wariancji testowych.
Obecnie karty są zbyt wyrównane w większości segmentów, by gadać, że którakolwiek wydajniejsza (no, może poza Radeonami w low-mid endzie - 4670 powinno kosztować tyle, co 9600GSO, a zbliża się do 9600GT)
Nie mity i przypowieści tylko niestety sama prawda, bo muszę się zmagać ze sterownikami na każdym z tych systemów.
To są doświadczenia JEDNOSTEK. Ja miałem problemy ze sterami nV w NWN (stara gierka!), a nie zamierzam skomleć, że nV ma niedopracowane stery.
Mity i przypowieści powielane prawie przy każdym newsie dotyczącym kart graficznych ATI i nVidia
Nie mity i przypowieści tylko niestety sama prawda, bo muszę się zmagać ze sterownikami na każdym z tych systemów.
chizra @ 2009.09.18 09:48
1) Które linuxy masz na myśli ? Bo są linuksy i Linuksy, dystrybucji jest ponad 200. Najbardziej popularne, te szmaciane, dają dostęp do repozytoriów, w których można znaleźć i pobrać sterowniki ATI, skompilowane pod dane distro, działające bez problemów.
Osobiście używam Slacka z Radkiem 4770, kompilacja sterownika przebiegła bez najmniejszych problemów, podobnie zresztą jak w przypadku poprzedniego GF 8800GTS.
Jaka to różnica jaki linuks, skoro ważne jest jądro i X - nic więcej. Ale jeśli pytasz się o dystrybucje, to testuje arch linux od kilku lat, wcześniej przez dekadę slackware.
chizra @ 2009.09.18 09:48
2) O jakich segmentach rynku jest mowa ? W zastosowaniach profesjonalnych nVidia raczej nie ma czego szukać i wcale nie mam tu na myśli Tesli ( ze względu na koszty wdrożenia takiego rozwiązania. W dobie kryzysu koszty się tnie, a nie generuje kolejne ).
W zastosowaniach profesjonalnych ati można brać dopiero pod uwagę, bo te sterowniki FirePro są dużo lepsze niż do radeonów... z tym, że dalej to nie jest nVidia (dlatego poważne firmy jak disney czy dreamworks wybierają intel + nVidia Quadro), a na dodatek brak rozwiązań podobnych do tesli (tylko niepoważne firmy wybrałyby ati do obliczeń). W najbliższym czasie w zastosowaniach profesjonalnych może nVidię wygryźć tylko intel larabee, jeśli będzie miał dobrą wydajność.
chizra @ 2009.09.18 09:48
3) Na czym opierasz swoją wiedzę o sterownikach ATI do innych systemów ? Trochę już sprzedałem serwerów Sun z AMD/ATI i Solarisem albo Red Hatem na pokładzie. Zero problemów, ani jednej reklamacji. A warto podkreślić, że Sun preferuje właśnie platformy AMD/ATI.
Bardzo możliwe, że ani jednej reklamacji, bo do serwerów mógłbyś dać nawet bez sterowników (na vesa) kartę intela - zresztą prawie tak było, bo ati nie ma sterowników dla solarisa ;p, i by się nie zorientowali. Problem w tym, że ja programuję gry i pisze je pod linuksem, więc błędy w sterownikach dosyć prosto wyłapuję (ale większość z błędów nie wymaga eksperta jeśli sterowniki potrafią wywalać Xy same z siebie i nie działają praktycznie na 64bit lub nie możesz oglądać filmu z XvBA (tzn możesz, jeśli chcesz widzieć artefakty i w praktyce to nie Xv a X11) to każdy to zauważy).
chizra @ 2009.09.18 09:48
4) Z opublikowanego przez Microsoft oficjalnego raportu wynika, że najwięcej problemów pod Windowsem Vista jest ze sprzętem spod znaku nVidia ( ponad 30% wszystkich zgłaszanych problemów ), na szarym końcu tej niechlubnej listy jest AMD/ATI ( poniżej 10% wszystkich zgłaszanych problemów ).
Cytujesz raport stary i nieaktualny, ale tak faktycznie na Viście było.
chizra @ 2009.09.18 09:48
Gdyby tak było, jak pokazują ostatnie dane, to nie nVidia straciłaby na rzecz ATI kilka procent rynku, tylko ATI na rzecz nVidii. I co mają wspólnego kiepskie wyniki nVidii w mainsteam z tym, że ATI niby nie ma super wydajnej karty dla entuzjastów ?
Strata procentowa w nowo sprzedawanych układach jest... jednak co z tego jak dalej nVidia wyraźnie sprzedaje więcej (tylko stosunkowo trochę mniej niż wcześniej, gdzie miała jeszcze większą przewagę). Prawda jest taka, że udział ati w sprzedaży nowych kart graficznych w drugim kwartale tego roku zwiększył się o 4%, dalej sprzedając jednak 30% mniej od nVidii... zatem zastanów się kto w takim razie wygrywa w mainstream (nawet jeśli tylko dlatego, że ma najwydajniejszą kartę i ta wiadomość idzie w świat) - taki jest biznes i większość nie patrzy na testy, tylko słyszy o najwydajniejszym układzie i kupuje układ tej firmy.
Raz tylko wydałem na kartę 500 pln i więcej tego błędu nie zrobię ... I wydajne będą obie , tańsza wygra i wygląda że będzie to ati.
Szybkości nie definiuje wersja dx (no w jakimś stopniu tak), ale szybkość gier nie zmienia się od wielu lat i wersji i dalej się na to nie zanosi... sama tesselacja to fajna rzecz, bo omija się wąskie gardło przesyłania wierzchołków do karty graficznej... ale za to karta graficzna ma później robotę z wykonaniem na tej geometrii dzielenia na mniejsze części (~shadery geometrii). Karty graficzne przyspieszą, ale znowu nowa generacja gier będzie wykorzystywać GI (CryTech już pokazali jakiś czas temu papierki) i inne techniki, będą się wspomagać raytracingiem/przenosić zadania z którymi sobie procek nie radzi (patrz gta4) czyli fizyka/AI/Animacja w OpenCL/Dx Compute (pierwsza gra o której wiem to Skate 2 od EA gdzie animację ubrań z użyciem kości liczone na GPU mają się pojawić (EA napisało tak w papierku na temat swojego wykorzystania OpenCL w grach))... więc sumarycznie może okazać się, że gra w dx11 na nowych kartach, będzie wolniejsza niż gra w dx10 na starych kartach ;] - po prostu gry wykorzystają całość mocy jaką daje nowa generacja, a i tak będzie im mało ;p.
Wniosek- nowe gry na DX11 będą działać szybeij i wyglądać lepiej niż gdyby zostały zrobione na DX10. Of korz trzeba będzie mieć kartyzgodne z DX11.
Ja już zacieram ręce bo codemasters przerzucają się na DX11.
No i Aliens Vs Predator
Co do eyefinity - technologia już jest - teraz wsyztsko w rękach proucentów sprzętu. Do gier na 3 monitorach z tymi askudnymi paskami odnosę się z rezerwą, aczkowiek to kwestia gier bo:
Symulatory lotow - ma sens, Supreme commander - chyba najlepszy przyklad jak można t wykorzystać.
Cele biznesowe - jak najbardziej . Poza tym wole grać na 30' max rodziałka niż na TV42' full HD...
FullHD 1920×1080... czyli mniej więcej taką jaką byś musiał łącznie ustawić na wielu monitorach, bo nowe gry które będą to obsługiwać nie będą działać wydajnie na większej.
Zgadzam się... ale w podłączeniu do PC to i tak lepsze wyjście niż na wielu ekranach.
Nowe chipy zostaną wyprodukowane w 32nm lub 40nm wymiarze technologicznym i będą współpracowały z pamięciami GDDR5
GT300 ma w pełni obsługiwać interfejsy programowania DirectX 11, OpenGL 3.1 i OpenCL.
GPU ma mieć 512 procesorów strumieniowych. Architektura nowego GPU nie będzie już przypominać tych, które znamy dziś (np. GT200). Będzie to architektura MIMD (Multiple-Instruction, Multiple Data), zamiast SIMD (Single-Instruction Multiple Data). Ma to usprawnić przetwarzanie prostych i/lub skomplikowanych funkcji, zależnie od potrzeb. Efektywna wydajność obliczeniowa nowego GPU może być zatem bardzo duża, w porównaniu do GeForce GTX 285.
Ilość shaderów zastosowana w karcie to skok aż o 112.5% w porównaniu do modeli opartych na chipie GT200 który posiada 240 SP. Liczba shaderów na klaster została zwiększona z 24 do 32, liczba klastrów natomiast wynosi 16 (16 x 32 = 512 SP). Poza tym na każdym klastrze będzie 8 jednostek pamięci tekstur, co daje nam ich w sumie 128.
GT300 zostanie wyposażony w pamięć typu GDDR5 i 512-bitowy interfejs pamięci. 'Zieloni' zapowiadają zastosowanie kości z najniższymi opóźnieniami, jakie będą dostępne na rynku w chwili premiery karty. Dzięki temu transfer danych ma osiągnąć prędkość 256GB/s. Dla porównania GTX285 ma transfer rzędu 155.2GB/s a Radeon 4870X2 tylko 112.4GB/s.
NVIDIA GT300 ma mieć 2,4 miliarda tranzystorów upakowanych na powierzchni zaledwie 495 mm2. Obecnie montowane układy GT200 mają 'zaledwie' 1,4 miliarda tranzystorów, które zmieszczono na powierzchni 576 mm2.
Dla porównania, produkowany w wymiarze technologicznym 45 nm Larrabee firmy Intel ma mieć wymiary 700 mm2.
jak nvidia tyle tego tam napcha to hd 5 będzie konkurowało ze średnią półką nvidi jak za dawnych dobrych czasów g80
I drozszy
W cenie nvidiowskich topów.
Bo teraz troche role sie odrwrocily. Wczesniej to GT200 byl okropnie drogi, wprawdzie wydajniejszy od radków ale sporo droższy. Jednak ati dobrze chwycilo moment i dalo niskie ceny i chwala im za to. Teraz natomiast wyjdą nowe radeony które mogą (acz nie muszą) być cholernie drogie, a potem gf które pewnie bedzie wydajniejsze i jeszcze droższe. Ciekawe kto zbije ceny?
hjakbym chcial gra na plazmie to bym kupił konsole...
nie , nie kupiłbym , bo kocham pecetową harcorową rozgrywkę i piekną grafę , a nie szczelanie zza sciany i celowanie padem o_o
P.S pada to sobie moge do kompa podłączyć i mieć to samo co na kosnoli jakbm bardzo chciał...
Zresztą sprzęt tanieje dopiero w marcu, kupowanie nowości przed gwiazdką to luksus na który mnie nie stać. Poza tym te karty będą kierowane głównie na rynki krajów wysoko rozwiniętych, w przypadku problemów produkcyjnych (niski uzysk) Polacy będą musieli poczekać.
W konfiguracji 3 monitory, z tego, co widziałem, ramki aż tak bardzo nie przeszkadzają - a w zamian wrażenia przestrzenne. Gorzej przy 6/9. Choć nie powiem, gdybym miał na tyle, to kusiłoby mnie kupno 3 monitorów i mod ramek
przgladasz czasem ceny?
50' plazma/lcd możesz kupić za ~3k zł.
Taniej - zapewne. Lepiej - niekoniecznie. Acz osobiście myślałbym o trzech i ułożeniu lekko pod kątem.
IMO lepiej do gier (nie masz ramek)... do pracy (programowania/grafiki) już niekoniecznie i tam lepiej użyć kilku monitorów (ja używam 2x22cali).
Taniej - zapewne. Lepiej - niekoniecznie. Acz osobiście myślałbym o trzech i ułożeniu lekko pod kątem.
przgladasz czasem ceny?
GT300 na pewno będzie miał CUDA PhysiX i może DX11.
AMD ma w swoich nowych kartach DX11, Eyefinity, nowy tryb AF i co ciekawe poprzez OpenCL obsługę trzech standardów fizyki w grach Havox Bullet Pixelux.
GT300 nie może tylko będzie miał obsługę dx11, a jeśli piszesz o silnikach dostępnych w amd to warto zaznaczyć, że będą one dostępne we wszystkich kartach nVidii od 8x00 (z tym że do bullet już ma od bardzo dawna przez CUDA, ale dojdzie teraz do tego OpenCL), a w wypadku amd tylko w kilku z serii 4xxx i nowych.
Eyefinity fajna rzecz, ale taniej i lepiej kupić jeden duży ekran, a nie 6x/9x mniejszych.
GT300 na pewno będzie miał CUDA PhysiX i może DX11.
AMD ma w swoich nowych kartach DX11, Eyefinity, nowy tryb AF i co ciekawe poprzez OpenCL obsługę trzech standardów fizyki w grach Havox Bullet Pixelux.
http://www.brightsideofnews.com/news/2009/...in-trouble.aspx
http://forums.vr-zone.com/news-around-the-...idia-gt200.html
a nie płaci? pewnie nie - to my jej płacimy kupując ich karty...
zawsze tak jest, i zawsze będzie, każdy news i czymś nowym od nv: amd jest lepsze!
tak samo kiedy coś nowego od amd: nv lepsza!
spoko, wyrażajcie swoje zdanie, ale nie pogrążajcie się jak pseudokibice po meczu
5% to granica błędu pomiarowego i wariancji testowych.
Obecnie karty są zbyt wyrównane w większości segmentów, by gadać, że którakolwiek wydajniejsza (no, może poza Radeonami w low-mid endzie - 4670 powinno kosztować tyle, co 9600GSO, a zbliża się do 9600GT)
To są doświadczenia JEDNOSTEK. Ja miałem problemy ze sterami nV w NWN (stara gierka!), a nie zamierzam skomleć, że nV ma niedopracowane stery.
Mity i przypowieści powielane prawie przy każdym newsie dotyczącym kart graficznych ATI i nVidia
Nie mity i przypowieści tylko niestety sama prawda, bo muszę się zmagać ze sterownikami na każdym z tych systemów.
1) Które linuxy masz na myśli ? Bo są linuksy i Linuksy, dystrybucji jest ponad 200. Najbardziej popularne, te szmaciane, dają dostęp do repozytoriów, w których można znaleźć i pobrać sterowniki ATI, skompilowane pod dane distro, działające bez problemów.
Osobiście używam Slacka z Radkiem 4770, kompilacja sterownika przebiegła bez najmniejszych problemów, podobnie zresztą jak w przypadku poprzedniego GF 8800GTS.
Jaka to różnica jaki linuks, skoro ważne jest jądro i X - nic więcej. Ale jeśli pytasz się o dystrybucje, to testuje arch linux od kilku lat, wcześniej przez dekadę slackware.
2) O jakich segmentach rynku jest mowa ? W zastosowaniach profesjonalnych nVidia raczej nie ma czego szukać i wcale nie mam tu na myśli Tesli ( ze względu na koszty wdrożenia takiego rozwiązania. W dobie kryzysu koszty się tnie, a nie generuje kolejne ).
W zastosowaniach profesjonalnych ati można brać dopiero pod uwagę, bo te sterowniki FirePro są dużo lepsze niż do radeonów... z tym, że dalej to nie jest nVidia (dlatego poważne firmy jak disney czy dreamworks wybierają intel + nVidia Quadro), a na dodatek brak rozwiązań podobnych do tesli (tylko niepoważne firmy wybrałyby ati do obliczeń). W najbliższym czasie w zastosowaniach profesjonalnych może nVidię wygryźć tylko intel larabee, jeśli będzie miał dobrą wydajność.
3) Na czym opierasz swoją wiedzę o sterownikach ATI do innych systemów ? Trochę już sprzedałem serwerów Sun z AMD/ATI i Solarisem albo Red Hatem na pokładzie. Zero problemów, ani jednej reklamacji. A warto podkreślić, że Sun preferuje właśnie platformy AMD/ATI.
Bardzo możliwe, że ani jednej reklamacji, bo do serwerów mógłbyś dać nawet bez sterowników (na vesa) kartę intela - zresztą prawie tak było, bo ati nie ma sterowników dla solarisa ;p, i by się nie zorientowali. Problem w tym, że ja programuję gry i pisze je pod linuksem, więc błędy w sterownikach dosyć prosto wyłapuję (ale większość z błędów nie wymaga eksperta jeśli sterowniki potrafią wywalać Xy same z siebie i nie działają praktycznie na 64bit lub nie możesz oglądać filmu z XvBA (tzn możesz, jeśli chcesz widzieć artefakty i w praktyce to nie Xv a X11) to każdy to zauważy).
4) Z opublikowanego przez Microsoft oficjalnego raportu wynika, że najwięcej problemów pod Windowsem Vista jest ze sprzętem spod znaku nVidia ( ponad 30% wszystkich zgłaszanych problemów ), na szarym końcu tej niechlubnej listy jest AMD/ATI ( poniżej 10% wszystkich zgłaszanych problemów ).
Cytujesz raport stary i nieaktualny, ale tak faktycznie na Viście było.
Gdyby tak było, jak pokazują ostatnie dane, to nie nVidia straciłaby na rzecz ATI kilka procent rynku, tylko ATI na rzecz nVidii. I co mają wspólnego kiepskie wyniki nVidii w mainsteam z tym, że ATI niby nie ma super wydajnej karty dla entuzjastów ?
Strata procentowa w nowo sprzedawanych układach jest... jednak co z tego jak dalej nVidia wyraźnie sprzedaje więcej (tylko stosunkowo trochę mniej niż wcześniej, gdzie miała jeszcze większą przewagę). Prawda jest taka, że udział ati w sprzedaży nowych kart graficznych w drugim kwartale tego roku zwiększył się o 4%, dalej sprzedając jednak 30% mniej od nVidii... zatem zastanów się kto w takim razie wygrywa w mainstream (nawet jeśli tylko dlatego, że ma najwydajniejszą kartę i ta wiadomość idzie w świat) - taki jest biznes i większość nie patrzy na testy, tylko słyszy o najwydajniejszym układzie i kupuje układ tej firmy.