Hmm jak jesteście wróżki wszyscy to dajcie mi numery jak będzie jakaś wielka loteria A bronicie Amd jakbyście dla nich pracowali a oni wam płacili ,ale zaraz ktoś mądry się odezwie ze nvidia mi płaci.
To chyba lekka przesada mówić, że nic nie wiadomo o GT300:
Nowe chipy zostaną wyprodukowane w 32nm lub 40nm wymiarze technologicznym i będą współpracowały z pamięciami GDDR5
GT300 ma w pełni obsługiwać interfejsy programowania DirectX 11, OpenGL 3.1 i OpenCL.
GPU ma mieć 512 procesorów strumieniowych. Architektura nowego GPU nie będzie już przypominać tych, które znamy dziś (np. GT200). Będzie to architektura MIMD (Multiple-Instruction, Multiple Data), zamiast SIMD (Single-Instruction Multiple Data). Ma to usprawnić przetwarzanie prostych i/lub skomplikowanych funkcji, zależnie od potrzeb. Efektywna wydajność obliczeniowa nowego GPU może być zatem bardzo duża, w porównaniu do GeForce GTX 285.
Ilość shaderów zastosowana w karcie to skok aż o 112.5% w porównaniu do modeli opartych na chipie GT200 który posiada 240 SP. Liczba shaderów na klaster została zwiększona z 24 do 32, liczba klastrów natomiast wynosi 16 (16 x 32 = 512 SP). Poza tym na każdym klastrze będzie 8 jednostek pamięci tekstur, co daje nam ich w sumie 128.
GT300 zostanie wyposażony w pamięć typu GDDR5 i 512-bitowy interfejs pamięci. 'Zieloni' zapowiadają zastosowanie kości z najniższymi opóźnieniami, jakie będą dostępne na rynku w chwili premiery karty. Dzięki temu transfer danych ma osiągnąć prędkość 256GB/s. Dla porównania GTX285 ma transfer rzędu 155.2GB/s a Radeon 4870X2 tylko 112.4GB/s.
NVIDIA GT300 ma mieć 2,4 miliarda tranzystorów upakowanych na powierzchni zaledwie 495 mm2. Obecnie montowane układy GT200 mają 'zaledwie' 1,4 miliarda tranzystorów, które zmieszczono na powierzchni 576 mm2.
Dla porównania, produkowany w wymiarze technologicznym 45 nm Larrabee firmy Intel ma mieć wymiary 700 mm2.
'skoti48 (2009.09.17, 23:19)
Do amd są zastrzeżenia i w linuksie i w windowsie (oraz MacOS już nie mówiąc o innych systemach jak Solaris czy BSD), ale w linuksie ATI po prostu ssie - sterowniki 64bit są praktycznie bezużyteczne, 32bit są niestabilne, z masą błędów przy wyświetlaniu i małymi możliwościami (2d, bo o 3d to lepiej nawet nie wspominać)... wydajność też pozostawia wiele do życzenia (w przypadku sterowników nVidii wydajność OpenGL jest większa niż w windowsie, a Ati dużo słabsza (przy tym, że na windowsie lepszą wydajność ma nVidia)).
Co do Win98 i linux się troszkę pomyliłeś bo ponad 15x (http://w3counter.com/globalstats.php), a ten system, którego mamy się domyśleć (MacOS) to tam faktycznie sterowniki są stabilniejsze... ale z możliwościami i wydajnością tak samo kuleją.'
Mity, legendy i przypowieści powielane prawie przy każdym newsie dotyczącym kart graficznych ATI i nVidia
1) Które linuxy masz na myśli ? Bo są linuksy i Linuksy, dystrybucji jest ponad 200. Najbardziej popularne, te szmaciane, dają dostęp do repozytoriów, w których można znaleźć i pobrać sterowniki ATI, skompilowane pod dane distro, działające bez problemów.
Osobiście używam Slacka z Radkiem 4770, kompilacja sterownika przebiegła bez najmniejszych problemów, podobnie zresztą jak w przypadku poprzedniego GF 8800GTS.
2) O jakich segmentach rynku jest mowa ? W zastosowaniach profesjonalnych nVidia raczej nie ma czego szukać i wcale nie mam tu na myśli Tesli ( ze względu na koszty wdrożenia takiego rozwiązania. W dobie kryzysu koszty się tnie, a nie generuje kolejne ).
3) Na czym opierasz swoją wiedzę o sterownikach ATI do innych systemów ? Trochę już sprzedałem serwerów Sun z AMD/ATI i Solarisem albo Red Hatem na pokładzie. Zero problemów, ani jednej reklamacji. A warto podkreślić, że Sun preferuje właśnie platformy AMD/ATI.
4) Z opublikowanego przez Microsoft oficjalnego raportu wynika, że najwięcej problemów pod Windowsem Vista jest ze sprzętem spod znaku nVidia ( ponad 30% wszystkich zgłaszanych problemów ), na szarym końcu tej niechlubnej listy jest AMD/ATI ( poniżej 10% wszystkich zgłaszanych problemów ).
5) Że przypomnę kulejącą wydajność G80 pod Windows Vista i DirectX 10. Praktycznie w każdym teście 2900XT był wydajniejszy przy niższej cenie.
'skoti48 (2009.09.18, 02:44)
Nie wiem, co cię rozbawiło, a na pewno nie pomyliłem kolejności. Ati bardzo obchodzi, że nie mają najwydajniejszej karty... ale co im pozostaje? Tylko robić dobrą minę do złej gry - ich obchodzi zysk w mainstream... z tym, że przez to, że przegrywają w najwydajniejszym segmencie rzutuje na słabsze niż nVidii wyniki w mainstream.'
Gdyby tak było, jak pokazują ostatnie dane, to nie nVidia straciłaby na rzecz ATI kilka procent rynku, tylko ATI na rzecz nVidii. I co mają wspólnego kiepskie wyniki nVidii w mainsteam z tym, że ATI niby nie ma super wydajnej karty dla entuzjastów ?
Sam sobie zaprzeczasz, bo sprzedaż najdroższych kart to zaledwie marne kilka procent wszystkich sprzedawanych kart.
Nie jest żadną sztuką produkcja drogiej karty wielkości lotniskowca z miliardami tranzystorów na pokładzie, grzejącej się, hałaśliwej i pożerającej prąd. Ale sztuką jest stworzenie karty, która przy jak najmniejszym zużyciu energii i przy atrakcyjnej cenie, jest w stanie zaoferować jak największą wydajność. I to jest właśnie mainstream.
Zatem, litości ! Nie jesteś w stanie podeprzeć swojej kiepskiej argumentacji rzetelną wiedzą i jak mniemam, praktyką też nie...
O...same wrózki jak miło
Nie wiem czemu was dziwi ,że GT300 bedzie najwydajnieszjy gdy wejdzie na rynek? Wiecie co, byłoby bez sensu wypuszczać nową karte na rynek która dorównuje obecnym na rynku zwarzywszy na to ile NV musi wydaj w projektowanie swojej nowej karty jak i chęci zarobku na nowym produkcie.
Dla mnie sprawa jest prosta jezeli będe chciał kupić Ati to kupie Ati, jak będe wołal Gt300 to kupie GT300. W iinym przypadku będe kierował sie stosunkiem wydajości do ceny - zreszta tym pewnie będzie sie kierowac 90% z nas
to tego nie kupie nawet jakbyś mi zapłacił. Gy na DX10.1 chodzą szybciej na ATi, bpo zgodnie ze specs DX10.1 powinno chodzić szybciej niż dx10) . pomijajać kwestie że ati to shadery a nvida textury.
Gdyby było inaczej nV nigdy nie starała by się umniejszać roli DX10.1, wyszlo by testach...
Spec dx10.1 nie mówi czy coś jest szybsze czy nie tylko definiuje pewne zadania, które np. muszą być implementowane przez twórcę sprzętu/sterowników zamiast przez programistów - przez to w niektórych grach w dx10.1 ati wygrywa... bo wykonywany jest zupełnie inny kod niż w wypadku kart nVidii (gdzie jest dx10 i programiści gier implementują)... zgadza się było kilka głośnych spraw, gdzie gry z dx10.1 stawały się znowu tylko dx10 po interwencji/pomocy nVidii (przy czym już nikt nie zauważał, że jak w grze użyto implementacji nVidii gra przyspieszyła nawet na ati względem dx10.1 tylko to, że straciła przewagę nad nVidia i były wolniejsze, w tych samych warunkach).
znafca @ 2009.09.18 03:14
Ps. Raytraycing to bardziej shadery czy textury? (wydaję mi się że znam odpowiedź,ale warto srawdzić)
Pytanie typu samochód to bardziej lakier, czy koło? Rayrtacing wykorzystuje zarówno shadery jak i tekstury tak samo jak rasteryzacja (np. opengl/directx3d/renderman)... od rasteryzacji różni się sposobem tworzenia efektu końcowego (no i łatwość/możliwości tworzenia niektórych efektów) - w przypadku raytracera jak sama nazwa wskazuje śledzi wysyłane z kamery (ekranu) do obiektów w które uderzy, a rasteryzer rzutuje geometrię na płaszczyznę ekranu (mnoży przez macierz widoku) i wynik jak nazwa wskazuje rasteryzuje (przerabia punkty w 2d po rzutowaniu na trójkąty narysowane na ekranie (no i nakłada teksturę na te trójkąty)).
znafca @ 2009.09.18 03:14
Edit: I tak kupie 5870 i jakigos 260GTX za 300 zeta (jak wyjdzie jakaś gra która będzie fizyXa warta) i sposobem Assasina będę rywalizowął z gt300 (mam nadzieję że ten sposób bedzie działął) a kaske która mi ostanie zainwestuje w mocnego quada który mi nie bedzie bottleneckował. Tyle w temacie.
Ps.2 Widze że Pclab znalażł siwetny sposób na naijanie odsłon. Niech kaska z reklam wpływa będzie więcej testów
Możesz kupić - ja z kupnem nowych kart poczekam na nVidię i w zależności co wtedy będzie lepsze kupię najlepszą (chyba, że to będzie jednak ati to ze względu na stery się zastanowię - ale jak to znajomi mówią jak już uda Ci się zrobić żeby działało na Ati to na nVidii nie musisz sprawdzać bo będzie działać (jak zrobisz według specyfikacji to na nVidii też będzie działać... z tym że na ati może działać inaczej niż się tego spodziewasz) ;p) i z drugiej firmy budżetówka - na jednej pisać, na drugiej testować, czy sterowniki nie zrobią psikusa i trzeba będzie dla jednej karty tak, dla drugiej inaczej.
Virtus* @ 2009.09.18 03:31
To chyba lekka przesada
GT300 ma w pełni obsługiwać interfejsy programowania DirectX 11, OpenGL 3.1 i OpenCL.
Przestarzałe informacje - ma w pełni obsługiwać OpenGL 3.2 (a pewnie w przyszłości 3.3/3.4) - już teraz masz sterowniki OpenGL 3.2 dla kart od 8x00 (póki co w fazie beta).
To chyba lekka przesada mówić, że nic nie wiadomo o GT300:
Nowe chipy zostaną wyprodukowane w 32nm lub 40nm wymiarze technologicznym i będą współpracowały z pamięciami GDDR5
GT300 ma w pełni obsługiwać interfejsy programowania DirectX 11, OpenGL 3.1 i OpenCL.
GPU ma mieć 512 procesorów strumieniowych. Architektura nowego GPU nie będzie już przypominać tych, które znamy dziś (np. GT200). Będzie to architektura MIMD (Multiple-Instruction, Multiple Data), zamiast SIMD (Single-Instruction Multiple Data). Ma to usprawnić przetwarzanie prostych i/lub skomplikowanych funkcji, zależnie od potrzeb. Efektywna wydajność obliczeniowa nowego GPU może być zatem bardzo duża, w porównaniu do GeForce GTX 285.
Ilość shaderów zastosowana w karcie to skok aż o 112.5% w porównaniu do modeli opartych na chipie GT200 który posiada 240 SP. Liczba shaderów na klaster została zwiększona z 24 do 32, liczba klastrów natomiast wynosi 16 (16 x 32 = 512 SP). Poza tym na każdym klastrze będzie 8 jednostek pamięci tekstur, co daje nam ich w sumie 128.
GT300 zostanie wyposażony w pamięć typu GDDR5 i 512-bitowy interfejs pamięci. 'Zieloni' zapowiadają zastosowanie kości z najniższymi opóźnieniami, jakie będą dostępne na rynku w chwili premiery karty. Dzięki temu transfer danych ma osiągnąć prędkość 256GB/s. Dla porównania GTX285 ma transfer rzędu 155.2GB/s a Radeon 4870X2 tylko 112.4GB/s.
NVIDIA GT300 ma mieć 2,4 miliarda tranzystorów upakowanych na powierzchni zaledwie 495 mm2. Obecnie montowane układy GT200 mają 'zaledwie' 1,4 miliarda tranzystorów, które zmieszczono na powierzchni 576 mm2.
Dla porównania, produkowany w wymiarze technologicznym 45 nm Larrabee firmy Intel ma mieć wymiary 700 mm2.
'GeForce GTX 260 dostępny jest teraz w cenach rozpoczynających się od około 800 zł, przy czym bardzo wiele sprzedających ceni je jeszcze po starych kwotach oscylujących koło 1000 zł. W przypadku akceleratorów GeForce GTX 280, ich najniższe ceny to około 1220 zł.'
Teraz już weź grabki i papa
PS
znafca @ 2009.09.18 00:29
nV ma rzondzić i tyle. za każdą cenę.
może chodziło żondzi? albo żądzi - bo chyba nie o rządzi
Yoshi, serio...?
Ceny na giełdzie w wawie2 dni przed premiarą HD4800 to 1800 za gtx 280 i 800 za geforce 9800GTX .
Juz zapomaniles akcje AiB's nv ze zwracaniem kasy ?!? 2 -3 tygodnie po premirze radeonów kiedy okazało sie że fanboi jest mniej niż rozsądnych ludzi i nikt tego badziewia nie kupi ceny spadły o ok. 30% i był program refundacji(USA, europa zachodnia - ale nie w Polska) dal tych co kupili przed którymś lipca. (na labie też o tym pisano, latwo pewnie można znaleść)
P.S mimo że mam swoje lata to chętnie wpadam do piaskownicy raz na pare latek , ale biorę inne zabwk niż grabki ogólnie 6 rano + hustawka z koleżankami to jest to
@skoti
jak wiele bym szacunku dla Ciebie nie mial, bo wiesz i to sporo , na pewno więcej ode mnie w kwestiach programowania to :
`to nie wina tego, że 'sponsorują' gry (bo to samo robi i ati, a i tak te gry działają szybciej na nVidii)... tu wina sterowników i architektury sprzętu, nie gier.`
to tego nie kupie nawet jakbyś mi zapłacił. Gy na DX10.1 chodzą szybciej na ATi, bpo zgodnie ze specs DX10.1 powinno chodzić szybciej niż dx10) . pomijajać kwestie że ati to shadery a nvida textury. ,,
Gdyby było inaczej nV nigdy nie starała by się umniejszać roli DX10.1, wyszlo by testach...
Ps. Raytraycing to bardziej shadery czy textury? (wydaję mi się że znam odpowiedź,ale warto srawdzić)
Edit: I tak kupie 5870 i jakigos 260GTX za 300 zeta (jak wyjdzie jakaś gra która będzie fizyXa warta) i sposobem Assasina będę rywalizowął z gt300 (mam nadzieję że ten sposób bedzie działął) a kaske która mi ostanie zainwestuje w mocnego quada który mi nie bedzie bottleneckował. Tyle w temacie.
Ps.2 Widze że Pclab znalażł siwetny sposób na naijanie odsłon. Niech kaska z reklam wpływa będzie więcej testów
Ati wymusza niskie ceny, bo musi - gdyby nie to nikt by ich kart nie kupił, a są w tej niekomfortowej sytuacji, że wydajnościowo przegrywają z nVidią,
Uśmiałem się - trochę pomyliłeś kolejność. Ati nie obchodzi, że nie mają flagowej karty najszybszej. Ich obchodzi, że mają duży zysk na kartę w segmencie mainstream.
Nie wiem, co cię rozbawiło, a na pewno nie pomyliłem kolejności. Ati bardzo obchodzi, że nie mają najwydajniejszej karty... ale co im pozostaje? Tylko robić dobrą minę do złej gry - ich obchodzi zysk w mainstream... z tym, że przez to, że przegrywają w najwydajniejszym segmencie rzutuje na słabsze niż nVidii wyniki w mainstream.
znafca @ 2009.09.18 00:29
Nv z jednej storny mowi ze bedzie zarbaic na egrze(bo bez wzgled cz gt300 dziala czy nie to na tym za wiele nie zarobi) i mowi już że DX11 nie jest importante,
Nie mówi tego nVidia w sprawie gier i ich programowania (gdzie w sumie dosyć ważne będzie), ale w sprzedaży kart i w kwestiach finansowych nie będzie ważny - i ciężko się z tym nie zgodzić kiedy na początku tu odradzano, kupowanie kart graficznych nVidii dx10, bo nie ma gier, oraz później nie zmniejszyły się wpływy kiedy nVidii kiedy nie robili dx10.1 - więc można śmiało powiedzieć, że wsparcie dla kolejnego DX nie jest najważniejsze, a jest tylko jednym z wielu czynników, które na sprzedaż wpływają i ważniejsze w sprzedaży jest wypromowanie swoich rozwiązań, których nie zobaczysz u konkurencji (jak 3d vision, czy physX oraz szybkie obliczanie innych zadań na cpu co w grach będzie coraz bardziej znaczące - tu przewaga architektury CUDA).
znafca @ 2009.09.18 01:27
nv i maclaren - snisz. nv jest najwydajniejsza bo sponsorują gry. ale nie jest najardziej innwacyjna, przynamniej jeszcze nie.
To nie wina tego, że 'sponsorują' gry (bo to samo robi i ati, a i tak te gry działają szybciej na nVidii)... tu wina sterowników i architektury sprzętu, nie gier.
kilka próbek inżynieryjnych mogą mieć. wieść gminna niesie że silion wyszedl już z pieca, nie wiemy czy działa i jak dobrze. Nv z jednej storny mowi ze bedzie zarbaic na egrze(bo bez wzgled cz gt300 dziala czy nie to na tym za wiele nie zarobi) i mowi już że DX11 nie jest importante,
a z drugiej mowia że jaki to gt 300 nie bedzie zajebisty. Tym makiertngowym żmijom nigdy ufać nie można więc jak zwykle czas pokaże.
Gt300 będzie lepsze (doższe ale czy to trzeba pisać?!?) od radka , ale pytanie lepsze jest.
Kiedy ?
bo to ma znaczenie , tak jakbym napiasł że radek 6870 będzie szybszy od gt300
pewnie za rok, póltora
Osobiście GT300 uważam że to jest bardziej ego jego szefa niż realny produktna rynek.
nV ma rzondzić i tyle. za każdą cenę.
Yoshi - bredzisz. Dokłądnie pamietam jakie byly ceny - dolar prawie 2 zeta, a GietX 280 1800 peelenów. a gtxultra pod 3k podchodził(ale dolar pod 2,5, EVGA ponad 3k.
cytat pcarena.pl recenzja GTX 280 lipec 2008
'GeForce GTX 260 dostępny jest teraz w cenach rozpoczynających się od około 800 zł, przy czym bardzo wiele sprzedających ceni je jeszcze po starych kwotach oscylujących koło 1000 zł. W przypadku akceleratorów GeForce GTX 280, ich najniższe ceny to około 1220 zł.'
Teraz już weź grabki i papa
PS
znafca @ 2009.09.18 00:29
nV ma rzondzić i tyle. za każdą cenę.
może chodziło żondzi? albo żądzi - bo chyba nie o rządzi
A ja powiem tak nie ma cos ie klocic. Wiadomo jest od dawna i widac to w testach nawet na lamach PCLAB ze karty NV kopia radki i tyle jest kilka gier w ktorych radeony sa wydajniejsze, jednak tylko minimalnie. Fakt NV jest drozsza ale jest lepsza jesli oferuja produkt premium to cena tez jest z wyzszej polki. Nie stac Cie kup radeona albo poodkladaj miesiac dluzej i kup GeForca proste i logiczne. Imho tanie mieso psy jedza i kazdy posiadacz malucha chcialby miec maclarena
Nikogo normalnego nie zdziwi ze GT300 bedzie szybszy od 5870 , tyle ze 90% ludzi na tej planecie bierze glownie pod uwage stosunek cena wydajnosc a te n napewno w pierwszych miesiacach od premiery GT300 bedzie po stronie Radoslawa.
kilka próbek inżynieryjnych mogą mieć. wieść gminna niesie że silion wyszedl już z pieca, nie wiemy czy działa i jak dobrze. Nv z jednej storny mowi ze bedzie zarbaic na egrze(bo bez wzgled cz gt300 dziala czy nie to na tym za wiele nie zarobi) i mowi już że DX11 nie jest importante,
a z drugiej mowia że jaki to gt 300 nie bedzie zajebisty. Tym makiertngowym żmijom nigdy ufać nie można więc jak zwykle czas pokaże.
Gt300 będzie lepsze (doższe ale czy to trzeba pisać?!?) od radka , ale pytanie lepsze jest.
Kiedy ?
bo to ma znaczenie , tak jakbym napiasł że radek 6870 będzie szybszy od gt300
pewnie za rok, póltora
Osobiście GT300 uważam że to jest bardziej ego jego szefa niż realny produktna rynek.
nV ma rzondzić i tyle. za każdą cenę.
Tak się wojen nie wygrywa
Błedy specjalnie żeby `niektórzy ` mieli się czego przyczepić, o nieczego innegojakby chcieli o by pewnie ni eumieli. Wiadomo o kogo kaman. ;E
Yoshi - bredzisz. Dokłądnie pamietam jakie byly ceny - dolar prawie 2 zeta, a GietX 280 1800 peelenów. a gtxultra pod 3k podchodził(ale dolar pod 2,5, EVGA ponad 3k.
pS nie czeba carliego , każdy wie że pricing nV jest z dupy, zawsze był. Trzeba być naprawdę ignorantus rex żeby twierdzić inaczej
A co do graf to ja miałem nVidia Riva 128 - od razu jak weszła do Polski (na zamówienie na giełdzie od handlarza) - wtedy jeszcze ATI robiło w pory a karta konkurowała z Voodoo 2 - ELSA Victory Erazor i kosztowała tylko 740zł a Voodoo 1100-1200zł - także moim zdaniem ceny karta zależy od jej ceny u producenta pomnożonej przez jakiś stały procent (marże na każdym stopniu dystrybucji, podatki, cło. Czyli np producent sprzedaje coś po 500zł netto a w sklepie kosztuj 1500zł brutto. Producent sprzedaje po 100zł netto a w sklepie jest po 300zł brutto (taki przykład i nie wiem czy mam racje ) - i nie ma tu teorii spiskowych wielkich. Tak naprawdę rzadko jakiś model zdecydowanie tanieje - często jest zastępowany nowym modelem o podobnych właściwościach i niższej cenie - co potwierdza tę teorię.
Zdecydowanie też nie zgadzam się z teorią jakoby GT300 miało kosztować 2500zł - wystarczy spojrzeć na GT200 - GTX 280 w momencie premiery kosztował około 1300zł(był dolar tańszy wtedy fakt) - tak samo GTX 285 - koło 1500zł (droższy dolar) - i gdzie te 2k+? Nawet rekordowo drogie G80 czyli 8800GTX kosztowało koło 1900-2000zł jak wyszło - A NIE MIAŁO ŻADNEJ KONKURENCJI.
I drozszy
Ale wydajniejsza.
Nowe chipy zostaną wyprodukowane w 32nm lub 40nm wymiarze technologicznym i będą współpracowały z pamięciami GDDR5
GT300 ma w pełni obsługiwać interfejsy programowania DirectX 11, OpenGL 3.1 i OpenCL.
GPU ma mieć 512 procesorów strumieniowych. Architektura nowego GPU nie będzie już przypominać tych, które znamy dziś (np. GT200). Będzie to architektura MIMD (Multiple-Instruction, Multiple Data), zamiast SIMD (Single-Instruction Multiple Data). Ma to usprawnić przetwarzanie prostych i/lub skomplikowanych funkcji, zależnie od potrzeb. Efektywna wydajność obliczeniowa nowego GPU może być zatem bardzo duża, w porównaniu do GeForce GTX 285.
Ilość shaderów zastosowana w karcie to skok aż o 112.5% w porównaniu do modeli opartych na chipie GT200 który posiada 240 SP. Liczba shaderów na klaster została zwiększona z 24 do 32, liczba klastrów natomiast wynosi 16 (16 x 32 = 512 SP). Poza tym na każdym klastrze będzie 8 jednostek pamięci tekstur, co daje nam ich w sumie 128.
GT300 zostanie wyposażony w pamięć typu GDDR5 i 512-bitowy interfejs pamięci. 'Zieloni' zapowiadają zastosowanie kości z najniższymi opóźnieniami, jakie będą dostępne na rynku w chwili premiery karty. Dzięki temu transfer danych ma osiągnąć prędkość 256GB/s. Dla porównania GTX285 ma transfer rzędu 155.2GB/s a Radeon 4870X2 tylko 112.4GB/s.
NVIDIA GT300 ma mieć 2,4 miliarda tranzystorów upakowanych na powierzchni zaledwie 495 mm2. Obecnie montowane układy GT200 mają 'zaledwie' 1,4 miliarda tranzystorów, które zmieszczono na powierzchni 576 mm2.
Dla porównania, produkowany w wymiarze technologicznym 45 nm Larrabee firmy Intel ma mieć wymiary 700 mm2.
Zapomniałeś o ' '
Do amd są zastrzeżenia i w linuksie i w windowsie (oraz MacOS już nie mówiąc o innych systemach jak Solaris czy BSD), ale w linuksie ATI po prostu ssie - sterowniki 64bit są praktycznie bezużyteczne, 32bit są niestabilne, z masą błędów przy wyświetlaniu i małymi możliwościami (2d, bo o 3d to lepiej nawet nie wspominać)... wydajność też pozostawia wiele do życzenia (w przypadku sterowników nVidii wydajność OpenGL jest większa niż w windowsie, a Ati dużo słabsza (przy tym, że na windowsie lepszą wydajność ma nVidia)).
Co do Win98 i linux się troszkę pomyliłeś bo ponad 15x (http://w3counter.com/globalstats.php), a ten system, którego mamy się domyśleć (MacOS) to tam faktycznie sterowniki są stabilniejsze... ale z możliwościami i wydajnością tak samo kuleją.'
Mity, legendy i przypowieści powielane prawie przy każdym newsie dotyczącym kart graficznych ATI i nVidia
1) Które linuxy masz na myśli ? Bo są linuksy i Linuksy, dystrybucji jest ponad 200. Najbardziej popularne, te szmaciane, dają dostęp do repozytoriów, w których można znaleźć i pobrać sterowniki ATI, skompilowane pod dane distro, działające bez problemów.
Osobiście używam Slacka z Radkiem 4770, kompilacja sterownika przebiegła bez najmniejszych problemów, podobnie zresztą jak w przypadku poprzedniego GF 8800GTS.
2) O jakich segmentach rynku jest mowa ? W zastosowaniach profesjonalnych nVidia raczej nie ma czego szukać i wcale nie mam tu na myśli Tesli ( ze względu na koszty wdrożenia takiego rozwiązania. W dobie kryzysu koszty się tnie, a nie generuje kolejne ).
3) Na czym opierasz swoją wiedzę o sterownikach ATI do innych systemów ? Trochę już sprzedałem serwerów Sun z AMD/ATI i Solarisem albo Red Hatem na pokładzie. Zero problemów, ani jednej reklamacji. A warto podkreślić, że Sun preferuje właśnie platformy AMD/ATI.
4) Z opublikowanego przez Microsoft oficjalnego raportu wynika, że najwięcej problemów pod Windowsem Vista jest ze sprzętem spod znaku nVidia ( ponad 30% wszystkich zgłaszanych problemów ), na szarym końcu tej niechlubnej listy jest AMD/ATI ( poniżej 10% wszystkich zgłaszanych problemów ).
5) Że przypomnę kulejącą wydajność G80 pod Windows Vista i DirectX 10. Praktycznie w każdym teście 2900XT był wydajniejszy przy niższej cenie.
'skoti48 (2009.09.18, 02:44)
Nie wiem, co cię rozbawiło, a na pewno nie pomyliłem kolejności. Ati bardzo obchodzi, że nie mają najwydajniejszej karty... ale co im pozostaje? Tylko robić dobrą minę do złej gry - ich obchodzi zysk w mainstream... z tym, że przez to, że przegrywają w najwydajniejszym segmencie rzutuje na słabsze niż nVidii wyniki w mainstream.'
Gdyby tak było, jak pokazują ostatnie dane, to nie nVidia straciłaby na rzecz ATI kilka procent rynku, tylko ATI na rzecz nVidii. I co mają wspólnego kiepskie wyniki nVidii w mainsteam z tym, że ATI niby nie ma super wydajnej karty dla entuzjastów ?
Sam sobie zaprzeczasz, bo sprzedaż najdroższych kart to zaledwie marne kilka procent wszystkich sprzedawanych kart.
Nie jest żadną sztuką produkcja drogiej karty wielkości lotniskowca z miliardami tranzystorów na pokładzie, grzejącej się, hałaśliwej i pożerającej prąd. Ale sztuką jest stworzenie karty, która przy jak najmniejszym zużyciu energii i przy atrakcyjnej cenie, jest w stanie zaoferować jak największą wydajność. I to jest właśnie mainstream.
Zatem, litości ! Nie jesteś w stanie podeprzeć swojej kiepskiej argumentacji rzetelną wiedzą i jak mniemam, praktyką też nie...
Nowe chipy zostaną wyprodukowane w 32nm lub 40nm.
ja slyszalem ze w 22nm
Nie wiem czemu was dziwi ,że GT300 bedzie najwydajnieszjy gdy wejdzie na rynek? Wiecie co, byłoby bez sensu wypuszczać nową karte na rynek która dorównuje obecnym na rynku zwarzywszy na to ile NV musi wydaj w projektowanie swojej nowej karty jak i chęci zarobku na nowym produkcie.
Dla mnie sprawa jest prosta jezeli będe chciał kupić Ati to kupie Ati, jak będe wołal Gt300 to kupie GT300. W iinym przypadku będe kierował sie stosunkiem wydajości do ceny - zreszta tym pewnie będzie sie kierowac 90% z nas
to tego nie kupie nawet jakbyś mi zapłacił. Gy na DX10.1 chodzą szybciej na ATi, bpo zgodnie ze specs DX10.1 powinno chodzić szybciej niż dx10) . pomijajać kwestie że ati to shadery a nvida textury.
Gdyby było inaczej nV nigdy nie starała by się umniejszać roli DX10.1, wyszlo by testach...
Spec dx10.1 nie mówi czy coś jest szybsze czy nie tylko definiuje pewne zadania, które np. muszą być implementowane przez twórcę sprzętu/sterowników zamiast przez programistów - przez to w niektórych grach w dx10.1 ati wygrywa... bo wykonywany jest zupełnie inny kod niż w wypadku kart nVidii (gdzie jest dx10 i programiści gier implementują)... zgadza się było kilka głośnych spraw, gdzie gry z dx10.1 stawały się znowu tylko dx10 po interwencji/pomocy nVidii (przy czym już nikt nie zauważał, że jak w grze użyto implementacji nVidii gra przyspieszyła nawet na ati względem dx10.1 tylko to, że straciła przewagę nad nVidia i były wolniejsze, w tych samych warunkach).
Ps. Raytraycing to bardziej shadery czy textury? (wydaję mi się że znam odpowiedź,ale warto srawdzić)
Pytanie typu samochód to bardziej lakier, czy koło? Rayrtacing wykorzystuje zarówno shadery jak i tekstury tak samo jak rasteryzacja (np. opengl/directx3d/renderman)... od rasteryzacji różni się sposobem tworzenia efektu końcowego (no i łatwość/możliwości tworzenia niektórych efektów) - w przypadku raytracera jak sama nazwa wskazuje śledzi wysyłane z kamery (ekranu) do obiektów w które uderzy, a rasteryzer rzutuje geometrię na płaszczyznę ekranu (mnoży przez macierz widoku) i wynik jak nazwa wskazuje rasteryzuje (przerabia punkty w 2d po rzutowaniu na trójkąty narysowane na ekranie (no i nakłada teksturę na te trójkąty)).
Edit: I tak kupie 5870 i jakigos 260GTX za 300 zeta (jak wyjdzie jakaś gra która będzie fizyXa warta) i sposobem Assasina będę rywalizowął z gt300
Ps.2 Widze że Pclab znalażł siwetny sposób na naijanie odsłon. Niech kaska z reklam wpływa będzie więcej testów
Możesz kupić - ja z kupnem nowych kart poczekam na nVidię i w zależności co wtedy będzie lepsze kupię najlepszą (chyba, że to będzie jednak ati to ze względu na stery się zastanowię - ale jak to znajomi mówią jak już uda Ci się zrobić żeby działało na Ati to na nVidii nie musisz sprawdzać bo będzie działać (jak zrobisz według specyfikacji to na nVidii też będzie działać... z tym że na ati może działać inaczej niż się tego spodziewasz) ;p) i z drugiej firmy budżetówka - na jednej pisać, na drugiej testować, czy sterowniki nie zrobią psikusa i trzeba będzie dla jednej karty tak, dla drugiej inaczej.
GT300 ma w pełni obsługiwać interfejsy programowania DirectX 11, OpenGL 3.1 i OpenCL.
Przestarzałe informacje - ma w pełni obsługiwać OpenGL 3.2 (a pewnie w przyszłości 3.3/3.4) - już teraz masz sterowniki OpenGL 3.2 dla kart od 8x00 (póki co w fazie beta).
Nowe chipy zostaną wyprodukowane w 32nm lub 40nm wymiarze technologicznym i będą współpracowały z pamięciami GDDR5
GT300 ma w pełni obsługiwać interfejsy programowania DirectX 11, OpenGL 3.1 i OpenCL.
GPU ma mieć 512 procesorów strumieniowych. Architektura nowego GPU nie będzie już przypominać tych, które znamy dziś (np. GT200). Będzie to architektura MIMD (Multiple-Instruction, Multiple Data), zamiast SIMD (Single-Instruction Multiple Data). Ma to usprawnić przetwarzanie prostych i/lub skomplikowanych funkcji, zależnie od potrzeb. Efektywna wydajność obliczeniowa nowego GPU może być zatem bardzo duża, w porównaniu do GeForce GTX 285.
Ilość shaderów zastosowana w karcie to skok aż o 112.5% w porównaniu do modeli opartych na chipie GT200 który posiada 240 SP. Liczba shaderów na klaster została zwiększona z 24 do 32, liczba klastrów natomiast wynosi 16 (16 x 32 = 512 SP). Poza tym na każdym klastrze będzie 8 jednostek pamięci tekstur, co daje nam ich w sumie 128.
GT300 zostanie wyposażony w pamięć typu GDDR5 i 512-bitowy interfejs pamięci. 'Zieloni' zapowiadają zastosowanie kości z najniższymi opóźnieniami, jakie będą dostępne na rynku w chwili premiery karty. Dzięki temu transfer danych ma osiągnąć prędkość 256GB/s. Dla porównania GTX285 ma transfer rzędu 155.2GB/s a Radeon 4870X2 tylko 112.4GB/s.
NVIDIA GT300 ma mieć 2,4 miliarda tranzystorów upakowanych na powierzchni zaledwie 495 mm2. Obecnie montowane układy GT200 mają 'zaledwie' 1,4 miliarda tranzystorów, które zmieszczono na powierzchni 576 mm2.
Dla porównania, produkowany w wymiarze technologicznym 45 nm Larrabee firmy Intel ma mieć wymiary 700 mm2.
cytat pcarena.pl recenzja GTX 280 lipec 2008
'GeForce GTX 260 dostępny jest teraz w cenach rozpoczynających się od około 800 zł, przy czym bardzo wiele sprzedających ceni je jeszcze po starych kwotach oscylujących koło 1000 zł. W przypadku akceleratorów GeForce GTX 280, ich najniższe ceny to około 1220 zł.'
Teraz już weź grabki i papa
PS
nV ma rzondzić i tyle. za każdą cenę.
może chodziło żondzi? albo żądzi - bo chyba nie o rządzi
Yoshi, serio...?
Ceny na giełdzie w wawie2 dni przed premiarą HD4800 to 1800 za gtx 280 i 800 za geforce 9800GTX .
Juz zapomaniles akcje AiB's nv ze zwracaniem kasy ?!? 2 -3 tygodnie po premirze radeonów kiedy okazało sie że fanboi jest mniej niż rozsądnych ludzi i nikt tego badziewia nie kupi ceny spadły o ok. 30% i był program refundacji(USA, europa zachodnia - ale nie w Polska) dal tych co kupili przed którymś lipca. (na labie też o tym pisano, latwo pewnie można znaleść)
P.S mimo że mam swoje lata to chętnie wpadam do piaskownicy raz na pare latek , ale biorę inne zabwk niż grabki
@skoti
jak wiele bym szacunku dla Ciebie nie mial, bo wiesz i to sporo , na pewno więcej ode mnie w kwestiach programowania to :
`to nie wina tego, że 'sponsorują' gry (bo to samo robi i ati, a i tak te gry działają szybciej na nVidii)... tu wina sterowników i architektury sprzętu, nie gier.`
to tego nie kupie nawet jakbyś mi zapłacił. Gy na DX10.1 chodzą szybciej na ATi, bpo zgodnie ze specs DX10.1 powinno chodzić szybciej niż dx10) . pomijajać kwestie że ati to shadery a nvida textury. ,,
Gdyby było inaczej nV nigdy nie starała by się umniejszać roli DX10.1, wyszlo by testach...
Ps. Raytraycing to bardziej shadery czy textury? (wydaję mi się że znam odpowiedź,ale warto srawdzić)
Edit: I tak kupie 5870 i jakigos 260GTX za 300 zeta (jak wyjdzie jakaś gra która będzie fizyXa warta) i sposobem Assasina będę rywalizowął z gt300
Ps.2 Widze że Pclab znalażł siwetny sposób na naijanie odsłon. Niech kaska z reklam wpływa będzie więcej testów
Uśmiałem się - trochę pomyliłeś kolejność. Ati nie obchodzi, że nie mają flagowej karty najszybszej. Ich obchodzi, że mają duży zysk na kartę w segmencie mainstream.
Nie wiem, co cię rozbawiło, a na pewno nie pomyliłem kolejności. Ati bardzo obchodzi, że nie mają najwydajniejszej karty... ale co im pozostaje? Tylko robić dobrą minę do złej gry - ich obchodzi zysk w mainstream... z tym, że przez to, że przegrywają w najwydajniejszym segmencie rzutuje na słabsze niż nVidii wyniki w mainstream.
Nie mówi tego nVidia w sprawie gier i ich programowania (gdzie w sumie dosyć ważne będzie), ale w sprzedaży kart i w kwestiach finansowych nie będzie ważny - i ciężko się z tym nie zgodzić kiedy na początku tu odradzano, kupowanie kart graficznych nVidii dx10, bo nie ma gier, oraz później nie zmniejszyły się wpływy kiedy nVidii kiedy nie robili dx10.1 - więc można śmiało powiedzieć, że wsparcie dla kolejnego DX nie jest najważniejsze, a jest tylko jednym z wielu czynników, które na sprzedaż wpływają i ważniejsze w sprzedaży jest wypromowanie swoich rozwiązań, których nie zobaczysz u konkurencji (jak 3d vision, czy physX oraz szybkie obliczanie innych zadań na cpu co w grach będzie coraz bardziej znaczące - tu przewaga architektury CUDA).
To nie wina tego, że 'sponsorują' gry (bo to samo robi i ati, a i tak te gry działają szybciej na nVidii)... tu wina sterowników i architektury sprzętu, nie gier.
a z drugiej mowia że jaki to gt 300 nie bedzie zajebisty. Tym makiertngowym żmijom nigdy ufać nie można więc jak zwykle czas pokaże.
Gt300 będzie lepsze (doższe ale czy to trzeba pisać?!?) od radka , ale pytanie lepsze jest.
Kiedy ?
bo to ma znaczenie , tak jakbym napiasł że radek 6870 będzie szybszy od gt300
pewnie za rok, póltora
Osobiście GT300 uważam że to jest bardziej ego jego szefa niż realny produktna rynek.
nV ma rzondzić i tyle. za każdą cenę.
Yoshi - bredzisz. Dokłądnie pamietam jakie byly ceny - dolar prawie 2 zeta, a GietX 280 1800 peelenów. a gtxultra pod 3k podchodził(ale dolar pod 2,5, EVGA ponad 3k.
cytat pcarena.pl recenzja GTX 280 lipec 2008
'GeForce GTX 260 dostępny jest teraz w cenach rozpoczynających się od około 800 zł, przy czym bardzo wiele sprzedających ceni je jeszcze po starych kwotach oscylujących koło 1000 zł. W przypadku akceleratorów GeForce GTX 280, ich najniższe ceny to około 1220 zł.'
Teraz już weź grabki i papa
PS
nV ma rzondzić i tyle. za każdą cenę.
może chodziło żondzi? albo żądzi - bo chyba nie o rządzi
a z drugiej mowia że jaki to gt 300 nie bedzie zajebisty. Tym makiertngowym żmijom nigdy ufać nie można więc jak zwykle czas pokaże.
Gt300 będzie lepsze (doższe ale czy to trzeba pisać?!?) od radka , ale pytanie lepsze jest.
Kiedy ?
bo to ma znaczenie , tak jakbym napiasł że radek 6870 będzie szybszy od gt300
pewnie za rok, póltora
Osobiście GT300 uważam że to jest bardziej ego jego szefa niż realny produktna rynek.
nV ma rzondzić i tyle. za każdą cenę.
Tak się wojen nie wygrywa
Błedy specjalnie żeby `niektórzy ` mieli się czego przyczepić, o nieczego innegojakby chcieli o by pewnie ni eumieli. Wiadomo o kogo kaman. ;E
Yoshi - bredzisz. Dokłądnie pamietam jakie byly ceny - dolar prawie 2 zeta, a GietX 280 1800 peelenów. a gtxultra pod 3k podchodził(ale dolar pod 2,5, EVGA ponad 3k.
pS nie czeba carliego , każdy wie że pricing nV jest z dupy, zawsze był. Trzeba być naprawdę ignorantus rex żeby twierdzić inaczej
nie uwierzę, puki nie zobaczę ;p
PÓKI TO SIĘ PÓKI CO PISZE PRZEZ Ó ZAMKNIĘTE
A co do graf to ja miałem nVidia Riva 128 - od razu jak weszła do Polski (na zamówienie na giełdzie od handlarza) - wtedy jeszcze ATI robiło w pory a karta konkurowała z Voodoo 2 - ELSA Victory Erazor i kosztowała tylko 740zł a Voodoo 1100-1200zł - także moim zdaniem ceny karta zależy od jej ceny u producenta pomnożonej przez jakiś stały procent (marże na każdym stopniu dystrybucji, podatki, cło. Czyli np producent sprzedaje coś po 500zł netto a w sklepie kosztuj 1500zł brutto. Producent sprzedaje po 100zł netto a w sklepie jest po 300zł brutto (taki przykład i nie wiem czy mam racje
Zdecydowanie też nie zgadzam się z teorią jakoby GT300 miało kosztować 2500zł - wystarczy spojrzeć na GT200 - GTX 280 w momencie premiery kosztował około 1300zł(był dolar tańszy wtedy fakt) - tak samo GTX 285 - koło 1500zł (droższy dolar) - i gdzie te 2k+? Nawet rekordowo drogie G80 czyli 8800GTX kosztowało koło 1900-2000zł jak wyszło - A NIE MIAŁO ŻADNEJ KONKURENCJI.
o to mi właśnie chodzi ;p
bo jak by nie był wadliwy to by już dawno był ;pp
i by nie potrzebnie premierę przenosili ;p
po za tym cena to wypadkowa popytu i podaży więc ........
Kiedy Kupowałeś tą TNT tyle wynosiła średnia krajowa zarobków u nas.
Teraz ta średnia wynosi 3165 z groszami, za tyle Kupisz nową GT300?
jezeli GT300 wyjdzie tak jak glosza plotki to bedzie potwr, koszarnie drogi potwor i nie oplacanalny, ale na pewno szybszy od radeona.
Co do reszty się zgodze.
Cryrix mimo że jesteś mega fanboi zielonych, przebijajacych takiego Vegę na potęgę to analizę rynku moim zdaniem przeprowadziałeś perfekcyjną
piątka z zarządzania strategicznego.