komentarze
MacBirdieZobacz profil
Poziom ostrzeżenia: 0%
MacBirdie2006.11.10, 18:09
CYTAT(Pablo_el @ 10 listopada 2006, 18:53) <{POST_SNAPBACK}>
chyba nie wiesz o czym mowisz.....

Przeskalowany obraz na 24' LCD i wiekszym wyglada tragicznie. Divixu na tym nie obejrzysz a i DVD wyglada kiblowato. Jak myslisz po co powstal Blue Ray/HD-DVD? smilies/wink.gif

Żebyśmy nie mogli doświadczyć sprzętowego, monitorowego antyaliasingu. smilies/wink.gif
RazzofZobacz profil
Poziom ostrzeżenia: 0%
Razzof2006.11.10, 18:10
Ciekawe kiedy będą tańsze odmiany tych GeForców.
*Konto usunięte*2006.11.10, 18:26
Nie ma co. Szybkie sa !! smilies/shocked.gif
StjepanZobacz profil
Poziom ostrzeżenia: 0%
Stjepan2006.11.10, 18:37
Artykuł bardzo profesjonalny i dobre podejście do tematu, a co się tyczy kart to naprawde robią wrażenie osią galne przez nie wyniki. Jak zobazczyłem wyniki w najwyższych rozdiałkach to omału wtrzeszczu oczów nie dostałem. Ale nic tylko czekać Alana Wake i Flight symulator X i zobaczymy co ta karta naprawdę potrafi Dx10. Mam nadzieje że nV zejdzie do 65nm jak Ati.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2006.11.10, 18:49
Ta technologia NVIDIA CUDA może sprawić że komputery osobiste będą w stanie robić rzeczy, które dotychczas pozostawały poza ich zasięgiem, takie jak sterowanie robotem z wykorzystaniem widzenia maszynowego (także np. prowadzenie samochodu), symulacja wielkich sieci neuronowych (np. w celu rozpoznawania mowy), przetwarzanie danych z tomografu, realistyczna symulacja zjawisk fizycznych (np. crash-testy) i reakcji chemicznych etc.
Obecnie do takich zastosowań potrzeba komputera co najmniej wielkości szafy (co wyklucza sterowanie autonomicznym robotem i zajmuje przestrzeń ładunkową półciężarówki).
Tymczasem są już płyty główne PC, do których można włożyć nie dwie, ale cztery karty graficzne PCI-E ! W rezultacie można otrzymać superkomputer wielkości zwykłego PC-ta.
poliZobacz profil
Poziom ostrzeżenia: 0%
poli2006.11.10, 18:51
The Elder Scrolls IV: Oblivion w 2560x1600 to po prostu bajka - dajcie jakiegoś screenshota smilies/exclamation.gif

recka miodek, karty też a będą na agp smilies/szczerbaty.gif
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2006.11.10, 18:51
CYTAT(mikilys @ 10 listopada 2006, 17:58) <{POST_SNAPBACK}>
Mam tylko nadzieję, że Vista szybko nie wyprze XP, bo byłaby to tragedia. Tysiące... MILIARDY ludzi na świece zostałoby bez wsparcia, a to mogłoby się przyczynić do ery Linuxów.


Przytłaczająca większość Windowsów na świecie to (niestety) pirackie kopie. Już widzę te "milardy" użytkowników "wersji uszlachetnionych" którzy bez wsparcia zostaną. Normalnie chyba tylko się powiesić z rozpaczy smilies/Up_to_something.gif

Bez urazy dla użytkowników legalnego systemu, bo być może takiego używasz (ja zresztą także). Ale tacy ludzie to wyjątki potwierdzające regułę - większość osób Microsoft traktuje jak organizację charytatywną na zasadzie "skoro mają już tyle kasy to więcej im nie trzeba".

ewentualnie postawa w stylu "Niech sobie MS robi przez 5 lat system, jeszcze żeby był dobry, stabilny etc, a my sobie wtedy go pobierzemy za darmo i będzie super.
Niech producenci robią nam jak najlepsze, super grywalne, piękne gry, a my będziemy sobie je pobierać za darmo, a może i się nawet fajne okażą...."

Bo oczywiście Microsoft, EA, UBI i cała reszta są "od roboty", a gracze są od korzystania, oceniania i wybrzydzania, ale na pewno nie od płacenia - cóż to za głupi pomysł - płacić smilies/Up_to_something.gif

Każdemu piratowi życzyłbym, aby sam się znalazł w sytuacji kiedy za swoją pracę nie dostaje wynagrodzenia.

Normalnie nóż się w kieszeni otwiera, ale taka rzeczywistość i szacunek dla cudzej pracy, a raczej jego KOMPLETNY brak. My coś robimy - oczekujemy szacunku dla naszej pracy. Ktoś coś robi - można z tym zrobić co się chce. Taka mentalność relatywistyczna.

Sorry za lekkie zejście z tematu. Ale uprzedzam fakty - jak jest o G80 to zapewne będzie o VISCIE, a że obecnie tylko piraty są to i się pojawią wpisy "spryciarzy" co już mają i "nawet fajna jest".
rav220Zobacz profil
Poziom ostrzeżenia: 0%
rav2202006.11.10, 19:10
CYTAT(stefi @ 10 listopada 2006, 11:25) <{POST_SNAPBACK}>
smilies/shocked.gif smilies/shocked.gif smilies/shocked.gif w morde, jaka grafa jest na tych screenach z żabą, dziewczyną i skałą, poprostu nie dowierzam. CO do wydajności nowych kart graficznych, to pokażą pazurki dopiero w grach na DX10 tak myślę smilies/bigsmile.gif


CYTAT(Majdan @ 10 listopada 2006, 15:45) <{POST_SNAPBACK}>
A ja coś czuję, że tak samo pokażą pazurki w DX10 jak seria FX w DX9 a seria 6800 w SM 3.0 z HDR.


a ja sie nie bede wypowiadal tylko poczekam na testy w dx10 bo poza tym ze karty go obsluguja to o wydajnosci slowa nie znalazlem
CamilloZobacz profil
Poziom ostrzeżenia: 0%
Camillo2006.11.10, 19:13
Grave - ładnie napisane i zgadzam się w pełni. Również jestem przeciwko piractwu. Jednakże z drugiej strony sam wiesz, że żyjemy w Polsce i dam sobie głowę uciąć, że sam masz w domu niejednego pirata tak jak i praktycznie każdy z nas, tyle że różnica polega na tym, że jedni mają prawie same piraty i mają gdzieś legalność softu, inni zaś większość lub przynajmniej jakąś tam część mają oryginałów, bo z założenia chcą być w porządku, ale po prostu im portfel nie pozwala.

Ale oczywiście najbardziej irytujące są sytuacje, kiedy to jakiś młody mający praktycznie same piraty ściąga jakąś grę i jeszcze narzeka że mu się nie podoba albo że coś nie chodzi... Tacy ludzie po prostu nie rozumieją co to jest licencja, nie rozumieją, że piractwo to tak naprawdę niemalże zwykła kradzież, nie rozumieją, że jakiś zespół ludzi, jakaś firma poświęciła masę czasu na stworzenie czegoś, poniosła duże koszty, a potem im się to zwyczajnie kradnie.

Ale niestety cudów nie ma i sam mimo że jestem przeciw piractwu to pewną część softu i gier mam niestety "legalnych inaczej", bo po prostu czasami nie da i sam o tym wiesz. Ale pracuję nad sobą i staram się, na przykład gdy będę kupował nowego kompa to obiecałem sobie, że kupię oryginalny system. Z kolei co do gier to od jakiegoś dłuższego czasu w ogóle nie kupuję piratów, kupuję tylko oryginały, ale to wyłącznie na pewniaka, czyli jeśli wiem na 100%, że takiej gry nie wyrzucę do kosza tuż po odpaleniu. No ale z "dawnych" czasów jakaś część piratów mi pozostała i nic nie poradzę.

Natomiast co do kwestii czysto statystycznych to też bez przesady, szacuję że w skrajnie najgorszym wypadku to tak 1 na 10 użytkowników domowych ma licencjonowany system, zaś wszystkie firmy oraz instytucje praktycznie w 100%. Tak więc producentom softu nadal dobrze się to opłaca, mimo że np. 9 na 10 userów domowych jedzie na piratach. Co oczywiście nie oznacza, że jakkolwiek popieram piractwo.
thomsonZobacz profil
Poziom ostrzeżenia: 0%
thomson2006.11.10, 19:35
Taki monitor to moje marzenie. Jak już go macie w redakcji to możecie skrobnąć pare zdań o nim smilies/wink.gif
FlashManZobacz profil
Poziom ostrzeżenia: 0%
FlashMan2006.11.10, 20:00
Czy redakcja ma jakieś screeny z najwyższej rozdziałki z gry Oblivion właśnie z GF8800 GTX? Bardzo proszę smilies/wink.gif
wojtzuchZobacz profil
Poziom ostrzeżenia: 0%
wojtzuch2006.11.10, 20:04
CYTAT(VANTWP @ 10 listopada 2006, 17:36) <{POST_SNAPBACK}>
Rozwalają mnie komentarze że pobór mocy przez G80 to jego wada......Ludzie przecież maksymalny pobór przez te karty jest wyższy tylko o około 10W od 1950XTX........to duzo??


Nikt nie mówił, że 10 W mniej to mało. Chodzi o to, żeby nie musieć wybierać: albo komputer do gier, albo do pracy, także po północy. A instalacja wodna w pokoju to sam w sobie pomysł... Może nie tyle chory, co pokazujący, jak chory jest rynek. Gdyby to wszystko szło wolniej i przykładowo DX 10 miał się pojawić 5 lat później, wszyscy byliby równie szczęśliwi co dzisiaj — tak jak byli szczęśliwi 7 lat temu, gdy pojawił się pierwszy Unreal.

CYTAT(Pablo_el @ 10 listopada 2006, 17:35) <{POST_SNAPBACK}>
Rozmiar plamki ma sie nijak do wielkosci czcionki bo ta wielkosc mozna przeciesz zmienic - mam takie dwa delle 24' w domu wiec moge chyba powiedziec ze to nie jest zaden problem smilies/wink.gif


Mówisz o czcionkach systemowych?
VymmiataczZobacz profil
Poziom ostrzeżenia: 0%
Vymmiatacz2006.11.10, 20:06
Zaskakuja mnie wysokie wyniki 1950XTX, widac ze to jednak ma troche speeda! Dla mnie jedno jest pewne - moją następną kartą będzie coś w technologii 65nm + DDR4. To co jest - za gorące/prądożerne.
Administratorpila2006.11.10, 20:09
CYTAT(FlashMan @ 10 listopada 2006, 20:00) <{POST_SNAPBACK}>
Czy redakcja ma jakieś screeny z najwyższej rozdziałki z gry Oblivion właśnie z GF8800 GTX? Bardzo proszę smilies/wink.gif

8800 GTX już nie mamy, nasze karty pojechały do kolejnych redakcji... Ale monitor nadal jest w naszej redakcji, więc możemy złapać screena na X1950 XTX na przykład smilies/smile.gif
juniorZobacz profil
Poziom ostrzeżenia: 0%
junior2006.11.10, 20:09
CYTAT
W najwyższym trybie graficznym jedynie GeForce 8800 GTX umożliwia płynną grę - na wszystkich pozostałych akceleratorach zaobserwowaliśmy utratę płynności. Call of Duty 2 sklasyfikował zawodników tak samo, jak dwa poprzednie tytuły, za wyjątkiem zwycięstwa Radeona X1950 XTX and GeForce 8800 GTS w rozdzielczości 2560x1600.


Rozumiem że zamiast AND miało byc NAD smilies/wink.gif Wiem że się czepiam ale ktos już przez to miał podejrzenia że art jest przetłumaczony z angielskiego smilies/wink.gif

CYTAT
To naprawdę miłe zaskoczenie, że układ nowej generacji pokonuje swojego poprzednika w SLI - tak bowiem należy patrzeć na G80 w zestawieniu z GeForce 7900 GTX.


A nie czasem z 7950G2X smilies/scratchhead.gif

To tyle uwag co do artykułu teraz będzie juz milutko bo w rzeczywistości watro było czekać te 2 dni, prawie wszystko pojąłem - czyli bardzo dobrze smilies/szczerbaty.gif

Kowboy - GOODJOB smilies/thumbup.gif
Pablo_elZobacz profil
Poziom ostrzeżenia: 0%
Pablo_el2006.11.10, 20:12
CYTAT(wojtzuch @ 10 listopada 2006, 20:04) <{POST_SNAPBACK}>
Mówisz o czcionkach systemowych?

Tak, mowilem o czcionkach systemowych.
thomsonZobacz profil
Poziom ostrzeżenia: 0%
thomson2006.11.10, 20:16
CYTAT(pila @ 10 listopada 2006, 20:09) <{POST_SNAPBACK}>
8800 GTX już nie mamy, nasze karty pojechały do kolejnych redakcji... Ale monitor nadal jest w naszej redakcji, więc możemy złapać screena na X1950 XTX na przykład smilies/smile.gif

Ja bym wolał fotke na której byłby widok na ten LCD Apple i obok postawiony monitor 19" - z podobnym momentem w grze - da to wyobrażenie o ile więcej widać w grze przy tak dużej rozdzielczości.
FlashManZobacz profil
Poziom ostrzeżenia: 0%
FlashMan2006.11.10, 20:17
CYTAT(pila @ 10 listopada 2006, 20:09) <{POST_SNAPBACK}>
8800 GTX już nie mamy, nasze karty pojechały do kolejnych redakcji... Ale monitor nadal jest w naszej redakcji, więc możemy złapać screena na X1950 XTX na przykład smilies/smile.gif

No jasne! Poproszę smilies/bigsmile.gif Po prostu chciałbym zobaczyć Obliviona w najwyższej rozdzielczości z pełnymi detalami... Ja w niego pogrywam w poczciwym sprzęcie na medium detali w rozdziałce 800x600 bez upiększaczy AA.


Co do artykułu - bardzo ciekawy! Część teoretyczna znakomita smilies/thumbup.gif
A praktyczna, wręcz miażdżąca! smilies/shocked.gif Nareszcie jest karta, która już namieszała na rynku smilies/bigsmile.gif Nareszcie jest ten szok od czasu Radka 9700Pro (siedzi sobie w moim kompie... i ma się dobrze! ).

Ta płynność w rozdziałce 1920x1600 (i wyżej) miażdzy!! smilies/wink.gif

No i jeżeli R600 da ciała, to jest pewne, że G80 będzie w moim sprzęcie w przyszłym roku (jasne, że nie ta topowa) smilies/tongue.gif

CYTAT(thomson @ 10 listopada 2006, 20:16) <{POST_SNAPBACK}>
Ja bym wolał fotke na której byłby widok na ten LCD Apple i obok postawiony monitor 19" - z podobnym momentem w grze - da to wyobrażenie o ile więcej widać w grze przy tak dużej rozdzielczości.

No właśnie, zapomniałem o tym! Też chciałbym zobaczyć porównanie smilies/wink.gif
Pixel@ngeLZobacz profil
Poziom ostrzeżenia: 0%
Pixel@ngeL2006.11.10, 21:12
Super ,nareszcie PCLAB zrobił testa na monitorku mogącym wyświetlić wiecej jak te 1600x1200 pixela ,mam nadzieję że następne testy też będą robione na tej 30tce:).Łatwiej mi teraz dobrać grafe do mojego sprzętu...
juniorZobacz profil
Poziom ostrzeżenia: 0%
junior2006.11.10, 21:29
CYTAT(Grave @ 10 listopada 2006, 15:03) <{POST_SNAPBACK}>
Co by o Nvidzie nie mówić to fak jest faktem, że firma zdecydowanie wyznacza nowe drogi w rozwoju chipów graficznych. Seria 8 to kolejny znaczący krok na tej drodze. Wcześniejsze milowe kroki to GF 1 (pierwszy GPU z T&L), GF 3 (pierwszy GPU z PS i VS), GF 6 (pierwszy GPU ze wsparciem Shader model 3.0).

Do tego Nvidia pokazała że potrafi uczyć się na własnych błędach. Widać to m. in. w systemach chłodzenia. Po kompletnie nieudanej "suszarce" w FX-ach nigdy potem nie zastosowano równie głośnego chłodzenia.

Raczej zwykłem kibicować słabszym (w tym wypadku ATI), ale w tym wypadku wyłamię się i zdecyduje na zakup 8800 GTX. Po 5 latach czas na wymianę PC:D Możnaby kupić już teraz, ale nie ma jeszcze Windowsa VISTY a bez tego nie ma co kompletować komputera (mówię oczywiście o oryginalnym systemie bo tylko takich używam).

BTW: Może jakiś komentarz redakcji odnośnie wymagań energetycznych 8800GTX? Planuje zakup zasilacza 600W Silverstone Strider, albo Corsair 620W. Wydawać by się mogło że ruszą tę kartę bez problemu, ale sądząc z jednego komentarza w tym wątku 600W może nie starczyć, co byłoby przypadkiem kuriozalnym;/...


Starczy na 100% smilies/wink.gif

CYTAT(Poke @ 10 listopada 2006, 15:18) <{POST_SNAPBACK}>
Ja mam tylko jedno pytanie - skad takie gigantyczne (bo nie mam innego okreslenia) skalowanie z CPU. Przeciez ostatni tred jest taki ze im nowsza karta tym mniejsze skalowanie i to faktycznie widac - wystarczy jakis Sempron 3000 i mozna praktycznie kupowac kazda karte nei martwiac sie szczegolnie o duza utrate wydajnosci. A tutaj? Porownujac testy z TwojePC okazuje sie ze ta karta traci nieslychanie gdy nie jest odpalona na megatopowym CPU, nawet najslabszy C2D czy Athlon FX potrafia ja wydajnosciowo "zabic", a nie sa to wolne procesory, czyz nie? O co tutaj chodzi skoro w specyfikacji 8800 czytam ze czesc operacji przeniesiono do GPU (w porownaniu z poprzednimi generacjami).


No też mnie to właśnie dziwi bo wg. tego co można się dowiedzieć o G80 to odciąża CPU jak tylko sie da więc teoretycznie wydajność przy słabszych procach tez nie powinna drastycznie spadac smilies/scratchhead.gif
Zaloguj się, by móc komentować