komentarze
zsx111Zobacz profil
Poziom ostrzeżenia: 0%
zsx1112010.01.01, 13:58
s37h @ 2010.01.01 13:35  Post: 333000
:) kotlet nie kotlet ale przeciętny mało zorientowany user kupi od mało rozgarniętego sprzedawcy takiego GT3XX w dobrej dla NV cenie i wszyscy będą zadowoleni.
Oczywiście takie postępowanie to zwykłe nabijanie ludzi w butelkę !!!
Nigdy nie byłem fanboyem ale takie postępowanie zraża mnie do NV!!!

Ale wyjaśnijcie mi - dlaczego to nabijanie ludzi w butelkę? Człowiek kupi kartę od ATI o danej wydajności i będzie fajny, a drugi człowiek kupi kartę od NVIDII o takiej samej wydajności, ale po którejś zmianie nazwy i już będzie największym złem na świecie? Jak na razie to Wy udajecie chyba mało rozgarniętych, bo patrzycie tylko na numeracje i czy zachodzą jakiekolwiek zmiany w architekturze (nawet niewielkie jak u ATI), zamiast po prostu spojrzeć na realną wydajność.
Powiedźcie, czy to wina NVIDII, że przygotowali taką rewolucyjną architekturę i mogą na niej ciągnąć przez 3 lata bez większych zmian? Skoro ATI się obija i wydaje 4 generacje kart, i dalej nie może wyprzedzić NVIDII, to ich powinniście winić. Jak na razie oferują odrobinę wolniejsze karty (bez dodatków, które jednak mogą się przydać CUDA, OpenCL, PhysX itd.) w średnim i wysokim segmencie w podobnej cenie, czyli serię HD4000, a w najniższym segmencie są trochę szybsi. HD5000 to drożyzna i za DX11 płacimy 30-40% marży w porównaniu wydajności do kart NVIDII lub serii HD4000. Niestety to ATI narzuciło chore tempo wydawania jak najszybciej nowych układów po malutkich zmianach, a nV musi dotrzymać im kroku, bo inaczej o nich zapomną i również musi wypuszczać na rynek nowe serie. Tylko w przypadku nV wystarcza zmiana nazwy, a ATI lekko poprawia architekturę, co fanboje dość odważnie określają 'nową generacją' układów graficznych.

PS. Szczęśliwego Nowego Roku życzę wszystkim PCLabowiczom, a naszemu redaktorowi, Piotrowi Gontarczykowi życzę, aby wrócił do dawnej formy. Kiedyś pisał Pan newsy na poziomie, a teraz tanie, tandetne sensacje dla rozwrzeszczanych dzieci. Życzę dawnego obiektywizmu i realnego spojrzenia na wszelkie sprawy, bo niegdyś naprawdę był Pan doceniany przez czytelników i uważany za jednego z lepszych redaktorów. Naprawdę szkoda tego marnować, aby głupimi newsami sztucznie podbijać oglądalność.
s37hZobacz profil
Poziom ostrzeżenia: 0%
s37h2010.01.01, 13:35
:) kotlet nie kotlet ale przeciętny mało zorientowany user kupi od mało rozgarniętego sprzedawcy takiego GT3XX w dobrej dla NV cenie i wszyscy będą zadowoleni.
Oczywiście takie postępowanie to zwykłe nabijanie ludzi w butelkę !!!
Nigdy nie byłem fanboyem ale takie postępowanie zraża mnie do NV!!!
Karol RZobacz profil
Poziom ostrzeżenia: 0%
Karol R2010.01.01, 13:35
Na obiad jadłem kotlety, zaglądam na Laba, a tu też kotlety :(
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2010.01.01, 13:26
kopczenko @ 2009.12.31 16:54  Post: 332873
Jezeli zmiana wewnetrznego kontrolera pamieci nie jest zmiana architektory to naprawde pozdro.
Przeciez nie da sie nawet wyprodukowac gpu w 40nm nie zmieniajac architektory a co za tym idize dosc pokaznej kasy .
Chca sprzedawac swoje'stere' produkty pod ich nazwa no to trudno pozostaje miec nadzieje ze ludzie sie nie dadza nabrac

jakos nie pamietam takich bulwersacji gdy nvidia wydala 9800gt.
A zauwazyliscie ze 'kotlety' bardzo dobrze sie sprzedaja?? - wg mnie oznacza to ze 80% spoleczenstra jest nieswiadoma zakupu. Lub nvidia zbyt wczesnie wycofuje stare karty zasepujac je tymi po lifcie

zacznijmy od tego, że ArchitektUra jest przez U. Dalej - słowo 'bulwersacji' czy też 'bulwersacja' od której zapewne stworzyłeś tę odmianę nie istnieje w języku polskim. Zmniejszenie szerokości szyny to nie zmiana kontrolera pamięci. GTX285 i 260 to ten sam rdzeń i jak widać pierwszy z nich ma szynę 512bitową, zaś 2 węższą o 64 bity o ile mnie pamięć nie myli. Poza tym zwężenie szyny nie jest jakąś istotną zmianą w architekturze.
shaffZobacz profil
Poziom ostrzeżenia: 0%
shaff2010.01.01, 13:16
do laptopa w sam raz :)
PodstavskyZobacz profil
Poziom ostrzeżenia: 0%
Podstavsky2010.01.01, 13:14
Nie wykonywałem oszałamiających projektów, ale testy w przypadku zrównoleglenia obliczeń, np. działania na bardzo dużych macierzach. Znajomy może zacznie w końcu pisać program do przetwarzania obrazu (np. rozpoznawanie twarzy) w rozdziałce wyższej niz 320x240px (chyba tak to szło) właśnie na CUDA, bo mobilny Penryn T9300 jakoś wymięka ;) Chętnie mu pomogę, bo przetwarzanie wielowątkowe to naprawdę niesamowita sprawa.

Jeśli chcesz podrążyć temat, to przeszukaj sobie dane na temat np. łamania WPA 100x szybciej na GPU, albo tomografie opartym o desktopowy superkomp FASTRA zbudowanym również na CUDA albo np. przez proste programy do crackowania choćby sum MD5.
Przetwarzanie na GPU jest nurtem, który nV tak mocno promuje, bo chce się dobrze przygotować i zdobyć programistów (nawet dopłaca do większych projektów) na moment, w którym ludzie dostrzegą potęgę mocy, którą grafiki oferują a gry staną się jednymi z wielu programów na nich odpalanych...
de99ialZobacz profil
Poziom ostrzeżenia: 0%
de99ial2010.01.01, 12:49
Kazz77 @ 2009.12.31 13:21  Post: 332753
GDDR5 tylko ze 128 bitowe


Szersza szyna nie jest potrzebna - poczytaj o działaniu 5.

NV polecam unikać - tak namieszali w swoich nazwach, że praktycznie nie wiadomo co kupować.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.01.01, 12:33
Podstavsky @ 2010.01.01 12:13  Post: 332984
Tak - dla Twojej wiadomości korzystałem. Tyle że z Wami nie da się rozmawiać na temat przetwarzania danych, bo nie programujecie i nie widzicie zastosowań.
Dodatkowo taką głupotę palnąłeś jak z tymi 4 rdzeniami - 1 jajo na obliczenia fizyki. Jeśli nie widzisz różnicy pomiędzy realizacją jakiś algorytmów sprzętowo a programowo, to proszę Cię nie zabieraj głosu ;) Pomijam to, czy PhysX jest warty uwagi, czy to kolejny szmelc reklamowy. Zwyczajnie mnie on nie obchodzi, bo go nie wykorzystuję. Fakt jest faktem - to szybka realizacja sprzętowa.

A ileż to algorytmów realizowanych sprzętowo widziałeś i gdzie? Bo z pewnością fizyka dzięki CUDA do takich nie należy.
BananaBombZobacz profil
Poziom ostrzeżenia: 0%
BananaBomb2010.01.01, 12:21
No dobra to jak korzystałeś z CUDA to podaj przykłady programów. ? Ja nie twierdzę że nie masz racji ale ją udowodni. Bo ja jakoś przez ponad rok nie bardzo odczułem czy znalazłem zastosowania dla CUDA w moim domu. 1 jajco z palcem w 4 literach sobie poradzi z fizyką, z drugiej strony Phys'x to nie jest 100% sprzętowe rozwiązaniem. To tylko pomost sprzętowo-programowy gdzie GPU robi jako właśnie dodatkowy rdzeń (rdzenie) a właściwie bardziej FPU, co teoretycznie zwiększ nieco wydajność tego procesu. Oczywiście pod warunkiem że program został zoptymalizowany, co w dzisiejszych czasach jest raczej wątpliwe.
PodstavskyZobacz profil
Poziom ostrzeżenia: 0%
Podstavsky2010.01.01, 12:13
Tak - dla Twojej wiadomości korzystałem. Tyle że z Wami nie da się rozmawiać na temat przetwarzania danych, bo nie programujecie i nie widzicie zastosowań.
Dodatkowo taką głupotę palnąłeś jak z tymi 4 rdzeniami - 1 jajo na obliczenia fizyki. Jeśli nie widzisz różnicy pomiędzy realizacją jakiś algorytmów sprzętowo a programowo, to proszę Cię nie zabieraj głosu ;) Pomijam to, czy PhysX jest warty uwagi, czy to kolejny szmelc reklamowy. Zwyczajnie mnie on nie obchodzi, bo go nie wykorzystuję. Fakt jest faktem - to szybka realizacja sprzętowa.
BananaBombZobacz profil
Poziom ostrzeżenia: 0%
BananaBomb2010.01.01, 12:01
Hm.. kolego a korzystałeś kiedyś w domu z tych CUDÓW NV ?? Ja miałem swego GF8600 i go wywaliłem (pomijając że zapłaciłem za niego sporo) a kupiłem sobie Radeona. Co z tego że niby obsługiwał CUDA jak żaden standardowy program z tego nie korzysta. ktoś powie Phys'x, no to ja mu powiem tak w grze UT3 jest taka opcja, włącz akcererację fizyki, i działa tak na NV jak i na ATI. Mało co z tego korzysta, a rezultaty i tak raczej nie są powalające (poza spadkiem wydajności). PO co przepłacać za grafę, to sobie kupię taniej proca z 4 rdzeniami, jeden przejmie na siebie obliczenia fizyki i będzie to działać jak marzenie, a dodatkowy rdzeń i tak bezie bardziej użyteczny niż całe CUDA NV, bo skorzystać z niego umie o niebo więcej programów.
PodstavskyZobacz profil
Poziom ostrzeżenia: 0%
Podstavsky2010.01.01, 11:45
mikilys @ 2010.01.01 10:27  Post: 332974
Nie jestem, nie byłem i nie będę programistą :]
Ale o tym dobrze wiesz...
Z resztą jak takiś ambitny to napisz program w Stream SDK, który wykorzysta potencjał Radeonów. A może to dla Ciebie za trudne?
Z resztą przyczepiłeś się Bóg wie raczyć czego, ale musiałeś to zrobić, bo ja to ja co nie?
Właśnie takie staje się to forum. Zawiść do niektórych mydli oczy ludziom, a wtedy krytyka za coś z przeszłości (nawet jeśli miało się rację) jest uzasadniona, bo ON JEST ZŁY!

Przeczytaj z łaski swojej jeszcze raz co napisałeś ;) CUDA to nie wstrzykiwanie soku z cytryny w oczy klientów z dwóch powodów.
1. Czy przeciętny zjadacz chleba kupuje kartę grafiki do programowania? Zastanawia się w ogóle czym jest ta CUDA? Popatrzy na napis i koło tyłka mu on przejdzie. Więc o jakie wstrzykiwanie Ci biega? NVIDIA musi trąbić o niej na pudełkach siłą rzeczy, bo wkłada w tą platformę naprawdę sporo pracy. Stream pod wieloma względami nie dorównuje SDK konkurenta - przepatrz sobie na przykład jeden z najważniejszych elementów, jeśli chcesz zacząć w ogóle programować czy wykorzystać w pełni to, co fabryka dała - dokumentację.
2. Powtarzam - skoro nic nie napisałeś albo nawet nie przeczytałeś o jej możliwościach, nie możesz zabierać głosu w dyskusji, bo to co robisz, to czyste fanbojstwo; kocham czerwonych i wszystko co zielone jest be! W ten sposób zwyczajnie psujesz sobie reputację pisząc zdania nie poparte w ogóle prawdziwymi danymi.

Jeśli chodzi o konflikty - zważ sobie na charakter Twoich wypowiedzi. Non stop rzucasz inwektywami i siejesz flame'y. Każda Twoja wypowiedź to totalna łaska i wszystko na 'NIE'. Nie chcesz pisać - zwyczajnie nie pisz! Tutaj też masz kilka słów 'NIE'.

Ja po prostu nie lubię ludzi rzucających słowa na wiatr i za wszelką cenę próbujących udowodnić swoją rację, pomimo tego, że jej nie mają. Dla mnie liczą się dane i doświadczenie. Nigdy nie potrafiłeś tego pojąć, stąd moja krytyka.

Nadmienię również, że nie jestem żadnym zwolennikiem ATI czy NVIDII. Po prostu lubię ciekawe rozwiązania i CUDA jak najbardziej mi odpowiada.

Krytyka w kierunku nV za marketing jest całkowicie uzasadniona. Ale z czegoś muszą czerpać kasę na rozwój nowych urządzeń (np. mobilnych, bo w rdzeniach grafiki to pogubiłem się jakieś dobre 1.5 roku temu). Szkoda tylko, że coraz mocniej obrywa nie mający pojęcia o sprzęcie klient.
BananaBombZobacz profil
Poziom ostrzeżenia: 0%
BananaBomb2010.01.01, 11:38
Standardowa polityka NV, narobić zamieszania aby kupujący się pogubił, i zapłacił za nic.
Ciekawe co się kryje za tym Fermi :? czyżby Fatal Error Remjk Multimedia Interfejs :?
CyrkZobacz profil
Poziom ostrzeżenia: 0%
Cyrk2010.01.01, 11:26
Fermi? Ehe ... w aucie :)

Jedno chłopakom z NV trzeba przyznać: mają jaja jak orzechy kokosowe. Cały Świat już z nich szydzi, a ci dalej swoje :D :D :D
mikilysZobacz profil
Poziom ostrzeżenia: 0%
mikilys2010.01.01, 10:27
Podstavsky @ 2009.12.31 22:36  Post: 332949
Skoro w żadnym stopniu nie umiesz tego wykorzystać (a zakładam, że nawet jednej linijki nie napisałeś na tej platformie by dostrzec korzyści jakie niesie) sam zamilcz ;)
Nie jestem, nie byłem i nie będę programistą :]
Ale o tym dobrze wiesz...
Z resztą jak takiś ambitny to napisz program w Stream SDK, który wykorzysta potencjał Radeonów. A może to dla Ciebie za trudne?
Z resztą przyczepiłeś się Bóg wie raczyć czego, ale musiałeś to zrobić, bo ja to ja co nie?
Właśnie takie staje się to forum. Zawiść do niektórych mydli oczy ludziom, a wtedy krytyka za coś z przeszłości (nawet jeśli miało się rację) jest uzasadniona, bo ON JEST ZŁY!
*Konto usunięte*2010.01.01, 09:43
Napewno każdy z was wie najlepiej, co i jak... przypomne jedno najenergoefekrywniejszą kartą+wydajną aktualnie jest radeona 4860. Nawjwydajniejszą jest 4870 mobility i bije 280M, bo już 4850 jest szybszy średnio o 5%

Mam do was pytanie czemu NV nie zrobiło takiej kombinacji jak 330M+GDDR5+64bity
scanxZobacz profil
Poziom ostrzeżenia: 0%
scanx2010.01.01, 00:53
CarnAge @ 2009.12.31 13:13  Post: 332747
Pogubiłem się :(

i o to im chodzi
DzifnyZobacz profil
Poziom ostrzeżenia: 0%
Dzifny2010.01.01, 00:51
No, to kto reflektuje odgrzewane, pachnące i soczyste KOTLECIKI ?! :D
Nvidia szaleje :)
nukensZobacz profil
Poziom ostrzeżenia: 0%
nukens2010.01.01, 00:27
SZCZĘŚLIWEGO NOWEGO ROKU. srrr ze pół godziny po północy ale wiecie musiałem spore rodzince pożyczyć :E
Ohohohhohohho NV zaczyna kozaczyć pfuu kotletować :D
PantokratorZobacz profil
Poziom ostrzeżenia: 0%
Pantokrator2010.01.01, 00:12
Szczęśliwego 2010 roku pclabowicze. Jego pierwsze sekundy spędziłem na labie, więc powinien być udany :E
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.