kotlet nie kotlet ale przeciętny mało zorientowany user kupi od mało rozgarniętego sprzedawcy takiego GT3XX w dobrej dla NV cenie i wszyscy będą zadowoleni.
Oczywiście takie postępowanie to zwykłe nabijanie ludzi w butelkę !!!
Nigdy nie byłem fanboyem ale takie postępowanie zraża mnie do NV!!!
Ale wyjaśnijcie mi - dlaczego to nabijanie ludzi w butelkę? Człowiek kupi kartę od ATI o danej wydajności i będzie fajny, a drugi człowiek kupi kartę od NVIDII o takiej samej wydajności, ale po którejś zmianie nazwy i już będzie największym złem na świecie? Jak na razie to Wy udajecie chyba mało rozgarniętych, bo patrzycie tylko na numeracje i czy zachodzą jakiekolwiek zmiany w architekturze (nawet niewielkie jak u ATI), zamiast po prostu spojrzeć na realną wydajność.
Powiedźcie, czy to wina NVIDII, że przygotowali taką rewolucyjną architekturę i mogą na niej ciągnąć przez 3 lata bez większych zmian? Skoro ATI się obija i wydaje 4 generacje kart, i dalej nie może wyprzedzić NVIDII, to ich powinniście winić. Jak na razie oferują odrobinę wolniejsze karty (bez dodatków, które jednak mogą się przydać CUDA, OpenCL, PhysX itd.) w średnim i wysokim segmencie w podobnej cenie, czyli serię HD4000, a w najniższym segmencie są trochę szybsi. HD5000 to drożyzna i za DX11 płacimy 30-40% marży w porównaniu wydajności do kart NVIDII lub serii HD4000. Niestety to ATI narzuciło chore tempo wydawania jak najszybciej nowych układów po malutkich zmianach, a nV musi dotrzymać im kroku, bo inaczej o nich zapomną i również musi wypuszczać na rynek nowe serie. Tylko w przypadku nV wystarcza zmiana nazwy, a ATI lekko poprawia architekturę, co fanboje dość odważnie określają 'nową generacją' układów graficznych.
PS. Szczęśliwego Nowego Roku życzę wszystkim PCLabowiczom, a naszemu redaktorowi, Piotrowi Gontarczykowi życzę, aby wrócił do dawnej formy. Kiedyś pisał Pan newsy na poziomie, a teraz tanie, tandetne sensacje dla rozwrzeszczanych dzieci. Życzę dawnego obiektywizmu i realnego spojrzenia na wszelkie sprawy, bo niegdyś naprawdę był Pan doceniany przez czytelników i uważany za jednego z lepszych redaktorów. Naprawdę szkoda tego marnować, aby głupimi newsami sztucznie podbijać oglądalność.
kotlet nie kotlet ale przeciętny mało zorientowany user kupi od mało rozgarniętego sprzedawcy takiego GT3XX w dobrej dla NV cenie i wszyscy będą zadowoleni.
Oczywiście takie postępowanie to zwykłe nabijanie ludzi w butelkę !!!
Nigdy nie byłem fanboyem ale takie postępowanie zraża mnie do NV!!!
Jezeli zmiana wewnetrznego kontrolera pamieci nie jest zmiana architektory to naprawde pozdro.
Przeciez nie da sie nawet wyprodukowac gpu w 40nm nie zmieniajac architektory a co za tym idize dosc pokaznej kasy .
Chca sprzedawac swoje'stere' produkty pod ich nazwa no to trudno pozostaje miec nadzieje ze ludzie sie nie dadza nabrac
jakos nie pamietam takich bulwersacji gdy nvidia wydala 9800gt.
A zauwazyliscie ze 'kotlety' bardzo dobrze sie sprzedaja?? - wg mnie oznacza to ze 80% spoleczenstra jest nieswiadoma zakupu. Lub nvidia zbyt wczesnie wycofuje stare karty zasepujac je tymi po lifcie
zacznijmy od tego, że ArchitektUra jest przez U. Dalej - słowo 'bulwersacji' czy też 'bulwersacja' od której zapewne stworzyłeś tę odmianę nie istnieje w języku polskim. Zmniejszenie szerokości szyny to nie zmiana kontrolera pamięci. GTX285 i 260 to ten sam rdzeń i jak widać pierwszy z nich ma szynę 512bitową, zaś 2 węższą o 64 bity o ile mnie pamięć nie myli. Poza tym zwężenie szyny nie jest jakąś istotną zmianą w architekturze.
Nie wykonywałem oszałamiających projektów, ale testy w przypadku zrównoleglenia obliczeń, np. działania na bardzo dużych macierzach. Znajomy może zacznie w końcu pisać program do przetwarzania obrazu (np. rozpoznawanie twarzy) w rozdziałce wyższej niz 320x240px (chyba tak to szło) właśnie na CUDA, bo mobilny Penryn T9300 jakoś wymięka Chętnie mu pomogę, bo przetwarzanie wielowątkowe to naprawdę niesamowita sprawa.
Jeśli chcesz podrążyć temat, to przeszukaj sobie dane na temat np. łamania WPA 100x szybciej na GPU, albo tomografie opartym o desktopowy superkomp FASTRA zbudowanym również na CUDA albo np. przez proste programy do crackowania choćby sum MD5.
Przetwarzanie na GPU jest nurtem, który nV tak mocno promuje, bo chce się dobrze przygotować i zdobyć programistów (nawet dopłaca do większych projektów) na moment, w którym ludzie dostrzegą potęgę mocy, którą grafiki oferują a gry staną się jednymi z wielu programów na nich odpalanych...
Tak - dla Twojej wiadomości korzystałem. Tyle że z Wami nie da się rozmawiać na temat przetwarzania danych, bo nie programujecie i nie widzicie zastosowań.
Dodatkowo taką głupotę palnąłeś jak z tymi 4 rdzeniami - 1 jajo na obliczenia fizyki. Jeśli nie widzisz różnicy pomiędzy realizacją jakiś algorytmów sprzętowo a programowo, to proszę Cię nie zabieraj głosu Pomijam to, czy PhysX jest warty uwagi, czy to kolejny szmelc reklamowy. Zwyczajnie mnie on nie obchodzi, bo go nie wykorzystuję. Fakt jest faktem - to szybka realizacja sprzętowa.
A ileż to algorytmów realizowanych sprzętowo widziałeś i gdzie? Bo z pewnością fizyka dzięki CUDA do takich nie należy.
No dobra to jak korzystałeś z CUDA to podaj przykłady programów. ? Ja nie twierdzę że nie masz racji ale ją udowodni. Bo ja jakoś przez ponad rok nie bardzo odczułem czy znalazłem zastosowania dla CUDA w moim domu. 1 jajco z palcem w 4 literach sobie poradzi z fizyką, z drugiej strony Phys'x to nie jest 100% sprzętowe rozwiązaniem. To tylko pomost sprzętowo-programowy gdzie GPU robi jako właśnie dodatkowy rdzeń (rdzenie) a właściwie bardziej FPU, co teoretycznie zwiększ nieco wydajność tego procesu. Oczywiście pod warunkiem że program został zoptymalizowany, co w dzisiejszych czasach jest raczej wątpliwe.
Tak - dla Twojej wiadomości korzystałem. Tyle że z Wami nie da się rozmawiać na temat przetwarzania danych, bo nie programujecie i nie widzicie zastosowań.
Dodatkowo taką głupotę palnąłeś jak z tymi 4 rdzeniami - 1 jajo na obliczenia fizyki. Jeśli nie widzisz różnicy pomiędzy realizacją jakiś algorytmów sprzętowo a programowo, to proszę Cię nie zabieraj głosu Pomijam to, czy PhysX jest warty uwagi, czy to kolejny szmelc reklamowy. Zwyczajnie mnie on nie obchodzi, bo go nie wykorzystuję. Fakt jest faktem - to szybka realizacja sprzętowa.
Hm.. kolego a korzystałeś kiedyś w domu z tych CUDÓW NV ?? Ja miałem swego GF8600 i go wywaliłem (pomijając że zapłaciłem za niego sporo) a kupiłem sobie Radeona. Co z tego że niby obsługiwał CUDA jak żaden standardowy program z tego nie korzysta. ktoś powie Phys'x, no to ja mu powiem tak w grze UT3 jest taka opcja, włącz akcererację fizyki, i działa tak na NV jak i na ATI. Mało co z tego korzysta, a rezultaty i tak raczej nie są powalające (poza spadkiem wydajności). PO co przepłacać za grafę, to sobie kupię taniej proca z 4 rdzeniami, jeden przejmie na siebie obliczenia fizyki i będzie to działać jak marzenie, a dodatkowy rdzeń i tak bezie bardziej użyteczny niż całe CUDA NV, bo skorzystać z niego umie o niebo więcej programów.
Nie jestem, nie byłem i nie będę programistą
Ale o tym dobrze wiesz...
Z resztą jak takiś ambitny to napisz program w Stream SDK, który wykorzysta potencjał Radeonów. A może to dla Ciebie za trudne?
Z resztą przyczepiłeś się Bóg wie raczyć czego, ale musiałeś to zrobić, bo ja to ja co nie?
Właśnie takie staje się to forum. Zawiść do niektórych mydli oczy ludziom, a wtedy krytyka za coś z przeszłości (nawet jeśli miało się rację) jest uzasadniona, bo ON JEST ZŁY!
Przeczytaj z łaski swojej jeszcze raz co napisałeś CUDA to nie wstrzykiwanie soku z cytryny w oczy klientów z dwóch powodów.
1. Czy przeciętny zjadacz chleba kupuje kartę grafiki do programowania? Zastanawia się w ogóle czym jest ta CUDA? Popatrzy na napis i koło tyłka mu on przejdzie. Więc o jakie wstrzykiwanie Ci biega? NVIDIA musi trąbić o niej na pudełkach siłą rzeczy, bo wkłada w tą platformę naprawdę sporo pracy. Stream pod wieloma względami nie dorównuje SDK konkurenta - przepatrz sobie na przykład jeden z najważniejszych elementów, jeśli chcesz zacząć w ogóle programować czy wykorzystać w pełni to, co fabryka dała - dokumentację.
2. Powtarzam - skoro nic nie napisałeś albo nawet nie przeczytałeś o jej możliwościach, nie możesz zabierać głosu w dyskusji, bo to co robisz, to czyste fanbojstwo; kocham czerwonych i wszystko co zielone jest be! W ten sposób zwyczajnie psujesz sobie reputację pisząc zdania nie poparte w ogóle prawdziwymi danymi.
Jeśli chodzi o konflikty - zważ sobie na charakter Twoich wypowiedzi. Non stop rzucasz inwektywami i siejesz flame'y. Każda Twoja wypowiedź to totalna łaska i wszystko na 'NIE'. Nie chcesz pisać - zwyczajnie nie pisz! Tutaj też masz kilka słów 'NIE'.
Ja po prostu nie lubię ludzi rzucających słowa na wiatr i za wszelką cenę próbujących udowodnić swoją rację, pomimo tego, że jej nie mają. Dla mnie liczą się dane i doświadczenie. Nigdy nie potrafiłeś tego pojąć, stąd moja krytyka.
Nadmienię również, że nie jestem żadnym zwolennikiem ATI czy NVIDII. Po prostu lubię ciekawe rozwiązania i CUDA jak najbardziej mi odpowiada.
Krytyka w kierunku nV za marketing jest całkowicie uzasadniona. Ale z czegoś muszą czerpać kasę na rozwój nowych urządzeń (np. mobilnych, bo w rdzeniach grafiki to pogubiłem się jakieś dobre 1.5 roku temu). Szkoda tylko, że coraz mocniej obrywa nie mający pojęcia o sprzęcie klient.
Standardowa polityka NV, narobić zamieszania aby kupujący się pogubił, i zapłacił za nic.
Ciekawe co się kryje za tym Fermi :? czyżby Fatal Error Remjk Multimedia Interfejs :?
Skoro w żadnym stopniu nie umiesz tego wykorzystać (a zakładam, że nawet jednej linijki nie napisałeś na tej platformie by dostrzec korzyści jakie niesie) sam zamilcz
Nie jestem, nie byłem i nie będę programistą
Ale o tym dobrze wiesz...
Z resztą jak takiś ambitny to napisz program w Stream SDK, który wykorzysta potencjał Radeonów. A może to dla Ciebie za trudne?
Z resztą przyczepiłeś się Bóg wie raczyć czego, ale musiałeś to zrobić, bo ja to ja co nie?
Właśnie takie staje się to forum. Zawiść do niektórych mydli oczy ludziom, a wtedy krytyka za coś z przeszłości (nawet jeśli miało się rację) jest uzasadniona, bo ON JEST ZŁY!
Napewno każdy z was wie najlepiej, co i jak... przypomne jedno najenergoefekrywniejszą kartą+wydajną aktualnie jest radeona 4860. Nawjwydajniejszą jest 4870 mobility i bije 280M, bo już 4850 jest szybszy średnio o 5%
Mam do was pytanie czemu NV nie zrobiło takiej kombinacji jak 330M+GDDR5+64bity
Oczywiście takie postępowanie to zwykłe nabijanie ludzi w butelkę !!!
Nigdy nie byłem fanboyem ale takie postępowanie zraża mnie do NV!!!
Ale wyjaśnijcie mi - dlaczego to nabijanie ludzi w butelkę? Człowiek kupi kartę od ATI o danej wydajności i będzie fajny, a drugi człowiek kupi kartę od NVIDII o takiej samej wydajności, ale po którejś zmianie nazwy i już będzie największym złem na świecie? Jak na razie to Wy udajecie chyba mało rozgarniętych, bo patrzycie tylko na numeracje i czy zachodzą jakiekolwiek zmiany w architekturze (nawet niewielkie jak u ATI), zamiast po prostu spojrzeć na realną wydajność.
Powiedźcie, czy to wina NVIDII, że przygotowali taką rewolucyjną architekturę i mogą na niej ciągnąć przez 3 lata bez większych zmian? Skoro ATI się obija i wydaje 4 generacje kart, i dalej nie może wyprzedzić NVIDII, to ich powinniście winić. Jak na razie oferują odrobinę wolniejsze karty (bez dodatków, które jednak mogą się przydać CUDA, OpenCL, PhysX itd.) w średnim i wysokim segmencie w podobnej cenie, czyli serię HD4000, a w najniższym segmencie są trochę szybsi. HD5000 to drożyzna i za DX11 płacimy 30-40% marży w porównaniu wydajności do kart NVIDII lub serii HD4000. Niestety to ATI narzuciło chore tempo wydawania jak najszybciej nowych układów po malutkich zmianach, a nV musi dotrzymać im kroku, bo inaczej o nich zapomną i również musi wypuszczać na rynek nowe serie. Tylko w przypadku nV wystarcza zmiana nazwy, a ATI lekko poprawia architekturę, co fanboje dość odważnie określają 'nową generacją' układów graficznych.
PS. Szczęśliwego Nowego Roku życzę wszystkim PCLabowiczom, a naszemu redaktorowi, Piotrowi Gontarczykowi życzę, aby wrócił do dawnej formy. Kiedyś pisał Pan newsy na poziomie, a teraz tanie, tandetne sensacje dla rozwrzeszczanych dzieci. Życzę dawnego obiektywizmu i realnego spojrzenia na wszelkie sprawy, bo niegdyś naprawdę był Pan doceniany przez czytelników i uważany za jednego z lepszych redaktorów. Naprawdę szkoda tego marnować, aby głupimi newsami sztucznie podbijać oglądalność.
Oczywiście takie postępowanie to zwykłe nabijanie ludzi w butelkę !!!
Nigdy nie byłem fanboyem ale takie postępowanie zraża mnie do NV!!!
Przeciez nie da sie nawet wyprodukowac gpu w 40nm nie zmieniajac architektory a co za tym idize dosc pokaznej kasy .
Chca sprzedawac swoje'stere' produkty pod ich nazwa no to trudno pozostaje miec nadzieje ze ludzie sie nie dadza nabrac
jakos nie pamietam takich bulwersacji gdy nvidia wydala 9800gt.
A zauwazyliscie ze 'kotlety' bardzo dobrze sie sprzedaja?? - wg mnie oznacza to ze 80% spoleczenstra jest nieswiadoma zakupu. Lub nvidia zbyt wczesnie wycofuje stare karty zasepujac je tymi po lifcie
zacznijmy od tego, że ArchitektUra jest przez U. Dalej - słowo 'bulwersacji' czy też 'bulwersacja' od której zapewne stworzyłeś tę odmianę nie istnieje w języku polskim. Zmniejszenie szerokości szyny to nie zmiana kontrolera pamięci. GTX285 i 260 to ten sam rdzeń i jak widać pierwszy z nich ma szynę 512bitową, zaś 2 węższą o 64 bity o ile mnie pamięć nie myli. Poza tym zwężenie szyny nie jest jakąś istotną zmianą w architekturze.
Jeśli chcesz podrążyć temat, to przeszukaj sobie dane na temat np. łamania WPA 100x szybciej na GPU, albo tomografie opartym o desktopowy superkomp FASTRA zbudowanym również na CUDA albo np. przez proste programy do crackowania choćby sum MD5.
Przetwarzanie na GPU jest nurtem, który nV tak mocno promuje, bo chce się dobrze przygotować i zdobyć programistów (nawet dopłaca do większych projektów) na moment, w którym ludzie dostrzegą potęgę mocy, którą grafiki oferują a gry staną się jednymi z wielu programów na nich odpalanych...
Szersza szyna nie jest potrzebna - poczytaj o działaniu 5.
NV polecam unikać - tak namieszali w swoich nazwach, że praktycznie nie wiadomo co kupować.
Dodatkowo taką głupotę palnąłeś jak z tymi 4 rdzeniami - 1 jajo na obliczenia fizyki. Jeśli nie widzisz różnicy pomiędzy realizacją jakiś algorytmów sprzętowo a programowo, to proszę Cię nie zabieraj głosu
A ileż to algorytmów realizowanych sprzętowo widziałeś i gdzie? Bo z pewnością fizyka dzięki CUDA do takich nie należy.
Dodatkowo taką głupotę palnąłeś jak z tymi 4 rdzeniami - 1 jajo na obliczenia fizyki. Jeśli nie widzisz różnicy pomiędzy realizacją jakiś algorytmów sprzętowo a programowo, to proszę Cię nie zabieraj głosu
Ale o tym dobrze wiesz...
Z resztą jak takiś ambitny to napisz program w Stream SDK, który wykorzysta potencjał Radeonów. A może to dla Ciebie za trudne?
Z resztą przyczepiłeś się Bóg wie raczyć czego, ale musiałeś to zrobić, bo ja to ja co nie?
Właśnie takie staje się to forum. Zawiść do niektórych mydli oczy ludziom, a wtedy krytyka za coś z przeszłości (nawet jeśli miało się rację) jest uzasadniona, bo ON JEST ZŁY!
Przeczytaj z łaski swojej jeszcze raz co napisałeś
1. Czy przeciętny zjadacz chleba kupuje kartę grafiki do programowania? Zastanawia się w ogóle czym jest ta CUDA? Popatrzy na napis i koło tyłka mu on przejdzie. Więc o jakie wstrzykiwanie Ci biega? NVIDIA musi trąbić o niej na pudełkach siłą rzeczy, bo wkłada w tą platformę naprawdę sporo pracy. Stream pod wieloma względami nie dorównuje SDK konkurenta - przepatrz sobie na przykład jeden z najważniejszych elementów, jeśli chcesz zacząć w ogóle programować czy wykorzystać w pełni to, co fabryka dała - dokumentację.
2. Powtarzam - skoro nic nie napisałeś albo nawet nie przeczytałeś o jej możliwościach, nie możesz zabierać głosu w dyskusji, bo to co robisz, to czyste fanbojstwo; kocham czerwonych i wszystko co zielone jest be! W ten sposób zwyczajnie psujesz sobie reputację pisząc zdania nie poparte w ogóle prawdziwymi danymi.
Jeśli chodzi o konflikty - zważ sobie na charakter Twoich wypowiedzi. Non stop rzucasz inwektywami i siejesz flame'y. Każda Twoja wypowiedź to totalna łaska i wszystko na 'NIE'. Nie chcesz pisać - zwyczajnie nie pisz! Tutaj też masz kilka słów 'NIE'.
Ja po prostu nie lubię ludzi rzucających słowa na wiatr i za wszelką cenę próbujących udowodnić swoją rację, pomimo tego, że jej nie mają. Dla mnie liczą się dane i doświadczenie. Nigdy nie potrafiłeś tego pojąć, stąd moja krytyka.
Nadmienię również, że nie jestem żadnym zwolennikiem ATI czy NVIDII. Po prostu lubię ciekawe rozwiązania i CUDA jak najbardziej mi odpowiada.
Krytyka w kierunku nV za marketing jest całkowicie uzasadniona. Ale z czegoś muszą czerpać kasę na rozwój nowych urządzeń (np. mobilnych, bo w rdzeniach grafiki to pogubiłem się jakieś dobre 1.5 roku temu). Szkoda tylko, że coraz mocniej obrywa nie mający pojęcia o sprzęcie klient.
Ciekawe co się kryje za tym Fermi :? czyżby Fatal Error Remjk Multimedia Interfejs :?
Jedno chłopakom z NV trzeba przyznać: mają jaja jak orzechy kokosowe. Cały Świat już z nich szydzi, a ci dalej swoje
Ale o tym dobrze wiesz...
Z resztą jak takiś ambitny to napisz program w Stream SDK, który wykorzysta potencjał Radeonów. A może to dla Ciebie za trudne?
Z resztą przyczepiłeś się Bóg wie raczyć czego, ale musiałeś to zrobić, bo ja to ja co nie?
Właśnie takie staje się to forum. Zawiść do niektórych mydli oczy ludziom, a wtedy krytyka za coś z przeszłości (nawet jeśli miało się rację) jest uzasadniona, bo ON JEST ZŁY!
Mam do was pytanie czemu NV nie zrobiło takiej kombinacji jak 330M+GDDR5+64bity
i o to im chodzi
Nvidia szaleje
Ohohohhohohho NV zaczyna kozaczyć pfuu kotletować