komentarze
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842020.02.26, 04:27
ten teselator jest dostępny pod OpenGL za pomocą rozszerzenia

Tyle to ja też wiem, nie został wykorzystany w żadnej grze więc jaki to atut?
znam przykład użycia tego rozszerzenia

serio, benchmark? ;)
Brook+ się bardzo mocno przyjął w kręgach akademickich

Nie przyjął się, chyba że 'mocne przyjęcie' to wsparcie osób odpowiedzialnych za folding@home na uniwersytecie w Stanford.
a Radeon'y HD 4000 dostały wsparcie dla OpenCL 1.1

Częściowe i żałosne ze względu na braki w architekturze. Wiem bo miałem i sprawdzałem (w kopaniu bitcoin... prawie jednego wykopałem wtedy, ale człowiek był głupi, policzyłem że interes się nie opyla, a teraz miałbym parę tysiaków).
Adaś25Zobacz profil
Poziom ostrzeżenia: 0%
Adaś252020.02.26, 15:58
Makavcio2 @ 2020.02.23 17:38  Post: 1234867
MAR89TUM @ 2020.02.23 15:40  Post: 1234856
(...)

Akurat

GTX był drogi. GT albo GTS to był wymiatacz cena/moc
Dokładnie. 8800/9800GT to był cudowny sprzęt za niewielkie pieniądze. 8800GTX była wtedy marzeniem ściętej głowy o bodajże przez 3 lata uchodziła za demona. Z kolei wynalazki typy 8800GTS, a zwłaszcza żałosny 8600GTS, z nazwy były ładne, ale wydajnością zasmucały.

Akurat 8800GTS w wersji 512MB to była zacna karta. Prawie najwydajniejsza na rynku w swoim czasie w cenie poniżej 1000zł.
Edytowane przez autora (2020.02.26, 16:06)
NamonakiZobacz profil
Poziom ostrzeżenia: 0%
Namonaki2020.02.26, 17:21
-1#43
Promilus1984 @ 2020.02.26 04:27  Post: 1235166
ten teselator jest dostępny pod OpenGL za pomocą rozszerzenia

Tyle to ja też wiem, nie został wykorzystany w żadnej grze więc jaki to atut?
a to OpenGL kończy się na grach?
to że nie użyto ich w grach AAA nie oznacza że nikt tego nie używał ...
jedynie stwierdzenie 'żadna gra AAA nie korzysta' jest prawdziwe szczególnie że większość wykorzystywała DirectX gdzie to było bardziej skomplikowane (nie ma mechanizmu rozszerzeń)
Promilus1984 @ 2020.02.26 04:27  Post: 1235166
znam przykład użycia tego rozszerzenia

serio, benchmark? ;)
precedens jednak miał miejsce i nie wiesz tak naprawdę kto i w jakim oprogramowaniu użył tego rozszerzenia
szczególnie że bardzo łatwo jest dodać teselacje np. do Doom 3 poprzez modyfikacja shader'a wierzchołków
Promilus1984 @ 2020.02.26 04:27  Post: 1235166

Brook+ się bardzo mocno przyjął w kręgach akademickich

Nie przyjął się, chyba że 'mocne przyjęcie' to wsparcie osób odpowiedzialnych za folding@home na uniwersytecie w Stanford.
folding@home to tylko oprogramowanie dla ogółu
Brook został stworzony przez Stanford (i dla uniwersytetów) kilka lat przed publikacją Close to Metal która miała pomóc w jego
dalszym rozwoju.
potem nVidia wystartowała z CUDA
Brook nigdy nie pretendował do przebicia się poza ramy uniwersytetów i tam pozostał.
A naukowcy sami potrafili napisać programy go wykorzystujące dla swoich specyficznych potrzeb. (w pewnym momencie znajomość jeżyków programowania staje się niezbędną; np na 2 roku chemii masz FORTRAN i C++ https://usosweb.chem.uw.edu.pl/kontroler.p...d=1200-1PPROGLZ )
CUDA też długo przebijała się do mainstreamu.

Promilus1984 @ 2020.02.26 04:27  Post: 1235166
a Radeon'y HD 4000 dostały wsparcie dla OpenCL 1.1

Częściowe i żałosne ze względu na braki w architekturze. Wiem bo miałem i sprawdzałem (w kopaniu bitcoin... prawie jednego wykopałem wtedy, ale człowiek był głupi, policzyłem że interes się nie opyla, a teraz miałbym parę tysiaków).

jak częściowo? skoro musi spełniać wszystkie warunki wymagane przez standard
prędkość działania to inna para kaloszy
(a żeś ekonomiczny jeleń to już twój problem)
StjepanZobacz profil
Poziom ostrzeżenia: 0%
Stjepan2020.02.26, 17:24
Adaś25 @ 2020.02.26 15:58  Post: 1235219
Makavcio2 @ 2020.02.23 17:38  Post: 1234867
(...)
Dokładnie. 8800/9800GT to był cudowny sprzęt za niewielkie pieniądze. 8800GTX była wtedy marzeniem ściętej głowy o bodajże przez 3 lata uchodziła za demona. Z kolei wynalazki typy 8800GTS, a zwłaszcza żałosny 8600GTS, z nazwy były ładne, ale wydajnością zasmucały.

Akurat 8800GTS w wersji 512MB to była zacna karta. Prawie najwydajniejsza na rynku w swoim czasie w cenie poniżej 1000zł.

A kto pamięta padające jak muchy 8600GT Silent od Gigabyte, karty były tanie, ale strasznie się psuły.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842020.02.26, 21:21
-2#45
jak częściowo?

Tak, że nie miał m.in. local data store (iirc) przez co wydajność cierpiała i zasadniczo jedyne co było 'dobre' to, że da się OpenCL w ogóle odpalić.
https://community.amd.com/thread/144709
+ dodatkowo driver OpenCL był osobno instalowany i była to wersja BETA
a to OpenGL kończy się na grach?

Nie, ale w których konkretnie programach to rozszerzenie jest wykorzystywane?
AMD wyszło przed szereg proponując słabe rozwiązanie, lepsze niż truform, ale jednak... słabe. Dostali po dupie od nvidii która przy pierwszym podejściu do tematu zmiażdżyła firmę mającą już zdecydowanie więcej doświadczenia w kwestii zagęszczania siatki.
Piszesz, że:
szczególnie że bardzo łatwo jest dodać teselacje np. do Doom 3 poprzez modyfikacja shader'a wierzchołków

No to patrz, jest sobie taka gra jak Unreal Tournament 2004, która na teselatorze z DX11 robi mniej więcej to co robił truform ;) tylko trzeba bardzo uważać bo robi to z wszelkimi jego wadami. Dlatego właśnie w konfigu jest wyciągnięty tess factor dla m.in. każdej broni z osobna. Zamiast bronić AMD trzeba po prostu przyznać, że ta implementacja była tak samo słaba i bezużyteczna jak geometry shaders.
CUDA też długo przebijała się do mainstreamu

Nie aż tak długo. Prawie na starcie miałeś physx, co prawda teraz praktycznie żaden bajer, ale wtedy było to już jakieś wykorzystanie możliwości. AMD nie miało nic oprócz prezentacji havokFX który zniknął po przejęciu przez intela. NV miała dość szybko rzeczywiste wsparcie w m.in. pathtracingu oraz szybko na platformach do obliczeń rozproszonych. AMD zostało daleko w tyle. Szanse widziało w OpenCL, ale na wstępie jak wiadomo słabo to wychodziło, a sam OpenCL choć wspierany przez wiele firm w rzeczywistości nie jest specjalnie popularny.
a żeś ekonomiczny jeleń to już twój problem

Argument z pupy, HD4k na wyprodukowanie 1BTC wtedy (może z 20-30pln) potrzebowało prądu za ~5zł oraz wyłączności na komputer (bo nawet poruszanie myszą było problematyczne), pokaż tych rekinów biznesu co przewidywali, że cena wzrośnie kilkudziesięciokrotnie w ciągu dekady? Nie ma? To niby co ze mnie za 'jeleń'?


lukaddZobacz profil
Poziom ostrzeżenia: 0%
lukadd2020.02.27, 16:17
Splendor_97 @ 2020.02.23 15:55  Post: 1234859
Fajny artykuł,testy pokazują,że starsze karty w nowszych grach już nie dają rady nawet na niskich detalach.
O dziwo,GTX 970 jeszcze się trzyma

Dali by podkręconego HD 7950 z 2012 roku, do dziś nawet w RDR 2 da się pograć 30fps+ i to nie w najniższych detalach :E

Tu jak mi się nudziło przy okazji czyszczenia kompa sprawdziłem
https://youtu.be/HBNLK1DkWRU
P.staszZobacz profil
Poziom ostrzeżenia: 0%
P.stasz2020.02.27, 16:19
Artykuł słaby. Niby motywem przewodnim było przetestowanie kart popularnych w tamtych czasach ale o wiele bardziej przydatny test w dzisiejszych czasach zrobił Sebastian Oktaba na purepc.pl który jasno pokazał że AMD Radeony postarzały się z klasą i niejednokrotnie są 2 razy szybsze w nowych grach niż ich ówcześni rywale ze stajni Nvidia ;) Jeden z testów o których wspominam jest tutaj: https://www.purepc.pl/karty_graficzne/test..._780_retrogpu_2
MarcysxDZobacz profil
Poziom ostrzeżenia: 0%
MarcysxD2020.02.28, 02:10
Test powinien składać się z 2 najpopularnieszych kart z nVidia i AMD.
Jak pokazała nam konkurencja AMD pochłonęło swoje odpowiedniki w nowych grach ... nawet na poziomie +100%. np Coś co przedtem było prądożerne spod stajni AMD w grach 2019 ma wydajność na poziomie RX570, stary poczciwy X290
MarcysxDZobacz profil
Poziom ostrzeżenia: 0%
MarcysxD2020.02.28, 02:22
Właśnie przez to jak postarzał się mój poprzedni GTX970 i obecny GTX1080TI następną kartą niezależnie od tego co pokaże nVidia będzie coś od AMD. Przy premierze RTX, 1080TI był na tamten czas jego odpowiednikiem wydajnościowym RTX2080, a obecnie co najwyżej może się z RTX2070 ścigać ... Nowe konsole w zasadzie będą gwarantowały optymalizację gier pod AMD (7 lat)
Czekam na kolejną generację Radeonów i dziękuję nVidii na dobre ...
HDR'oZobacz profil
Poziom ostrzeżenia: 0%
HDR'o2020.02.28, 10:48
5850 przecież działa w Fire Striku. Wiem, bo sprawdzałem.Czemu Wam nie poszła, pojęcia nie mam. Działa tez fajnie nawet w Residencie 2 Remake. 11-letnia karta. Szacuneczek.
Edytowane przez autora (2020.02.28, 10:49)
chartkorZobacz profil
Poziom ostrzeżenia: 0%
chartkor2020.02.28, 18:31
Nędza trochę. Brakuje GTX2xx, AMD 200X i sporo innych kart. Większość kart wcale nie taka stara. Przecież na GTX 6 i 7 dalej cała masa ludzi śmiga.
chartkorZobacz profil
Poziom ostrzeżenia: 0%
chartkor2020.02.28, 18:37
HDR @ 2020.02.28 10:48  Post: 1235407
Nowe konsole w zasadzie będą gwarantowały optymalizację gier pod AMD (7 lat)
Czekam na kolejną generację Radeonów i dziękuję nVidii na dobre ...

Ciekawa teoria zważywszy na to że to będzie już 3-cia (4-ta jeśli liczyć X) generacja Xboxów która używa grafiki AMD i wkrótce będziemy mieli także 2-gą generacje PS używającej czipów od AMD.
henryk nowakZobacz profil
Poziom ostrzeżenia: 0%
henryk nowak2020.02.29, 20:33
-1#53
Makavcio2 @ 2020.02.23 17:38  Post: 1234867
MAR89TUM @ 2020.02.23 15:40  Post: 1234856
(...)


GTX był drogi. GT albo GTS to był wymiatacz cena/moc
Dokładnie. 8800/9800GT to był cudowny sprzęt za niewielkie pieniądze. 8800GTX była wtedy marzeniem ściętej głowy o bodajże przez 3 lata uchodziła za demona. Z kolei wynalazki typy 8800GTS, a zwłaszcza żałosny 8600GTS, z nazwy były ładne, ale wydajnością zasmucały.

Za co te plusy? 8800gts w momencie premiery był drugą najszybszą kartą na rynku.
szymcio30Zobacz profil
Poziom ostrzeżenia: 0%
szymcio302020.02.29, 21:49
Pamiętam jakie było zamieszanie odnośnie bardzo wydajnej i popularnej GTX 970. Co tu dużo mówić początkowe specyfikacje w sklepach nie wspominały, że owszem karta ma 4GB Vram, ale tylko 3.5GB działa na pełnej prędkości. Także zielonym przypadła niezła wtopa oraz ich lakoniczne tłumaczenia, że nie ma to wpływu na wydajność. A czemu karty drożeją? To proste kurs dolara się zmienił, a skoro są tacy co kupują telefon za 5tys to znajdą się entuzjaści na drogiego RTX-a 2080Ti. Każdy chce jak najwięcej zarobić czy nam się podoba czy nie
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842020.03.01, 07:58
szymcio - jak wg Ciebie zmienił się kurs dolara? Po wystrzale zw. z kryzysem z 2008r utrzymuje się dość stabilnie w okolicach 4PLN. Nie kolego, to nie kurs dolara. To zdecydowane spowolnienie wzrostu wydajności. Do pewnego czasu każda kolejna generacja układów podczas premiery zdecydowanie miażdżyła wydajnością poprzednie. Teraz dochodzimy powoli do muru, którego nie da się przebić ani ominąć. Proces technologiczny też na więcej nie pozwoli. Dlatego nvidia poszła w sprzętową akcelerację RT oraz DLSS. Przy czym pierwsze rozwiązanie ma dawać lepszy obraz kosztem wydajności, a w urządzeniach bez akceleracji sprzętowej po prostu je zarżnąć. Drugie ma uprościć to co przelicza karta bez widocznego spadku jakości. Dlaczego? Bo doszliśmy do tego pieprzonego muru! Czemu więc karty są takie drogie? Bo nvidia nie mając rzeczywistej konkurencji może sobie takie ceny ustalić. Wystarczy przypomnieć (zerknij stronę wcześniej) GTX260 i jego ceny podczas premiery, a po premierze HD4870. Dało się gwałtownie obniżyć? Jasne. Uzależnione to było od kursu dolara? No... nie. Konkurencja. Porządna konkurencja. To jest potrzebne by nowe karty były zdecydowanie szybsze od starszych, a jeśli nie będą to niech przynajmniej są tańsze.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.