ten teselator jest dostępny pod OpenGL za pomocą rozszerzenia
Tyle to ja też wiem, nie został wykorzystany w żadnej grze więc jaki to atut?
znam przykład użycia tego rozszerzenia
serio, benchmark?
Brook+ się bardzo mocno przyjął w kręgach akademickich
Nie przyjął się, chyba że 'mocne przyjęcie' to wsparcie osób odpowiedzialnych za folding@home na uniwersytecie w Stanford.
a Radeon'y HD 4000 dostały wsparcie dla OpenCL 1.1
Częściowe i żałosne ze względu na braki w architekturze. Wiem bo miałem i sprawdzałem (w kopaniu bitcoin... prawie jednego wykopałem wtedy, ale człowiek był głupi, policzyłem że interes się nie opyla, a teraz miałbym parę tysiaków).
GTX był drogi. GT albo GTS to był wymiatacz cena/moc
Dokładnie. 8800/9800GT to był cudowny sprzęt za niewielkie pieniądze. 8800GTX była wtedy marzeniem ściętej głowy o bodajże przez 3 lata uchodziła za demona. Z kolei wynalazki typy 8800GTS, a zwłaszcza żałosny 8600GTS, z nazwy były ładne, ale wydajnością zasmucały.
Akurat 8800GTS w wersji 512MB to była zacna karta. Prawie najwydajniejsza na rynku w swoim czasie w cenie poniżej 1000zł.
ten teselator jest dostępny pod OpenGL za pomocą rozszerzenia
Tyle to ja też wiem, nie został wykorzystany w żadnej grze więc jaki to atut?
a to OpenGL kończy się na grach?
to że nie użyto ich w grach AAA nie oznacza że nikt tego nie używał ...
jedynie stwierdzenie 'żadna gra AAA nie korzysta' jest prawdziwe szczególnie że większość wykorzystywała DirectX gdzie to było bardziej skomplikowane (nie ma mechanizmu rozszerzeń)
Promilus1984 @ 2020.02.26 04:27
znam przykład użycia tego rozszerzenia
serio, benchmark?
precedens jednak miał miejsce i nie wiesz tak naprawdę kto i w jakim oprogramowaniu użył tego rozszerzenia
szczególnie że bardzo łatwo jest dodać teselacje np. do Doom 3 poprzez modyfikacja shader'a wierzchołków
Promilus1984 @ 2020.02.26 04:27
Brook+ się bardzo mocno przyjął w kręgach akademickich
Nie przyjął się, chyba że 'mocne przyjęcie' to wsparcie osób odpowiedzialnych za folding@home na uniwersytecie w Stanford.
folding@home to tylko oprogramowanie dla ogółu
Brook został stworzony przez Stanford (i dla uniwersytetów) kilka lat przed publikacją Close to Metal która miała pomóc w jego
dalszym rozwoju.
potem nVidia wystartowała z CUDA
Brook nigdy nie pretendował do przebicia się poza ramy uniwersytetów i tam pozostał.
A naukowcy sami potrafili napisać programy go wykorzystujące dla swoich specyficznych potrzeb. (w pewnym momencie znajomość jeżyków programowania staje się niezbędną; np na 2 roku chemii masz FORTRAN i C++ https://usosweb.chem.uw.edu.pl/kontroler.p...d=1200-1PPROGLZ )
CUDA też długo przebijała się do mainstreamu.
Promilus1984 @ 2020.02.26 04:27
a Radeon'y HD 4000 dostały wsparcie dla OpenCL 1.1
Częściowe i żałosne ze względu na braki w architekturze. Wiem bo miałem i sprawdzałem (w kopaniu bitcoin... prawie jednego wykopałem wtedy, ale człowiek był głupi, policzyłem że interes się nie opyla, a teraz miałbym parę tysiaków).
jak częściowo? skoro musi spełniać wszystkie warunki wymagane przez standard
prędkość działania to inna para kaloszy
(a żeś ekonomiczny jeleń to już twój problem)
Dokładnie. 8800/9800GT to był cudowny sprzęt za niewielkie pieniądze. 8800GTX była wtedy marzeniem ściętej głowy o bodajże przez 3 lata uchodziła za demona. Z kolei wynalazki typy 8800GTS, a zwłaszcza żałosny 8600GTS, z nazwy były ładne, ale wydajnością zasmucały.
Akurat 8800GTS w wersji 512MB to była zacna karta. Prawie najwydajniejsza na rynku w swoim czasie w cenie poniżej 1000zł.
A kto pamięta padające jak muchy 8600GT Silent od Gigabyte, karty były tanie, ale strasznie się psuły.
Tak, że nie miał m.in. local data store (iirc) przez co wydajność cierpiała i zasadniczo jedyne co było 'dobre' to, że da się OpenCL w ogóle odpalić. https://community.amd.com/thread/144709
+ dodatkowo driver OpenCL był osobno instalowany i była to wersja BETA
a to OpenGL kończy się na grach?
Nie, ale w których konkretnie programach to rozszerzenie jest wykorzystywane?
AMD wyszło przed szereg proponując słabe rozwiązanie, lepsze niż truform, ale jednak... słabe. Dostali po dupie od nvidii która przy pierwszym podejściu do tematu zmiażdżyła firmę mającą już zdecydowanie więcej doświadczenia w kwestii zagęszczania siatki.
Piszesz, że:
szczególnie że bardzo łatwo jest dodać teselacje np. do Doom 3 poprzez modyfikacja shader'a wierzchołków
No to patrz, jest sobie taka gra jak Unreal Tournament 2004, która na teselatorze z DX11 robi mniej więcej to co robił truform tylko trzeba bardzo uważać bo robi to z wszelkimi jego wadami. Dlatego właśnie w konfigu jest wyciągnięty tess factor dla m.in. każdej broni z osobna. Zamiast bronić AMD trzeba po prostu przyznać, że ta implementacja była tak samo słaba i bezużyteczna jak geometry shaders.
CUDA też długo przebijała się do mainstreamu
Nie aż tak długo. Prawie na starcie miałeś physx, co prawda teraz praktycznie żaden bajer, ale wtedy było to już jakieś wykorzystanie możliwości. AMD nie miało nic oprócz prezentacji havokFX który zniknął po przejęciu przez intela. NV miała dość szybko rzeczywiste wsparcie w m.in. pathtracingu oraz szybko na platformach do obliczeń rozproszonych. AMD zostało daleko w tyle. Szanse widziało w OpenCL, ale na wstępie jak wiadomo słabo to wychodziło, a sam OpenCL choć wspierany przez wiele firm w rzeczywistości nie jest specjalnie popularny.
a żeś ekonomiczny jeleń to już twój problem
Argument z pupy, HD4k na wyprodukowanie 1BTC wtedy (może z 20-30pln) potrzebowało prądu za ~5zł oraz wyłączności na komputer (bo nawet poruszanie myszą było problematyczne), pokaż tych rekinów biznesu co przewidywali, że cena wzrośnie kilkudziesięciokrotnie w ciągu dekady? Nie ma? To niby co ze mnie za 'jeleń'?
Artykuł słaby. Niby motywem przewodnim było przetestowanie kart popularnych w tamtych czasach ale o wiele bardziej przydatny test w dzisiejszych czasach zrobił Sebastian Oktaba na purepc.pl który jasno pokazał że AMD Radeony postarzały się z klasą i niejednokrotnie są 2 razy szybsze w nowych grach niż ich ówcześni rywale ze stajni Nvidia Jeden z testów o których wspominam jest tutaj: https://www.purepc.pl/karty_graficzne/test..._780_retrogpu_2
Test powinien składać się z 2 najpopularnieszych kart z nVidia i AMD.
Jak pokazała nam konkurencja AMD pochłonęło swoje odpowiedniki w nowych grach ... nawet na poziomie +100%. np Coś co przedtem było prądożerne spod stajni AMD w grach 2019 ma wydajność na poziomie RX570, stary poczciwy X290
Właśnie przez to jak postarzał się mój poprzedni GTX970 i obecny GTX1080TI następną kartą niezależnie od tego co pokaże nVidia będzie coś od AMD. Przy premierze RTX, 1080TI był na tamten czas jego odpowiednikiem wydajnościowym RTX2080, a obecnie co najwyżej może się z RTX2070 ścigać ... Nowe konsole w zasadzie będą gwarantowały optymalizację gier pod AMD (7 lat)
Czekam na kolejną generację Radeonów i dziękuję nVidii na dobre ...
5850 przecież działa w Fire Striku. Wiem, bo sprawdzałem.Czemu Wam nie poszła, pojęcia nie mam. Działa tez fajnie nawet w Residencie 2 Remake. 11-letnia karta. Szacuneczek.
Nowe konsole w zasadzie będą gwarantowały optymalizację gier pod AMD (7 lat)
Czekam na kolejną generację Radeonów i dziękuję nVidii na dobre ...
Ciekawa teoria zważywszy na to że to będzie już 3-cia (4-ta jeśli liczyć X) generacja Xboxów która używa grafiki AMD i wkrótce będziemy mieli także 2-gą generacje PS używającej czipów od AMD.
GTX był drogi. GT albo GTS to był wymiatacz cena/moc
Dokładnie. 8800/9800GT to był cudowny sprzęt za niewielkie pieniądze. 8800GTX była wtedy marzeniem ściętej głowy o bodajże przez 3 lata uchodziła za demona. Z kolei wynalazki typy 8800GTS, a zwłaszcza żałosny 8600GTS, z nazwy były ładne, ale wydajnością zasmucały.
Za co te plusy? 8800gts w momencie premiery był drugą najszybszą kartą na rynku.
Pamiętam jakie było zamieszanie odnośnie bardzo wydajnej i popularnej GTX 970. Co tu dużo mówić początkowe specyfikacje w sklepach nie wspominały, że owszem karta ma 4GB Vram, ale tylko 3.5GB działa na pełnej prędkości. Także zielonym przypadła niezła wtopa oraz ich lakoniczne tłumaczenia, że nie ma to wpływu na wydajność. A czemu karty drożeją? To proste kurs dolara się zmienił, a skoro są tacy co kupują telefon za 5tys to znajdą się entuzjaści na drogiego RTX-a 2080Ti. Każdy chce jak najwięcej zarobić czy nam się podoba czy nie
szymcio - jak wg Ciebie zmienił się kurs dolara? Po wystrzale zw. z kryzysem z 2008r utrzymuje się dość stabilnie w okolicach 4PLN. Nie kolego, to nie kurs dolara. To zdecydowane spowolnienie wzrostu wydajności. Do pewnego czasu każda kolejna generacja układów podczas premiery zdecydowanie miażdżyła wydajnością poprzednie. Teraz dochodzimy powoli do muru, którego nie da się przebić ani ominąć. Proces technologiczny też na więcej nie pozwoli. Dlatego nvidia poszła w sprzętową akcelerację RT oraz DLSS. Przy czym pierwsze rozwiązanie ma dawać lepszy obraz kosztem wydajności, a w urządzeniach bez akceleracji sprzętowej po prostu je zarżnąć. Drugie ma uprościć to co przelicza karta bez widocznego spadku jakości. Dlaczego? Bo doszliśmy do tego pieprzonego muru! Czemu więc karty są takie drogie? Bo nvidia nie mając rzeczywistej konkurencji może sobie takie ceny ustalić. Wystarczy przypomnieć (zerknij stronę wcześniej) GTX260 i jego ceny podczas premiery, a po premierze HD4870. Dało się gwałtownie obniżyć? Jasne. Uzależnione to było od kursu dolara? No... nie. Konkurencja. Porządna konkurencja. To jest potrzebne by nowe karty były zdecydowanie szybsze od starszych, a jeśli nie będą to niech przynajmniej są tańsze.
Tyle to ja też wiem, nie został wykorzystany w żadnej grze więc jaki to atut?
serio, benchmark?
Nie przyjął się, chyba że 'mocne przyjęcie' to wsparcie osób odpowiedzialnych za folding@home na uniwersytecie w Stanford.
Częściowe i żałosne ze względu na braki w architekturze. Wiem bo miałem i sprawdzałem (w kopaniu bitcoin... prawie jednego wykopałem wtedy, ale człowiek był głupi, policzyłem że interes się nie opyla, a teraz miałbym parę tysiaków).
Akurat
GTX był drogi. GT albo GTS to był wymiatacz cena/moc
Akurat 8800GTS w wersji 512MB to była zacna karta. Prawie najwydajniejsza na rynku w swoim czasie w cenie poniżej 1000zł.
Tyle to ja też wiem, nie został wykorzystany w żadnej grze więc jaki to atut?
to że nie użyto ich w grach AAA nie oznacza że nikt tego nie używał ...
jedynie stwierdzenie 'żadna gra AAA nie korzysta' jest prawdziwe szczególnie że większość wykorzystywała DirectX gdzie to było bardziej skomplikowane (nie ma mechanizmu rozszerzeń)
serio, benchmark?
szczególnie że bardzo łatwo jest dodać teselacje np. do Doom 3 poprzez modyfikacja shader'a wierzchołków
Nie przyjął się, chyba że 'mocne przyjęcie' to wsparcie osób odpowiedzialnych za folding@home na uniwersytecie w Stanford.
Brook został stworzony przez Stanford (i dla uniwersytetów) kilka lat przed publikacją Close to Metal która miała pomóc w jego
dalszym rozwoju.
potem nVidia wystartowała z CUDA
Brook nigdy nie pretendował do przebicia się poza ramy uniwersytetów i tam pozostał.
A naukowcy sami potrafili napisać programy go wykorzystujące dla swoich specyficznych potrzeb. (w pewnym momencie znajomość jeżyków programowania staje się niezbędną; np na 2 roku chemii masz FORTRAN i C++ https://usosweb.chem.uw.edu.pl/kontroler.p...d=1200-1PPROGLZ )
CUDA też długo przebijała się do mainstreamu.
Częściowe i żałosne ze względu na braki w architekturze. Wiem bo miałem i sprawdzałem (w kopaniu bitcoin... prawie jednego wykopałem wtedy, ale człowiek był głupi, policzyłem że interes się nie opyla, a teraz miałbym parę tysiaków).
jak częściowo? skoro musi spełniać wszystkie warunki wymagane przez standard
prędkość działania to inna para kaloszy
(a żeś ekonomiczny jeleń to już twój problem)
Akurat 8800GTS w wersji 512MB to była zacna karta. Prawie najwydajniejsza na rynku w swoim czasie w cenie poniżej 1000zł.
A kto pamięta padające jak muchy 8600GT Silent od Gigabyte, karty były tanie, ale strasznie się psuły.
Tak, że nie miał m.in. local data store (iirc) przez co wydajność cierpiała i zasadniczo jedyne co było 'dobre' to, że da się OpenCL w ogóle odpalić.
https://community.amd.com/thread/144709
+ dodatkowo driver OpenCL był osobno instalowany i była to wersja BETA
Nie, ale w których konkretnie programach to rozszerzenie jest wykorzystywane?
AMD wyszło przed szereg proponując słabe rozwiązanie, lepsze niż truform, ale jednak... słabe. Dostali po dupie od nvidii która przy pierwszym podejściu do tematu zmiażdżyła firmę mającą już zdecydowanie więcej doświadczenia w kwestii zagęszczania siatki.
Piszesz, że:
No to patrz, jest sobie taka gra jak Unreal Tournament 2004, która na teselatorze z DX11 robi mniej więcej to co robił truform
Nie aż tak długo. Prawie na starcie miałeś physx, co prawda teraz praktycznie żaden bajer, ale wtedy było to już jakieś wykorzystanie możliwości. AMD nie miało nic oprócz prezentacji havokFX który zniknął po przejęciu przez intela. NV miała dość szybko rzeczywiste wsparcie w m.in. pathtracingu oraz szybko na platformach do obliczeń rozproszonych. AMD zostało daleko w tyle. Szanse widziało w OpenCL, ale na wstępie jak wiadomo słabo to wychodziło, a sam OpenCL choć wspierany przez wiele firm w rzeczywistości nie jest specjalnie popularny.
Argument z pupy, HD4k na wyprodukowanie 1BTC wtedy (może z 20-30pln) potrzebowało prądu za ~5zł oraz wyłączności na komputer (bo nawet poruszanie myszą było problematyczne), pokaż tych rekinów biznesu co przewidywali, że cena wzrośnie kilkudziesięciokrotnie w ciągu dekady? Nie ma? To niby co ze mnie za 'jeleń'?
O dziwo,GTX 970 jeszcze się trzyma
Dali by podkręconego HD 7950 z 2012 roku, do dziś nawet w RDR 2 da się pograć 30fps+ i to nie w najniższych detalach
Tu jak mi się nudziło przy okazji czyszczenia kompa sprawdziłem
https://youtu.be/HBNLK1DkWRU
Jak pokazała nam konkurencja AMD pochłonęło swoje odpowiedniki w nowych grach ... nawet na poziomie +100%. np Coś co przedtem było prądożerne spod stajni AMD w grach 2019 ma wydajność na poziomie RX570, stary poczciwy X290
Czekam na kolejną generację Radeonów i dziękuję nVidii na dobre ...
Czekam na kolejną generację Radeonów i dziękuję nVidii na dobre ...
Ciekawa teoria zważywszy na to że to będzie już 3-cia (4-ta jeśli liczyć X) generacja Xboxów która używa grafiki AMD i wkrótce będziemy mieli także 2-gą generacje PS używającej czipów od AMD.
GTX był drogi. GT albo GTS to był wymiatacz cena/moc
Za co te plusy? 8800gts w momencie premiery był drugą najszybszą kartą na rynku.