Stary Windows Longhorn.
Czyli nie mylić z Vistą, bezpośredni spadkobierca Windowsa XP.
Porzucony projekt na rzecz Visty.
Nie wiedziałem o tym. Zawsze sądziłem że Longhorn to była Vista.
Ktoś zrobił Longhorn Reloaded, z zamiarem wskrzeszenia tamtego systemu, ale M$ się zdenerwowało, i przestali to robić.
jeśli korporacja microsoft dobije ostatni dobry windows 7 wtedy zainstaluje system linux i nawet nie zmieni tego jak zrobią stary windows longhorn, będzie za puźno na sentymenty
Hahaa kijem takich rzeczy nie dotykać.. po prostu kogoś poje***ło żeby taki badziew na pc dawać. Zero optymalizacji, tylko na kolanie przepisane byle się na pc odpaliło. A pal licho, że dużo tańsze radeony lepiej sobie radzą od geforców
Dziwne z tymi filtrami i postprocesingiem. Nie da się tego jakoś wyłączyć? Jak dla mnie motion blure to już za dużo, a co dopiero jakieś dodatkowe rozmywacze.
Motion blur to jeden z najgłupszych efektów jakie wymyślili..
Niestety w wielu grach obecnie rzuca się efektami na lewo i prawo a tekstury do niczego. A broń boże spojrzeć z bliska (czasem nowe gry z bliska przypominaja te z 99r ). No ale prościej i szybciej użyć kilku wbudowanych w silnik efektów dla przykrycia/rozmycia badziewnej jakości elementów pod spodem.
No tak tylko w moim poczuciu to właśnie główne zastosowanie GPGPU w komercyjnych rozwiązaniach.
Ciężko mi sobie wyobrazić domowe farmy obliczeniowe- gdzie wykorzystuje się FP64. Ale to poza zasięgiem.
Punkt widzenia szefów takich centr to raczej bardzo mała grupka ludzi, których błogosławieństwem np. są zmiany w Pascalu.
@SunTzu - zdajesz sobie sprawę, że z 'komercyjnych' (tak, specjalnie w nawiasie) aplikacji to CUDA jako tako się trzymie właśnie dzięki Mercury w Adobe, PhysX oraz właśnie kilku rendererom? Jak ktoś robi soft opierający się na algebrę liniową (LAPACK, BLAS) to masz libsy i wystarczy podlinkować i korzystać. Spieprzyć na tym etapie to już mistrzostwo świata. I z wyjątkiem kodeków, (de)szyfratorów i filtrów obrazu to jest chyba jedno z poważniejszych szerzej stosowanych rozwiązań. Ja rozumiem, że z waszej perspektywy jest 'bida z nędzą' ale przecież na grafice świat się nie kończy A dla 'casualowców' to w zasadzie obie platformy mają podobny support do całej masy popierdułek. Ciekaw jestem tylko kiedy ANSYS dostanie support do FirePro bo jak do tej pory (mimo wcześniejszych zapowiedzi) ciągle tesla, quadro i oczywiście intelik
Polecam przeczytać wszystko co Skoti48 (tutejszy bywalec) ma do powiedzenia. Mój link
Szkoda, że tak wiele osób dało się omamić takim marketingowym bełkotem o tej rzekomej przewadze kart AMD w DX12
Oj tam akurat skoti się nie popisał, aż tryska stronniczością. Żeby przytoczyć tylko kilka sytuacji:
DX10.1 i patch do MSAA - nieprawda. W tym konkretnym wątku DX10.1 pozwalało nieco odbić wydajności kartom AMD. NV pokazała kod potrafiący mniej więcej to samo zrobić bez 10.1, a nie żadne postprocesowe AA (MLAA, FXAA, SMAA). Mniej więcej nie znaczy to samo - ścieżka 10.1 mogła zostać opcjonalna dla radeonów, ale zdecydowano inaczej. Bez jakiejkolwiek innej motywacji niż opinia NV.
Crysis 2 i tess factor - no heloł. Jak ktoś tesseluje niewidoczną wodę pod całą mapą, albo kawał płaskiego bloku betonowego z współczynnikiem 64x to bzdurą byłoby napisanie, że to Crytek poszalał, bo go AMD na teselację namawiało... To zwykła spina 8 czy 16 tesselatorów Fermi vs 1 czy 2 Cypressa. I nie ma się co oszukiwać, że chodziło o coś innego, a nv niewinne było zupełnie w to niezaangażowane.
Zabijanie OpenCL, OpenGL etc. Taa, tutaj trzeba być kompletnym kretynem by tak pisać. OpenCL od początku miał wadę w postaci online compilation - kod .cl był przetwarzany na platformę docelową w momencie uruchomienia aplikacji. Niosło to dwa poważne ograniczenia. Kernele nie mogły być zbyt skomplikowane (mało warunków, dużo danych do przepuszczenia czyli data parallelism) i brak ochrony kodu. Ale... m.in. to właśnie dawało uniwersalność, aplikacja napisana w OpenCL 1.0 działała na GF8800GT i zaraz po wejściu Fermi też działała. W przypadku appsów CUDA skompilowanych do binarek niestety wielokrotnie było tak, że aplikacje przestawały działać wraz z nową architekturą (m.in. G92 vs GT200, GT200 vs GF100 ...) I tutaj SPIR co prawda oferuje to co CUDA wiele lat wcześniej, ale w dalszym ciągu jest to znacznie bogatsza baza sprzętowa.
Teraz dalej - OpenCL a AMD. Kolega poruszył kwestię raytracerów, a może warto spojrzeć na naukowe osiągnięcia. WCG (IBM) miał aplikację Help Conquer Cancer. W fazie drugiej zastosowano aplikację OpenCL. AMD z Radeonami zwyczajnie okazało się dość znacząco efektywniejsze w przetwarzaniu zadań niż NV. Projekt Folding@Home operował na PS3 i z użyciem BrookGPU/CAL na rodzinie X1800/X1900, a później na HD. I do czasu pojawienia się klienta CUDA to Radeony prowadziły prym... Później okazało się, że CAL idzie do kosza, a AMD stawia na OpenCL. Pojawił się klient GPU3. I w tym momencie Radeony HD5k i 6k dostawały strasznie po tyłku. Średnia karta NV gniotła nawet dwugłowe potwory AMD. Folding@Home to aplikacja MD (molecular dynamics) z klientem AMBER i GROMACS (chyba AMBER jest przepisany na OpenCL i CUDA). Te klienty MD są używane w wielu innych projektach. W naukowym świecie to znacznie większy wpływ niż farma renderująca... Czemu o tym piszę tak historycznie? Bo wreszcie przy odpowiednim wsparciu AMD i pojawieniu się kart GCN udało się przywrócić balans i AMD znów osiąga przyzwoite wyniki w tej aplikacji. Baaa... wsparcie OpenCL na AMD (a częściowo wcześniej właśnie CAL) dało początek takim aplikacjom jak Luxrender (SmallptGPU, SmalluxGPU) czy serii Accent Password Recovery (i np. cRARk). Ale najlepiej stwierdzić, że AMD daje wszędzie dupy bo tu silnik fizyki @ OpenCL bruździ, tam jakiś raytracer się wywala... aż dziw bierze, że inni potrafią zrobić działające aplikacje OpenCL na AMD
Nie, żeby zawsze było wesoło - w przykładzie GPUGRID AMD tak zniechęciło twórców, że chyba nawet do dziś oficjalnie nie ma wsparcia. Z drugiej strony w milkyway to nv tak dawała dupy (teraz AMD też przez cięcie FP64) że szkoda było nawet odpalać na GeForce. Collatz z kolei działał dobrze na obu platformach z lekką przewagą AMD, to samo POEM. Dla chcącego nic trudnego. Jeśli już miałbym się AMD czepiać to wyłącznie za cyrki wyczyniane przy WinZIP 14.5 iirc. Dodam też, że przez dłuższy czas kompiler OpenCL (x86) od AMD działał zwyczajnie lepiej i warto było instalować ICD AMD nawet dla procesorów intela. W tej chwili nawet nie widziałem porównań i możliwe, że intel już wyszedł na prowadzenie w swoich procesorach.
skoti poruszył wiele rzeczywistych problemów i dał wiele merytorycznych argumentów, jednak merytoryczne argumenty drugiej strony do niego nie docierały. I to jest właśnie problem również wielu z was. Stronniczość, nawet gdy się zapieracie, że macie otwarty umysł i patrzycie obiektywnie każda igiełka która wam się wbiła przez radeony już powoduje łatwiejsze przyswajanie argumentów pro-nv.
Zdajesz sobie sprawę, że krytyka AMD za to, że wywala się w realnych aplikacjach aka V-Ray itp... jest dość słuszna...
Gdy chwalenie AMD za wydajność np. w Luxrender, który znalazł zastosowanie tylko praktycznie w benchmarkach jest praktycznie bez znaczenia.
AMD ma ogromny problem, bo większość apek ma też wersję CUDA. Nawet jeśli w NV coś nawala (nawala czasem) to problem zwykle nie istnieje dzięki alternatywie CUDA.
Test zrobiony, fama poszła w świat, producent przyznał że będą naprawiać tą grę po premierze a na pclol jak zawsze g**** burza i snucie teorii jakie to słabe są nv.
To całe 1080p to nie prawda. Gra upscaluje się z 720p do 1080p z MSAAx4
Remedy podało dokładne rozdzielczości renderowania. Gra zawsze rederuje się w 2/3 wybranej rozdzielczości co pozwala na zmniejszenie wymagań na słabych kartach GPU.
The Windows 10 version of Quantum Break uses the same reconstruction method as on Xbox One. If your resolution is set to 1080p, the game temporally reconstructs the image (except UI) from four 720p buffers rendered with 4xMSAA, just like on Xbox One. Engine assigns input geometry samples from 4xMSAA rendering into shaded clusters in order to maximize covered geometry while keeping the performance on acceptable level by reducing expensive shaded samples. When you change the resolution, the buffers used to construct the image are always 2/3rds of the set resolution, i.e. in 2560×1440 they would be 1706×960.
Czyli najbliżej standardowej rozdzielczości 1080p będzie jeżeli ustawimy 2560x1440. Bazowe 4 klatki będą minimalnie mniejsze niż standardowy 1080p ale po przejściu filtru MSAAx4 nie powinno być jakichś większych różnic. Jak ktoś ma monitor bez obsługi takiej rozdzielczości to można ją zawsze zasymulować w sterownikach. Wtedy karta finalny obraz 1440p przeskaluje przed wyświetleniem w 1080p.
Colt1911 @ 2016.04.14 07:07
Wolumetryczne oświetlenie to kula u nogi w tej grze, co najlepsze zjada strasznie fps'y
To już kwestia tego że karty Nvidii nie potrafią tego efektu obsługiwać zbyt wydajnie. Na kartach AMD działa to bez widocznego spowolnienia a Nvidia ma kłopoty. Może poprawią to w nowej architekturze. Inaczej słabo wiedzę premierę Deus Ex Mankind Divided bo tam także są wolumetryczne światła czyli na kartach Nvidii będzie porażka
To całe 1080p to nie prawda.
Gra upscaluje się z 720p do 1080p z MSAAx4
Wolumetryczne oświetlenie to kula u nogi w tej grze, co najlepsze zjada strasznie fps'y a jest pikselowate haha.
Skopany jest streaming tekstur znany babol z np. Rage
Lock 30fps daje wrażenie 10fps.
Do tego klatki są źle renderowane, występuje duży efekt ghostingu zarówno w 30fps i 60fps, mając 60Hhz monitor można zapomnieć o 60fps gra zawsze będzie działać w max 57fps.
Tona szpachli (filtrów,bajerów) nałożona by ukryć nie doskonałość...wali po oczach motion blur i film grain...
Ten ich silnik to padaka nie ziemska
W tym momencie to szczerze powiem, że żałuję propozycji wprowadzenia systemu oceniania postów ... dawno dawno temu była wolna amerykanka, nie można było zakopać niewygodnych fanbojskich komentarzy, ani zablokować wyświetlanie postów kogoś kogo nie lubimy. Niestety m.in. taki Promil zasiał ziarenko w umysłach pclabowych guru i gdy odpowiednia ilość podobnych opinii się zebrała to machina poszła w ruch. Najgorsze są te minusy i raporty 'ot tak', taki skrytobójczy cios bez możliwości rewanżu. Brak uargumentowania swojej opinii a jedynie szpila wsadzona komuś kto się rzetelnie wypowiedział.
Disqus lub podobna nakładka rozwiązałaby problem i zachęciła do prowadzenia merytorycznych dyskusji.
Hashi @ 2016.04.13 05:56
...
Nie mówię, ze tak jest na 100% to tylko moje domysły na podstawie tego co czytałem w internecie.
Chyba drugi raz na PCL od wielu lat widzę szczerą skromność we własnej opinii. Brawo.
Ale o co chodzi ? Przecież tak samo było z serią 7xx której wydajność została zabita sterownikami przed premierą 9xx, tak samo z 6xx i 7xx. To jest standardowa i normalna zagrywka nvidii, specjalne obniżanie wydajności kart przed premierą nowej serii, za około 6-12 miesięcy gtx 970 będzie można sprzedać za 500 zł na allegro bo nie będzie się nadawał do nowych gier. Przecież tak jest np z gtx 770 który obecnie jest miażdzony przez r9 280x/r9 380 a w dniu premiery był na równi z 280x.
GTX 970 miał wystarczyć na całą długość życia obecnej generacji konsol.
Hmmm...Widać że bardziej prawdopodobny jest scenariusz że z 2 razy jeszcze GPU Nvidii trzeba będzie zmieniać podczas panowania obecnych konsol.
Marketing i PR IDEALNY-DOSKONAŁY ze strony Nv.Produkty...bardzo przeciętne
Czyli nie mylić z Vistą, bezpośredni spadkobierca Windowsa XP.
Porzucony projekt na rzecz Visty.
Nie wiedziałem o tym. Zawsze sądziłem że Longhorn to była Vista.
Ktoś zrobił Longhorn Reloaded, z zamiarem wskrzeszenia tamtego systemu, ale M$ się zdenerwowało, i przestali to robić.
http://gamegpu.com/images/stories/Test_GPU...est/QB_proz.jpg
Nie ma tragicznie, ale gra siedzi bardzo ochoczo na GPU.
Motion blur to jeden z najgłupszych efektów jakie wymyślili..
Niestety w wielu grach obecnie rzuca się efektami na lewo i prawo a tekstury do niczego. A broń boże spojrzeć z bliska (czasem nowe gry z bliska przypominaja te z 99r
Ciężko mi sobie wyobrazić domowe farmy obliczeniowe- gdzie wykorzystuje się FP64. Ale to poza zasięgiem.
Punkt widzenia szefów takich centr to raczej bardzo mała grupka ludzi, których błogosławieństwem np. są zmiany w Pascalu.
W sensie? CUDA się 'trzyma'?
Polecam przeczytać wszystko co Skoti48 (tutejszy bywalec) ma do powiedzenia. Mój link
Szkoda, że tak wiele osób dało się omamić takim marketingowym bełkotem o tej rzekomej przewadze kart AMD w DX12
Oj tam akurat skoti się nie popisał, aż tryska stronniczością. Żeby przytoczyć tylko kilka sytuacji:
DX10.1 i patch do MSAA - nieprawda. W tym konkretnym wątku DX10.1 pozwalało nieco odbić wydajności kartom AMD. NV pokazała kod potrafiący mniej więcej to samo zrobić bez 10.1, a nie żadne postprocesowe AA (MLAA, FXAA, SMAA). Mniej więcej nie znaczy to samo - ścieżka 10.1 mogła zostać opcjonalna dla radeonów, ale zdecydowano inaczej. Bez jakiejkolwiek innej motywacji niż opinia NV.
Crysis 2 i tess factor - no heloł. Jak ktoś tesseluje niewidoczną wodę pod całą mapą, albo kawał płaskiego bloku betonowego z współczynnikiem 64x to bzdurą byłoby napisanie, że to Crytek poszalał, bo go AMD na teselację namawiało... To zwykła spina 8 czy 16 tesselatorów Fermi vs 1 czy 2 Cypressa. I nie ma się co oszukiwać, że chodziło o coś innego, a nv niewinne było zupełnie w to niezaangażowane.
Zabijanie OpenCL, OpenGL etc. Taa, tutaj trzeba być kompletnym kretynem by tak pisać. OpenCL od początku miał wadę w postaci online compilation - kod .cl był przetwarzany na platformę docelową w momencie uruchomienia aplikacji. Niosło to dwa poważne ograniczenia. Kernele nie mogły być zbyt skomplikowane (mało warunków, dużo danych do przepuszczenia czyli data parallelism) i brak ochrony kodu. Ale... m.in. to właśnie dawało uniwersalność, aplikacja napisana w OpenCL 1.0 działała na GF8800GT i zaraz po wejściu Fermi też działała. W przypadku appsów CUDA skompilowanych do binarek niestety wielokrotnie było tak, że aplikacje przestawały działać wraz z nową architekturą (m.in. G92 vs GT200, GT200 vs GF100 ...) I tutaj SPIR co prawda oferuje to co CUDA wiele lat wcześniej, ale w dalszym ciągu jest to znacznie bogatsza baza sprzętowa.
Teraz dalej - OpenCL a AMD. Kolega poruszył kwestię raytracerów, a może warto spojrzeć na naukowe osiągnięcia. WCG (IBM) miał aplikację Help Conquer Cancer. W fazie drugiej zastosowano aplikację OpenCL. AMD z Radeonami zwyczajnie okazało się dość znacząco efektywniejsze w przetwarzaniu zadań niż NV. Projekt Folding@Home operował na PS3 i z użyciem BrookGPU/CAL na rodzinie X1800/X1900, a później na HD. I do czasu pojawienia się klienta CUDA to Radeony prowadziły prym... Później okazało się, że CAL idzie do kosza, a AMD stawia na OpenCL. Pojawił się klient GPU3. I w tym momencie Radeony HD5k i 6k dostawały strasznie po tyłku. Średnia karta NV gniotła nawet dwugłowe potwory AMD. Folding@Home to aplikacja MD (molecular dynamics) z klientem AMBER i GROMACS (chyba AMBER jest przepisany na OpenCL i CUDA). Te klienty MD są używane w wielu innych projektach. W naukowym świecie to znacznie większy wpływ niż farma renderująca... Czemu o tym piszę tak historycznie? Bo wreszcie przy odpowiednim wsparciu AMD i pojawieniu się kart GCN udało się przywrócić balans i AMD znów osiąga przyzwoite wyniki w tej aplikacji. Baaa... wsparcie OpenCL na AMD (a częściowo wcześniej właśnie CAL) dało początek takim aplikacjom jak Luxrender (SmallptGPU, SmalluxGPU) czy serii Accent Password Recovery (i np. cRARk). Ale najlepiej stwierdzić, że AMD daje wszędzie dupy bo tu silnik fizyki @ OpenCL bruździ, tam jakiś raytracer się wywala... aż dziw bierze, że inni potrafią zrobić działające aplikacje OpenCL na AMD
Nie, żeby zawsze było wesoło - w przykładzie GPUGRID AMD tak zniechęciło twórców, że chyba nawet do dziś oficjalnie nie ma wsparcia. Z drugiej strony w milkyway to nv tak dawała dupy (teraz AMD też przez cięcie FP64) że szkoda było nawet odpalać na GeForce. Collatz z kolei działał dobrze na obu platformach z lekką przewagą AMD, to samo POEM. Dla chcącego nic trudnego. Jeśli już miałbym się AMD czepiać to wyłącznie za cyrki wyczyniane przy WinZIP 14.5 iirc. Dodam też, że przez dłuższy czas kompiler OpenCL (x86) od AMD działał zwyczajnie lepiej i warto było instalować ICD AMD nawet dla procesorów intela. W tej chwili nawet nie widziałem porównań i możliwe, że intel już wyszedł na prowadzenie w swoich procesorach.
skoti poruszył wiele rzeczywistych problemów i dał wiele merytorycznych argumentów, jednak merytoryczne argumenty drugiej strony do niego nie docierały. I to jest właśnie problem również wielu z was. Stronniczość, nawet gdy się zapieracie, że macie otwarty umysł i patrzycie obiektywnie każda igiełka która wam się wbiła przez radeony już powoduje łatwiejsze przyswajanie argumentów pro-nv.
Zdajesz sobie sprawę, że krytyka AMD za to, że wywala się w realnych aplikacjach aka V-Ray itp... jest dość słuszna...
Gdy chwalenie AMD za wydajność np. w Luxrender, który znalazł zastosowanie tylko praktycznie w benchmarkach jest praktycznie bez znaczenia.
AMD ma ogromny problem, bo większość apek ma też wersję CUDA. Nawet jeśli w NV coś nawala (nawala czasem) to problem zwykle nie istnieje dzięki alternatywie CUDA.
Wygląda na to że w DX12 już nie, co potwierdza kolejna gra :
http://gamegpu.com/images/stories/Test_GPU...est/ki_1920.jpg
1070 będzie po połowę szybszy od 970? ...i dogoni 290-tkę X?
Widać, że niewiele tracę z 960-tką 2GB, względem 4GB
Remedy podało dokładne rozdzielczości renderowania. Gra zawsze rederuje się w 2/3 wybranej rozdzielczości co pozwala na zmniejszenie wymagań na słabych kartach GPU.
1920x1080 rekonstruowane jest z 4 klatek 1280x720 + MSAA 4x
2560×1440 - rekonstrukcja z 4 klatek 1706×960 + MSAA 4x
3840 × 2160 - rekonstrukcja 4 klatki 2534x1425 + MSAA 4x
http://community.remedygames.com/forum/gam...k-status-update
Czyli najbliżej standardowej rozdzielczości 1080p będzie jeżeli ustawimy 2560x1440. Bazowe 4 klatki będą minimalnie mniejsze niż standardowy 1080p ale po przejściu filtru MSAAx4 nie powinno być jakichś większych różnic. Jak ktoś ma monitor bez obsługi takiej rozdzielczości to można ją zawsze zasymulować w sterownikach. Wtedy karta finalny obraz 1440p przeskaluje przed wyświetleniem w 1080p.
To już kwestia tego że karty Nvidii nie potrafią tego efektu obsługiwać zbyt wydajnie. Na kartach AMD działa to bez widocznego spowolnienia a Nvidia ma kłopoty. Może poprawią to w nowej architekturze. Inaczej słabo wiedzę premierę Deus Ex Mankind Divided bo tam także są wolumetryczne światła czyli na kartach Nvidii będzie porażka
Gra upscaluje się z 720p do 1080p z MSAAx4
Wolumetryczne oświetlenie to kula u nogi w tej grze, co najlepsze zjada strasznie fps'y a jest pikselowate haha.
Skopany jest streaming tekstur znany babol z np. Rage
Lock 30fps daje wrażenie 10fps.
Do tego klatki są źle renderowane, występuje duży efekt ghostingu zarówno w 30fps i 60fps, mając 60Hhz monitor można zapomnieć o 60fps gra zawsze będzie działać w max 57fps.
Tona szpachli (filtrów,bajerów) nałożona by ukryć nie doskonałość...wali po oczach motion blur i film grain...
Ten ich silnik to padaka nie ziemska
Nie mówię, ze tak jest na 100% to tylko moje domysły na podstawie tego co czytałem w internecie.
Po tym co napisałeś trochę 'słabo' polecić komuś karte Nv jeśli czeka go taki scenariusz.
Chyba że się kogoś bardzo nielubi
Hmmm...Widać że bardziej prawdopodobny jest scenariusz że z 2 razy jeszcze GPU Nvidii trzeba będzie zmieniać podczas panowania obecnych konsol.
Marketing i PR IDEALNY-DOSKONAŁY ze strony Nv.Produkty...bardzo przeciętne