@skoti - a mnie chodzi o to, że coraz częściej czytam o różnorakich sztuczkach, przekrętach itp. itd. i szczerze, ale mam tego już dość. MS powinno mieć mega hiper turbo larrabofermi robiące wszystko programowo i dające referencyjną jakość obrazu. Jak nv/amd nie da w 99% takiej samej to sterownik nie dostaje certyfikatu i tyle.
@skoti - a co innego mogli robić jak nie współpracować Ale pokaż mi w HAWX2 choć jedną scenę przemawiającą za tym, że tam jest taka teselacja iż radeony nie wyrabiają (i przez to mają stosunkowo słabe wyniki - z drugiej strony ultrapłynne tak czy inaczej). No ale tak to czasem bywa... tak samo hd6870 wyprzedzające fermi w 1 czy 2 tytułach DX11
Człowieku ale o czym ty do mnie mówisz? Nic nie mówiłem o Hawx2 tylko odpowiedziałem na pytanie o wspieranie ostatnio amd przez twórców gier (po prostu musieli).
@skoti - a co innego mogli robić jak nie współpracować Ale pokaż mi w HAWX2 choć jedną scenę przemawiającą za tym, że tam jest taka teselacja iż radeony nie wyrabiają (i przez to mają stosunkowo słabe wyniki - z drugiej strony ultrapłynne tak czy inaczej). No ale tak to czasem bywa... tak samo hd6870 wyprzedzające fermi w 1 czy 2 tytułach DX11
@UP czy Ty wiesz co napisałeś? Napisałeś że twórcy gier piszą pod ATi a nVidia jest niewspierana i ma problemy z grami :/
Nie do końca - testy na ich kartach są robione, ale bardzo wielu programistów już wychodzi z założenia, że co być nie wykombinował na nvidii działa i czasami odpuszczają sobie część testów (jak w metro). Dodatkowo gry z telestacją siłą rzeczy współpracowały głównie z AMD (kart nVidii nie było jak powstawały), a jeśli już współpracowały z nVidią to dopiero zaraz przed wydaniem gry, jak już dużych zmian do silnika się nie wprowadzało.
Tu akurat amd się nawet wychwalało, że po wydaniu hd5k wszyscy chcieli z nimi współpracować (bo wcześniej nikt nie chciał współpracować, a tylko sam testował na ich kartach czy dobrze działa).
@UP czy Ty wiesz co napisałeś? Napisałeś że twórcy gier piszą pod ATi a nVidia jest niewspierana i ma problemy z grami :/
TWIMTBP to przecież program AMD - nie wiedziałeś o tym?
Swoją drogą trochę zabawne - metro jest w programie TWIMTBP i był problem z tym AAA i AA, a blizzard współpracujący z AMD wydał starcrafta2 w którym AMD w ogóle nie wspierało AA i dodatkowo tekstura podłoża była w niskiej rozdzielczości przy zbliżeniach czego nie było na nvidia. Coś nie najlepiej im te współprace z producentami wychodzą
Bo to nie jest współpraca tylko kampania marketingowa. Bo co zrobią ?? Napiszą grę lepiej na kartę danego producenta po to aby narazić się na gniew drugiej strony ?? Taki smrodek ciągnie się przez lata za deveoperem i zraża kupujących.
@UP czy Ty wiesz co napisałeś? Napisałeś że twórcy gier piszą pod ATi a nVidia jest niewspierana i ma problemy z grami :/
TWIMTBP to przecież program AMD - nie wiedziałeś o tym?
Swoją drogą trochę zabawne - metro jest w programie TWIMTBP i był problem z tym AAA i AA, a blizzard współpracujący z AMD wydał starcrafta2 w którym AMD w ogóle nie wspierało AA i dodatkowo tekstura podłoża była w niskiej rozdzielczości przy zbliżeniach czego nie było na nvidia. Coś nie najlepiej im te współprace z producentami wychodzą
Rozumiem co masz na myśli, jednak tutaj sytuacja była zupełnie odwrotna na ATI gra działa OK, na nV do dupy/nie działa w ogóle a po którejś aktualizacji sterowników nV działa też OK.
Więc w tym przypadku co ? sterowniki nVidia wywoływały dodatkowy konflikt z aplikacją czy aplikacja wywoływała konflikt ze sterownikami nVidia?
Na Ati właśnie działa OK nie dlatego, że mają dobre sterowniki, a wręcz przeciwnie (dlatego, że mają tak złe sterowniki, że programiści muszą pisać na tych kartach) - po prostu pod ich sterowniki trzeba pisać, żeby działało na tych kartach, i programiści metro po prostu założyli, że na kartach nVidii musi działać i nie testowali swojego shadera AAA (a shader był po prostu błędny bo tekstura była filtrowana, co w postprocess AA nie powinno mieć miejsca). Nvidia wprowadziła profil dla sterowników dla tej gry, aby zlikwidować błąd programistów nie czekając na ich poprawkę (a poprawka już wyszła i po poprawionym bugu gry działa i na starych sterownikach) - ten błąd to nie błąd sterowników, a błąd aplikacji (programiści znaleźli bug w sterownikach AMD, który ich zmylił przy tworzeniu AAA i w AAA był błąd (a był widoczny tylko w kartach nVidii, właśnie przez bug w sterownikach AMD, i program na ich kartach nie zachowuje się jak powinien według Microsoftu i DX).
Tu żadnego konfliktu nic nie wywołało - to był bug aplikacji.
Gra jest pisana pod DX, więc pod DX nie powinna powodować problemów wychodząc z założenia, że jest uruchomiona z użyciem karty graficznej zgodnej z wymaganą przez grę wersją DX.
Natomiast jeśli problemy powoduje na sprzęcie JEDNEGO producenta to albo ten producent oszukuje w kwestii zgodności z DX albo ma skopane oprogramowanie zwane dalej sterownikami.
Biorąc pod uwagę, że w kolejnych wersjach sterowników opisany przez Amitozę błąd został przynajmniej częściowo wyeliminowany to przychylam się też do jego opinii - sterowniki nV są z wydania na wydanie coraz gorsze.
Mogę to ocenić bo korzystam z nich.
*) - Nie jestem programistą więc mogę się mylić, są to moje przemyślenia na tzw. chłopski rozum i obserwacje działania mojej karty graficznej.
Tylko właśnie nie ma zgodnych w 100% ze specyfikacją sterowników (nvidia i amd nie do końca robią to co powinny według ms, z tym że różnice pomiędzy nvidią i ms są dużo mniejsze niż amd i ms). U AMD często zdarza się, że coś nie jest ustawione standardowo tak jak powinno być i np. ms mówi, że standardowo jest coś z filtrowaniem liniowym to amd np. nie ustawia tego i pisząc pod ich kartami można przeoczyć, tak jak tu, że się nie ustawiło, bo wygląda, że działa dobrze (chociaż nie powinno). Pisząc pod nvidią znowu masz odwrotną sytuację, bo wszystko co jest w specyfikacji działa jak powinno, a nawet działają rzeczy, których tam nie ma (jako przykłady podam OpenGL bo lepiej go znam niż Dx, np. tworzysz teksturę i ładujesz do niej obrazek i tyle to u nvidii działa jak nie ustawisz filtrów (standardowe ustawienie min filter jest ustawione na filtrowanie GL_NEAREST_MIPMAP_LINEAR, a nie ma mipmap stworzonych - sterowniki przy pierwszym użyciu jeśli ich nie ma to je stworzą - więc programista może pomyśleć, że wszystko jest ok), a u AMD wywali się program (nie ma mipmap a chce je odczytać do filtrowania) mimo, że wszystko jest zgodnie ze specyfikacją i nie ma tu błędu w sterowniku (błąd jest po stronie programisty, który nie pisał zgodnie ze specyfikacją tylko zaufał sterownikowi i ze działa)... w takim wypadku obarczałbyś winą amd za złe sterowniki, mimo, że w tym miejscu akurat są jak najbardziej dobre, a po prostu program nie jest napisany zgodne ze specyfikacją. Tak samo tu po prostu programiści zapomnieli ustawić filtrowania innego niż standardowe, a amd ma standardowo inne niż domyślne w dx i problem gotowy. Takich niezgodności jest cała masa, a wina akurat tu stoi po stronie programistów i częściowo po stronie amd (zmyliła programistów, bo nieprawidłowy kod (z punktu widzenia specyfikacji) działał u nich jak prawidłowy) - poprawki w sterownikach dla gier (wykrywa grę i dla niej symuluje zachowanie sterowników konkurencji (nawet jeśli musi odbiegać wtedy od specyfikacji Dx/OGL) to norma, ale dużo skuteczniejsze są poprawki do samej gry, jak już twórcy znajdą swój błąd i poprawią tą linijkę którą źle napisali/nie dopisali).
Promilus1984 @ 2010.11.23 16:29
Co do 'optymalizacji' - ludzie, na konsolach nie macie nic innego niż optymalizację a i tak ryczycie jak to konsola potrafi niby dogonić, jeśli nie przegonić PC (podając za przykłady Uncharted 2, Killzone 3, GT5 itp.) Jasne, błyskające tekstury są złe, znikające elementy też złe, rozmywające się detale również. Więc walczcie, zróbta petycję i zbierajta 'podpisy'. Sam chętnie dodam wpis pod taką petycją.
Nie powiedziałbym, że potrafi dogonić czy przegonić, ani nie zwalałbym tego na optymalizacje sterowników - po prostu tam nie liczy się oświetlenia/globalnej iluminacji w czasie rzeczywistym tylko jest ona wypiekana na tekstury (tak jak w grach PC lata temu jak nie było mocy obliczeniowej ;p), dlatego GI Ci się nie zmieni jak przesuniesz coś w inne miejsce (bo nie jest dynamiczne, tylko statyczne).
Rozumiem co masz na myśli, jednak tutaj sytuacja była zupełnie odwrotna na ATI gra działa OK, na nV do dupy/nie działa w ogóle a po którejś aktualizacji sterowników nV działa też OK.
Więc w tym przypadku co ? sterowniki nVidia wywoływały dodatkowy konflikt z aplikacją czy aplikacja wywoływała konflikt ze sterownikami nVidia?
Podoba mi sie argumentacja Szerokiego,ktory dochodzi do wniosku ze NV ma kiepskie stery na przykladzie jednej gry, chociaz to na ATI gry sie sypia na prawo i lewo.
Dochodzę do wniosku na podstawie własnych (wieloletnich) doświadczeń z kartami nVidia i ATI, o czym napisałem.
Proponuję więc czytać mniej wybiórczo.
A brednie o sypiących się grach na ATI włóż proszę do swojej książeczki na dobranoc.
Tu masz jakbyś się nudził trochę materiałów do przemyślenia [ http://8xj.utnij.net ].
Tutaj również - [ http://8xk.utnij.net ].
Żal. NV stosuje dużo bardziej agresywne 'optymalizacje' niż AMD a twierdzą że mają już to za sobą. Wystarczy zobaczyć wspomnianego Crisis'a albo Metro 2033. Najpierw sami niech będą nieskazitelni zanim zaczną oskarżać innych.
Gra jest pisana pod DX, więc pod DX nie powinna powodować problemów wychodząc z założenia, że jest uruchomiona z użyciem karty graficznej zgodnej z wymaganą przez grę wersją DX.
Natomiast jeśli problemy powoduje na sprzęcie JEDNEGO producenta to albo ten producent oszukuje w kwestii zgodności z DX albo ma skopane oprogramowanie zwane dalej sterownikami.
Biorąc pod uwagę, że w kolejnych wersjach sterowników opisany przez Amitozę błąd został przynajmniej częściowo wyeliminowany to przychylam się też do jego opinii - sterowniki nV są z wydania na wydanie coraz gorsze.
Mogę to ocenić bo korzystam z nich.
*) - Nie jestem programistą więc mogę się mylić, są to moje przemyślenia na tzw. chłopski rozum i obserwacje działania mojej karty graficznej.
Tylko właśnie nie ma zgodnych w 100% ze specyfikacją sterowników (nvidia i amd nie do końca robią to co powinny według ms, z tym że różnice pomiędzy nvidią i ms są dużo mniejsze niż amd i ms). U AMD często zdarza się, że coś nie jest ustawione standardowo tak jak powinno być i np. ms mówi, że standardowo jest coś z filtrowaniem liniowym to amd np. nie ustawia tego i pisząc pod ich kartami można przeoczyć, tak jak tu, że się nie ustawiło, bo wygląda, że działa dobrze (chociaż nie powinno). Pisząc pod nvidią znowu masz odwrotną sytuację, bo wszystko co jest w specyfikacji działa jak powinno, a nawet działają rzeczy, których tam nie ma (jako przykłady podam OpenGL bo lepiej go znam niż Dx, np. tworzysz teksturę i ładujesz do niej obrazek i tyle to u nvidii działa jak nie ustawisz filtrów (standardowe ustawienie min filter jest ustawione na filtrowanie GL_NEAREST_MIPMAP_LINEAR, a nie ma mipmap stworzonych - sterowniki przy pierwszym użyciu jeśli ich nie ma to je stworzą - więc programista może pomyśleć, że wszystko jest ok), a u AMD wywali się program (nie ma mipmap a chce je odczytać do filtrowania) mimo, że wszystko jest zgodnie ze specyfikacją i nie ma tu błędu w sterowniku (błąd jest po stronie programisty, który nie pisał zgodnie ze specyfikacją tylko zaufał sterownikowi i ze działa)... w takim wypadku obarczałbyś winą amd za złe sterowniki, mimo, że w tym miejscu akurat są jak najbardziej dobre, a po prostu program nie jest napisany zgodne ze specyfikacją. Tak samo tu po prostu programiści zapomnieli ustawić filtrowania innego niż standardowe, a amd ma standardowo inne niż domyślne w dx i problem gotowy. Takich niezgodności jest cała masa, a wina akurat tu stoi po stronie programistów i częściowo po stronie amd (zmyliła programistów, bo nieprawidłowy kod (z punktu widzenia specyfikacji) działał u nich jak prawidłowy) - poprawki w sterownikach dla gier (wykrywa grę i dla niej symuluje zachowanie sterowników konkurencji (nawet jeśli musi odbiegać wtedy od specyfikacji Dx/OGL) to norma, ale dużo skuteczniejsze są poprawki do samej gry, jak już twórcy znajdą swój błąd i poprawią tą linijkę którą źle napisali/nie dopisali).
Promilus1984 @ 2010.11.23 16:29
Co do 'optymalizacji' - ludzie, na konsolach nie macie nic innego niż optymalizację a i tak ryczycie jak to konsola potrafi niby dogonić, jeśli nie przegonić PC (podając za przykłady Uncharted 2, Killzone 3, GT5 itp.) Jasne, błyskające tekstury są złe, znikające elementy też złe, rozmywające się detale również. Więc walczcie, zróbta petycję i zbierajta 'podpisy'. Sam chętnie dodam wpis pod taką petycją.
Nie powiedziałbym, że potrafi dogonić czy przegonić, ani nie zwalałbym tego na optymalizacje sterowników - po prostu tam nie liczy się oświetlenia/globalnej iluminacji w czasie rzeczywistym tylko jest ona wypiekana na tekstury (tak jak w grach PC lata temu jak nie było mocy obliczeniowej ;p), dlatego GI Ci się nie zmieni jak przesuniesz coś w inne miejsce (bo nie jest dynamiczne, tylko statyczne).
wczesniej, czy pozniej musisz sie 'zatrzymac' i wtedy widac ogolnie z takim podejsciem, to w ogole ustawmy wszystko na low, bo i tak nie widac. nie bedzie wtedy ZADNEGO problemu z IQ tylko, ze wtedy amd/ati i nv moga zwijac interes dot. rynku DG, bo nie bedzie on mial zadnego sensu - integra z intela bedzie wystarczajaca do low
Szkoda na ciebie słów. Na forum założyłeś temat, po to, aby doszukać się pikselika który na ati jest nie wporządku i dla 99% ludu niewidoczny, ale gdy mowa o nvidii, to piszesz, że w czasie gry nie zwraca się na to uwagi... To zakrawa o hipokryzm...
Chyba na hipokryzje ale czego oczekujesz od trolla ??
Podoba mi sie argumentacja Szerokiego,ktory dochodzi do wniosku ze NV ma kiepskie stery na przykladzie jednej gry, chociaz to na ATI gry sie sypia na prawo i lewo.
Ja jakoś ich nie zauważyłem tak jak i na ATI tak i na NV nie miałem większych problemów ze sterami... Ot po prostu mam od kart takie oczekiwania coby działało i coby nie rwało. Reszta to dla mnie pikuś nie będę się podniecał 123213xAA i 3123xAF w smarku i nie będę się onanizował wynikami z nich. Co mi po grafie jak gry są słabe..
wczesniej, czy pozniej musisz sie 'zatrzymac' i wtedy widac ogolnie z takim podejsciem, to w ogole ustawmy wszystko na low, bo i tak nie widac. nie bedzie wtedy ZADNEGO problemu z IQ tylko, ze wtedy amd/ati i nv moga zwijac interes dot. rynku DG, bo nie bedzie on mial zadnego sensu - integra z intela bedzie wystarczajaca do low
Szkoda na ciebie słów. Na forum założyłeś temat, po to, aby doszukać się pikselika który na ati jest nie wporządku i dla 99% ludu niewidoczny, ale gdy mowa o nvidii, to piszesz, że w czasie gry nie zwraca się na to uwagi... To zakrawa o hipokryzje...
Podoba mi sie argumentacja Szerokiego,ktory dochodzi do wniosku ze NV ma kiepskie stery na przykladzie jednej gry, chociaz to na ATI gry sie sypia na prawo i lewo.
@Szeroki - nie wszystko w grach jest robione zgodnie ze standardem. Bo np. AA+deferred rendering na DX9, czy Analytical AA w Metro 2033 to rozwiązania własne, robią coś standardowego (jak AA) w niestandardowy sposób, bo inaczej albo nie działa, albo nie wszędzie działa, albo z jeszcze innego powodu.
Co do 'optymalizacji' - ludzie, na konsolach nie macie nic innego niż optymalizację a i tak ryczycie jak to konsola potrafi niby dogonić, jeśli nie przegonić PC (podając za przykłady Uncharted 2, Killzone 3, GT5 itp.) Jasne, błyskające tekstury są złe, znikające elementy też złe, rozmywające się detale również. Więc walczcie, zróbta petycję i zbierajta 'podpisy'. Sam chętnie dodam wpis pod taką petycją.
Największy idiotyzm to NV odwaliła z Sli. Jak nie włączysz w ustawieniach wygładzania w trybie minimum Sli x8, to Sli działa w trybie wydajności, a nie jakości i obraz wygląda gorzej niż na pojedynczej karcie (potrzeba mniejszego poziomu AA na pojedynczej karcie by osiągnąć tą samą jakość co na Sli). W efekcie można o o kant dupy rozbić wszystkie te wykresy mierzące wydajność w Sli, bo są robione na standardowych ustawieniach. Przecież nie po to kupuję 2 karty, żeby mieć wyższą wydajność kosztem jakości obrazu - mogłem sobie włączyć rozdzielczość 800x600 i też miałbym wyższą wydajność i to na jednej karcie.
Czy ktoś kto korzysta z Sli widzi ten sam problem co ja?
Tak, oczywiście wszyscy programiści świata musicie pamiętać żeby pisać swój soft w pełnej zgodności ze sterownikami nVidii
Chyba sobie kpisz - gra korzysta z konkretnego środowiska graficznego i jeśli występują w niej błędy tylko na sprzęcie jednego producenta to oczywiście gra została spierniczona.
Baaardzo inteligenta konkluzja.
Zabawne to co mówisz, bo programiści od zawsze muszą testować zgodność z kartami dostępnymi na rynku, ale wiele osób wychodzi z założenia, że programuje pod karty AMD, bo ich zachowanie trudniej przewidzieć i bardziej odbiegają od norm (pisząc zgodnie ze standardem na nVidii wiesz czego się spodziewać, a na Amd możesz tylko przypuszczać i w wielu miejscach, żeby działało na Amd musisz ostro się nagimnastykować, żeby obejść problemy ich sterowników i zgodności z różnymi API).
Co do AAA to nie jest żaden element 'środowiska graficznego' (rozumiem, że przez to pojęcie rozumujesz po prostu API), a całkowicie efekt programistów shaderów - aby było rozmycie takie wystarczyło, że pisali na Amd (z założenia 'skoro działa na amd to zadziała z pewnością na nvidii", a Amd nie obsługiwało w jakimś typie samplera filtrowania liniowego (które najprawdopodobniej było wymagane przez api i było domyślnym ustawieniem samplera) i na kartach amd wyszło dobrze wizualnie (chociaż nie zgodnie z zachowaniem api), a na nVidii jest rozmyte przez filtrowanie liniowe (to wina tylko programistów i w pathu zrobili po prostu poprawkę tej złej jednej linijki kodu w C++ (po prostu ustawić filtrowanie ręcznie)).
BonoUG @ 2010.11.23 11:46
Druga kwestia, czy podczas dynamicznej rozgrywki zauważacie te różnice?
No właśnie to widać tylko przy dynamicznej rozgrywce jak Ci wszystko miga... jak się nie ruszasz to nie zauważysz problemu.
raximus @ 2010.11.23 09:50
A nikt już nie pamięta jak było z Batmanem?? Zrobili w grze oficjalnie, że if karta=Ati then wydajnosc -15%. Wystarczyło nazwać se kartę Nvidia Radeon 4870 i z nagle z dupy gra działała 15% wydajniej...
Tak tylko nie zauważasz, że po prostu jeśli karta była Ati to korzystano z Dx10.1 (i implementacji MSAA w sterownikach od Ati), a jak karta nVidii to korzystali z implementacji od nVidii w shaderach (które też działają na kartach Ati, ale jeśli zrezygnowaliby z Dx10.1 to byłoby głośno jak to ze względu na nVidię olewają dx10.1 który 'przyspiesza' - dlatego zostawili to tak, że implementacja jest zależna od firmy która ją zrobiła).
Ja to rozumiem tak*:
Gra jest pisana pod DX, więc pod DX nie powinna powodować problemów wychodząc z założenia, że jest uruchomiona z użyciem karty graficznej zgodnej z wymaganą przez grę wersją DX.
Natomiast jeśli problemy powoduje na sprzęcie JEDNEGO producenta to albo ten producent oszukuje w kwestii zgodności z DX albo ma skopane oprogramowanie zwane dalej sterownikami.
Biorąc pod uwagę, że w kolejnych wersjach sterowników opisany przez Amitozę błąd został przynajmniej częściowo wyeliminowany to przychylam się też do jego opinii - sterowniki nV są z wydania na wydanie coraz gorsze.
Mogę to ocenić bo korzystam z nich.
*) - Nie jestem programistą więc mogę się mylić, są to moje przemyślenia na tzw. chłopski rozum i obserwacje działania mojej karty graficznej.
Jaki z tego wniosek? kupuj AMD bo nawet jak nVidia zapłaci to i tak będzie działać lepiej na Radkach.
Dobre...
Człowieku ale o czym ty do mnie mówisz? Nic nie mówiłem o Hawx2 tylko odpowiedziałem na pytanie o wspieranie ostatnio amd przez twórców gier (po prostu musieli).
Nie do końca - testy na ich kartach są robione, ale bardzo wielu programistów już wychodzi z założenia, że co być nie wykombinował na nvidii działa i czasami odpuszczają sobie część testów (jak w metro). Dodatkowo gry z telestacją siłą rzeczy współpracowały głównie z AMD (kart nVidii nie było jak powstawały), a jeśli już współpracowały z nVidią to dopiero zaraz przed wydaniem gry, jak już dużych zmian do silnika się nie wprowadzało.
Tu akurat amd się nawet wychwalało, że po wydaniu hd5k wszyscy chcieli z nimi współpracować (bo wcześniej nikt nie chciał współpracować, a tylko sam testował na ich kartach czy dobrze działa).
TWIMTBP to przecież program AMD - nie wiedziałeś o tym?
Swoją drogą trochę zabawne - metro jest w programie TWIMTBP i był problem z tym AAA i AA, a blizzard współpracujący z AMD wydał starcrafta2 w którym AMD w ogóle nie wspierało AA i dodatkowo tekstura podłoża była w niskiej rozdzielczości przy zbliżeniach czego nie było na nvidia. Coś nie najlepiej im te współprace z producentami wychodzą
Bo to nie jest współpraca tylko kampania marketingowa. Bo co zrobią ?? Napiszą grę lepiej na kartę danego producenta po to aby narazić się na gniew drugiej strony ?? Taki smrodek ciągnie się przez lata za deveoperem i zraża kupujących.
TWIMTBP to przecież program AMD - nie wiedziałeś o tym?
Swoją drogą trochę zabawne - metro jest w programie TWIMTBP i był problem z tym AAA i AA, a blizzard współpracujący z AMD wydał starcrafta2 w którym AMD w ogóle nie wspierało AA i dodatkowo tekstura podłoża była w niskiej rozdzielczości przy zbliżeniach czego nie było na nvidia. Coś nie najlepiej im te współprace z producentami wychodzą
Rozumiem co masz na myśli, jednak tutaj sytuacja była zupełnie odwrotna na ATI gra działa OK, na nV do dupy/nie działa w ogóle a po którejś aktualizacji sterowników nV działa też OK.
Więc w tym przypadku co ? sterowniki nVidia wywoływały dodatkowy konflikt z aplikacją czy aplikacja wywoływała konflikt ze sterownikami nVidia?
Na Ati właśnie działa OK nie dlatego, że mają dobre sterowniki, a wręcz przeciwnie (dlatego, że mają tak złe sterowniki, że programiści muszą pisać na tych kartach) - po prostu pod ich sterowniki trzeba pisać, żeby działało na tych kartach, i programiści metro po prostu założyli, że na kartach nVidii musi działać i nie testowali swojego shadera AAA (a shader był po prostu błędny bo tekstura była filtrowana, co w postprocess AA nie powinno mieć miejsca). Nvidia wprowadziła profil dla sterowników dla tej gry, aby zlikwidować błąd programistów nie czekając na ich poprawkę (a poprawka już wyszła i po poprawionym bugu gry działa i na starych sterownikach) - ten błąd to nie błąd sterowników, a błąd aplikacji (programiści znaleźli bug w sterownikach AMD, który ich zmylił przy tworzeniu AAA i w AAA był błąd (a był widoczny tylko w kartach nVidii, właśnie przez bug w sterownikach AMD, i program na ich kartach nie zachowuje się jak powinien według Microsoftu i DX).
Tu żadnego konfliktu nic nie wywołało - to był bug aplikacji.
Ja to rozumiem tak*:
Gra jest pisana pod DX, więc pod DX nie powinna powodować problemów wychodząc z założenia, że jest uruchomiona z użyciem karty graficznej zgodnej z wymaganą przez grę wersją DX.
Natomiast jeśli problemy powoduje na sprzęcie JEDNEGO producenta to albo ten producent oszukuje w kwestii zgodności z DX albo ma skopane oprogramowanie zwane dalej sterownikami.
Biorąc pod uwagę, że w kolejnych wersjach sterowników opisany przez Amitozę błąd został przynajmniej częściowo wyeliminowany to przychylam się też do jego opinii - sterowniki nV są z wydania na wydanie coraz gorsze.
Mogę to ocenić bo korzystam z nich.
*) - Nie jestem programistą więc mogę się mylić, są to moje przemyślenia na tzw. chłopski rozum i obserwacje działania mojej karty graficznej.
Tylko właśnie nie ma zgodnych w 100% ze specyfikacją sterowników (nvidia i amd nie do końca robią to co powinny według ms, z tym że różnice pomiędzy nvidią i ms są dużo mniejsze niż amd i ms). U AMD często zdarza się, że coś nie jest ustawione standardowo tak jak powinno być i np. ms mówi, że standardowo jest coś z filtrowaniem liniowym to amd np. nie ustawia tego i pisząc pod ich kartami można przeoczyć, tak jak tu, że się nie ustawiło, bo wygląda, że działa dobrze (chociaż nie powinno). Pisząc pod nvidią znowu masz odwrotną sytuację, bo wszystko co jest w specyfikacji działa jak powinno, a nawet działają rzeczy, których tam nie ma (jako przykłady podam OpenGL bo lepiej go znam niż Dx, np. tworzysz teksturę i ładujesz do niej obrazek i tyle to u nvidii działa jak nie ustawisz filtrów (standardowe ustawienie min filter jest ustawione na filtrowanie GL_NEAREST_MIPMAP_LINEAR, a nie ma mipmap stworzonych - sterowniki przy pierwszym użyciu jeśli ich nie ma to je stworzą - więc programista może pomyśleć, że wszystko jest ok), a u AMD wywali się program (nie ma mipmap a chce je odczytać do filtrowania) mimo, że wszystko jest zgodnie ze specyfikacją i nie ma tu błędu w sterowniku (błąd jest po stronie programisty, który nie pisał zgodnie ze specyfikacją tylko zaufał sterownikowi i ze działa)... w takim wypadku obarczałbyś winą amd za złe sterowniki, mimo, że w tym miejscu akurat są jak najbardziej dobre, a po prostu program nie jest napisany zgodne ze specyfikacją. Tak samo tu po prostu programiści zapomnieli ustawić filtrowania innego niż standardowe, a amd ma standardowo inne niż domyślne w dx i problem gotowy. Takich niezgodności jest cała masa, a wina akurat tu stoi po stronie programistów i częściowo po stronie amd (zmyliła programistów, bo nieprawidłowy kod (z punktu widzenia specyfikacji) działał u nich jak prawidłowy) - poprawki w sterownikach dla gier (wykrywa grę i dla niej symuluje zachowanie sterowników konkurencji (nawet jeśli musi odbiegać wtedy od specyfikacji Dx/OGL) to norma, ale dużo skuteczniejsze są poprawki do samej gry, jak już twórcy znajdą swój błąd i poprawią tą linijkę którą źle napisali/nie dopisali).
Nie powiedziałbym, że potrafi dogonić czy przegonić, ani nie zwalałbym tego na optymalizacje sterowników - po prostu tam nie liczy się oświetlenia/globalnej iluminacji w czasie rzeczywistym tylko jest ona wypiekana na tekstury (tak jak w grach PC lata temu jak nie było mocy obliczeniowej ;p), dlatego GI Ci się nie zmieni jak przesuniesz coś w inne miejsce (bo nie jest dynamiczne, tylko statyczne).
Rozumiem co masz na myśli, jednak tutaj sytuacja była zupełnie odwrotna na ATI gra działa OK, na nV do dupy/nie działa w ogóle a po którejś aktualizacji sterowników nV działa też OK.
Więc w tym przypadku co ? sterowniki nVidia wywoływały dodatkowy konflikt z aplikacją czy aplikacja wywoływała konflikt ze sterownikami nVidia?
Dochodzę do wniosku na podstawie własnych (wieloletnich) doświadczeń z kartami nVidia i ATI, o czym napisałem.
Proponuję więc czytać mniej wybiórczo.
A brednie o sypiących się grach na ATI włóż proszę do swojej książeczki na dobranoc.
Tu masz jakbyś się nudził trochę materiałów do przemyślenia [ http://8xj.utnij.net ].
Tutaj również - [ http://8xk.utnij.net ].
Ja to rozumiem tak*:
Gra jest pisana pod DX, więc pod DX nie powinna powodować problemów wychodząc z założenia, że jest uruchomiona z użyciem karty graficznej zgodnej z wymaganą przez grę wersją DX.
Natomiast jeśli problemy powoduje na sprzęcie JEDNEGO producenta to albo ten producent oszukuje w kwestii zgodności z DX albo ma skopane oprogramowanie zwane dalej sterownikami.
Biorąc pod uwagę, że w kolejnych wersjach sterowników opisany przez Amitozę błąd został przynajmniej częściowo wyeliminowany to przychylam się też do jego opinii - sterowniki nV są z wydania na wydanie coraz gorsze.
Mogę to ocenić bo korzystam z nich.
*) - Nie jestem programistą więc mogę się mylić, są to moje przemyślenia na tzw. chłopski rozum i obserwacje działania mojej karty graficznej.
Tylko właśnie nie ma zgodnych w 100% ze specyfikacją sterowników (nvidia i amd nie do końca robią to co powinny według ms, z tym że różnice pomiędzy nvidią i ms są dużo mniejsze niż amd i ms). U AMD często zdarza się, że coś nie jest ustawione standardowo tak jak powinno być i np. ms mówi, że standardowo jest coś z filtrowaniem liniowym to amd np. nie ustawia tego i pisząc pod ich kartami można przeoczyć, tak jak tu, że się nie ustawiło, bo wygląda, że działa dobrze (chociaż nie powinno). Pisząc pod nvidią znowu masz odwrotną sytuację, bo wszystko co jest w specyfikacji działa jak powinno, a nawet działają rzeczy, których tam nie ma (jako przykłady podam OpenGL bo lepiej go znam niż Dx, np. tworzysz teksturę i ładujesz do niej obrazek i tyle to u nvidii działa jak nie ustawisz filtrów (standardowe ustawienie min filter jest ustawione na filtrowanie GL_NEAREST_MIPMAP_LINEAR, a nie ma mipmap stworzonych - sterowniki przy pierwszym użyciu jeśli ich nie ma to je stworzą - więc programista może pomyśleć, że wszystko jest ok), a u AMD wywali się program (nie ma mipmap a chce je odczytać do filtrowania) mimo, że wszystko jest zgodnie ze specyfikacją i nie ma tu błędu w sterowniku (błąd jest po stronie programisty, który nie pisał zgodnie ze specyfikacją tylko zaufał sterownikowi i ze działa)... w takim wypadku obarczałbyś winą amd za złe sterowniki, mimo, że w tym miejscu akurat są jak najbardziej dobre, a po prostu program nie jest napisany zgodne ze specyfikacją. Tak samo tu po prostu programiści zapomnieli ustawić filtrowania innego niż standardowe, a amd ma standardowo inne niż domyślne w dx i problem gotowy. Takich niezgodności jest cała masa, a wina akurat tu stoi po stronie programistów i częściowo po stronie amd (zmyliła programistów, bo nieprawidłowy kod (z punktu widzenia specyfikacji) działał u nich jak prawidłowy) - poprawki w sterownikach dla gier (wykrywa grę i dla niej symuluje zachowanie sterowników konkurencji (nawet jeśli musi odbiegać wtedy od specyfikacji Dx/OGL) to norma, ale dużo skuteczniejsze są poprawki do samej gry, jak już twórcy znajdą swój błąd i poprawią tą linijkę którą źle napisali/nie dopisali).
Nie powiedziałbym, że potrafi dogonić czy przegonić, ani nie zwalałbym tego na optymalizacje sterowników - po prostu tam nie liczy się oświetlenia/globalnej iluminacji w czasie rzeczywistym tylko jest ona wypiekana na tekstury (tak jak w grach PC lata temu jak nie było mocy obliczeniowej ;p), dlatego GI Ci się nie zmieni jak przesuniesz coś w inne miejsce (bo nie jest dynamiczne, tylko statyczne).
wczesniej, czy pozniej musisz sie 'zatrzymac' i wtedy widac
Szkoda na ciebie słów. Na forum założyłeś temat, po to, aby doszukać się pikselika który na ati jest nie wporządku i dla 99% ludu niewidoczny, ale gdy mowa o nvidii, to piszesz, że w czasie gry nie zwraca się na to uwagi... To zakrawa o hipokryzm...
Chyba na hipokryzje ale czego oczekujesz od trolla ??
Ja jakoś ich nie zauważyłem tak jak i na ATI tak i na NV nie miałem większych problemów ze sterami... Ot po prostu mam od kart takie oczekiwania coby działało i coby nie rwało. Reszta to dla mnie pikuś nie będę się podniecał 123213xAA i 3123xAF w smarku i nie będę się onanizował wynikami z nich. Co mi po grafie jak gry są słabe..
A to do reszty... Ale ati itak złe i be...
wczesniej, czy pozniej musisz sie 'zatrzymac' i wtedy widac
Szkoda na ciebie słów. Na forum założyłeś temat, po to, aby doszukać się pikselika który na ati jest nie wporządku i dla 99% ludu niewidoczny, ale gdy mowa o nvidii, to piszesz, że w czasie gry nie zwraca się na to uwagi... To zakrawa o hipokryzje...
Co do 'optymalizacji' - ludzie, na konsolach nie macie nic innego niż optymalizację a i tak ryczycie jak to konsola potrafi niby dogonić, jeśli nie przegonić PC (podając za przykłady Uncharted 2, Killzone 3, GT5 itp.) Jasne, błyskające tekstury są złe, znikające elementy też złe, rozmywające się detale również. Więc walczcie, zróbta petycję i zbierajta 'podpisy'. Sam chętnie dodam wpis pod taką petycją.
Czy ktoś kto korzysta z Sli widzi ten sam problem co ja?
Chyba sobie kpisz - gra korzysta z konkretnego środowiska graficznego i jeśli występują w niej błędy tylko na sprzęcie jednego producenta to oczywiście gra została spierniczona.
Baaardzo inteligenta konkluzja.
Zabawne to co mówisz, bo programiści od zawsze muszą testować zgodność z kartami dostępnymi na rynku, ale wiele osób wychodzi z założenia, że programuje pod karty AMD, bo ich zachowanie trudniej przewidzieć i bardziej odbiegają od norm (pisząc zgodnie ze standardem na nVidii wiesz czego się spodziewać, a na Amd możesz tylko przypuszczać i w wielu miejscach, żeby działało na Amd musisz ostro się nagimnastykować, żeby obejść problemy ich sterowników i zgodności z różnymi API).
Co do AAA to nie jest żaden element 'środowiska graficznego' (rozumiem, że przez to pojęcie rozumujesz po prostu API), a całkowicie efekt programistów shaderów - aby było rozmycie takie wystarczyło, że pisali na Amd (z założenia 'skoro działa na amd to zadziała z pewnością na nvidii"
No właśnie to widać tylko przy dynamicznej rozgrywce jak Ci wszystko miga... jak się nie ruszasz to nie zauważysz problemu.
Tak tylko nie zauważasz, że po prostu jeśli karta była Ati to korzystano z Dx10.1 (i implementacji MSAA w sterownikach od Ati), a jak karta nVidii to korzystali z implementacji od nVidii w shaderach (które też działają na kartach Ati, ale jeśli zrezygnowaliby z Dx10.1 to byłoby głośno jak to ze względu na nVidię olewają dx10.1 który 'przyspiesza' - dlatego zostawili to tak, że implementacja jest zależna od firmy która ją zrobiła).
Ja to rozumiem tak*:
Gra jest pisana pod DX, więc pod DX nie powinna powodować problemów wychodząc z założenia, że jest uruchomiona z użyciem karty graficznej zgodnej z wymaganą przez grę wersją DX.
Natomiast jeśli problemy powoduje na sprzęcie JEDNEGO producenta to albo ten producent oszukuje w kwestii zgodności z DX albo ma skopane oprogramowanie zwane dalej sterownikami.
Biorąc pod uwagę, że w kolejnych wersjach sterowników opisany przez Amitozę błąd został przynajmniej częściowo wyeliminowany to przychylam się też do jego opinii - sterowniki nV są z wydania na wydanie coraz gorsze.
Mogę to ocenić bo korzystam z nich.
*) - Nie jestem programistą więc mogę się mylić, są to moje przemyślenia na tzw. chłopski rozum i obserwacje działania mojej karty graficznej.