Inna rzecz, że abym wybrał produkt AMD to musiałby być on naprawdę rewelacyjny, bo po prostu firma która od lat nie potrafi nawet opanować bałaganu we własnych szeregach jest dla mnie kompletnie niewiarygodna i podświadomie kojarzy się z nieudolnością....
Zgoda.
Co w takim razie powiesz o firmie która:
- chwaliła się atrapami udając, że to prawdziwy egzemplarz
- całkiem niedawno kłamała w sprawie prawdziwej specyfikacji
- jej sterowniki fizycznie uszkadzały karty, inne poprawiały wydajność kosztem jakości grafiki, aby tylko lepiej wypaść przed konkurencją
- zaliczała totalnie nieudane architektury
- płaciła producentom, aby Ci robili gry pod ich produkty i takie też wykorzystywała w promocji swoich produktów
- tworzyła zamknięte standardy
- wypuszczała kotlety
Oczywiście mowa o Nvidii.
Aż boje się zapytać z czym kojarzy Ci się NV (sarkazm)
Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie. Zdejmij klapki z oczu i się nie ośmieszaj.
Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie.
No trza wybierać z dwojga złego
i nawet nie wiadomo komu bardziej zaufać bo jedni i drudzy pokazali, że potrafią sterami ubijać stare karty. Kiedyś przy wyborze między gtx460 i hd6850 wybrałem tego drugiego(tzn najpierw pierwszego, ale padł po kilku dniach) i AMD po wprowadzeniu gcn uwalnia vliwy. Teraz nauczony wybierając między r9 280, a gtx680 i gtx960 zrezygnowałem z Amd bo stwierdziłem, że gcn1.0 zaraz zostanie olane - w końcu 2 letnie gpu, . Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.
Lepszy będzie founders 1070 niż zwykły 1080, bo za 700zł mniej osiągniemy po oc obu będziemy mieli to samo. Jedyny minus to referent, ale od czasów 780tki referenty i tak są zagłuszane przez grę, więc na to nie patrzę
Lepszy będzie founders 1070 niż zwykły 1080, bo za 700zł mniej osiągniemy po oc obu będziemy mieli to samo. Jedyny minus to referent, ale od czasów 780tki referenty i tak są zagłuszane przez grę, więc na to nie patrzę
Jakim cudem? Skoro będzie o 1/5 jednostek mniej i wolniejsze pamięci?
Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.
To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.
Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.
Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.
i nawet nie wiadomo komu bardziej zaufać bo jedni i drudzy pokazali, że potrafią sterami ubijać stare karty. Kiedyś przy wyborze między gtx460 i hd6850 wybrałem tego drugiego(tzn najpierw pierwszego, ale padł po kilku dniach) i AMD po wprowadzeniu gcn uwalnia vliwy. Teraz nauczony wybierając między r9 280, a gtx680 i gtx960 zrezygnowałem z Amd bo stwierdziłem, że gcn1.0 zaraz zostanie olane - w końcu 2 letnie gpu, . Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.
Ja miałem 770@4GB to była zupełnie inna karta niż 680@2GB....
7970 z 3GB stanowi tu świetny kompromis. Podobnie było z 6970 gdzie 580 miało 512MB to bolało tą kartę.
Inwestycja w pamięć bywa opłacalna lecz ryzykowna, bo 6970 mimo 2GB obrywa przez archi i suport.
Co do maxwell vs Pascal śmiem twierdzić, że zmiany są dość kosmetyczne i NV po prostu nadrobiła pewne sprzętowe braki ale ogólnie to napakowany maxwell.
Nowe archi pewnie będzie volta.
Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.
To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.
Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.
Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.
Gry sa pisane glownie pod konsole a tam siedzi gcn i dlatego radeony sie tak nie starzeja.
Inna rzecz, że abym wybrał produkt AMD to musiałby być on naprawdę rewelacyjny, bo po prostu firma która od lat nie potrafi nawet opanować bałaganu we własnych szeregach jest dla mnie kompletnie niewiarygodna i podświadomie kojarzy się z nieudolnością....
Zgoda.
Co w takim razie powiesz o firmie która:
- chwaliła się atrapami udając, że to prawdziwy egzemplarz
- całkiem niedawno kłamała w sprawie prawdziwej specyfikacji
- jej sterowniki fizycznie uszkadzały karty, inne poprawiały wydajność kosztem jakości grafiki, aby tylko lepiej wypaść przed konkurencją
- zaliczała totalnie nieudane architektury
- płaciła producentom, aby Ci robili gry pod ich produkty i takie też wykorzystywała w promocji swoich produktów
- tworzyła zamknięte standardy
- wypuszczała kotlety
Oczywiście mowa o Nvidii.
Aż boje się zapytać z czym kojarzy Ci się NV (sarkazm)
Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie. Zdejmij klapki z oczu i się nie ośmieszaj.
To samo można napisać o AMD:
1) Płacenie producentom za pisanie gier pod ich karty? Jest.
2) Jej sterowniki fizycznie uszkadzały karty, inne poprawiały wydajność kosztem jakości grafiki, aby tylko lepiej wypaść przed konkurencją? Jest. Ni dalej jak kilka miesięcy temu kilka kart czerwonych poszło z dymem po aktualizacji Catalystów. Było o tym głośno.
3) Zaliczała totalnie nieudane architektury? Jest.
4) Tworzyła zamknięte standardy. Jest.
5) Wypuszczała kotlety. Jest.
A do tego można dorzucić:
6) Firma co chwila robi ze swoich starszych kart przyciski do papieru przez brak nowych sterowników do starszych kart. Nawet nie chodzi o jakiś nowe funkcje czy poprawę wydajności, ale żeby jako tako poprawnie karty AMD działały pod nowszymi systemami.
7) Firma tworzy niby otwarte standardy, które pod względem możliwości nie dorastają konkurencji do pięt (np. FreeSync) i w sumie i tak nikt nie chce z nich korzystać, bo po co męczyć się z bublem.
8) Jak tu zaufać firmie, która wprost olewa wsparcie dla swoich kart rezygnując ze sterowników 32bit? Kiedy całkiem zrezygnują ze sterowników dla swoich kart i każą użytkownikom pisać je samemu?
9) Do dziś nie potrafili stworzyć systemu przełączania grafik dla laptopów. Bo to ich Switchable Graphics to chyba jakiś żart, tylko dziś nie pierwszy kwietnia. A ile lat już minęło od czasu premiery Sandy Bridge (wcześniej były Arrandale ze zintegrowanym GPU, ale weszły dość późno i zostały zastąpiona przez SB, więc laptopów z Arrandale aż tak dużo nie było)? 5? Co oni robili przez te pięć lat?
10) Mimo że próbują opracowywać technologie konkurencyjne dla NV PhysX albo GemeWorks, to nie potrafią. Próbowali z Havok - wyszlo jak zawsze, próbowali z Bulet - efekt jak to u AMD, próbowali z TressFX i nawet jakoś to wyszło, ale... Kto wybierze TressFX tylko do włosów i futer, gdy NV daje cały pakiet efektów?
11) Od 5 lat w CPU (Bulldozer) i od 4 dla GPU (GCN) firma pokazuje nie nowe produkty, a tylko nowe slajdy. Od czasu do czasu rzuci jakiegoś kotleta albo odważy się zmodyfikować jeden albo dwa modele GPU w całej serii kotletów (vide seria 300).
To tyle jeśli chodzi o to, która firma jest bardziej ''wiarygodna''.
To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.
Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.
Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.
Gry sa pisane glownie pod konsole a tam siedzi gcn i dlatego radeony sie tak nie starzeja.
LOL. Że też są jeszcze naiwniacy którzy wierzą w takie brednie!
Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.
To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.
Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.
Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.
bardziej mówię o grach na nowych silnikach. DS3 to odpicowany stary silnik pamiętając jeszcze ps3. A w takich sytuacjach nic dziwnego, że stare karty są dobrze zoptymalizowane.
W quantum keplery dostają nawet od 7850. W większości nowych gier gtx960 jest lepszy od gtx770 który podczas premiery byl czasami sporo lepszy. Producent gry pisze pod konkretne API, owszem starają się optymalizować, ale to sterownik ma ostatnie słowo. Wychodzi więc nowa gra, a producent olewa totalnie poprzednią generację? Chyba tylko po to aby kupić nowszą kartę. Z drugiej strony kupując na premierę hd7950 nadal wydajność trzymała by poziom. Ciekawe ile AMD będzie trzymać się gcn, bo zgaduję, że przy następnej zmianie skończy się jak z vliw.
Poza tym dlaczego Nvidia nie porównuje GTX-a 1080 do 980 Ti - ta druga jest przecież znacząco mocniejsza od 980?
Bo jakbyś nie zauważył to wyjaśniam rzecz oczywistą:
GTX1080 jest następcą GTX980. NIE JEST następcą GTX980 Ti.
Dlatego NV porównuje do 980 a nie 980Ti.
to jakbyś nie zauważył to:
GTX 980 TI cena premierowa 650$
GTX 1080 cena premierowa (jest już u zotaca) 699$
WIĘC: karty mogą się nazywać gtx pisiont i gtx pińcet, porównujemy te same półki cenowe z dnia premier! A TU: GTX 1080 JEST o pisiont dolarów DROŻSZY od GTX 980 TI
WIEC: mnimum przyzwoitości kazało by porównać kartę z kartą już nie nawet w tej samej cenie ale ciut tańszą
więc zanim coś wyboldujesz to się zastanów czy to przypadkiem nie autokompromitacja
Bo jakbyś nie zauważył to wyjaśniam rzecz oczywistą:
GTX1080 jest następcą GTX980. NIE JEST następcą GTX980 Ti.
Dlatego NV porównuje do 980 a nie 980Ti.
to jakbyś nie zauważył to:
GTX 980 TI cena premierowa 650$
GTX 1080 cena premierowa (jest już u zotaca) 699$
WIĘC: karty mogą się nazywać gtx pisiont i gtx pińcet, porównujemy te same półki cenowe z dnia premier! A TU: GTX 1080 JEST o pisiont dolarów DROŻSZY od GTX 980 TI
WIEC: mnimum przyzwoitości kazało by porównać kartę z kartą już nie nawet w tej samej cenie ale ciut tańszą
więc zanim coś wyboldujesz to się zastanów czy to przypadkiem nie autokompromitacja
Tutaj święta racja. Albo porównujemy karty z jednej półki cenowej (żeby sprawdzić co lepszego jest w jednej cenie), albo najlepszą kartę starej generacji z najlepszą nowej generacji (aby sprawdzić jaki dokonał się postęp u danego producenta). Bo nazwy to sobie mogą być jakiekolwiek.
to jest jeden KU*WA wielki skok na kasę zielonego goblina. gtx 1080 o 50$ droższy od gtx 980 ti a atrapiarz na konfie pajacuje że będzie 2x wydajniej niż na sli krojonego maxwela. C*UJ z tego jak będzie taki sam wzrost ceny tej serii. mają ludzi za debili?
599$ to więcej o 50$ od 649$ ? Jakaś nowa matematyka. Nikt nie każe dopłacać za selekcjonowanego referenta, niereferenty będą po 599$.
ceny były 620$-ref 690$-n.ref. ( http://www.techpowerup.com/reviews/Gigabyt...i_XtremeGaming/ ) uważasz że 2% różnice cen robią jakieś wielkie halo? RZUCILI serię xx80 na pókę cenową serii xx80 TI. jeżeli tego nie jesteś w stanie pojąć tzn. masz interes w sianiu pronvidiowskiej propagandy (wtedy dyskusja nie ma sensu) lub jesteś niepełnosprytny (wtedy też dyskusja mija się z celem)
Zgoda.
Co w takim razie powiesz o firmie która:
- chwaliła się atrapami udając, że to prawdziwy egzemplarz
- całkiem niedawno kłamała w sprawie prawdziwej specyfikacji
- jej sterowniki fizycznie uszkadzały karty, inne poprawiały wydajność kosztem jakości grafiki, aby tylko lepiej wypaść przed konkurencją
- zaliczała totalnie nieudane architektury
- płaciła producentom, aby Ci robili gry pod ich produkty i takie też wykorzystywała w promocji swoich produktów
- tworzyła zamknięte standardy
- wypuszczała kotlety
Oczywiście mowa o Nvidii.
Aż boje się zapytać z czym kojarzy Ci się NV
Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie. Zdejmij klapki z oczu i się nie ośmieszaj.
Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie.
No trza wybierać z dwojga złego
Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie.
No trza wybierać z dwojga złego
Ja zrezygnowałem z obu
Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie.
No trza wybierać z dwojga złego
Jakim cudem? Skoro będzie o 1/5 jednostek mniej i wolniejsze pamięci?
To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.
Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.
Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.
No trza wybierać z dwojga złego
Ja miałem 770@4GB to była zupełnie inna karta niż 680@2GB....
7970 z 3GB stanowi tu świetny kompromis. Podobnie było z 6970 gdzie 580 miało 512MB to bolało tą kartę.
Inwestycja w pamięć bywa opłacalna lecz ryzykowna, bo 6970 mimo 2GB obrywa przez archi i suport.
Co do maxwell vs Pascal śmiem twierdzić, że zmiany są dość kosmetyczne i NV po prostu nadrobiła pewne sprzętowe braki ale ogólnie to napakowany maxwell.
Nowe archi pewnie będzie volta.
To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.
Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.
Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.
Gry sa pisane glownie pod konsole a tam siedzi gcn i dlatego radeony sie tak nie starzeja.
Zgoda.
Co w takim razie powiesz o firmie która:
- chwaliła się atrapami udając, że to prawdziwy egzemplarz
- całkiem niedawno kłamała w sprawie prawdziwej specyfikacji
- jej sterowniki fizycznie uszkadzały karty, inne poprawiały wydajność kosztem jakości grafiki, aby tylko lepiej wypaść przed konkurencją
- zaliczała totalnie nieudane architektury
- płaciła producentom, aby Ci robili gry pod ich produkty i takie też wykorzystywała w promocji swoich produktów
- tworzyła zamknięte standardy
- wypuszczała kotlety
Oczywiście mowa o Nvidii.
Aż boje się zapytać z czym kojarzy Ci się NV
Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie. Zdejmij klapki z oczu i się nie ośmieszaj.
To samo można napisać o AMD:
1) Płacenie producentom za pisanie gier pod ich karty? Jest.
2) Jej sterowniki fizycznie uszkadzały karty, inne poprawiały wydajność kosztem jakości grafiki, aby tylko lepiej wypaść przed konkurencją? Jest. Ni dalej jak kilka miesięcy temu kilka kart czerwonych poszło z dymem po aktualizacji Catalystów. Było o tym głośno.
3) Zaliczała totalnie nieudane architektury? Jest.
4) Tworzyła zamknięte standardy. Jest.
5) Wypuszczała kotlety. Jest.
A do tego można dorzucić:
6) Firma co chwila robi ze swoich starszych kart przyciski do papieru przez brak nowych sterowników do starszych kart. Nawet nie chodzi o jakiś nowe funkcje czy poprawę wydajności, ale żeby jako tako poprawnie karty AMD działały pod nowszymi systemami.
7) Firma tworzy niby otwarte standardy, które pod względem możliwości nie dorastają konkurencji do pięt (np. FreeSync) i w sumie i tak nikt nie chce z nich korzystać, bo po co męczyć się z bublem.
8) Jak tu zaufać firmie, która wprost olewa wsparcie dla swoich kart rezygnując ze sterowników 32bit? Kiedy całkiem zrezygnują ze sterowników dla swoich kart i każą użytkownikom pisać je samemu?
9) Do dziś nie potrafili stworzyć systemu przełączania grafik dla laptopów. Bo to ich Switchable Graphics to chyba jakiś żart, tylko dziś nie pierwszy kwietnia. A ile lat już minęło od czasu premiery Sandy Bridge (wcześniej były Arrandale ze zintegrowanym GPU, ale weszły dość późno i zostały zastąpiona przez SB, więc laptopów z Arrandale aż tak dużo nie było)? 5? Co oni robili przez te pięć lat?
10) Mimo że próbują opracowywać technologie konkurencyjne dla NV PhysX albo GemeWorks, to nie potrafią. Próbowali z Havok - wyszlo jak zawsze, próbowali z Bulet - efekt jak to u AMD, próbowali z TressFX i nawet jakoś to wyszło, ale... Kto wybierze TressFX tylko do włosów i futer, gdy NV daje cały pakiet efektów?
11) Od 5 lat w CPU (Bulldozer) i od 4 dla GPU (GCN) firma pokazuje nie nowe produkty, a tylko nowe slajdy. Od czasu do czasu rzuci jakiegoś kotleta albo odważy się zmodyfikować jeden albo dwa modele GPU w całej serii kotletów (vide seria 300).
To tyle jeśli chodzi o to, która firma jest bardziej ''wiarygodna''.
To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.
Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.
Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.
Gry sa pisane glownie pod konsole a tam siedzi gcn i dlatego radeony sie tak nie starzeja.
LOL. Że też są jeszcze naiwniacy którzy wierzą w takie brednie!
Nie dociera do Ciebie, że obie marki są siebie warte
Odpowiem nieco przewrotnie. Wiesz, gdyby to było prawdą to Lisa Su chyba właśnie otwierałaby szampana.
'Niestety'... aktywa Nvidii są obecnie 2x większe od aktywów całego AMD, a kurs akcji NV - prawie 10x wyższy...
To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.
Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.
Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.
W quantum keplery dostają nawet od 7850. W większości nowych gier gtx960 jest lepszy od gtx770 który podczas premiery byl czasami sporo lepszy. Producent gry pisze pod konkretne API, owszem starają się optymalizować, ale to sterownik ma ostatnie słowo. Wychodzi więc nowa gra, a producent olewa totalnie poprzednią generację? Chyba tylko po to aby kupić nowszą kartę. Z drugiej strony kupując na premierę hd7950 nadal wydajność trzymała by poziom. Ciekawe ile AMD będzie trzymać się gcn, bo zgaduję, że przy następnej zmianie skończy się jak z vliw.
Gry sa pisane glownie pod konsole a tam siedzi gcn i dlatego radeony sie tak nie starzeja.
Przecież to są bzdury.
Poza tym dlaczego Nvidia nie porównuje GTX-a 1080 do 980 Ti - ta druga jest przecież znacząco mocniejsza od 980?
Bo jakbyś nie zauważył to wyjaśniam rzecz oczywistą:
GTX1080 jest następcą GTX980. NIE JEST następcą GTX980 Ti.
Dlatego NV porównuje do 980 a nie 980Ti.
to jakbyś nie zauważył to:
GTX 980 TI cena premierowa 650$
GTX 1080 cena premierowa (jest już u zotaca) 699$
WIĘC: karty mogą się nazywać gtx pisiont i gtx pińcet, porównujemy te same półki cenowe z dnia premier! A TU: GTX 1080 JEST o pisiont dolarów DROŻSZY od GTX 980 TI
WIEC: mnimum przyzwoitości kazało by porównać kartę z kartą już nie nawet w tej samej cenie ale ciut tańszą
więc zanim coś wyboldujesz to się zastanów czy to przypadkiem nie autokompromitacja
Bo jakbyś nie zauważył to wyjaśniam rzecz oczywistą:
GTX1080 jest następcą GTX980. NIE JEST następcą GTX980 Ti.
Dlatego NV porównuje do 980 a nie 980Ti.
to jakbyś nie zauważył to:
GTX 980 TI cena premierowa 650$
GTX 1080 cena premierowa (jest już u zotaca) 699$
WIĘC: karty mogą się nazywać gtx pisiont i gtx pińcet, porównujemy te same półki cenowe z dnia premier! A TU: GTX 1080 JEST o pisiont dolarów DROŻSZY od GTX 980 TI
WIEC: mnimum przyzwoitości kazało by porównać kartę z kartą już nie nawet w tej samej cenie ale ciut tańszą
więc zanim coś wyboldujesz to się zastanów czy to przypadkiem nie autokompromitacja
Tutaj święta racja. Albo porównujemy karty z jednej półki cenowej (żeby sprawdzić co lepszego jest w jednej cenie), albo najlepszą kartę starej generacji z najlepszą nowej generacji (aby sprawdzić jaki dokonał się postęp u danego producenta). Bo nazwy to sobie mogą być jakiekolwiek.
599$ to więcej o 50$ od 649$ ? Jakaś nowa matematyka. Nikt nie każe dopłacać za selekcjonowanego referenta, niereferenty będą po 599$.
nie ma co liczyć na 960 4GB (2015) poniżej 8 stówek...
to pozwoli na crysisa (2007) w 60 klatkach...
w prockach też bieda...
599$ to więcej o 50$ od 649$ ? Jakaś nowa matematyka. Nikt nie każe dopłacać za selekcjonowanego referenta, niereferenty będą po 599$.
ceny były 620$-ref 690$-n.ref. ( http://www.techpowerup.com/reviews/Gigabyt...i_XtremeGaming/ ) uważasz że 2% różnice cen robią jakieś wielkie halo? RZUCILI serię xx80 na pókę cenową serii xx80 TI. jeżeli tego nie jesteś w stanie pojąć tzn. masz interes w sianiu pronvidiowskiej propagandy (wtedy dyskusja nie ma sensu) lub jesteś niepełnosprytny (wtedy też dyskusja mija się z celem)