komentarze
.:Proxy:.Zobacz profil
Poziom ostrzeżenia: 0%
.:Proxy:.2016.05.08, 19:11
Grave @ 2016.05.08 17:56  Post: 970718
Inna rzecz, że abym wybrał produkt AMD to musiałby być on naprawdę rewelacyjny, bo po prostu firma która od lat nie potrafi nawet opanować bałaganu we własnych szeregach jest dla mnie kompletnie niewiarygodna i podświadomie kojarzy się z nieudolnością....


Zgoda.

Co w takim razie powiesz o firmie która:
- chwaliła się atrapami udając, że to prawdziwy egzemplarz
- całkiem niedawno kłamała w sprawie prawdziwej specyfikacji
- jej sterowniki fizycznie uszkadzały karty, inne poprawiały wydajność kosztem jakości grafiki, aby tylko lepiej wypaść przed konkurencją
- zaliczała totalnie nieudane architektury
- płaciła producentom, aby Ci robili gry pod ich produkty i takie też wykorzystywała w promocji swoich produktów
- tworzyła zamknięte standardy
- wypuszczała kotlety
Oczywiście mowa o Nvidii.

Aż boje się zapytać z czym kojarzy Ci się NV :lol2: (sarkazm)

Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie. Zdejmij klapki z oczu i się nie ośmieszaj.



KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2016.05.08, 19:29
.:Proxy:. @ 2016.05.08 19:11  Post: 970736

Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie.

No trza wybierać z dwojga złego :)
.:Proxy:.Zobacz profil
Poziom ostrzeżenia: 0%
.:Proxy:.2016.05.08, 19:38
Kowal @ 2016.05.08 19:29  Post: 970738
.:Proxy:. @ 2016.05.08 19:11  Post: 970736

Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie.

No trza wybierać z dwojga złego :)


Ja zrezygnowałem z obu :)
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2016.05.08, 19:39
Kowal @ 2016.05.08 19:29  Post: 970738
.:Proxy:. @ 2016.05.08 19:11  Post: 970736

Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie.

No trza wybierać z dwojga złego :)
i nawet nie wiadomo komu bardziej zaufać ;) bo jedni i drudzy pokazali, że potrafią sterami ubijać stare karty. Kiedyś przy wyborze między gtx460 i hd6850 wybrałem tego drugiego(tzn najpierw pierwszego, ale padł po kilku dniach) i AMD po wprowadzeniu gcn uwalnia vliwy. Teraz nauczony wybierając między r9 280, a gtx680 i gtx960 zrezygnowałem z Amd bo stwierdziłem, że gcn1.0 zaraz zostanie olane - w końcu 2 letnie gpu, . Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.
HDR'oZobacz profil
Poziom ostrzeżenia: 0%
HDR'o2016.05.08, 19:48
Lepszy będzie founders 1070 niż zwykły 1080, bo za 700zł mniej osiągniemy po oc obu będziemy mieli to samo. Jedyny minus to referent, ale od czasów 780tki referenty i tak są zagłuszane przez grę, więc na to nie patrzę :)
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2016.05.08, 19:51
HDR @ 2016.05.08 19:48  Post: 970741
Lepszy będzie founders 1070 niż zwykły 1080, bo za 700zł mniej osiągniemy po oc obu będziemy mieli to samo. Jedyny minus to referent, ale od czasów 780tki referenty i tak są zagłuszane przez grę, więc na to nie patrzę :)

Jakim cudem? Skoro będzie o 1/5 jednostek mniej i wolniejsze pamięci?
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2016.05.08, 19:55
Amitoza @ 2016.05.08 19:39  Post: 970740
Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.

To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.

Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.

Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.

*Konto usunięte*2016.05.08, 20:03
Amitoza @ 2016.05.08 19:39  Post: 970740
Kowal @ 2016.05.08 19:29  Post: 970738
(...)

No trza wybierać z dwojga złego :)
i nawet nie wiadomo komu bardziej zaufać ;) bo jedni i drudzy pokazali, że potrafią sterami ubijać stare karty. Kiedyś przy wyborze między gtx460 i hd6850 wybrałem tego drugiego(tzn najpierw pierwszego, ale padł po kilku dniach) i AMD po wprowadzeniu gcn uwalnia vliwy. Teraz nauczony wybierając między r9 280, a gtx680 i gtx960 zrezygnowałem z Amd bo stwierdziłem, że gcn1.0 zaraz zostanie olane - w końcu 2 letnie gpu, . Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.

Ja miałem 770@4GB to była zupełnie inna karta niż 680@2GB....
7970 z 3GB stanowi tu świetny kompromis. Podobnie było z 6970 gdzie 580 miało 512MB to bolało tą kartę.
Inwestycja w pamięć bywa opłacalna lecz ryzykowna, bo 6970 mimo 2GB obrywa przez archi i suport.

Co do maxwell vs Pascal śmiem twierdzić, że zmiany są dość kosmetyczne i NV po prostu nadrobiła pewne sprzętowe braki ale ogólnie to napakowany maxwell.
Nowe archi pewnie będzie volta.
SNC2016.05.08, 20:05
Kowal @ 2016.05.08 19:55  Post: 970743
Amitoza @ 2016.05.08 19:39  Post: 970740
Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.

To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.

Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.

Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.


Gry sa pisane glownie pod konsole a tam siedzi gcn i dlatego radeony sie tak nie starzeja.
gregory003Zobacz profil
Poziom ostrzeżenia: 0%
gregory0032016.05.08, 20:05
.:Proxy:. @ 2016.05.08 19:11  Post: 970736
Grave @ 2016.05.08 17:56  Post: 970718
Inna rzecz, że abym wybrał produkt AMD to musiałby być on naprawdę rewelacyjny, bo po prostu firma która od lat nie potrafi nawet opanować bałaganu we własnych szeregach jest dla mnie kompletnie niewiarygodna i podświadomie kojarzy się z nieudolnością....


Zgoda.

Co w takim razie powiesz o firmie która:
- chwaliła się atrapami udając, że to prawdziwy egzemplarz
- całkiem niedawno kłamała w sprawie prawdziwej specyfikacji
- jej sterowniki fizycznie uszkadzały karty, inne poprawiały wydajność kosztem jakości grafiki, aby tylko lepiej wypaść przed konkurencją
- zaliczała totalnie nieudane architektury
- płaciła producentom, aby Ci robili gry pod ich produkty i takie też wykorzystywała w promocji swoich produktów
- tworzyła zamknięte standardy
- wypuszczała kotlety
Oczywiście mowa o Nvidii.

Aż boje się zapytać z czym kojarzy Ci się NV :lol2: (sarkazm)

Nie dociera do Ciebie, że obie marki są siebie warte i każda firma, gdy tylko nadarzy się okazja zachowa się identycznie. Zdejmij klapki z oczu i się nie ośmieszaj.




To samo można napisać o AMD:
1) Płacenie producentom za pisanie gier pod ich karty? Jest.
2) Jej sterowniki fizycznie uszkadzały karty, inne poprawiały wydajność kosztem jakości grafiki, aby tylko lepiej wypaść przed konkurencją? Jest. Ni dalej jak kilka miesięcy temu kilka kart czerwonych poszło z dymem po aktualizacji Catalystów. Było o tym głośno.
3) Zaliczała totalnie nieudane architektury? Jest.
4) Tworzyła zamknięte standardy. Jest.
5) Wypuszczała kotlety. Jest.

A do tego można dorzucić:

6) Firma co chwila robi ze swoich starszych kart przyciski do papieru przez brak nowych sterowników do starszych kart. Nawet nie chodzi o jakiś nowe funkcje czy poprawę wydajności, ale żeby jako tako poprawnie karty AMD działały pod nowszymi systemami.
7) Firma tworzy niby otwarte standardy, które pod względem możliwości nie dorastają konkurencji do pięt (np. FreeSync) i w sumie i tak nikt nie chce z nich korzystać, bo po co męczyć się z bublem.
8) Jak tu zaufać firmie, która wprost olewa wsparcie dla swoich kart rezygnując ze sterowników 32bit? Kiedy całkiem zrezygnują ze sterowników dla swoich kart i każą użytkownikom pisać je samemu?
9) Do dziś nie potrafili stworzyć systemu przełączania grafik dla laptopów. Bo to ich Switchable Graphics to chyba jakiś żart, tylko dziś nie pierwszy kwietnia. A ile lat już minęło od czasu premiery Sandy Bridge (wcześniej były Arrandale ze zintegrowanym GPU, ale weszły dość późno i zostały zastąpiona przez SB, więc laptopów z Arrandale aż tak dużo nie było)? 5? Co oni robili przez te pięć lat?
10) Mimo że próbują opracowywać technologie konkurencyjne dla NV PhysX albo GemeWorks, to nie potrafią. Próbowali z Havok - wyszlo jak zawsze, próbowali z Bulet - efekt jak to u AMD, próbowali z TressFX i nawet jakoś to wyszło, ale... Kto wybierze TressFX tylko do włosów i futer, gdy NV daje cały pakiet efektów?
11) Od 5 lat w CPU (Bulldozer) i od 4 dla GPU (GCN) firma pokazuje nie nowe produkty, a tylko nowe slajdy. Od czasu do czasu rzuci jakiegoś kotleta albo odważy się zmodyfikować jeden albo dwa modele GPU w całej serii kotletów (vide seria 300).

To tyle jeśli chodzi o to, która firma jest bardziej ''wiarygodna''.
gregory003Zobacz profil
Poziom ostrzeżenia: 0%
gregory0032016.05.08, 20:06
SNC @ 2016.05.08 20:05  Post: 970746
Kowal @ 2016.05.08 19:55  Post: 970743
(...)

To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.

Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.

Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.


Gry sa pisane glownie pod konsole a tam siedzi gcn i dlatego radeony sie tak nie starzeja.

LOL. Że też są jeszcze naiwniacy którzy wierzą w takie brednie!
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2016.05.08, 20:06
.:Proxy:. @ 2016.05.08 19:11  Post: 970736

Nie dociera do Ciebie, że obie marki są siebie warte


Odpowiem nieco przewrotnie. Wiesz, gdyby to było prawdą to Lisa Su chyba właśnie otwierałaby szampana.

'Niestety'... aktywa Nvidii są obecnie 2x większe od aktywów całego AMD, a kurs akcji NV - prawie 10x wyższy...
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2016.05.08, 20:13
Kowal @ 2016.05.08 19:55  Post: 970743
Amitoza @ 2016.05.08 19:39  Post: 970740
Byłem blisko 680 ale całe szczęście wybrałem 960. Teraz 680 w nowych grach to padaka, więc miałem szczęście. Teraz się zastanawiam co nvidia zrobi z maxwellami. Instynkt podpowiada mi zeby sprzedać Maxwella przed premierą polarisa i kupić tym razem coś od AMD do dx12.

To tak nie działa. Tą padakę, którą widzisz to po pierwsze za wysokie detale, po drugie przekroczenie vramu (bo z reguły testuje się na maksmalnyh ustawieniach), po trzecie niskie taktowania referenta, a po czwarte developerzy, którzy robią gry zoptymalizowane pod aktualną architekturę, a nie przeszłą, ale za to pięknie widać gdy wyjdzie gra na starym silniku i te niby ubite karty świetnie sobie radzą całkowicie przecząc manipulowaniu przy sterownikach np. DiRT Rally, Dark Souls III gdzie 680 (a gdzie tam 770) pięknie rozkładają 960tkę, a starszy GCN notuje lepsze wyniki względem nowszego.

Skoro 'obniżają wydajność starych generacji' to powinna być obniżona wszędzie bez wyjątku, jednak realia są zupełnie inne i nijak się mają do głosicieli takich farmazonów.

Chcesz mieć najwyższą wydajność w nowych grach (na nowych/zmodernizowanych silnikach) musisz mieć GPU aktualnej generacji w danym przedziale wydajnościowym. Tak było i będzie.

bardziej mówię o grach na nowych silnikach. DS3 to odpicowany stary silnik pamiętając jeszcze ps3. A w takich sytuacjach nic dziwnego, że stare karty są dobrze zoptymalizowane.
W quantum keplery dostają nawet od 7850. W większości nowych gier gtx960 jest lepszy od gtx770 który podczas premiery byl czasami sporo lepszy. Producent gry pisze pod konkretne API, owszem starają się optymalizować, ale to sterownik ma ostatnie słowo. Wychodzi więc nowa gra, a producent olewa totalnie poprzednią generację? Chyba tylko po to aby kupić nowszą kartę. Z drugiej strony kupując na premierę hd7950 nadal wydajność trzymała by poziom. Ciekawe ile AMD będzie trzymać się gcn, bo zgaduję, że przy następnej zmianie skończy się jak z vliw.
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2016.05.08, 20:15
SNC @ 2016.05.08 20:05  Post: 970746

Gry sa pisane glownie pod konsole a tam siedzi gcn i dlatego radeony sie tak nie starzeja.

Przecież to są bzdury.
ghs2016.05.08, 20:17
Grave @ 2016.05.08 18:08  Post: 970721


rainy @ 2016.05.08 18:07  Post: 970720

Poza tym dlaczego Nvidia nie porównuje GTX-a 1080 do 980 Ti - ta druga jest przecież znacząco mocniejsza od 980?


Bo jakbyś nie zauważył to wyjaśniam rzecz oczywistą:

GTX1080 jest następcą GTX980. NIE JEST następcą GTX980 Ti.

Dlatego NV porównuje do 980 a nie 980Ti.


to jakbyś nie zauważył to:

GTX 980 TI cena premierowa 650$

GTX 1080 cena premierowa (jest już u zotaca) 699$

WIĘC: karty mogą się nazywać gtx pisiont i gtx pińcet, porównujemy te same półki cenowe z dnia premier! A TU: GTX 1080 JEST o pisiont dolarów DROŻSZY od GTX 980 TI

WIEC: mnimum przyzwoitości kazało by porównać kartę z kartą już nie nawet w tej samej cenie ale ciut tańszą

więc zanim coś wyboldujesz to się zastanów czy to przypadkiem nie autokompromitacja
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2016.05.08, 20:21
ghs @ 2016.05.08 20:17  Post: 970754
Grave @ 2016.05.08 18:08  Post: 970721


(...)


Bo jakbyś nie zauważył to wyjaśniam rzecz oczywistą:

GTX1080 jest następcą GTX980. NIE JEST następcą GTX980 Ti.

Dlatego NV porównuje do 980 a nie 980Ti.


to jakbyś nie zauważył to:

GTX 980 TI cena premierowa 650$

GTX 1080 cena premierowa (jest już u zotaca) 699$

WIĘC: karty mogą się nazywać gtx pisiont i gtx pińcet, porównujemy te same półki cenowe z dnia premier! A TU: GTX 1080 JEST o pisiont dolarów DROŻSZY od GTX 980 TI

WIEC: mnimum przyzwoitości kazało by porównać kartę z kartą już nie nawet w tej samej cenie ale ciut tańszą

więc zanim coś wyboldujesz to się zastanów czy to przypadkiem nie autokompromitacja

Tutaj święta racja. Albo porównujemy karty z jednej półki cenowej (żeby sprawdzić co lepszego jest w jednej cenie), albo najlepszą kartę starej generacji z najlepszą nowej generacji (aby sprawdzić jaki dokonał się postęp u danego producenta). Bo nazwy to sobie mogą być jakiekolwiek.
ghs2016.05.08, 20:26
to jest jeden KU*WA wielki skok na kasę zielonego goblina. gtx 1080 o 50$ droższy od gtx 980 ti a atrapiarz na konfie pajacuje że będzie 2x wydajniej niż na sli krojonego maxwela. C*UJ z tego jak będzie taki sam wzrost ceny tej serii. mają ludzi za debili?
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2016.05.08, 20:30
ghs @ 2016.05.08 20:26  Post: 970760
gtx 1080 o 50$ droższy od gtx 980 ti[...]]

599$ to więcej o 50$ od 649$ ? Jakaś nowa matematyka. Nikt nie każe dopłacać za selekcjonowanego referenta, niereferenty będą po 599$.
ZIB2000Zobacz profil
Poziom ostrzeżenia: 0%
ZIB20002016.05.08, 20:32
wydajność +20% i cena +20%
nie ma co liczyć na 960 4GB (2015) poniżej 8 stówek...
to pozwoli na crysisa (2007) w 60 klatkach...

w prockach też bieda...
ghs2016.05.08, 20:40
Kowal @ 2016.05.08 20:30  Post: 970761
ghs @ 2016.05.08 20:26  Post: 970760
gtx 1080 o 50$ droższy od gtx 980 ti[...]]

599$ to więcej o 50$ od 649$ ? Jakaś nowa matematyka. Nikt nie każe dopłacać za selekcjonowanego referenta, niereferenty będą po 599$.


ceny były 620$-ref 690$-n.ref. ( http://www.techpowerup.com/reviews/Gigabyt...i_XtremeGaming/ ) uważasz że 2% różnice cen robią jakieś wielkie halo? RZUCILI serię xx80 na pókę cenową serii xx80 TI. jeżeli tego nie jesteś w stanie pojąć tzn. masz interes w sianiu pronvidiowskiej propagandy (wtedy dyskusja nie ma sensu) lub jesteś niepełnosprytny (wtedy też dyskusja mija się z celem)
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.