komentarze
terminat0rZobacz profil
Poziom ostrzeżenia: 0%
terminat0r2017.11.17, 15:41
Naszla moda na czerwonego diabla.
Michael86Zobacz profil
Poziom ostrzeżenia: 0%
Michael862017.11.17, 16:15
-7#22
hexon06 @ 2017.11.17 12:00  Post: 1108982
Vega @ 2017.11.17 11:42  Post: 1108974
(...)


Ktoś nie doczytał do końca ;) .


To dlatego, że czytałem już na videocardz, ale dobrze, że reagujesz. Liczę, że załatwicie karty i zrobicie jakiś teścik tych kart, bo jestem ciekawy jak wypadną.

gorzej od gtx1080 pod każdym względem. ciekawe czy pobije sapphire i dadza 4x 8pin bo tamci maja 3x8pin. zasilacz 800w by mogli w gratisie dodawać...
vibovitZobacz profil
Poziom ostrzeżenia: 0%
vibovit2017.11.17, 16:52
-3#23
hexon06 @ 2017.11.17 13:31  Post: 1109006
iwanme @ 2017.11.17 12:33  Post: 1108995
Hmm a wie ktoś jaka jest stawka VAT na urządzenia grzewcze? Bo może dałoby się trochę tu zaoszczędzić jeśli jest 8 vs 23% :P

A na poważnie to AMD powinno wydać poprawioną rewizję, bo obecnie lekka kicha. Wydajność ok, ale kultura pracy i pobór prądu właściwie dyskwalifikuje ten sprzęt


Polecam Ci ten film, skoro mówisz, że vega to piec grzewczy https://www.youtube.com/watch?v=yW-c2KeiBXg
Jeśli zagwarantujesz mi na piśmie i poświadczysz finansowo że moja w ciemno kupiona sztuka zrobi UV 180W przy takich taktach to tak, inaczej to argument z du*y i loteria :) A może mam zamawiać, testować 30 sztuk aż trafię na taką i resztę odsyłać? super profesjonalnie to brzmi i w ogóle godne polecenia każdemu :E
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2017.11.17, 17:46
-7#24
Amitoza @ 2017.11.17 14:24  Post: 1109022

w standardzie może oszczędne nie są, ale po tweakach Vega56 oferuje wydajność wyższa od standardowej vegi64 a do tego pobór na poziomie pomiedzy gtx1070 i gtx1080.

https://www.hardwareluxx.de/index.php/arti...lting-test.html
Wiec gdyby nie referencyjna suszarka, to karta całkiem trzyma poziom - poziomu nie trzymają za to ustawienia referencyjne karty.
Fajny test, ponad 300W na platformie z 1070fe, który nigdy nie przekroczy 150W, ja jak miałem 1080fe to nie mogłem zmusić kompa by wziął więcej jak 260W i to z podkręconym i7 :E
*Konto usunięte*2017.11.17, 18:01
vibovit @ 2017.11.17 16:52  Post: 1109051
hexon06 @ 2017.11.17 13:31  Post: 1109006
(...)


Polecam Ci ten film, skoro mówisz, że vega to piec grzewczy https://www.youtube.com/watch?v=yW-c2KeiBXg
Jeśli zagwarantujesz mi na piśmie i poświadczysz finansowo że moja w ciemno kupiona sztuka zrobi UV 180W przy takich taktach to tak, inaczej to argument z du*y i loteria :) A może mam zamawiać, testować 30 sztuk aż trafię na taką i resztę odsyłać? super profesjonalnie to brzmi i w ogóle godne polecenia każdemu :E


Hehe, nie zagwarantuje, koleś wygrał życie z taką sztuką. Sam byłem w szoku, bo mój sapphire rx 580 nitro+ 8gb(zegar 1411mhz bez uv) bierze tyle samo w grze w rozdzielczości 4k. Możliwe, że jakby włączył grę na tej vedze w 4k to by wzięła trochę więcej prądu niż w tym benchmarku, ale i tak szok.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2017.11.17, 18:21
Kowal @ 2017.11.17 17:46  Post: 1109056
Amitoza @ 2017.11.17 14:24  Post: 1109022

w standardzie może oszczędne nie są, ale po tweakach Vega56 oferuje wydajność wyższa od standardowej vegi64 a do tego pobór na poziomie pomiedzy gtx1070 i gtx1080.

https://www.hardwareluxx.de/index.php/arti...lting-test.html
Wiec gdyby nie referencyjna suszarka, to karta całkiem trzyma poziom - poziomu nie trzymają za to ustawienia referencyjne karty.
Fajny test, ponad 300W na platformie z 1070fe, który nigdy nie przekroczy 150W, ja jak miałem 1080fe to nie mogłem zmusić kompa by wziął więcej jak 260W i to z podkręconym i7 :E
typowy Kowal.


https://images.anandtech.com/graphs/graph10325/82907.png
'U mnie nie było, to na pewno zły test'

A pierwszy lepszy test z sieci pokazuje co innego.
VendeurZobacz profil
Poziom ostrzeżenia: 0%
Vendeur2017.11.17, 19:10
-3#27
hexon06 @ 2017.11.17 14:20  Post: 1109018
Vendeur @ 2017.11.17 14:17  Post: 1109017
(...)


Chyba nie zrozumiałeś pytania kolegi. Chodziło mu o to, że w porównaniu do konkurencji kart Vega nie opłaca się w ogóle kupować. No ale jak się ma klapki na oczach... Dalej wierz, że to są super karty, że się pojawią za miesiąc, a może pół roku po premierze, że się nie grzeją a do tego są oszczędne.


To jak mam freesync to mam kupić kartę nvidii, bo jest trochę bardziej oszczędna ze względu na mniejszy pobór? Głupoty gadasz. A to, że on powiedział, że Vega się nie opłaca to akurat mnie mało interesuje, bo każdy ma inne zdanie na temat opłacalności. A ten pobór prądu faktycznie dużo zmienia w tej kwestii, jak kupuje się kartę z tej półki to musi Cię również stać na parę złotych więcej na rachunku za prąd. Ale jak ktoś mieszka u rodziców i liczy każdą złotówkę na rachunku za prąd to owszem gtx 1080 jest lepszym dla niego wyborem.


Zastanawiasz się w ogóle co piszesz? Jak mieszkasz u mamusi, to właśnie nie liczysz i nie przejmujesz się rachunkami. Natomiast na swoim, każdy normalny człowiek nie lubi marnować, niezależnie od jego dochodów.

I tu nie chodzi o to czy stać, czy nie. Skoro masz wyższą wydajność przy tym samym albo nawet niższym zużyciu prądu, to wybór jest prosty. Chyba, że jest się zaślepionym fanboyem...
GrrrrrZobacz profil
Poziom ostrzeżenia: 0%
Grrrrr2017.11.17, 19:36
-7#28
Amitoza @ 2017.11.17 14:24  Post: 1109022
Vendeur @ 2017.11.17 14:17  Post: 1109017
(...)


Chyba nie zrozumiałeś pytania kolegi. Chodziło mu o to, że w porównaniu do konkurencji kart Vega nie opłaca się w ogóle kupować. No ale jak się ma klapki na oczach... Dalej wierz, że to są super karty, że się pojawią za miesiąc, a może pół roku po premierze, że się nie grzeją a do tego są oszczędne.
w standardzie może oszczędne nie są, ale po tweakach Vega56 oferuje wydajność wyższa od standardowej vegi64 a do tego pobór na poziomie pomiedzy gtx1070 i gtx1080.

https://www.hardwareluxx.de/index.php/arti...lting-test.html
Wiec gdyby nie referencyjna suszarka, to karta całkiem trzyma poziom - poziomu nie trzymają za to ustawienia referencyjne karty.

Nie mam co robić tylko kupować kartę, w której ustawieniach trzeba grzebać celem poprawy tego co zepsuł jej producent. A do tego wszystko w NIEkonkurencyjnej cenie.

Tylko dla prawdziwych twardzieli ;)
Michael86Zobacz profil
Poziom ostrzeżenia: 0%
Michael862017.11.17, 19:50
-2#29
Vendeur @ 2017.11.17 19:10  Post: 1109062
hexon06 @ 2017.11.17 14:20  Post: 1109018
(...)


To jak mam freesync to mam kupić kartę nvidii, bo jest trochę bardziej oszczędna ze względu na mniejszy pobór? Głupoty gadasz. A to, że on powiedział, że Vega się nie opłaca to akurat mnie mało interesuje, bo każdy ma inne zdanie na temat opłacalności. A ten pobór prądu faktycznie dużo zmienia w tej kwestii, jak kupuje się kartę z tej półki to musi Cię również stać na parę złotych więcej na rachunku za prąd. Ale jak ktoś mieszka u rodziców i liczy każdą złotówkę na rachunku za prąd to owszem gtx 1080 jest lepszym dla niego wyborem.


Zastanawiasz się w ogóle co piszesz? Jak mieszkasz u mamusi, to właśnie nie liczysz i nie przejmujesz się rachunkami. Natomiast na swoim, każdy normalny człowiek nie lubi marnować, niezależnie od jego dochodów.

I tu nie chodzi o to czy stać, czy nie. Skoro masz wyższą wydajność przy tym samym albo nawet niższym zużyciu prądu, to wybór jest prosty. Chyba, że jest się zaślepionym fanboyem...


dokładnie. z tym idiotą nie ma co dyskutować...wywalili go z purepc to tu przyszedł głosić swoje prawdy...
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2017.11.17, 19:54
-9#30
Amitoza @ 2017.11.17 18:21  Post: 1109060
typowy Kowal.


https://images.anandtech.com/graphs/graph10325/82907.png
'U mnie nie było, to na pewno zły test'

A pierwszy lepszy test z sieci pokazuje co innego.

Typowy Amitoza, jakiegoś starego screena wkleja by bronić Vegi :E
https://images.anandtech.com/graphs/graph11987/92566.png
Odejmujesz różnicę poboru między typową platformą na i5/i7, a HEDT z prockiem 8/16 i wyjdzie tak jak mówiłem. Anandtech twierdzi, że ta różnica to będzie ok. 70W.

Ślepo bronisz, pamiętaj, że 1080 po UV to ~130W tylko różnica jest taka, że tam nie trzeba tego robić żeby karty dało się używać.
Generał RakietaZobacz profil
Poziom ostrzeżenia: 0%
Generał Rakieta2017.11.17, 20:19
radiator większy niż w mojej farelce :lol2:
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2017.11.17, 22:17
Kowal @ 2017.11.17 19:54  Post: 1109072
Amitoza @ 2017.11.17 18:21  Post: 1109060
typowy Kowal.


https://images.anandtech.com/graphs/graph10325/82907.png
'U mnie nie było, to na pewno zły test'

A pierwszy lepszy test z sieci pokazuje co innego.

Typowy Amitoza, jakiegoś starego screena wkleja by bronić Vegi :E
https://images.anandtech.com/graphs/graph11987/92566.png
Odejmujesz różnicę poboru między typową platformą na i5/i7, a HEDT z prockiem 8/16 i wyjdzie tak jak mówiłem. Anandtech twierdzi, że ta różnica to będzie ok. 70W.

Ślepo bronisz, pamiętaj, że 1080 po UV to ~130W tylko różnica jest taka, że tam nie trzeba tego robić żeby karty dało się używać.
to, że u Ciebie brało mało to już nie mój problem. Relacje miedzy kartami są identyczne prawie - 30W miedzy gtxami 1080 i 1070, miedzy 1080 i 1080ti jest w jednym teście 80W a w recenzji anandtech 10W mniej.





Po zmianie gry z crysisa na BF widać ze mają mniejsze użycie platformy i 1080ti już nie działał na 100. Co ma do tego wiek screena? Fakt jest taki, że bzdure napisałeś 'bo 1080fe nie brał więcej jak 260W, a w tym co dałeś bierze 330W wiec zły test' - parafrazując. A sytuacja jest taka, że jest to jak najbardziej możliwe co potwierdziłeś wklejając link z nowego testu gdzie gtx1080 bierze raptem 10W mniej.

Tak czy siak z testu co podlinkowałeś - Vega 56 10W mniej od gtx1080ti, w tekście UV który poblinkowalem mamy to samo. Za to po UV mamy już mniej niż gtx1080 przy wyższej wydajności. - karta dzięki UV zyskała praktycznie 20% wydajności z ustabilizowania wysokich zegarów i 70W obniżył się jej pobór energii.

Oczywiście, że gtx1080 też ma mozliwosc UV i dla kogoś kto nie lubi grzebać jest to lepsza karta. Nie mniej jak widać nie ma problemu, zeby vega56 była szybsza od gtx1080 i pobierała tyle samo prądu, nie ma problemu wyimaginowanej ogromnej ilości wtyczek 8pin jak to co niektórzy twierdzą. Problemem jest kwestia napięć bazowych karty czego AMD nie nauczyło się jeszcze od polarisów. Bo po co dawać tak wysokie zegary w turbo przy ogromnym napięciu, skoro zabezpieczenia tdp skutecznie to wszystko zabijają? Dali by nawet maksymalne 100mhz w dół i napięcie w dol, to karta przynajmniej do tych zegarów by dobijała. A tak to karta wbija 1,2V i zegary lecą w dół do 1300mhz i mniej. Po UV do 1,07V karta trzyma spokojnie 1550mhz. Gdyby dali 1,1V i maksymalne turbo na 1450mhz (tak zeby nie było problemu, że jedna sztuka zrobi, inna nie) to karta brała by nadal mniej, a miała wyższa wydajność.
*Konto usunięte*2017.11.17, 22:40
Vendeur @ 2017.11.17 19:10  Post: 1109062
hexon06 @ 2017.11.17 14:20  Post: 1109018
(...)


To jak mam freesync to mam kupić kartę nvidii, bo jest trochę bardziej oszczędna ze względu na mniejszy pobór? Głupoty gadasz. A to, że on powiedział, że Vega się nie opłaca to akurat mnie mało interesuje, bo każdy ma inne zdanie na temat opłacalności. A ten pobór prądu faktycznie dużo zmienia w tej kwestii, jak kupuje się kartę z tej półki to musi Cię również stać na parę złotych więcej na rachunku za prąd. Ale jak ktoś mieszka u rodziców i liczy każdą złotówkę na rachunku za prąd to owszem gtx 1080 jest lepszym dla niego wyborem.


Zastanawiasz się w ogóle co piszesz? Jak mieszkasz u mamusi, to właśnie nie liczysz i nie przejmujesz się rachunkami. Natomiast na swoim, każdy normalny człowiek nie lubi marnować, niezależnie od jego dochodów.

I tu nie chodzi o to czy stać, czy nie. Skoro masz wyższą wydajność przy tym samym albo nawet niższym zużyciu prądu, to wybór jest prosty. Chyba, że jest się zaślepionym fanboyem...


Jak Cię interesuje pobór prądu to kupuje się karty max do średniej półki, a nie high end gdzie ten pobór prądu jest duży. Skoro patrzysz na pobór prądu to nigdy nie będziesz miał bardzo wydajnej karty, bo wydajna karta swoje musi wziąć. A twój entuzajzm z jakim piszesz te komentarze jest naprawdę niesamowity, jakby co najmniej 50zł więcej było na rachunku w miesiącu, a to zazwyczaj z 10-20zł więcej na miesiąc, a może nawet nie(mówię tutaj o różnicy w poborze między gtx 1080, a rx vega 64 i przeciętnym graniu na kompie, a nie 24h/7).
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2017.11.17, 22:49
Grrrrr @ 2017.11.17 19:36  Post: 1109067
Amitoza @ 2017.11.17 14:24  Post: 1109022
(...)
w standardzie może oszczędne nie są, ale po tweakach Vega56 oferuje wydajność wyższa od standardowej vegi64 a do tego pobór na poziomie pomiedzy gtx1070 i gtx1080.

https://www.hardwareluxx.de/index.php/arti...lting-test.html
Wiec gdyby nie referencyjna suszarka, to karta całkiem trzyma poziom - poziomu nie trzymają za to ustawienia referencyjne karty.

Nie mam co robić tylko kupować kartę, w której ustawieniach trzeba grzebać celem poprawy tego co zepsuł jej producent. A do tego wszystko w NIEkonkurencyjnej cenie.

Tylko dla prawdziwych twardzieli ;)

Cholera, biedni ludzie co kupują sprzet dla rozrywki, aby dodatkowo go podkrecic i wycisnąć z niego wszystko co się da. W tym wypadku +20% wydajności względem standardowych ustawień i przy okazji te 70W mniej w poborze energii.

Najtańsze Vegi56 to 460$, gtx1080 to minimum 500$ (taki z turbinką). Dla tych co chcą się pobawić w podkrecanie gra warta świeczki.
GrrrrrZobacz profil
Poziom ostrzeżenia: 0%
Grrrrr2017.11.18, 00:04
-4#35
Amitoza @ 2017.11.17 22:49  Post: 1109098
Grrrrr @ 2017.11.17 19:36  Post: 1109067
(...)

Nie mam co robić tylko kupować kartę, w której ustawieniach trzeba grzebać celem poprawy tego co zepsuł jej producent. A do tego wszystko w NIEkonkurencyjnej cenie.

Tylko dla prawdziwych twardzieli ;)

Cholera, biedni ludzie co kupują sprzet dla rozrywki, aby dodatkowo go podkrecic i wycisnąć z niego wszystko co się da. W tym wypadku +20% wydajności względem standardowych ustawień i przy okazji te 70W mniej w poborze energii.

Najtańsze Vegi56 to 460$, gtx1080 to minimum 500$ (taki z turbinką). Dla tych co chcą się pobawić w podkrecanie gra warta świeczki.

Vega nie jest warta świeczki, bo to samo mam u konkurencji prosto z pudełka, w niższej cenie i pełnej dostępności. Niemożliwe, nie?

Vega 56 kosztuje od 2300 zł, czyli więcej niż 1070 Ti i tyle co najtańsze 1080.

I nie, nie obchodzi mnie jakie są ceny na tzw. zachodzie.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2017.11.18, 02:33
Grrrrr @ 2017.11.18 00:04  Post: 1109102
Amitoza @ 2017.11.17 22:49  Post: 1109098
(...)

Cholera, biedni ludzie co kupują sprzet dla rozrywki, aby dodatkowo go podkrecic i wycisnąć z niego wszystko co się da. W tym wypadku +20% wydajności względem standardowych ustawień i przy okazji te 70W mniej w poborze energii.

Najtańsze Vegi56 to 460$, gtx1080 to minimum 500$ (taki z turbinką). Dla tych co chcą się pobawić w podkrecanie gra warta świeczki.

Vega nie jest warta świeczki, bo to samo mam u konkurencji prosto z pudełka, w niższej cenie i pełnej dostępności. Niemożliwe, nie?

Vega 56 kosztuje od 2300 zł, czyli więcej niż 1070 Ti i tyle co najtańsze 1080.

I nie, nie obchodzi mnie jakie są ceny na tzw. zachodzie.
no i spoko - za 2300 karta która można spokojnie ustawic tak aby miała wydajnosc w okolicach gtx1080 i pobierała tyle samo energii + jako bonus lepsza wydajność w dx12 i vulkanie, które prędzej czy później zepchną dx11 na dalszy plan tak jak dx11 wyparł dx10. Gdybym co roku zmienial gpu to na pewno wybral bym gtxa, w skali np 3lat już bym spokojnie taką vegę rozważył, albo czekał na ampere (czy coś w tej materii się zmieni).
fosgenZobacz profil
Poziom ostrzeżenia: 0%
fosgen2017.11.18, 10:16
-3#37
Niezły kloc...lepiej i tak kupić GTX 1070Ti
Michael86Zobacz profil
Poziom ostrzeżenia: 0%
Michael862017.11.18, 10:58
-4#38
Amitoza @ 2017.11.17 22:17  Post: 1109094
Kowal @ 2017.11.17 19:54  Post: 1109072
(...)

Typowy Amitoza, jakiegoś starego screena wkleja by bronić Vegi :E
https://images.anandtech.com/graphs/graph11987/92566.png
Odejmujesz różnicę poboru między typową platformą na i5/i7, a HEDT z prockiem 8/16 i wyjdzie tak jak mówiłem. Anandtech twierdzi, że ta różnica to będzie ok. 70W.

Ślepo bronisz, pamiętaj, że 1080 po UV to ~130W tylko różnica jest taka, że tam nie trzeba tego robić żeby karty dało się używać.
to, że u Ciebie brało mało to już nie mój problem. Relacje miedzy kartami są identyczne prawie - 30W miedzy gtxami 1080 i 1070, miedzy 1080 i 1080ti jest w jednym teście 80W a w recenzji anandtech 10W mniej.





Po zmianie gry z crysisa na BF widać ze mają mniejsze użycie platformy i 1080ti już nie działał na 100. Co ma do tego wiek screena? Fakt jest taki, że bzdure napisałeś 'bo 1080fe nie brał więcej jak 260W, a w tym co dałeś bierze 330W wiec zły test' - parafrazując. A sytuacja jest taka, że jest to jak najbardziej możliwe co potwierdziłeś wklejając link z nowego testu gdzie gtx1080 bierze raptem 10W mniej.

Tak czy siak z testu co podlinkowałeś - Vega 56 10W mniej od gtx1080ti, w tekście UV który poblinkowalem mamy to samo. Za to po UV mamy już mniej niż gtx1080 przy wyższej wydajności. - karta dzięki UV zyskała praktycznie 20% wydajności z ustabilizowania wysokich zegarów i 70W obniżył się jej pobór energii.

Oczywiście, że gtx1080 też ma mozliwosc UV i dla kogoś kto nie lubi grzebać jest to lepsza karta. Nie mniej jak widać nie ma problemu, zeby vega56 była szybsza od gtx1080 i pobierała tyle samo prądu, nie ma problemu wyimaginowanej ogromnej ilości wtyczek 8pin jak to co niektórzy twierdzą. Problemem jest kwestia napięć bazowych karty czego AMD nie nauczyło się jeszcze od polarisów. Bo po co dawać tak wysokie zegary w turbo przy ogromnym napięciu, skoro zabezpieczenia tdp skutecznie to wszystko zabijają? Dali by nawet maksymalne 100mhz w dół i napięcie w dol, to karta przynajmniej do tych zegarów by dobijała. A tak to karta wbija 1,2V i zegary lecą w dół do 1300mhz i mniej. Po UV do 1,07V karta trzyma spokojnie 1550mhz. Gdyby dali 1,1V i maksymalne turbo na 1450mhz (tak zeby nie było problemu, że jedna sztuka zrobi, inna nie) to karta brała by nadal mniej, a miała wyższa wydajność.


Bzdury piszesz. Co byś nie robił za UV Vega 56 może zbliży się poborem do 1080 ale nigdy nie będzie od niego szybsza, a po OC polegnie totalnie.
Michael86Zobacz profil
Poziom ostrzeżenia: 0%
Michael862017.11.18, 11:00
-3#39
hexon06 @ 2017.11.17 22:40  Post: 1109097
Vendeur @ 2017.11.17 19:10  Post: 1109062
(...)


Zastanawiasz się w ogóle co piszesz? Jak mieszkasz u mamusi, to właśnie nie liczysz i nie przejmujesz się rachunkami. Natomiast na swoim, każdy normalny człowiek nie lubi marnować, niezależnie od jego dochodów.

I tu nie chodzi o to czy stać, czy nie. Skoro masz wyższą wydajność przy tym samym albo nawet niższym zużyciu prądu, to wybór jest prosty. Chyba, że jest się zaślepionym fanboyem...


Jak Cię interesuje pobór prądu to kupuje się karty max do średniej półki, a nie high end gdzie ten pobór prądu jest duży. Skoro patrzysz na pobór prądu to nigdy nie będziesz miał bardzo wydajnej karty, bo wydajna karta swoje musi wziąć. A twój entuzajzm z jakim piszesz te komentarze jest naprawdę niesamowity, jakby co najmniej 50zł więcej było na rachunku w miesiącu, a to zazwyczaj z 10-20zł więcej na miesiąc, a może nawet nie(mówię tutaj o różnicy w poborze między gtx 1080, a rx vega 64 i przeciętnym graniu na kompie, a nie 24h/7).


Chłopie w poborze prądu Vegi 64 można mieć niemal 2x1080 więc o czym tu rozmawiać. NV jest lata świetlne przed AMD jeśli chodzi o Pref/W. Właśnie 1080 jest przykładem oszczędnej i mega wydajnej karty. Trzeba być upośledzonym kupując gorszy produkt, w tym wypadku VEGE 64 zamiast 1080.
GrrrrrZobacz profil
Poziom ostrzeżenia: 0%
Grrrrr2017.11.18, 14:37
-5#40
Amitoza @ 2017.11.18 02:33  Post: 1109111
Grrrrr @ 2017.11.18 00:04  Post: 1109102
(...)

Vega nie jest warta świeczki, bo to samo mam u konkurencji prosto z pudełka, w niższej cenie i pełnej dostępności. Niemożliwe, nie?

Vega 56 kosztuje od 2300 zł, czyli więcej niż 1070 Ti i tyle co najtańsze 1080.

I nie, nie obchodzi mnie jakie są ceny na tzw. zachodzie.
no i spoko - za 2300 karta która można spokojnie ustawic tak aby miała wydajnosc w okolicach gtx1080 i pobierała tyle samo energii + jako bonus lepsza wydajność w dx12 i vulkanie, które prędzej czy później zepchną dx11 na dalszy plan tak jak dx11 wyparł dx10. Gdybym co roku zmienial gpu to na pewno wybral bym gtxa, w skali np 3lat już bym spokojnie taką vegę rozważył, albo czekał na ampere (czy coś w tej materii się zmieni).


Ty nadal nie rozumiesz, że 1080 nie trzeba ustawać, żeby był wydajny i nie pobierał ogromnych ilości energii?

1080 też można 'ustawić' i będzie pobierał jeszcze mniej.

Async miało być wielką zaletą kart AMD - nie było. Te kilka gierek działających lepiej na kartach AMD wiosny jeszcze nie czynią. Więc bajanie jak to w przyszłości DX12 zepchnie obecną generację NV do kąta zostaw dla siebie i marketingowców.

Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.