to, że u Ciebie brało mało to już nie mój problem. Relacje miedzy kartami są identyczne prawie - 30W miedzy gtxami 1080 i 1070, miedzy 1080 i 1080ti jest w jednym teście 80W a w recenzji anandtech 10W mniej.
Po zmianie gry z crysisa na BF widać ze mają mniejsze użycie platformy i 1080ti już nie działał na 100. Co ma do tego wiek screena? Fakt jest taki, że bzdure napisałeś 'bo 1080fe nie brał więcej jak 260W, a w tym co dałeś bierze 330W wiec zły test' - parafrazując. A sytuacja jest taka, że jest to jak najbardziej możliwe co potwierdziłeś wklejając link z nowego testu gdzie gtx1080 bierze raptem 10W mniej.
Tak czy siak z testu co podlinkowałeś - Vega 56 10W mniej od gtx1080ti, w tekście UV który poblinkowalem mamy to samo. Za to po UV mamy już mniej niż gtx1080 przy wyższej wydajności. - karta dzięki UV zyskała praktycznie 20% wydajności z ustabilizowania wysokich zegarów i 70W obniżył się jej pobór energii.
Oczywiście, że gtx1080 też ma mozliwosc UV i dla kogoś kto nie lubi grzebać jest to lepsza karta. Nie mniej jak widać nie ma problemu, zeby vega56 była szybsza od gtx1080 i pobierała tyle samo prądu, nie ma problemu wyimaginowanej ogromnej ilości wtyczek 8pin jak to co niektórzy twierdzą. Problemem jest kwestia napięć bazowych karty czego AMD nie nauczyło się jeszcze od polarisów. Bo po co dawać tak wysokie zegary w turbo przy ogromnym napięciu, skoro zabezpieczenia tdp skutecznie to wszystko zabijają? Dali by nawet maksymalne 100mhz w dół i napięcie w dol, to karta przynajmniej do tych zegarów by dobijała. A tak to karta wbija 1,2V i zegary lecą w dół do 1300mhz i mniej. Po UV do 1,07V karta trzyma spokojnie 1550mhz. Gdyby dali 1,1V i maksymalne turbo na 1450mhz (tak zeby nie było problemu, że jedna sztuka zrobi, inna nie) to karta brała by nadal mniej, a miała wyższa wydajność.
Bzdury piszesz. Co byś nie robił za UV Vega 56 może zbliży się poborem do 1080 ale nigdy nie będzie od niego szybsza, a po OC polegnie totalnie.
no i spoko - za 2300 karta która można spokojnie ustawic tak aby miała wydajnosc w okolicach gtx1080 i pobierała tyle samo energii + jako bonus lepsza wydajność w dx12 i vulkanie, które prędzej czy później zepchną dx11 na dalszy plan tak jak dx11 wyparł dx10. Gdybym co roku zmienial gpu to na pewno wybral bym gtxa, w skali np 3lat już bym spokojnie taką vegę rozważył, albo czekał na ampere (czy coś w tej materii się zmieni).
Ty nadal nie rozumiesz, że 1080 nie trzeba ustawać, żeby był wydajny i nie pobierał ogromnych ilości energii?
1080 też można 'ustawić' i będzie pobierał jeszcze mniej.
Async miało być wielką zaletą kart AMD - nie było. Te kilka gierek działających lepiej na kartach AMD wiosny jeszcze nie czynią. Więc bajanie jak to w przyszłości DX12 zepchnie obecną generację NV do kąta zostaw dla siebie i marketingowców.
no spoko, wiem że nie trzeba i gdybyś nie był tak ograniczony, to pewnie znalazł byś o tym spory akapit w moich wcześniejszych wypowiedziach. To że gtxa można sobie ustawić też napisałem. Jednak jak ktoś lubi że sprzętu wyciskać jak najwięcej to z vegi wyciśnie procentowo więcej. No i jest jeszcze kwestia freesync i gsync, który robi różnice w podobnej cenie na naszym rynku, a na 'zachodzie' jak to ująłeś jeszcze większą.
No ale tak dx12 i vulkan? Fe... temat dla marketingowcow, to tylko kilka gierek (co z tego że zwykle te najnowsze). No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
Typowy Amitoza, jakiegoś starego screena wkleja by bronić Vegi https://images.anandtech.com/graphs/graph11987/92566.png
Odejmujesz różnicę poboru między typową platformą na i5/i7, a HEDT z prockiem 8/16 i wyjdzie tak jak mówiłem. Anandtech twierdzi, że ta różnica to będzie ok. 70W.
Ślepo bronisz, pamiętaj, że 1080 po UV to ~130W tylko różnica jest taka, że tam nie trzeba tego robić żeby karty dało się używać.
to, że u Ciebie brało mało to już nie mój problem. Relacje miedzy kartami są identyczne prawie - 30W miedzy gtxami 1080 i 1070, miedzy 1080 i 1080ti jest w jednym teście 80W a w recenzji anandtech 10W mniej.
Po zmianie gry z crysisa na BF widać ze mają mniejsze użycie platformy i 1080ti już nie działał na 100. Co ma do tego wiek screena? Fakt jest taki, że bzdure napisałeś 'bo 1080fe nie brał więcej jak 260W, a w tym co dałeś bierze 330W wiec zły test' - parafrazując. A sytuacja jest taka, że jest to jak najbardziej możliwe co potwierdziłeś wklejając link z nowego testu gdzie gtx1080 bierze raptem 10W mniej.
Tak czy siak z testu co podlinkowałeś - Vega 56 10W mniej od gtx1080ti, w tekście UV który poblinkowalem mamy to samo. Za to po UV mamy już mniej niż gtx1080 przy wyższej wydajności. - karta dzięki UV zyskała praktycznie 20% wydajności z ustabilizowania wysokich zegarów i 70W obniżył się jej pobór energii.
Oczywiście, że gtx1080 też ma mozliwosc UV i dla kogoś kto nie lubi grzebać jest to lepsza karta. Nie mniej jak widać nie ma problemu, zeby vega56 była szybsza od gtx1080 i pobierała tyle samo prądu, nie ma problemu wyimaginowanej ogromnej ilości wtyczek 8pin jak to co niektórzy twierdzą. Problemem jest kwestia napięć bazowych karty czego AMD nie nauczyło się jeszcze od polarisów. Bo po co dawać tak wysokie zegary w turbo przy ogromnym napięciu, skoro zabezpieczenia tdp skutecznie to wszystko zabijają? Dali by nawet maksymalne 100mhz w dół i napięcie w dol, to karta przynajmniej do tych zegarów by dobijała. A tak to karta wbija 1,2V i zegary lecą w dół do 1300mhz i mniej. Po UV do 1,07V karta trzyma spokojnie 1550mhz. Gdyby dali 1,1V i maksymalne turbo na 1450mhz (tak zeby nie było problemu, że jedna sztuka zrobi, inna nie) to karta brała by nadal mniej, a miała wyższa wydajność.
Vega 64 ma problemy z 1080 co dopiero po UV.... więc trochę mijasz się z prawdą ale żeś fanboy AMD to wybaczam.
Kupiłbym vegę 64 gdyby kosztowała 2000zł miała dobre chłodzenie, a vegę 56 gdyby kosztowała między RX580, a 1070.
Inna cena nie uzasadnia wyższego poboru energii i innych bolączek karty.
Ty nadal nie rozumiesz, że 1080 nie trzeba ustawać, żeby był wydajny i nie pobierał ogromnych ilości energii?
1080 też można 'ustawić' i będzie pobierał jeszcze mniej.
Async miało być wielką zaletą kart AMD - nie było. Te kilka gierek działających lepiej na kartach AMD wiosny jeszcze nie czynią. Więc bajanie jak to w przyszłości DX12 zepchnie obecną generację NV do kąta zostaw dla siebie i marketingowców.
no spoko, wiem że nie trzeba i gdybyś nie był tak ograniczony, to pewnie znalazł byś o tym spory akapit w moich wcześniejszych wypowiedziach. To że gtxa można sobie ustawić też napisałem.
No ale tak dx12 i vulkan? Fe... temat dla marketingowcow, to tylko kilka gierek (co z tego że zwykle te najnowsze). No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
'Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą'
Pewnie to samo pisałeś o Maxwellu 3 lata temu, a te karty dalej sobie dobrze radzę, więc wiesz te twoje proroctwa...
'No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.'
to, że u Ciebie brało mało to już nie mój problem. Relacje miedzy kartami są identyczne prawie - 30W miedzy gtxami 1080 i 1070, miedzy 1080 i 1080ti jest w jednym teście 80W a w recenzji anandtech 10W mniej.
Po zmianie gry z crysisa na BF widać ze mają mniejsze użycie platformy i 1080ti już nie działał na 100. Co ma do tego wiek screena? Fakt jest taki, że bzdure napisałeś 'bo 1080fe nie brał więcej jak 260W, a w tym co dałeś bierze 330W wiec zły test' - parafrazując. A sytuacja jest taka, że jest to jak najbardziej możliwe co potwierdziłeś wklejając link z nowego testu gdzie gtx1080 bierze raptem 10W mniej.
Tak czy siak z testu co podlinkowałeś - Vega 56 10W mniej od gtx1080ti, w tekście UV który poblinkowalem mamy to samo. Za to po UV mamy już mniej niż gtx1080 przy wyższej wydajności. - karta dzięki UV zyskała praktycznie 20% wydajności z ustabilizowania wysokich zegarów i 70W obniżył się jej pobór energii.
Oczywiście, że gtx1080 też ma mozliwosc UV i dla kogoś kto nie lubi grzebać jest to lepsza karta. Nie mniej jak widać nie ma problemu, zeby vega56 była szybsza od gtx1080 i pobierała tyle samo prądu, nie ma problemu wyimaginowanej ogromnej ilości wtyczek 8pin jak to co niektórzy twierdzą. Problemem jest kwestia napięć bazowych karty czego AMD nie nauczyło się jeszcze od polarisów. Bo po co dawać tak wysokie zegary w turbo przy ogromnym napięciu, skoro zabezpieczenia tdp skutecznie to wszystko zabijają? Dali by nawet maksymalne 100mhz w dół i napięcie w dol, to karta przynajmniej do tych zegarów by dobijała. A tak to karta wbija 1,2V i zegary lecą w dół do 1300mhz i mniej. Po UV do 1,07V karta trzyma spokojnie 1550mhz. Gdyby dali 1,1V i maksymalne turbo na 1450mhz (tak zeby nie było problemu, że jedna sztuka zrobi, inna nie) to karta brała by nadal mniej, a miała wyższa wydajność.
Vega 64 ma problemy z 1080 co dopiero po UV.... więc pierdzielisz.
Dwa znajdź mi w cenie niższej od 1070 ref, a kupię
no ma - przed UV jest na styk. Widać nie wiesz czemu UV w ogóle ma służyć w tych kartach - nie obniżeniu poboru, a zmniejszeniu napięcia aby karta nie zbijała zegarów, bo po UV można względem refa zyskac w zależności od sytuacji od 100-300mhz nawet.
no spoko, wiem że nie trzeba i gdybyś nie był tak ograniczony, to pewnie znalazł byś o tym spory akapit w moich wcześniejszych wypowiedziach. To że gtxa można sobie ustawić też napisałem.
No ale tak dx12 i vulkan? Fe... temat dla marketingowcow, to tylko kilka gierek (co z tego że zwykle te najnowsze). No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
'Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą'
Pewnie to samo pisałeś o Maxwellu 3 lata temu, a te karty dalej sobie dobrze radzę, więc wiesz te twoje proroctwa...
'No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.'
To nie ma nic wspólnego z tematem. Daruj sobie.
No, w przypadku Maxwella wydajnosc w dx12 jeszcze mniej zachwyca, ale jak te karty wychodziły, to nawet gier na dx12, ani tym bardziej na vulkana nie było. Jedyną wadą była wydajnosc na procesorach 2 rdzeniowych i tylko do takich platform Maxwell nie polecałem. Z resztą sam mam w drugim pc Maxwella i ma się dobrze.
Jak to nie ma nic wspólnego z tematem - ma i nazywa się to hipokryzja
'Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą'
Pewnie to samo pisałeś o Maxwellu 3 lata temu, a te karty dalej sobie dobrze radzę, więc wiesz te twoje proroctwa...
'No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.'
To nie ma nic wspólnego z tematem. Daruj sobie.
Jak to nie ma nic wspólnego z tematem - ma i nazywa się to hipokryzja
Wydajność na procesorach dwurdzeniowych to była wada sterowników/architektury AMD. Zresztą do dzisiaj jest.
Nie ma nic wspólnego. Szukasz kretyńskich argumentów aby tylko usprawiedliwić zakup Vegi.
Jak to nie ma nic wspólnego z tematem - ma i nazywa się to hipokryzja
Wydajność na procesorach dwurdzeniowych to była wada sterowników/architektury AMD. Zresztą do dzisiaj jest.
Nie ma nic wspólnego. Szukasz kretyńskich argumentów aby tylko usprawiedliwić zakup Vegi.
Kiedy Ty się sprzętem zacząłeś interesować? Rok temu? Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę.
Z zakupem vegi nie ma - z Twoimi argumentami w tej dyskusji ma bardzo wiele. Dx12 i vulkan jest na rynku, coraz to nowsze gry na nie powstają, ale kompletnie to marginalizujesz - przypomnę, że w tych API radosny potrafią być nawet 20% szybsze od GF (przykłady z ostatniego miesiąca - forza7, wolfenstein2, warhammer2) ale dla Ciebie to bez znaczenia.
A wspomniane avx które jest w takich powijakach jak dx12 dwa lata temu jest już ważnym czynnikiem przy zakupie procesora? Owszem, za rok czy dwa zacznie zyskiwać na znaczeniu.
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
Amitoza, na prawdę. Daruj już sobie tą rebeliancką historię o tym jak za 2-3 lata będą się cuda działy. Już nawet posiadacze FuryX (o ile są jeszcze tacy co się przyznają) już w to nie wierzą. Za 2-3 lata to Vega będzie taką samą ciekawostką jak dzisiaj FuryX.
Serio, wciskanie głośnej, prądożernej karty, z okropnie nierówną wydajnością tylko po to by w paru gierkach za 3 lata zobaczyć dobrą wydajność to już jest na prawdę skrajne fanbojstwo.
To dlatego, że czytałem już na videocardz, ale dobrze, że reagujesz. Liczę, że załatwicie karty i zrobicie jakiś teścik tych kart, bo jestem ciekawy jak wypadną.
30% mniej chałasu, 5% więcej wydajności, trochę lepsze temperatury. Nie ma za co.
5zł za test podrzucisz?
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
Amitoza, na prawdę. Daruj już sobie tą rebeliancką historię o tym jak za 2-3 lata będą się cuda działy. Już nawet posiadacze FuryX (o ile są jeszcze tacy co się przyznają) już w to nie wierzą. Za 2-3 lata to Vega będzie taką samą ciekawostką jak dzisiaj FuryX.
Serio, wciskanie głośnej, prądożernej karty, z okropnie nierówną wydajnością tylko po to by w paru gierkach za 3 lata zobaczyć dobrą wydajność to już jest na prawdę skrajne fanbojstwo.
a w co maja wierzyć posiadacze fury, jak kupili kartę z 4GB pamięci? Teraz fury to nie była dobra karta właśnie że względu na ilosc pamięci. Gtx980ti dzięki 6GB zdecydowanie lepiej tutaj wypada.
Nie napisałem nigdzie że za 3 lata, tylko przez 3 lata posiadania w ogólnym rozrachunku Vega może wypaść lepiej. 3 nowe gry w tym miesiącu i 3 dotkliwe porażki Pascal zaliczył. W battlefroncie w dx12 też standardowo spadek wydajności zamiast zysku, ale tutaj trzeba jeszcze poczekać na testy na najnowszych sterownikach. Wiec w ciągu samego ostatniego miesiąca 3 gry AAA dx12 i jedna na vulkanie.
Fakty są takie, że do dx11 Pascal i jego sterowniki są prawie perfekcyjne. W dx12 już nie jest zbyt ciekawie. Wiec jeszcze przyszly rok gier dx11 trochę wyjdzie. Wystarczy, że w Ampere poprawią wydajność dx12 i gier dx11 zabraknie.
Vega 64 ma problemy z 1080 co dopiero po UV.... więc pierdzielisz.
Dwa znajdź mi w cenie niższej od 1070 ref, a kupię
no ma - przed UV jest na styk. Widać nie wiesz czemu UV w ogóle ma służyć w tych kartach - nie obniżeniu poboru, a zmniejszeniu napięcia aby karta nie zbijała zegarów, bo po UV można względem refa zyskac w zależności od sytuacji od 100-300mhz nawet.
Wydajność na procesorach dwurdzeniowych to była wada sterowników/architektury AMD. Zresztą do dzisiaj jest.
Nie ma nic wspólnego. Szukasz kretyńskich argumentów aby tylko usprawiedliwić zakup Vegi.
Kiedy Ty się sprzętem zacząłeś interesować? Rok temu? Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę.
Z zakupem vegi nie ma - z Twoimi argumentami w tej dyskusji ma bardzo wiele. Dx12 i vulkan jest na rynku, coraz to nowsze gry na nie powstają, ale kompletnie to marginalizujesz - przypomnę, że w tych API radosny potrafią być nawet 20% szybsze od GF (przykłady z ostatniego miesiąca - forza7, wolfenstein2, warhammer2) ale dla Ciebie to bez znaczenia.
A wspomniane avx które jest w takich powijakach jak dx12 dwa lata temu jest już ważnym czynnikiem przy zakupie procesora? Owszem, za rok czy dwa zacznie zyskiwać na znaczeniu.
'Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę. '
Robiła - czas przeszły. Problem z narzutem sterownika NV już dawno został wyeliminowany. AMD ma wysoki narzut w DX11 i to się nie zmieni.
no ma - przed UV jest na styk. Widać nie wiesz czemu UV w ogóle ma służyć w tych kartach - nie obniżeniu poboru, a zmniejszeniu napięcia aby karta nie zbijała zegarów, bo po UV można względem refa zyskac w zależności od sytuacji od 100-300mhz nawet.
Tylko vega 64 pobiera tyle ile 1080Ti.
Fakt faktem o tyle nie jest to obiektywne, że NV też można ładnie UV zrobić.
No i Watttool nie działa na najnowszych driverach.
Ale ja ani słowem o vedze 64 nie pisałem - pisałem o modelu 56 który wypada ciekawiej. Z reszta wystarczy wejść na lanie na temat vegi - ludzie spokojnie zamykają się w 300-330W dla całej platformy po UV vegi64, a karta trzyma zegar 1450mhz.
No można na nvidia - tylko czy te 30-40W będą robiły jakakolwiek różnice w ogólnym rozrachunku? W normalnym dobrze wentylowanym ATXie różnicy to już prawie nie zrobi (skoro standardowy pobór gtx1080 jest już uważany za bardzo okej), a rachunki za prąd to będzie kwestia kilku zł rocznie.
Grrrrr @ 2017.11.18 16:23
Amitoza @ 2017.11.18 16:01
(...)
Kiedy Ty się sprzętem zacząłeś interesować? Rok temu? Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę.
Z zakupem vegi nie ma - z Twoimi argumentami w tej dyskusji ma bardzo wiele. Dx12 i vulkan jest na rynku, coraz to nowsze gry na nie powstają, ale kompletnie to marginalizujesz - przypomnę, że w tych API radosny potrafią być nawet 20% szybsze od GF (przykłady z ostatniego miesiąca - forza7, wolfenstein2, warhammer2) ale dla Ciebie to bez znaczenia.
A wspomniane avx które jest w takich powijakach jak dx12 dwa lata temu jest już ważnym czynnikiem przy zakupie procesora? Owszem, za rok czy dwa zacznie zyskiwać na znaczeniu.
'Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę. '
Robiła - czas przeszły. Problem z narzutem sterownika NV już dawno został wyeliminowany. AMD ma wysoki narzut w DX11 i to się nie zmieni.
taa... nic nvidia nie wyeliminowała - dalej na 2 rdzeniach nie jest dobrze, ale takie procesory już prawie wymarły - nawet pentium ma 4 wątki. Amd też nic z tym nie zrobiło i im szybszy masz 1 wątek tym wyższa wydajność. Oczywiście problem mnijszy dla nvidia. Amd liczy teraz na dx12 i vulkana, chociaż też powinni zająć się sterownikiem dx11 dobre dwa lata temu, a mogli by być teraz bardziej konkurencyjni.
Tylko vega 64 pobiera tyle ile 1080Ti.
Fakt faktem o tyle nie jest to obiektywne, że NV też można ładnie UV zrobić.
No i Watttool nie działa na najnowszych driverach.
Ale ja ani słowem o vedze 64 nie pisałem - pisałem o modelu 56 który wypada ciekawiej. Z reszta wystarczy wejść na lanie na temat vegi - ludzie spokojnie zamykają się w 300-330W dla całej platformy po UV vegi64, a karta trzyma zegar 1450mhz.
No można na nvidia - tylko czy te 30-40W będą robiły jakakolwiek różnice w ogólnym rozrachunku? W normalnym dobrze wentylowanym ATXie różnicy to już prawie nie zrobi (skoro standardowy pobór gtx1080 jest już uważany za bardzo okej), a rachunki za prąd to będzie kwestia kilku zł rocznie.
Grrrrr @ 2017.11.18 16:23
(...)
'Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę. '
Robiła - czas przeszły. Problem z narzutem sterownika NV już dawno został wyeliminowany. AMD ma wysoki narzut w DX11 i to się nie zmieni.
taa... nic nvidia nie wyeliminowała - dalej na 2 rdzeniach nie jest dobrze, ale takie procesory już prawie wymarły - nawet pentium ma 4 wątki. Amd też nic z tym nie zrobiło i im szybszy masz 1 wątek tym wyższa wydajność. Oczywiście problem mnijszy dla nvidia. Amd liczy teraz na dx12 i vulkana, chociaż też powinni zająć się sterownikiem dx11 dobre dwa lata temu, a mogli by być teraz bardziej konkurencyjni.
sterownik AMD ma wyższy narzut na wątek i to się nie zmieniło. Już przestań klakierze walczyć o przegraną sprawę. Vega skończy tak samo jak Fury i nie będzie tłumaczeń, że za mało pamięci, po prostu nieudana architektura.
Tylko vega 64 pobiera tyle ile 1080Ti.
Fakt faktem o tyle nie jest to obiektywne, że NV też można ładnie UV zrobić.
No i Watttool nie działa na najnowszych driverach.
Ale ja ani słowem o vedze 64 nie pisałem - pisałem o modelu 56 który wypada ciekawiej. Z reszta wystarczy wejść na lanie na temat vegi - ludzie spokojnie zamykają się w 300-330W dla całej platformy po UV vegi64, a karta trzyma zegar 1450mhz.
No można na nvidia - tylko czy te 30-40W będą robiły jakakolwiek różnice w ogólnym rozrachunku? W normalnym dobrze wentylowanym ATXie różnicy to już prawie nie zrobi (skoro standardowy pobór gtx1080 jest już uważany za bardzo okej), a rachunki za prąd to będzie kwestia kilku zł rocznie.
Grrrrr @ 2017.11.18 16:23
(...)
'Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę. '
Robiła - czas przeszły. Problem z narzutem sterownika NV już dawno został wyeliminowany. AMD ma wysoki narzut w DX11 i to się nie zmieni.
taa... nic nvidia nie wyeliminowała - dalej na 2 rdzeniach nie jest dobrze, ale takie procesory już prawie wymarły - nawet pentium ma 4 wątki. Amd też nic z tym nie zrobiło i im szybszy masz 1 wątek tym wyższa wydajność. Oczywiście problem mnijszy dla nvidia. Amd liczy teraz na dx12 i vulkana, chociaż też powinni zająć się sterownikiem dx11 dobre dwa lata temu, a mogli by być teraz bardziej konkurencyjni.
FE i Vegi mają kijowe chłodzenie- są dość głośne. Tak - ta różnica jest istotna, bo przekłada się na RPM-y.
Różnica między Vega@UV, a Pascal@UV jest większa niż 40W.
Ale ja ani słowem o vedze 64 nie pisałem - pisałem o modelu 56 który wypada ciekawiej. Z reszta wystarczy wejść na lanie na temat vegi - ludzie spokojnie zamykają się w 300-330W dla całej platformy po UV vegi64, a karta trzyma zegar 1450mhz.
No można na nvidia - tylko czy te 30-40W będą robiły jakakolwiek różnice w ogólnym rozrachunku? W normalnym dobrze wentylowanym ATXie różnicy to już prawie nie zrobi (skoro standardowy pobór gtx1080 jest już uważany za bardzo okej), a rachunki za prąd to będzie kwestia kilku zł rocznie.
(...)
taa... nic nvidia nie wyeliminowała - dalej na 2 rdzeniach nie jest dobrze, ale takie procesory już prawie wymarły - nawet pentium ma 4 wątki. Amd też nic z tym nie zrobiło i im szybszy masz 1 wątek tym wyższa wydajność. Oczywiście problem mnijszy dla nvidia. Amd liczy teraz na dx12 i vulkana, chociaż też powinni zająć się sterownikiem dx11 dobre dwa lata temu, a mogli by być teraz bardziej konkurencyjni.
sterownik AMD ma wyższy narzut na wątek i to się nie zmieniło. Już przestań klakierze walczyć o przegraną sprawę. Vega skończy tak samo jak Fury i nie będzie tłumaczeń, że za mało pamięci, po prostu nieudana architektura.
sterownik AMD po prostu nie jest rozbity na wątki jak sterownik nvidia. Na razie nieudaną architekturą dla dx12 jest Pascal. W co nowszych grach ma spadek wydajności jak miało to miejsce z fx5xxx w dx9.
Tak swoją drogą tylko klakier albo zaopatrzony fanboj wyzywa wszystkich na około mających inne zdanie od klakierow. Więc pierwsze czy drugie?
@Up
Przecież fury sobie doskonale dzisiaj radzi i podobnie będzie z Vegą.
Problem jak zwykle z grafami od AMD jest taki, że przy premierze jest 'byle jako' ale z biegiem czasu karty dostają kopa.
Nvidia jest rewelacyjna jeśli chodzi o wydajność 'out of the box'.
Jestem święcie przekonany, że Vega ma pole do popisu ale AMD dało ciała i te karty bardzo źle wyceniło -pewnie nie miało wyboru ale niesmak pozostał :/
sterownik AMD ma wyższy narzut na wątek i to się nie zmieniło. Już przestań klakierze walczyć o przegraną sprawę. Vega skończy tak samo jak Fury i nie będzie tłumaczeń, że za mało pamięci, po prostu nieudana architektura.
sterownik AMD po prostu nie jest rozbity na wątki jak sterownik nvidia.
@Up
Przecież fury sobie doskonale dzisiaj radzi i podobnie będzie z Vegą.
Problem jak zwykle z grafami od AMD jest taki, że przy premierze jest 'byle jako' ale z biegiem czasu karty dostają kopa.
Nvidia jest rewelacyjna jeśli chodzi o wydajność 'out of the box'.
Jestem święcie przekonany, że Vega ma pole do popisu ale AMD dało ciała i te karty bardzo źle wyceniło -pewnie nie miało wyboru ale niesmak pozostał :/
radzi sobie dobrze do chwili gdy zabraknie pamięci, albo nie łapie ograniczenia przez sterownik obciążające cpu. Bo w fhd zwykle ma poziom gtx980, a w wyższych jak 1440p to dobija czesto do poziomu gtx980ti. W przypadku Vegi z kolei odwrotnie i wydaje mi się, że w testach to często gtx1080TI ma podobnie i w fullhd często procesor go ogranicza.
sterownik AMD po prostu nie jest rozbity na wątki jak sterownik nvidia.
Czyli potwierdzasz co napisałem. Dziękuję.
nie. To Ty potwierdziłeś to co ja napisałem zarzucając mi pisanie glupot aby wyszło na Twoje.
'dalej na 2 rdzeniach nie jest dobrze, ale takie procesory już prawie wymarły - nawet pentium ma 4 wątki. Amd też nic z tym nie zrobiło i im szybszy masz 1 wątek tym wyższa wydajność.'
Nvidia miała duży narzut i właśnie rozbiciem na wątki to zniwelowali. Nadal jest duży co widać po tym jak meczy procesory 2c2t, ale na większej ilości rdzeni nie jest to odczuwalne. U AMD narzut jest spory, ale widać nie aż tak duży, tyle ze siedzi na jednym wątku, wiec im jest szybszy tym bardziej niweluje ograniczenie wydajności.
Teraz z kolei duży narzut widać u nvidia w przypadku dx12 co jest wręcz dziwne patrząc na to jak dobrze rozbili na wątki sterownik dx11.
Po zmianie gry z crysisa na BF widać ze mają mniejsze użycie platformy i 1080ti już nie działał na 100. Co ma do tego wiek screena? Fakt jest taki, że bzdure napisałeś 'bo 1080fe nie brał więcej jak 260W, a w tym co dałeś bierze 330W wiec zły test' - parafrazując. A sytuacja jest taka, że jest to jak najbardziej możliwe co potwierdziłeś wklejając link z nowego testu gdzie gtx1080 bierze raptem 10W mniej.
Tak czy siak z testu co podlinkowałeś - Vega 56 10W mniej od gtx1080ti, w tekście UV który poblinkowalem mamy to samo. Za to po UV mamy już mniej niż gtx1080 przy wyższej wydajności. - karta dzięki UV zyskała praktycznie 20% wydajności z ustabilizowania wysokich zegarów i 70W obniżył się jej pobór energii.
Oczywiście, że gtx1080 też ma mozliwosc UV i dla kogoś kto nie lubi grzebać jest to lepsza karta. Nie mniej jak widać nie ma problemu, zeby vega56 była szybsza od gtx1080 i pobierała tyle samo prądu, nie ma problemu wyimaginowanej ogromnej ilości wtyczek 8pin jak to co niektórzy twierdzą. Problemem jest kwestia napięć bazowych karty czego AMD nie nauczyło się jeszcze od polarisów. Bo po co dawać tak wysokie zegary w turbo przy ogromnym napięciu, skoro zabezpieczenia tdp skutecznie to wszystko zabijają? Dali by nawet maksymalne 100mhz w dół i napięcie w dol, to karta przynajmniej do tych zegarów by dobijała. A tak to karta wbija 1,2V i zegary lecą w dół do 1300mhz i mniej. Po UV do 1,07V karta trzyma spokojnie 1550mhz. Gdyby dali 1,1V i maksymalne turbo na 1450mhz (tak zeby nie było problemu, że jedna sztuka zrobi, inna nie) to karta brała by nadal mniej, a miała wyższa wydajność.
Bzdury piszesz. Co byś nie robił za UV Vega 56 może zbliży się poborem do 1080 ale nigdy nie będzie od niego szybsza, a po OC polegnie totalnie.
https://www.hardwareluxx.de/index.php/arti...lting-test.html
Taaa...
Ty nadal nie rozumiesz, że 1080 nie trzeba ustawać, żeby był wydajny i nie pobierał ogromnych ilości energii?
1080 też można 'ustawić' i będzie pobierał jeszcze mniej.
Async miało być wielką zaletą kart AMD - nie było. Te kilka gierek działających lepiej na kartach AMD wiosny jeszcze nie czynią. Więc bajanie jak to w przyszłości DX12 zepchnie obecną generację NV do kąta zostaw dla siebie i marketingowców.
No ale tak dx12 i vulkan? Fe... temat dla marketingowcow, to tylko kilka gierek (co z tego że zwykle te najnowsze). No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
Typowy Amitoza, jakiegoś starego screena wkleja by bronić Vegi
https://images.anandtech.com/graphs/graph11987/92566.png
Odejmujesz różnicę poboru między typową platformą na i5/i7, a HEDT z prockiem 8/16 i wyjdzie tak jak mówiłem. Anandtech twierdzi, że ta różnica to będzie ok. 70W.
Ślepo bronisz, pamiętaj, że 1080 po UV to ~130W tylko różnica jest taka, że tam nie trzeba tego robić żeby karty dało się używać.
Po zmianie gry z crysisa na BF widać ze mają mniejsze użycie platformy i 1080ti już nie działał na 100. Co ma do tego wiek screena? Fakt jest taki, że bzdure napisałeś 'bo 1080fe nie brał więcej jak 260W, a w tym co dałeś bierze 330W wiec zły test' - parafrazując. A sytuacja jest taka, że jest to jak najbardziej możliwe co potwierdziłeś wklejając link z nowego testu gdzie gtx1080 bierze raptem 10W mniej.
Tak czy siak z testu co podlinkowałeś - Vega 56 10W mniej od gtx1080ti, w tekście UV który poblinkowalem mamy to samo. Za to po UV mamy już mniej niż gtx1080 przy wyższej wydajności. - karta dzięki UV zyskała praktycznie 20% wydajności z ustabilizowania wysokich zegarów i 70W obniżył się jej pobór energii.
Oczywiście, że gtx1080 też ma mozliwosc UV i dla kogoś kto nie lubi grzebać jest to lepsza karta. Nie mniej jak widać nie ma problemu, zeby vega56 była szybsza od gtx1080 i pobierała tyle samo prądu, nie ma problemu wyimaginowanej ogromnej ilości wtyczek 8pin jak to co niektórzy twierdzą. Problemem jest kwestia napięć bazowych karty czego AMD nie nauczyło się jeszcze od polarisów. Bo po co dawać tak wysokie zegary w turbo przy ogromnym napięciu, skoro zabezpieczenia tdp skutecznie to wszystko zabijają? Dali by nawet maksymalne 100mhz w dół i napięcie w dol, to karta przynajmniej do tych zegarów by dobijała. A tak to karta wbija 1,2V i zegary lecą w dół do 1300mhz i mniej. Po UV do 1,07V karta trzyma spokojnie 1550mhz. Gdyby dali 1,1V i maksymalne turbo na 1450mhz (tak zeby nie było problemu, że jedna sztuka zrobi, inna nie) to karta brała by nadal mniej, a miała wyższa wydajność.
Vega 64 ma problemy z 1080 co dopiero po UV.... więc trochę mijasz się z prawdą ale żeś fanboy AMD to wybaczam.
Kupiłbym vegę 64 gdyby kosztowała 2000zł miała dobre chłodzenie, a vegę 56 gdyby kosztowała między RX580, a 1070.
Inna cena nie uzasadnia wyższego poboru energii i innych bolączek karty.
Bzdury piszesz. Co byś nie robił za UV Vega 56 może zbliży się poborem do 1080 ale nigdy nie będzie od niego szybsza, a po OC polegnie totalnie.
https://www.hardwareluxx.de/index.php/arti...lting-test.html
Taaa...
Ty nadal nie rozumiesz, że 1080 nie trzeba ustawać, żeby był wydajny i nie pobierał ogromnych ilości energii?
1080 też można 'ustawić' i będzie pobierał jeszcze mniej.
Async miało być wielką zaletą kart AMD - nie było. Te kilka gierek działających lepiej na kartach AMD wiosny jeszcze nie czynią. Więc bajanie jak to w przyszłości DX12 zepchnie obecną generację NV do kąta zostaw dla siebie i marketingowców.
No ale tak dx12 i vulkan? Fe... temat dla marketingowcow, to tylko kilka gierek (co z tego że zwykle te najnowsze). No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
'Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą'
Pewnie to samo pisałeś o Maxwellu 3 lata temu, a te karty dalej sobie dobrze radzę, więc wiesz te twoje proroctwa...
'No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.'
To nie ma nic wspólnego z tematem. Daruj sobie.
Po zmianie gry z crysisa na BF widać ze mają mniejsze użycie platformy i 1080ti już nie działał na 100. Co ma do tego wiek screena? Fakt jest taki, że bzdure napisałeś 'bo 1080fe nie brał więcej jak 260W, a w tym co dałeś bierze 330W wiec zły test' - parafrazując. A sytuacja jest taka, że jest to jak najbardziej możliwe co potwierdziłeś wklejając link z nowego testu gdzie gtx1080 bierze raptem 10W mniej.
Tak czy siak z testu co podlinkowałeś - Vega 56 10W mniej od gtx1080ti, w tekście UV który poblinkowalem mamy to samo. Za to po UV mamy już mniej niż gtx1080 przy wyższej wydajności. - karta dzięki UV zyskała praktycznie 20% wydajności z ustabilizowania wysokich zegarów i 70W obniżył się jej pobór energii.
Oczywiście, że gtx1080 też ma mozliwosc UV i dla kogoś kto nie lubi grzebać jest to lepsza karta. Nie mniej jak widać nie ma problemu, zeby vega56 była szybsza od gtx1080 i pobierała tyle samo prądu, nie ma problemu wyimaginowanej ogromnej ilości wtyczek 8pin jak to co niektórzy twierdzą. Problemem jest kwestia napięć bazowych karty czego AMD nie nauczyło się jeszcze od polarisów. Bo po co dawać tak wysokie zegary w turbo przy ogromnym napięciu, skoro zabezpieczenia tdp skutecznie to wszystko zabijają? Dali by nawet maksymalne 100mhz w dół i napięcie w dol, to karta przynajmniej do tych zegarów by dobijała. A tak to karta wbija 1,2V i zegary lecą w dół do 1300mhz i mniej. Po UV do 1,07V karta trzyma spokojnie 1550mhz. Gdyby dali 1,1V i maksymalne turbo na 1450mhz (tak zeby nie było problemu, że jedna sztuka zrobi, inna nie) to karta brała by nadal mniej, a miała wyższa wydajność.
Vega 64 ma problemy z 1080 co dopiero po UV.... więc pierdzielisz.
Dwa znajdź mi w cenie niższej od 1070 ref, a kupię
https://www.hardwareluxx.de/index.php/arti...lting-test.html
https://www.hardwareluxx.de/index.php/arti...lting-test.html
Taaa...
No ale tak dx12 i vulkan? Fe... temat dla marketingowcow, to tylko kilka gierek (co z tego że zwykle te najnowsze). No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
'Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą'
Pewnie to samo pisałeś o Maxwellu 3 lata temu, a te karty dalej sobie dobrze radzę, więc wiesz te twoje proroctwa...
'No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.'
To nie ma nic wspólnego z tematem. Daruj sobie.
No, w przypadku Maxwella wydajnosc w dx12 jeszcze mniej zachwyca, ale jak te karty wychodziły, to nawet gier na dx12, ani tym bardziej na vulkana nie było. Jedyną wadą była wydajnosc na procesorach 2 rdzeniowych i tylko do takich platform Maxwell nie polecałem. Z resztą sam mam w drugim pc Maxwella i ma się dobrze.
Jak to nie ma nic wspólnego z tematem - ma i nazywa się to hipokryzja
'Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą'
Pewnie to samo pisałeś o Maxwellu 3 lata temu, a te karty dalej sobie dobrze radzę, więc wiesz te twoje proroctwa...
'No ale za to AVX to już potęga... mimo prawie kompletnego braku softu, który jest bardziej w powijakach niż dx12 i vulkan.'
To nie ma nic wspólnego z tematem. Daruj sobie.
Jak to nie ma nic wspólnego z tematem - ma i nazywa się to hipokryzja
Wydajność na procesorach dwurdzeniowych to była wada sterowników/architektury AMD. Zresztą do dzisiaj jest.
Nie ma nic wspólnego. Szukasz kretyńskich argumentów aby tylko usprawiedliwić zakup Vegi.
Jak to nie ma nic wspólnego z tematem - ma i nazywa się to hipokryzja
Wydajność na procesorach dwurdzeniowych to była wada sterowników/architektury AMD. Zresztą do dzisiaj jest.
Nie ma nic wspólnego. Szukasz kretyńskich argumentów aby tylko usprawiedliwić zakup Vegi.
Kiedy Ty się sprzętem zacząłeś interesować? Rok temu? Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę.
http://pclab.pl/art55238-6.html
No ale i tak będzie pisal bzdury byle na jego wyszło.
Z zakupem vegi nie ma - z Twoimi argumentami w tej dyskusji ma bardzo wiele. Dx12 i vulkan jest na rynku, coraz to nowsze gry na nie powstają, ale kompletnie to marginalizujesz - przypomnę, że w tych API radosny potrafią być nawet 20% szybsze od GF (przykłady z ostatniego miesiąca - forza7, wolfenstein2, warhammer2) ale dla Ciebie to bez znaczenia.
A wspomniane avx które jest w takich powijakach jak dx12 dwa lata temu jest już ważnym czynnikiem przy zakupie procesora? Owszem, za rok czy dwa zacznie zyskiwać na znaczeniu.
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
Amitoza, na prawdę. Daruj już sobie tą rebeliancką historię o tym jak za 2-3 lata będą się cuda działy. Już nawet posiadacze FuryX (o ile są jeszcze tacy co się przyznają) już w to nie wierzą. Za 2-3 lata to Vega będzie taką samą ciekawostką jak dzisiaj FuryX.
Serio, wciskanie głośnej, prądożernej karty, z okropnie nierówną wydajnością tylko po to by w paru gierkach za 3 lata zobaczyć dobrą wydajność to już jest na prawdę skrajne fanbojstwo.
Ktoś nie doczytał do końca
To dlatego, że czytałem już na videocardz, ale dobrze, że reagujesz. Liczę, że załatwicie karty i zrobicie jakiś teścik tych kart, bo jestem ciekawy jak wypadną.
30% mniej chałasu, 5% więcej wydajności, trochę lepsze temperatury. Nie ma za co.
5zł za test podrzucisz?
Wiec jak pisałem - kupujesz kartę co roku lub co dwa - bierzesz gtx1080, biorąc kartę na 3 lata lub więcej zdecydowanie lepiej zainteresować się vegą lub poczekać i zobaczyć czy Ampere zmieni coś w wydajności dx12 i vulkanie które są przyszłością czy tego chcesz czy nie.
Amitoza, na prawdę. Daruj już sobie tą rebeliancką historię o tym jak za 2-3 lata będą się cuda działy. Już nawet posiadacze FuryX (o ile są jeszcze tacy co się przyznają) już w to nie wierzą. Za 2-3 lata to Vega będzie taką samą ciekawostką jak dzisiaj FuryX.
Serio, wciskanie głośnej, prądożernej karty, z okropnie nierówną wydajnością tylko po to by w paru gierkach za 3 lata zobaczyć dobrą wydajność to już jest na prawdę skrajne fanbojstwo.
Nie napisałem nigdzie że za 3 lata, tylko przez 3 lata posiadania w ogólnym rozrachunku Vega może wypaść lepiej. 3 nowe gry w tym miesiącu i 3 dotkliwe porażki Pascal zaliczył. W battlefroncie w dx12 też standardowo spadek wydajności zamiast zysku, ale tutaj trzeba jeszcze poczekać na testy na najnowszych sterownikach. Wiec w ciągu samego ostatniego miesiąca 3 gry AAA dx12 i jedna na vulkanie.
Fakty są takie, że do dx11 Pascal i jego sterowniki są prawie perfekcyjne. W dx12 już nie jest zbyt ciekawie. Wiec jeszcze przyszly rok gier dx11 trochę wyjdzie. Wystarczy, że w Ampere poprawią wydajność dx12 i gier dx11 zabraknie.
Vega 64 ma problemy z 1080 co dopiero po UV.... więc pierdzielisz.
Dwa znajdź mi w cenie niższej od 1070 ref, a kupię
https://www.hardwareluxx.de/index.php/arti...lting-test.html
Fakt faktem o tyle nie jest to obiektywne, że NV też można ładnie UV zrobić.
No i Watttool nie działa na najnowszych driverach.
W ogóle nie potrafię zejść z RX580 900mV - trixx jest bardzo uperdliwy. Najnowszych - nie działa.
Wydajność na procesorach dwurdzeniowych to była wada sterowników/architektury AMD. Zresztą do dzisiaj jest.
Nie ma nic wspólnego. Szukasz kretyńskich argumentów aby tylko usprawiedliwić zakup Vegi.
Kiedy Ty się sprzętem zacząłeś interesować? Rok temu? Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę.
http://pclab.pl/art55238-6.html
No ale i tak będzie pisal bzdury byle na jego wyszło.
Z zakupem vegi nie ma - z Twoimi argumentami w tej dyskusji ma bardzo wiele. Dx12 i vulkan jest na rynku, coraz to nowsze gry na nie powstają, ale kompletnie to marginalizujesz - przypomnę, że w tych API radosny potrafią być nawet 20% szybsze od GF (przykłady z ostatniego miesiąca - forza7, wolfenstein2, warhammer2) ale dla Ciebie to bez znaczenia.
A wspomniane avx które jest w takich powijakach jak dx12 dwa lata temu jest już ważnym czynnikiem przy zakupie procesora? Owszem, za rok czy dwa zacznie zyskiwać na znaczeniu.
'Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę. '
Robiła - czas przeszły. Problem z narzutem sterownika NV już dawno został wyeliminowany. AMD ma wysoki narzut w DX11 i to się nie zmieni.
https://www.hardwareluxx.de/index.php/arti...lting-test.html
Fakt faktem o tyle nie jest to obiektywne, że NV też można ładnie UV zrobić.
No i Watttool nie działa na najnowszych driverach.
Ale ja ani słowem o vedze 64 nie pisałem - pisałem o modelu 56 który wypada ciekawiej. Z reszta wystarczy wejść na lanie na temat vegi - ludzie spokojnie zamykają się w 300-330W dla całej platformy po UV vegi64, a karta trzyma zegar 1450mhz.
No można na nvidia - tylko czy te 30-40W będą robiły jakakolwiek różnice w ogólnym rozrachunku? W normalnym dobrze wentylowanym ATXie różnicy to już prawie nie zrobi (skoro standardowy pobór gtx1080 jest już uważany za bardzo okej), a rachunki za prąd to będzie kwestia kilku zł rocznie.
Kiedy Ty się sprzętem zacząłeś interesować? Rok temu? Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę.
http://pclab.pl/art55238-6.html
No ale i tak będzie pisal bzdury byle na jego wyszło.
Z zakupem vegi nie ma - z Twoimi argumentami w tej dyskusji ma bardzo wiele. Dx12 i vulkan jest na rynku, coraz to nowsze gry na nie powstają, ale kompletnie to marginalizujesz - przypomnę, że w tych API radosny potrafią być nawet 20% szybsze od GF (przykłady z ostatniego miesiąca - forza7, wolfenstein2, warhammer2) ale dla Ciebie to bez znaczenia.
A wspomniane avx które jest w takich powijakach jak dx12 dwa lata temu jest już ważnym czynnikiem przy zakupie procesora? Owszem, za rok czy dwa zacznie zyskiwać na znaczeniu.
'Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę. '
Robiła - czas przeszły. Problem z narzutem sterownika NV już dawno został wyeliminowany. AMD ma wysoki narzut w DX11 i to się nie zmieni.
Fakt faktem o tyle nie jest to obiektywne, że NV też można ładnie UV zrobić.
No i Watttool nie działa na najnowszych driverach.
Ale ja ani słowem o vedze 64 nie pisałem - pisałem o modelu 56 który wypada ciekawiej. Z reszta wystarczy wejść na lanie na temat vegi - ludzie spokojnie zamykają się w 300-330W dla całej platformy po UV vegi64, a karta trzyma zegar 1450mhz.
No można na nvidia - tylko czy te 30-40W będą robiły jakakolwiek różnice w ogólnym rozrachunku? W normalnym dobrze wentylowanym ATXie różnicy to już prawie nie zrobi (skoro standardowy pobór gtx1080 jest już uważany za bardzo okej), a rachunki za prąd to będzie kwestia kilku zł rocznie.
'Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę. '
Robiła - czas przeszły. Problem z narzutem sterownika NV już dawno został wyeliminowany. AMD ma wysoki narzut w DX11 i to się nie zmieni.
sterownik AMD ma wyższy narzut na wątek i to się nie zmieniło. Już przestań klakierze walczyć o przegraną sprawę. Vega skończy tak samo jak Fury i nie będzie tłumaczeń, że za mało pamięci, po prostu nieudana architektura.
Fakt faktem o tyle nie jest to obiektywne, że NV też można ładnie UV zrobić.
No i Watttool nie działa na najnowszych driverach.
Ale ja ani słowem o vedze 64 nie pisałem - pisałem o modelu 56 który wypada ciekawiej. Z reszta wystarczy wejść na lanie na temat vegi - ludzie spokojnie zamykają się w 300-330W dla całej platformy po UV vegi64, a karta trzyma zegar 1450mhz.
No można na nvidia - tylko czy te 30-40W będą robiły jakakolwiek różnice w ogólnym rozrachunku? W normalnym dobrze wentylowanym ATXie różnicy to już prawie nie zrobi (skoro standardowy pobór gtx1080 jest już uważany za bardzo okej), a rachunki za prąd to będzie kwestia kilku zł rocznie.
'Wada architektury/sterownika AMD? Sterowniki AMD działały właśnie tak że im szybszy jeden wątek tym wyższa wydajność, nvidia z kolei na 2 rdzeniowcach robiła kaszanę. '
Robiła - czas przeszły. Problem z narzutem sterownika NV już dawno został wyeliminowany. AMD ma wysoki narzut w DX11 i to się nie zmieni.
FE i Vegi mają kijowe chłodzenie- są dość głośne. Tak - ta różnica jest istotna, bo przekłada się na RPM-y.
Różnica między Vega@UV, a Pascal@UV jest większa niż 40W.
Ale ja ani słowem o vedze 64 nie pisałem - pisałem o modelu 56 który wypada ciekawiej. Z reszta wystarczy wejść na lanie na temat vegi - ludzie spokojnie zamykają się w 300-330W dla całej platformy po UV vegi64, a karta trzyma zegar 1450mhz.
No można na nvidia - tylko czy te 30-40W będą robiły jakakolwiek różnice w ogólnym rozrachunku? W normalnym dobrze wentylowanym ATXie różnicy to już prawie nie zrobi (skoro standardowy pobór gtx1080 jest już uważany za bardzo okej), a rachunki za prąd to będzie kwestia kilku zł rocznie.
sterownik AMD ma wyższy narzut na wątek i to się nie zmieniło. Już przestań klakierze walczyć o przegraną sprawę. Vega skończy tak samo jak Fury i nie będzie tłumaczeń, że za mało pamięci, po prostu nieudana architektura.
Tak swoją drogą tylko klakier albo zaopatrzony fanboj wyzywa wszystkich na około mających inne zdanie od klakierow. Więc pierwsze czy drugie?
Przecież fury sobie doskonale dzisiaj radzi i podobnie będzie z Vegą.
Problem jak zwykle z grafami od AMD jest taki, że przy premierze jest 'byle jako' ale z biegiem czasu karty dostają kopa.
Nvidia jest rewelacyjna jeśli chodzi o wydajność 'out of the box'.
Jestem święcie przekonany, że Vega ma pole do popisu ale AMD dało ciała i te karty bardzo źle wyceniło -pewnie nie miało wyboru ale niesmak pozostał :/
sterownik AMD ma wyższy narzut na wątek i to się nie zmieniło. Już przestań klakierze walczyć o przegraną sprawę. Vega skończy tak samo jak Fury i nie będzie tłumaczeń, że za mało pamięci, po prostu nieudana architektura.
Czyli potwierdzasz co napisałem. Dziękuję.
Przecież fury sobie doskonale dzisiaj radzi i podobnie będzie z Vegą.
Problem jak zwykle z grafami od AMD jest taki, że przy premierze jest 'byle jako' ale z biegiem czasu karty dostają kopa.
Nvidia jest rewelacyjna jeśli chodzi o wydajność 'out of the box'.
Jestem święcie przekonany, że Vega ma pole do popisu ale AMD dało ciała i te karty bardzo źle wyceniło -pewnie nie miało wyboru ale niesmak pozostał :/
Czyli potwierdzasz co napisałem. Dziękuję.
'dalej na 2 rdzeniach nie jest dobrze, ale takie procesory już prawie wymarły - nawet pentium ma 4 wątki. Amd też nic z tym nie zrobiło i im szybszy masz 1 wątek tym wyższa wydajność.'
Nvidia miała duży narzut i właśnie rozbiciem na wątki to zniwelowali. Nadal jest duży co widać po tym jak meczy procesory 2c2t, ale na większej ilości rdzeni nie jest to odczuwalne. U AMD narzut jest spory, ale widać nie aż tak duży, tyle ze siedzi na jednym wątku, wiec im jest szybszy tym bardziej niweluje ograniczenie wydajności.
Teraz z kolei duży narzut widać u nvidia w przypadku dx12 co jest wręcz dziwne patrząc na to jak dobrze rozbili na wątki sterownik dx11.