Kolega dal dobry pomysł. Ludzie sie doksztalca a wy zrobicie unikalny(tak mi sie wydaje) na tego typu portalu artykuł
Kiedyś pisał o tym Tom's Hardware przy okazji testowania 290X z chłodzeniem wodnym. Chodzi o to, że przy sporo niższej temperaturze jest niższy 'wyciek energii' tj krzem 'pracuje' sprawniej.
krzem jako polmetal, odwrotnie niz metale, przy wyzszej temperaturze obniza swoj opor co prowadzi do zwiekszenia sie pradu czyli wieksze wydzielanie ciepla.
Ale taki szczegolowy(polski) artykuł by ladnie przyblizyl ten temat osoba nie wiedzacym o takim zjawizku.
dysan112 @ 2015.07.23 21:55
Jacek1991 @ 2015.07.23 21:01
(...)
oj to nie jest takie proste
Ale spokojnie, tam juz jakas technologia czeka, jeszcze kilka lat, dojdziemy do kilku nm i skonczy sie zabawa.
Zabawne jest to że proces technologiczny jak tutaj mowa 28nm to tak naprawdę o niczym nie świadczy.
Z prostej przyczyny, ta liczba mówi nam tylko to że jest najmniejsza w układzie odległość tranzystora od tranzystora lub bramki jak kto woli. Większość układu jest w większych odległościach, w szczególności dotyczy to układów pamięciowych.
A same układy pamięciowe i sposoby działania nie zmieniły się od zastosowania pamięci dynamicznej typu DRAM, kolejne wersje tzw numerki są tylko dawania kolejnych progów pamięciowych (2,4 itp..) HBM nic w tym aspekcie nie zmienia, nadal to pamięć DRAM, chodzi wyłącznie o inne połączenie tej pamięci z procesorem
Duża część ciekawych informacji jest zatajanych przez producentów a ujawniane są kompletnie bez sensu informacje. Najczęściej jest to zawarte w dokumentacjach tylko technicznych do których niema się wglądu.
Nie mow ze nie swiadczy o niczym , bo cos tam wskazuje a, ze jest to co innego niz mysli wiekszosc(ktora mysli) to juz inna sprawa
Najśmieszniejsze jest to, że do grania na poziomie PS4 wystarczy i3 za psie pieniądze...
Mimo niskopoziomowego API już niska półka lub procesory sprzed wielu lat potrafią cisnąć.
Jeśli chce się mieć 120FPSów to już i7 czasem nie wystarcza i niskopoziomowe API na gwałt potrzebne.
Pomysł na publikację po prostu genialny, cudownie że poruszacie temat chłodzeń kupnych. Idea obalania mitów w postaci przewagi autorskich 980ti nad większym gpu też mi się podoba, w ogóle dyskusyjne wydaje mi się doszukiwanie przewagi pomiędzy różnymi kartami autorskimi na innych płaszczyznach niż wydajności chłodzenia. Na koniec jednak rozczarowanie artykułem, bo co cholery w tym zestawieniu robi zotac i to na stockowych wymyślnych w dziale marketingu na Tajwanie taktach? Czemu nie użyto najlepiej referencyjnej 980ti z kuponym chłodzeniem, lub ewentualnie evgi z acx 2.0 po OC (jak sami wiecie można nawet zasymulować kartę o zakładanych zegarach - w końcu limity tdp to nie tajemnica). Trochę szkoda, że temat boost i limitów prądowych nie został wyczerpany - ale może to i nie miejsce na to, choć warto byłoby wyjaśnić pewne sprawy. Trochę szkoda... O tym że ref 980ti (i każdy inny regenerent) z kupnym chłodzeniem i po zdjęciu limitów zbios jest lepszy od autorskiego często słabo zamontowanego złomu gdzie oszczędza się na paście i materiałach każdy kto sam długie w sprzęcie wie. Nadal jednak nie wiemy ile dokładnie daje większe gpu w tym przypadku co właśnie rozczarowuje.
Fury X wygląda przy tym jak karta poprzedniej generacji, miejscami prawie 2x wolniejsza. Chociaż takiej farelki osobiście bym nie chciał, mój zestaw pewnie ciągnie połowę tego, a w lato czasami nie idzie wytrzymać.
Świetna robota! Więcej takich testów. Fajnie, że chce wam się podziałać coś więcej i przeprowadzić kompletne testy dla porównania z chłodzeniem powietrznym. Z opisu na pierwszej stronie wnioskuję, że użyte zostały biosy ultimate przygotowe przez Sheystera One bazują właśnie na biosie z EVGA Hydrocopper. Podobne wyniki uzyskałem w taktowaniu i poborze mocy. Temperatury mam znacznie niższe przy tych samych obrotach wentylatorów, ale przy dwukrotnie większej powierzchni chłodnicy. Od dużej chłodnicy lepsza jest tylko wielka chłodnica
Aha, bloki te same od EKWB. Prosta czarna forma, cudo na żywo. Ich backplate podobnie: bez żadnych pierdółek, świecidełek, pstrokacizn.
Aha 2 Też przez Wiedźmina zjechałem z taktowaniami poniżej 1500MHz
Najśmieszniejsze jest to, że do grania na poziomie PS4 wystarczy i3 za psie pieniądze...
Mimo niskopoziomowego API już niska półka lub procesory sprzed wielu lat potrafią cisnąć.
Jeśli chce się mieć 120FPSów to już i7 czasem nie wystarcza i niskopoziomowe API na gwałt potrzebne.
Jak wszedł bf3 wszyscy narzekali na spadki do 30-40 fps na gtxach 670/680. Ja miałem wysłużonego i dogorywającego po tysiącach godzin grania (przy 85-90c na gpu) gtx580, który ledwo działał na podbitym napięciu przy referencyjnych taktach i nie widziałem mniej jak 60 fps, w sumie nie rezygnując z niczego czego i tak bym nie włączył na szybszej karcie w mp. Nie ma co przesadzać w tego typu grach po pierwszych patchach zawsze da się wkręcić te 100 fps na raczej nie najdroższym sprzęcie - strata jakości wiadomo że jest niepożądana ale do cholery jakoś nie widzę gry w tego typu grę z motion blur, rozmywającym obraz aa czy wymaksowanymi filtrami post zmniejszającymi czytelność. Jak ktoś nie łapie o co chodzi to niech spróbuje swoich sił w c3 na max ustawieniach - mniej niż niski frame rate doprowadza do szewskiej pasji, że nic nie widzisz - co najmniej połowa ustawień idzie od razu na high lub niżej, bo inaczej nie ma sensu grać. Zwykły stary męczony oc i5 (sb lub nowszy) i karta że średniej półki np. 970 lub starsza 770 to już jest sprzęt odpowiedni do tego typu gier, każdy lepszy oczywiście oczywiście może TROCHĘ ułatwić grę ale ma to zdecydowanie mniejszy wpływ niż umiejętności, czy nawet akcesoria/peryferia. W bf4 już w zasadzie nie gram, w sumie nie podoba mi się ten styl rozgrywki w jakim idzie ta gra ale tutaj dalej wymagania są dość umiarkowane - wcale nie trzeba mieć topowego sprzętu aby się bawić a nawet mieć dobre wyniki.
Kiedyś pisał o tym Tom's Hardware przy okazji testowania 290X z chłodzeniem wodnym. Chodzi o to, że przy sporo niższej temperaturze jest niższy 'wyciek energii' tj krzem 'pracuje' sprawniej.
Anand w recenzji fury x ostatnio zjawisko analizował.
Fury X wygląda przy tym jak karta poprzedniej generacji, miejscami prawie 2x wolniejsza. Chociaż takiej farelki osobiście bym nie chciał, mój zestaw pewnie ciągnie połowę tego, a w lato czasami nie idzie wytrzymać.
Gdyż jest to karta poprzedniej generacji. Co prawda debiutowała niedawno, ale to ciągle gcn, udoskonalony ale wciąż prawie taki sam jak w 2011 roku, kiedy wchodził kepler. Ta karta to technicznie odpowiednik drugiej generacji keplera np. Pierwszego titana/780ti. Amd jest o jedną generację za nVidią co powinno przekładać się na ceny. W końcu 780ti, którego ciągle używam to bardzo dobra karta, no ale na pewno nie warta już 2.5 tys zł, natomiast amd wydaje się że może sobie w tej cenie sprzedawać fury bez x.
Co za moc, myślałem ze 980 Ti jest szybki ale podkręcony Titan X pozamiatał wszystko ogniem ze swojego slotu ;p
Szkoda AMD, oni już nie maja czego szukać w tym wyścigu.
Az strach pomyśleć jakie ceny będą jak się Pascal pojawi.
Zabawne jest to że proces technologiczny jak tutaj mowa 28nm to tak naprawdę o niczym nie świadczy.
Z prostej przyczyny, ta liczba mówi nam tylko to że jest najmniejsza w układzie odległość tranzystora od tranzystora lub bramki jak kto woli. Większość układu jest w większych odległościach, w szczególności dotyczy to układów pamięciowych.
Ładnie ujęte. Zauważalne jest mamienie gawiedzi cudami nie z tej ziemi po przejściu na nowy, 'niższy' proces technologiczny. Jakby to było remedium na wszystkie bolączki.
Tymczasem zmiennych/problemów w projektowaniu układów jest multum. Kosmosem wydawały mi sie kiedyś rozwiązania w postaci procesorów superskalarnych i wielopotokowych (pentium / pentium pro), a co powiedzieć teraz. Sam proces technologiczny, to tylko jeden z elementów ogromnej układanki.
Co za moc, myślałem ze 980 Ti jest szybki ale podkręcony Titan X pozamiatał wszystko ogniem ze swojego slotu ;p
Szkoda AMD, oni już nie maja czego szukać w tym wyścigu.
Az strach pomyśleć jakie ceny będą jak się Pascal pojawi.
Mogliby wejść do gry nową architekturą - to mimo wszystko otwarta książka i czekamy na nowy rozdział 16 nm. Gcn się skończyło, ale i Maxwell nie jest siódmym cudem świata a jedynie rozwinięciem starszej architektury. Natomiast ze względu na wsparcie i sterowniki Ja nie kupię nic od nich. Nawet jak będą mieć 2x wyższą wydajność gpu w 2x niższej cenie to kupie nvidie, ze względu na regularne wsparcie i hotfixy, które pozwalają grać w dzień premiery na akceptowalnym poziomie i narzut na cpu, dzięki czemu choćby gra była zepsuta do granic możliwości pozostanie grywalna na niższych ustawieniach, na amd (miałem i 7970 i 290) trafisz masę gier w które nie da się grać, bo nawet na low nie da się uniknąć spadków poniżej 50 fps na 4770k, odpada więc możliwość gry w stabilnych 60 fps kosztem jakichś ustawień, a ja lubię mieć w SP 60 fps + vsync + potrójne buforowanie i zawsze tak gram nawet jeśli wymusza to mocne zejście z ustawień np. W a unity, wd, gta5. W te 3 gry na amd w ogóle nie da się zagrać w stabilnych 60 fps, a na prawie dwu letniej karcie nvidii udało się z niewielkimi problemami (wiadomo jak chodzi unity).
Nie maja kasy to wsparcie leży więc co tu marzyć o nowej architekturze.
Zresztą tak jak napisałeś mogą mieć super wypasione GPU ale jak sterowniki będą skopane to ten super wydajny GPU będzie fajny tylko 'na papierze'.
Słabe (odkąd pamietam, bo teraz to jest wręcz tragiczne) wsparcie GPU ATi/AMD to praktycznie główny powód dla którego zawsze omijałem ich karty.
Niestety Nvidia która pod tym względem była wzorem do naśladowania tez ostatnio zaczyna odwalać fuszerkę i tak się zastanawiam czy to aby nie dzieje się właśnie z powodu tego ze nie czuja już 'oddechu' konkurencji i troszkę sobie odpuścili, albo gorzej zaniżają 'świadomie' starsze GPU aby sztucznie promować nowe.
Zabawne jest to że proces technologiczny jak tutaj mowa 28nm to tak naprawdę o niczym nie świadczy.
Z prostej przyczyny, ta liczba mówi nam tylko to że jest najmniejsza w układzie odległość tranzystora od tranzystora lub bramki jak kto woli. Większość układu jest w większych odległościach, w szczególności dotyczy to układów pamięciowych.
Ładnie ujęte. Zauważalne jest mamienie gawiedzi cudami nie z tej ziemi po przejściu na nowy, 'niższy' proces technologiczny. Jakby to było remedium na wszystkie bolączki.
Tymczasem zmiennych/problemów w projektowaniu układów jest multum. Kosmosem wydawały mi sie kiedyś rozwiązania w postaci procesorów superskalarnych i wielopotokowych (pentium / pentium pro), a co powiedzieć teraz. Sam proces technologiczny, to tylko jeden z elementów ogromnej układanki.
Dziś korporacje decydują o rozwoju działu IT, grafik, procesorów itp.. A nie postęp co widać po prostu. Twarda ekonomika i zysk.
Nam się tylko wydaje że jest postęp techniczny nic więcej. Wszystko teraz jest tak obliczane by przynosiło zysk.
Przykład to architektura x86 która ma już prawie 30 lat i klepana jest z małymi zmianami nadal. Sa o wiele ciekawsze rozwiązania w zakresie architektury procesorów a tak siedzimy 32 bitach z dodatkowymi na sile rejestrami 64 bitowymi na potrzeby wyłącznie adresacji pamięci RAM.
Gdzie są układy które operują na 256/512bitach danych ale temat ucichł.
Olali keplera tak, że najlepiej na tym przykładzie widać siłę softu. Gdyby wsparcie było na równym poziomie to większość nie wymieniłaby 780ti na małego Maxwella 980. Wystatrczyło olać wsparcie w gamę works dla starej serii aby niemal wszyscy zmigrowali z 780(ti) na 970/980 a teraz wielu kupi 980ti bo dopiero tutaj jest realny wzrost wydajności. Z tego punktu widzenia nie najgorzej wyszli ci co kupili titana x, no ale nie każdy będzie wydawał 1000 funtów na kartę, bo nvidia wymyśliła sobie aby przesunąć największe gpu w nieosiągalny wcześniej pułap cenowy, a tańsza ukrojona wersja dużego gpu wychodzi już nie z tygodniowej ale absurdalne ogromnym opóźnieniem.
Od tego momentu zwiększaliśmy częstotliwości taktowania, a stabilność ustawień sprawdzaliśmy w kilkudziesięciominutowych sesjach 3D Marka w trybie Fire Strike Ultra oraz podczas gry w Wiedźmina 3 z wszystkimi opcjami ustawionymi na Ultra i włączoną techniką HairWorks.
z tymi 100% pewnosci bym uwazal. Ja swojego 970 wykrecilem na 1575mhz(bez zmiany napiecia) i byl stabilny przez kilka h we wiedzminie. Za to w GTA5 wywalalo mi nawet na 1450Mhz po kilku minutach ;/
spzetor @ 2015.07.23 19:49
Ciekawa sprawa z temperaturą i związanym z tym poborem prądu. Zamierzacie to rozwinąć?
Kolega dal dobry pomysł. Ludzie sie doksztalca a wy zrobicie unikalny(tak mi sie wydaje) na tego typu portalu artykuł
Przecież karta zmniejsza taktowanie i nie mogłeś mieć cały czas tak wysokiego zegara, dlatego była stabilna. A co do wiedźmina to niestety 970 ma problemy przy OC i wywalaniem sterownika. Przypomina mi się GTX 660, który miał pierwszą generację GPU Boost i było to dziadostwo, że stary GTX 460 lepiej pracował (nie zbijał zegarów podczas grania)
1 generacja boost była ok. Jeśli limity tdp nie blokowały, a to akurat łatwo edytować to karta ci schodziła 13 mhz i 0.0125v powyżej 70c, potem o kolejne 13 mhz i 12mv przy 80c, potem co 5c. Spadek napięcia na rozgrzane i obciążonej karcie mógł powodować zwis, imho nie było to najlepiej zgrane z pkt widzenia max oc, ale w normalnych warunkach schodzileś te 26 mhz z oc i było to nie najgorsze rozwiązanie z punktu widzenia temperatur.boos 2.0 trzyma sztywno max zegar o ile tdp pozwala do ustalonej t, ale potem spadek zegara po osiągnięciu t max jest strasznie agresywny, karta zejdzie z temperatury o 2c i wchodzi na max zegar aby po chwili się throttlować, na referentachszczególnie titanach to jest mega upierdliwe po oc bez zmiany tmax i/lub profilu turbiny. Szczerze powiem,że w czasach pierwszego boosta była moda na jego wylaczanie czego nie byłem zwolennikiem, natomiast nowego boosta szczerze nienawidzę. Inna sprawa,że miałem 680 a 670 throttlował się o prawie 10 c niżej. Tak czy inaczej jeślikarta delikatnie schodzi z oc aby nie rosła za wysoko temperatura to było dla mnie korzystne zjawisko, natomiast jakkarta z b2 zejdzie 150 mhz by po chwili wrócić na max boost to dla mnie jakieś nieporozumienie, tym bardziej że te spadki występują gdy karta najbardziej dostaje po dupie czyli zawsze gdy wydajność jest najbardziej potrzebna. Imho boost 2.0 jest niepożądanym wynalazkiem.
Rewelacyjny test Do mnie na moje TXy, jadą już 2x EVGA Hybrid , także będzie się działo
Po za tym, modyfikacja biosu w realiach nie powoduje utraty gwarancji. Nawet jak karta padnie na amen to i tak chyba nikt po za cholernym MSI, nie bawi się w sprawdzanie tego
Referenty nie mają plomb na chłodzeniach, (Nawet ASUS który kiedyś zakładał, już nie zakłada) więc zmiana chłodzenia, również nie wiąże się z utratą gwarancji.
MOC dawno takie testy powinny byc robione- przy tym budżecie aio czy LC to i tak drobne - bardzo ciekawy realistyczny test
Kolega dal dobry pomysł. Ludzie sie doksztalca a wy zrobicie unikalny(tak mi sie wydaje) na tego typu portalu artykuł
Kiedyś pisał o tym Tom's Hardware przy okazji testowania 290X z chłodzeniem wodnym. Chodzi o to, że przy sporo niższej temperaturze jest niższy 'wyciek energii' tj krzem 'pracuje' sprawniej.
krzem jako polmetal, odwrotnie niz metale, przy wyzszej temperaturze obniza swoj opor co prowadzi do zwiekszenia sie pradu czyli wieksze wydzielanie ciepla.
Ale taki szczegolowy(polski) artykuł by ladnie przyblizyl ten temat osoba nie wiedzacym o takim zjawizku.
oj to nie jest takie proste
Ale spokojnie, tam juz jakas technologia czeka, jeszcze kilka lat, dojdziemy do kilku nm i skonczy sie zabawa.
Zabawne jest to że proces technologiczny jak tutaj mowa 28nm to tak naprawdę o niczym nie świadczy.
Z prostej przyczyny, ta liczba mówi nam tylko to że jest najmniejsza w układzie odległość tranzystora od tranzystora lub bramki jak kto woli. Większość układu jest w większych odległościach, w szczególności dotyczy to układów pamięciowych.
A same układy pamięciowe i sposoby działania nie zmieniły się od zastosowania pamięci dynamicznej typu DRAM, kolejne wersje tzw numerki są tylko dawania kolejnych progów pamięciowych (2,4 itp..) HBM nic w tym aspekcie nie zmienia, nadal to pamięć DRAM, chodzi wyłącznie o inne połączenie tej pamięci z procesorem
Duża część ciekawych informacji jest zatajanych przez producentów a ujawniane są kompletnie bez sensu informacje. Najczęściej jest to zawarte w dokumentacjach tylko technicznych do których niema się wglądu.
Nie mow ze nie swiadczy o niczym
Mimo niskopoziomowego API już niska półka lub procesory sprzed wielu lat potrafią cisnąć.
Jeśli chce się mieć 120FPSów to już i7 czasem nie wystarcza i niskopoziomowe API na gwałt potrzebne.
Aha, bloki te same od EKWB. Prosta czarna forma, cudo na żywo. Ich backplate podobnie: bez żadnych pierdółek, świecidełek, pstrokacizn.
Aha 2 Też przez Wiedźmina zjechałem z taktowaniami poniżej 1500MHz
Mimo niskopoziomowego API już niska półka lub procesory sprzed wielu lat potrafią cisnąć.
Jeśli chce się mieć 120FPSów to już i7 czasem nie wystarcza i niskopoziomowe API na gwałt potrzebne.
Jak wszedł bf3 wszyscy narzekali na spadki do 30-40 fps na gtxach 670/680. Ja miałem wysłużonego i dogorywającego po tysiącach godzin grania (przy 85-90c na gpu) gtx580, który ledwo działał na podbitym napięciu przy referencyjnych taktach i nie widziałem mniej jak 60 fps, w sumie nie rezygnując z niczego czego i tak bym nie włączył na szybszej karcie w mp. Nie ma co przesadzać w tego typu grach po pierwszych patchach zawsze da się wkręcić te 100 fps na raczej nie najdroższym sprzęcie - strata jakości wiadomo że jest niepożądana ale do cholery jakoś nie widzę gry w tego typu grę z motion blur, rozmywającym obraz aa czy wymaksowanymi filtrami post zmniejszającymi czytelność. Jak ktoś nie łapie o co chodzi to niech spróbuje swoich sił w c3 na max ustawieniach - mniej niż niski frame rate doprowadza do szewskiej pasji, że nic nie widzisz - co najmniej połowa ustawień idzie od razu na high lub niżej, bo inaczej nie ma sensu grać. Zwykły stary męczony oc i5 (sb lub nowszy) i karta że średniej półki np. 970 lub starsza 770 to już jest sprzęt odpowiedni do tego typu gier, każdy lepszy oczywiście oczywiście może TROCHĘ ułatwić grę ale ma to zdecydowanie mniejszy wpływ niż umiejętności, czy nawet akcesoria/peryferia. W bf4 już w zasadzie nie gram, w sumie nie podoba mi się ten styl rozgrywki w jakim idzie ta gra ale tutaj dalej wymagania są dość umiarkowane - wcale nie trzeba mieć topowego sprzętu aby się bawić a nawet mieć dobre wyniki.
Kiedyś pisał o tym Tom's Hardware przy okazji testowania 290X z chłodzeniem wodnym. Chodzi o to, że przy sporo niższej temperaturze jest niższy 'wyciek energii' tj krzem 'pracuje' sprawniej.
Anand w recenzji fury x ostatnio zjawisko analizował.
Gdyż jest to karta poprzedniej generacji. Co prawda debiutowała niedawno, ale to ciągle gcn, udoskonalony ale wciąż prawie taki sam jak w 2011 roku, kiedy wchodził kepler. Ta karta to technicznie odpowiednik drugiej generacji keplera np. Pierwszego titana/780ti. Amd jest o jedną generację za nVidią co powinno przekładać się na ceny. W końcu 780ti, którego ciągle używam to bardzo dobra karta, no ale na pewno nie warta już 2.5 tys zł, natomiast amd wydaje się że może sobie w tej cenie sprzedawać fury bez x.
Szkoda AMD, oni już nie maja czego szukać w tym wyścigu.
Az strach pomyśleć jakie ceny będą jak się Pascal pojawi.
Zabawne jest to że proces technologiczny jak tutaj mowa 28nm to tak naprawdę o niczym nie świadczy.
Z prostej przyczyny, ta liczba mówi nam tylko to że jest najmniejsza w układzie odległość tranzystora od tranzystora lub bramki jak kto woli. Większość układu jest w większych odległościach, w szczególności dotyczy to układów pamięciowych.
Ładnie ujęte. Zauważalne jest mamienie gawiedzi cudami nie z tej ziemi po przejściu na nowy, 'niższy' proces technologiczny. Jakby to było remedium na wszystkie bolączki.
Tymczasem zmiennych/problemów w projektowaniu układów jest multum. Kosmosem wydawały mi sie kiedyś rozwiązania w postaci procesorów superskalarnych i wielopotokowych (pentium / pentium pro), a co powiedzieć teraz. Sam proces technologiczny, to tylko jeden z elementów ogromnej układanki.
Szkoda AMD, oni już nie maja czego szukać w tym wyścigu.
Az strach pomyśleć jakie ceny będą jak się Pascal pojawi.
Mogliby wejść do gry nową architekturą - to mimo wszystko otwarta książka i czekamy na nowy rozdział 16 nm. Gcn się skończyło, ale i Maxwell nie jest siódmym cudem świata a jedynie rozwinięciem starszej architektury. Natomiast ze względu na wsparcie i sterowniki Ja nie kupię nic od nich. Nawet jak będą mieć 2x wyższą wydajność gpu w 2x niższej cenie to kupie nvidie, ze względu na regularne wsparcie i hotfixy, które pozwalają grać w dzień premiery na akceptowalnym poziomie i narzut na cpu, dzięki czemu choćby gra była zepsuta do granic możliwości pozostanie grywalna na niższych ustawieniach, na amd (miałem i 7970 i 290) trafisz masę gier w które nie da się grać, bo nawet na low nie da się uniknąć spadków poniżej 50 fps na 4770k, odpada więc możliwość gry w stabilnych 60 fps kosztem jakichś ustawień, a ja lubię mieć w SP 60 fps + vsync + potrójne buforowanie i zawsze tak gram nawet jeśli wymusza to mocne zejście z ustawień np. W a unity, wd, gta5. W te 3 gry na amd w ogóle nie da się zagrać w stabilnych 60 fps, a na prawie dwu letniej karcie nvidii udało się z niewielkimi problemami (wiadomo jak chodzi unity).
Zresztą tak jak napisałeś mogą mieć super wypasione GPU ale jak sterowniki będą skopane to ten super wydajny GPU będzie fajny tylko 'na papierze'.
Słabe (odkąd pamietam, bo teraz to jest wręcz tragiczne) wsparcie GPU ATi/AMD to praktycznie główny powód dla którego zawsze omijałem ich karty.
Niestety Nvidia która pod tym względem była wzorem do naśladowania tez ostatnio zaczyna odwalać fuszerkę i tak się zastanawiam czy to aby nie dzieje się właśnie z powodu tego ze nie czuja już 'oddechu' konkurencji i troszkę sobie odpuścili, albo gorzej zaniżają 'świadomie' starsze GPU aby sztucznie promować nowe.
Zabawne jest to że proces technologiczny jak tutaj mowa 28nm to tak naprawdę o niczym nie świadczy.
Z prostej przyczyny, ta liczba mówi nam tylko to że jest najmniejsza w układzie odległość tranzystora od tranzystora lub bramki jak kto woli. Większość układu jest w większych odległościach, w szczególności dotyczy to układów pamięciowych.
Ładnie ujęte. Zauważalne jest mamienie gawiedzi cudami nie z tej ziemi po przejściu na nowy, 'niższy' proces technologiczny. Jakby to było remedium na wszystkie bolączki.
Tymczasem zmiennych/problemów w projektowaniu układów jest multum. Kosmosem wydawały mi sie kiedyś rozwiązania w postaci procesorów superskalarnych i wielopotokowych (pentium / pentium pro), a co powiedzieć teraz. Sam proces technologiczny, to tylko jeden z elementów ogromnej układanki.
Dziś korporacje decydują o rozwoju działu IT, grafik, procesorów itp.. A nie postęp co widać po prostu. Twarda ekonomika i zysk.
Nam się tylko wydaje że jest postęp techniczny nic więcej. Wszystko teraz jest tak obliczane by przynosiło zysk.
Przykład to architektura x86 która ma już prawie 30 lat i klepana jest z małymi zmianami nadal. Sa o wiele ciekawsze rozwiązania w zakresie architektury procesorów a tak siedzimy 32 bitach z dodatkowymi na sile rejestrami 64 bitowymi na potrzeby wyłącznie adresacji pamięci RAM.
Gdzie są układy które operują na 256/512bitach danych ale temat ucichł.
z tymi 100% pewnosci bym uwazal. Ja swojego 970 wykrecilem na 1575mhz(bez zmiany napiecia) i byl stabilny przez kilka h we wiedzminie. Za to w GTA5 wywalalo mi nawet na 1450Mhz po kilku minutach ;/
Kolega dal dobry pomysł. Ludzie sie doksztalca a wy zrobicie unikalny(tak mi sie wydaje) na tego typu portalu artykuł
Przecież karta zmniejsza taktowanie i nie mogłeś mieć cały czas tak wysokiego zegara, dlatego była stabilna. A co do wiedźmina to niestety 970 ma problemy przy OC i wywalaniem sterownika. Przypomina mi się GTX 660, który miał pierwszą generację GPU Boost i było to dziadostwo, że stary GTX 460 lepiej pracował (nie zbijał zegarów podczas grania)
Po za tym, modyfikacja biosu w realiach nie powoduje utraty gwarancji. Nawet jak karta padnie na amen to i tak chyba nikt po za cholernym MSI, nie bawi się w sprawdzanie tego
Referenty nie mają plomb na chłodzeniach, (Nawet ASUS który kiedyś zakładał, już nie zakłada) więc zmiana chłodzenia, również nie wiąże się z utratą gwarancji.
MOC