komentarze
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2013.02.07, 16:50
mam nadzieje, ze nowy mechanizm nie będzie oporny na podkręcanie za pomocą zewnętrznych aplikacji. flickering'owi stanowcze nie ;).
AranautZobacz profil
Poziom ostrzeżenia: 0%
Aranaut2013.02.07, 16:54
Dziwi mnie fakt, że AMD / Nvidia nigdy sie nie sądzą o kopiowanie 'wynalazków' pochodzących ze swoich kart.
*Konto usunięte*2013.02.07, 16:55
-1#3
Ciekawe czy hd85x0/86x0 tez bedzie to obslugiwac.
miomolZobacz profil
Poziom ostrzeżenia: 0%
miomol2013.02.07, 17:03
11#4
Wolę ręczne podkręcanie :)
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.02.07, 17:08
12#5
Aranaut @ 2013.02.07 16:54  Post: 635033
Dziwi mnie fakt, że AMD / Nvidia nigdy sie nie sądzą o kopiowanie 'wynalazków' pochodzących ze swoich kart.


Na pewno mają jakąś umowę o wymianie patentowej. Nie sądzę aby obecnie w ogóle dało się zrobić GPU z prawdziwego zdarzenia bez patentów NV/AMD.
mars83Zobacz profil
Poziom ostrzeżenia: 0%
mars832013.02.07, 17:09
Aranaut @ 2013.02.07 16:54  Post: 635033
Dziwi mnie fakt, że AMD / Nvidia nigdy sie nie sądzą o kopiowanie 'wynalazków' pochodzących ze swoich kart.

To tak jak Intel i AMD chyba. Mają tam jakieś umowy, żeby jeden nie mógł zrobić całkowitego monopolu drugiemu i dzielą się tym w zamian za coś innego - patenty/rozwiązania itd.
cOijNZobacz profil
Poziom ostrzeżenia: 0%
cOijN2013.02.07, 17:22
-17#7
nie zartujcie ze wszystkie radeony do dzisiaj tego nie miały?
gdybym teraz swojego 570 zamienil na mocniejszego AMD to czulbym sie BARDZO oszukany brakiem takiego rozwiazania.

choc i u NV ono nie jest dopracowane, na przyklad nie dziala przy konfiguracji wielomonitorowej. na szczescie mozna to obejsc.
TrepciaZobacz profil
Poziom ostrzeżenia: 0%
Trepcia2013.02.07, 17:27
-10#8
@Piotr Gontarczyk

Starsznie chaotycznie napisana informacja. Powielasz się w wielu akapitach, dużo słów, mało treści.
gofer87Zobacz profil
Poziom ostrzeżenia: 0%
gofer872013.02.07, 17:57
A nie wystarcza 2D i 3D, po co jeszcze wprowadzać coś, co tylko może skomplikować podkręcanie lub stabilność sterowników.
Flimi01Zobacz profil
Poziom ostrzeżenia: 0%
Flimi012013.02.07, 18:14
I po co to? W procesorach bez możliwości kręcenia jak u Intela to ma jeszcze jakiś sens, a w kartach graficznych tylko przeszkadza przy podkręcaniu bo nie da się tego wyłączyć.
Raphael1Zobacz profil
Poziom ostrzeżenia: 0%
Raphael12013.02.07, 18:40
miomol @ 2013.02.07 17:03  Post: 635036
Wolę ręczne podkręcanie :)


Ja zdecydowanie też, ale widać że firma(y) chce wycisnąć z tego krzemu ile się da w szerszym gronie niż tylko tych osób którzy potrafią do robić ręcznie.

@Flimi01
Skoro automat 2D/3D da się wyłączyć to dynamiczne OC też
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2013.02.07, 18:45
-1#12
Innymi słowy przestajesz kupować MHz, a kupujesz TDP. Ładnie można zablokować OC gdy ustawi się odpowiedni limit TDP, którego nie można drgnąć. Tak miały np. mobilne karty NV po to by 28nm GPU nie biły kotletów 40nm.
Bruno@HomeZobacz profil
Poziom ostrzeżenia: 0%
Bruno@Home2013.02.07, 19:10
Trepcia @ 2013.02.07 17:27  Post: 635045
@Piotr Gontarczyk

Starsznie chaotycznie napisana informacja. Powielasz się w wielu akapitach, dużo słów, mało treści.


http://pclab.pl/art48415.html cyt. 'Funkcja PowerTune with Boost zaimplementowana w nowych Radeonach działa w pełni sprzętowo. Cyfrowe liczniki przerwań pozwalają oszacować, ile prądu pobiera i ile ciepła wydziela układ i wyliczyć optymalne w danej chwili taktowanie. System jest w stu procentach deterministyczny: daje zawsze takie same wyniki, niezależnie od jakości egzemplarza i temperatury na zewnątrz niego. Dla porównania: Intel i Nvidia mają systemy niedeterministyczne, które szacują na podstawie obarczonych błędem odczytów temperatury i natężenia, zatem poszczególne egzemplarze mogą się różnić wydajnością. Zegar GPU jest przyspieszany w maksymalnie 256 krokach, począwszy od zegara domyślnego, czyli 1000 MHz, do zegara „Boost”, czyli 1050 MHz. Częstość przechodzenia w tryb Boost można zwiększyć, zwiększając limit mocy suwakiem w CCC. '

No, a teraz definicja z newsa:

'Wraz z kartami graficznymi Radeon HD 7970 GHz Edition oraz Radeon HD 7950 v2, firma AMD wprowadziła technikę PowerTune with Boost, która tak naprawdę opiera się na archaicznej już metodzie pozwalania aplikacjom na korzystanie z wydajności pracującego z maksymalną częstotliwością GPU (stan Boost), która automatycznie powraca do nominalnej (referencyjnej), gdy procesor grafiki jest przeciążony.'

'Oczywiście Nvidia GPU Boost zawiera też algorytm wskazujący sterownikowi jak zmieniać częstotliwość pracy GPU, w oparciu o obciążenie, pobór energii oraz temperatury.'
TrepciaZobacz profil
Poziom ostrzeżenia: 0%
Trepcia2013.02.07, 19:48
O kur.... ile minusów za wyrażenie lania wody przez piszącego newsy :| Nie można nic powiedzieć negatywnego na tym portalu bo od razu minusami zasypią.
raximusZobacz profil
Poziom ostrzeżenia: 0%
raximus2013.02.07, 20:15
-5#15
@Bruno
Tamten artykuł pisał fachowiec. Ten news pisał newsmen;p
Ale metoda Nvidii jest w tej chwili lepsza, to fakt. W końcu gdyby rozwiązanie AMD było lepsze, nie poprawiali by go.
TrepciaZobacz profil
Poziom ostrzeżenia: 0%
Trepcia2013.02.07, 20:32
-1#16
raximus @ 2013.02.07 20:15  Post: 635083
@Bruno
Tamten artykuł pisał fachowiec. Ten news pisał newsmen;p
Ale metoda Nvidii jest w tej chwili lepsza, to fakt. W końcu gdyby rozwiązanie AMD było lepsze, nie poprawiali by go.


Nie ma rzeczy, których nie da się poprawić, inaczej byłaby doskonałość. To racja, NV ma w tej chwili bardziej zaawansowaną technikę adaptacyjnego przetaktowania. Chociaż... jak dla mnie to brakuje np. funkcji, gdzie mógłbym sobie ustawić maksymalną ilość wyświetlanych klatek a częstotliwości taktowania rdzenia i pamięci byłyby do tego przystosowane.
Popatrzcie: mamy takiego np. GTX 680 albo HD7970, oby dwie karty potrafią pobrać 'trochę' papu z gniazdka. Wydajność oferują baaaardzo wysoką. Mając którąś z tych dwóch kart i grając w starszy tytuł nie potrzebujemy 200 czy 300 FPS. Po co takie układy mają działać na fulla i siorbać prądu ile widzą, skoro ja chciałbym mieć powiedzmy te 60 klatek.
ZIB2000Zobacz profil
Poziom ostrzeżenia: 0%
ZIB20002013.02.07, 20:55
no ok ale w czym problem by to wprowadzić do większości kart już teraz?

podkręcał ktoś kartę podczas gry/filmu/programu?

to nie problem - wystarczy poprawić co jest i dodać kilka opcji i po sprawie - w zasadzie jedną - auto

trepcia a vsync?można pogrzebać też w konfigu gry
gregory003Zobacz profil
Poziom ostrzeżenia: 0%
gregory0032013.02.07, 21:10
A ja bym wolał żeby popracowali nad bardziej zaawansowanymi funkcjami oszczędzania energii, włącznie z wyłączaniem poszczególnych bloków SM/SMX. Procesory CPU oferują masę trybów oszczędzania energii, do tego w dwóch modelach: C-states i P-states. A GPU? W trybie pseudo-2D (bo prawdziwej akceleracji 2D już od lat nie ma) oferują jedynie obniżenie zegarów.
azzidoZobacz profil
Poziom ostrzeżenia: 0%
azzido2013.02.07, 21:44
-2#19
Flimi01 @ 2013.02.07 18:14  Post: 635054
I po co to? W procesorach bez możliwości kręcenia jak u Intela to ma jeszcze jakiś sens, a w kartach graficznych tylko przeszkadza przy podkręcaniu bo nie da się tego wyłączyć.


mnie tam nie przeszkadza w podkręcaniu 680tki :P
JA podkręcam a potem jeszcze turbo boost, dzięki aplikacjom monitorującym jak gigabyte OC Guru wiem do jakich wartości dochodzą taktowania i dzięki temu ile rzeczywiście wyciskam z grafy w czasie maksymalnego obciążenia. Nawet proste gpu-z może ci pokazać do jakiej maksymalnej wartości doszło taktowanie, więc?

W OC w niczym to nie przeszkadza (a może nawet wręcz przeciwnie) - wiem z doświadczenia.
azzidoZobacz profil
Poziom ostrzeżenia: 0%
azzido2013.02.07, 21:46
-4#20
Niech lepiej popracują nad tym, żeby w czasie oglądania filmów w HD taktowania pozostawały niezmienione (czyli na najniższym poziomie IDLE dla gpu) - w 680tce tak mam, radeony podobno tego też jeszcze nie mają i takty ( a więc zużycie prądu i temperatury ) im rosną.
Zaloguj się, by móc komentować