komentarze
TabalanZobacz profil
Poziom ostrzeżenia: 0%
Tabalan2015.01.14, 23:18
rainy @ 2015.01.14 23:04  Post: 822395
Muszę przyznać, iż nawet jest dość zabawne obserwować jak spora grupa komentujących feruje już wyroki na podstawie cokolwiek enigmatycznego wpisu na LinkedIn, nie mając rzecz jasna nawet bladego pojęcia o wydajności, realnym poborze mocy i rzecz jasna cenie nowych Radeonów.
Może warto byłoby zaczekać z komentowaniem do momentu ukazania się jakichś bardziej konkretnych danych?

Nie, nie można. To w końcu AMD, trzeba gnoić.

Swoją drogą, słyszałem w internecie, że konsumencka Volta ma mieć TDP -100W (tak, tak, ujemne TDP), czyli praktycznie sama może zasilać podkręconego Intela i5.
/sarkazm
ZodiacZobacz profil
Poziom ostrzeżenia: 0%
Zodiac2015.01.14, 23:31
Charlie juz kilka miesiecy temu pisal, ze bedzie HBM, ze bedzie SoC z ARMami na pokladzie i ze zmiecie nVidia na dlugo, bo zieloni cwicza stackowanie tylko na klockach lego.

Mnie martwi co innego - od jakiegos czasu uzywam kart nVidii nie dlatego, ze sa wydajniejsze / tansze w swoim segmencie / niepotrzebne skreslic, tylko dlatego ze na prawde robia dobre stery i gry w ktore gram (a jesli ich kilka) dzialaja swietnie. AMD mialo z tym zawsze wielki problem. Nie wiem jak jest teraz, ale nie kupie nawet 2x wydajniejszej karty jak potem mam bujac sie po odpaleniu 1 z 3 moich ulubionych gier (WoW, Diablo 3, SC2).
LeacHZobacz profil
Poziom ostrzeżenia: 0%
LeacH2015.01.15, 00:45
ok tj max co potrafią zrobić to 300W. Ciekawe ile będzie na przeprojektowanie i czy liczą całościowy pobór karty - w tym pamięci i utratę na przetwornicach napięcia.
Zresztą nawet nie wyszły slajdy a my na podstawie 1 głupiego wpisu idziemy za daleko w rozmyślaniu, aż gotują się szklane kule.
To, że będzie hybrydowe chłodzenie było pewne, mnie ciekawi jaki proces 28 czy 20 nm i czy poprawią referenta (w sensie chłodzenie).
A jedno pytanie - co jak to jest projektowanie następcy nie R9 290X a R9 295X2? Tj 2 procesorowe rozwiązanie?
Hamil_HamsterZobacz profil
Poziom ostrzeżenia: 0%
Hamil_Hamster2015.01.15, 01:24
Amdfan @ 2015.01.14 22:38  Post: 822386
Hamil_Hamster @ 2015.01.14 22:26  Post: 822381
(...)

(...)

Kolejni fani grania w schowku/szafie, którym dodatkowe kilkadziesiąt wat ciepła tworzy prawdziwe tropiki.
Może załóżcie jakiś klub? Z jakąś chwytliwą nazwą, jak Schowkowi Jeźdźcy Zielonego Smoka czy coś.

Czasami ktoś mieszka w dobrze ocieplonym domu, a nie w szałasie i pomieszczenie potrafi się nagrzać. Centurion + 290x i po kilku godzinach grania - parnik.

I co? Myślisz, że na GTX 980 albo nawet 970 będziesz miał chłodniej? Te (góra) parędziesiąt wat poboru mocy (i co za tym idzie wydalania ciepła) różnicy to jest nic w skali pomieszczenia. Tyle zapewni stara żarówka, włączony monitor i tuzin innych rzeczy. Nie słyszałem jeszcze aby ktoś gasił światło bo mu gorąco.
Ale w fantastycznej krainie zielonych trolli i znikających smoków wszystko jest możliwe.
ArninZobacz profil
Poziom ostrzeżenia: 0%
Arnin2015.01.15, 02:43
jaskól @ 2015.01.14 13:44  Post: 822048
300W??????? Cały PC z GTX980 ciągnie 250W a Ci samą kartą chcą ten wynik przebić......



Sorry, ale według mnie, jeśli kogoś stać na takiego potworka i grafe za pewnie furę kasy, stać też na zapłacenie takiego rachunku za prąd. W kolejnej generacji zoptymalizują to i owo, podrasują i pobór prądu pewnie będzie niższy. Dla konkretnej grupy odbiorców liczy się wydajność bez kompromisów. Do biednych ona nie trafi, spokojnie.
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2015.01.15, 05:03
mbe @ 2015.01.14 22:16  Post: 822374

A ktoś stoi nad tobą z lufą przy skroni i każe ci kupić referenta??

Niereferenty są ciche i chłodne...

nie, nie są. A to, że karta ma kilkka stopni mniej nie znaczy, że mniej go wydziela, niereferenty wydzielaja go jeszcze więcej. Z łaski swojej skończ fanbojować bo podstawowej wiedzy nie masz.

I co? Myślisz, że na GTX 980 albo nawet 970 będziesz miał chłodniej? Te (góra) parędziesiąt wat poboru mocy (i co za tym idzie wydalania ciepła) różnicy to jest nic w skali pomieszczenia. Tyle zapewni stara żarówka, włączony monitor i tuzin innych rzeczy. Nie słyszałem jeszcze aby ktoś gasił światło bo mu gorąco.
Ale w fantastycznej krainie zielonych trolli i znikających smoków wszystko jest możliwe.
Masz strasznie czerwony ból dupy jak kolega mbe, możecie sobie wzajemnie posmarować maścią. Miałem więcej kart AMD niż jakichkolwiek innych, 290 też miałem i piszę na podstawie własnych doświadczeń, póki co to Ty tutaj wyjeżdżasz z jakimiś krainami, a gul skacze niesamowicie.
mbe2015.01.15, 06:12
Kowal @ 2015.01.15 05:03  Post: 822432
mbe @ 2015.01.14 22:16  Post: 822374

A ktoś stoi nad tobą z lufą przy skroni i każe ci kupić referenta??

Niereferenty są ciche i chłodne...

nie, nie są. A to, że karta ma kilkka stopni mniej nie znaczy, że mniej go wydziela, niereferenty wydzielaja go jeszcze więcej. Z łaski swojej skończ fanbojować bo podstawowej wiedzy nie masz.

I co? Myślisz, że na GTX 980 albo nawet 970 będziesz miał chłodniej? Te (góra) parędziesiąt wat poboru mocy (i co za tym idzie wydalania ciepła) różnicy to jest nic w skali pomieszczenia. Tyle zapewni stara żarówka, włączony monitor i tuzin innych rzeczy. Nie słyszałem jeszcze aby ktoś gasił światło bo mu gorąco.
Ale w fantastycznej krainie zielonych trolli i znikających smoków wszystko jest możliwe.
Masz strasznie czerwony ból dupy jak kolega mbe, możecie sobie wzajemnie posmarować maścią. Miałem więcej kart AMD niż jakichkolwiek innych, 290 też miałem i piszę na podstawie własnych doświadczeń, póki co to Ty tutaj wyjeżdżasz z jakimiś krainami, a gul skacze niesamowicie.

Uuuuuuu!!! Poważna sprawa. Wez już przestań z tym nagrzewaniem pomieszczenia. Nagrzewanie karty mozna porównać do ogrzewania pomieszczenia lutownica.
mbe2015.01.15, 07:52
Kowal @ 2015.01.15 05:03  Post: 822432
mbe @ 2015.01.14 22:16  Post: 822374

A ktoś stoi nad tobą z lufą przy skroni i każe ci kupić referenta??

Niereferenty są ciche i chłodne...

nie, nie są. A to, że karta ma kilkka stopni mniej nie znaczy, że mniej go wydziela, niereferenty wydzielaja go jeszcze więcej. Z łaski swojej skończ fanbojować bo podstawowej wiedzy nie masz.

I co? Myślisz, że na GTX 980 albo nawet 970 będziesz miał chłodniej? Te (góra) parędziesiąt wat poboru mocy (i co za tym idzie wydalania ciepła) różnicy to jest nic w skali pomieszczenia. Tyle zapewni stara żarówka, włączony monitor i tuzin innych rzeczy. Nie słyszałem jeszcze aby ktoś gasił światło bo mu gorąco.
Ale w fantastycznej krainie zielonych trolli i znikających smoków wszystko jest możliwe.
Masz strasznie czerwony ból dupy jak kolega mbe, możecie sobie wzajemnie posmarować maścią. Miałem więcej kart AMD niż jakichkolwiek innych, 290 też miałem i piszę na podstawie własnych doświadczeń, póki co to Ty tutaj wyjeżdżasz z jakimiś krainami, a gul skacze niesamowicie.

Nie piłem z tobą wódki więc kolegami nie jesteśmy. Homosiem też nie jestem i odbyt mnie nie boli, a twoje doswiadczenia w tym temacie zupełnie mnie nie interesują.

Narazie to jakieś bóle mają osoby które uważają te 300W za TDP finalnego produktu.

Prawda jest taka że to GPU może wyprzedzić NV w dwóch kwestiach:
Pamieci HBM co jest pewne oraz zintegrowanie ARM w GPU... Ale tego już nie zauważyliście. Liczy się tylko hejt.
mbe2015.01.15, 08:11
Brak edycji w wersji mobilnej to żenua.

Żadna obecna karta nie nadaje się do 4k. A jeśli jedynym wyjściem jest poprostu stworzenie takiego potwora??

AMD od dawna kręci się przy tej rozdziałce.

Jak dadzą 4kPS. W 28nm a pobór prądu będzie w okolicach 290x albo i trochę wiekszej to moim zdaniem nie ma co narzekać.
EclipseZobacz profil
Poziom ostrzeżenia: 0%
Eclipse2015.01.15, 08:34
mbe @ 2015.01.15 08:11  Post: 822442
Brak edycji w wersji mobilnej to żenua.

Żadna obecna karta nie nadaje się do 4k. A jeśli jedynym wyjściem jest poprostu stworzenie takiego potwora??

AMD od dawna kręci się przy tej rozdziałce.

Jak dadzą 4kPS. W 28nm a pobór prądu będzie w okolicach 290x albo i trochę wiekszej to moim zdaniem nie ma co narzekać.

dadza 4 k n slajdach reklamowych.
Do 4 k to jeszcze ze 2 refreshe i 2 generacje musza obie firmy zrobic.


mbe2015.01.15, 08:41
Eclipse @ 2015.01.15 08:34  Post: 822447
mbe @ 2015.01.15 08:11  Post: 822442
Brak edycji w wersji mobilnej to żenua.

Żadna obecna karta nie nadaje się do 4k. A jeśli jedynym wyjściem jest poprostu stworzenie takiego potwora??

AMD od dawna kręci się przy tej rozdziałce.

Jak dadzą 4kPS. W 28nm a pobór prądu będzie w okolicach 290x albo i trochę wiekszej to moim zdaniem nie ma co narzekać.

dadza 4 k n slajdach reklamowych.
Do 4 k to jeszcze ze 2 refreshe i 2 generacje musza obie firmy zrobic.



Może tak ale patrząc na testy obie firmy są juz poza granicą 30fps w 4k.
AmdfanZobacz profil
Poziom ostrzeżenia: 0%
Amdfan2015.01.15, 09:06
Hamil_Hamster @ 2015.01.15 01:24  Post: 822419
Amdfan @ 2015.01.14 22:38  Post: 822386
(...)

Czasami ktoś mieszka w dobrze ocieplonym domu, a nie w szałasie i pomieszczenie potrafi się nagrzać. Centurion + 290x i po kilku godzinach grania - parnik.

I co? Myślisz, że na GTX 980 albo nawet 970 będziesz miał chłodniej? Te (góra) parędziesiąt wat poboru mocy (i co za tym idzie wydalania ciepła) różnicy to jest nic w skali pomieszczenia. Tyle zapewni stara żarówka, włączony monitor i tuzin innych rzeczy. Nie słyszałem jeszcze aby ktoś gasił światło bo mu gorąco.
Ale w fantastycznej krainie zielonych trolli i znikających smoków wszystko jest możliwe.

To sobie powieś pod biurkiem 8 żarówek 40W (radeon) do tego jeszcze 6 żarówek ( centurion). Ciekawe czy od 14 żarówek świecących koło jajek nie zrobi ci się ciepło. Do tego jak jeszcze sobie pomyślę o tych wyjących na maksa wentylatorach to mi się śmiać chce, że fannoje AMD mogą się tak katować.
Sam jestem fanem AMD - nie fanboyem i jak AMD robiło dobre karty i procki to siedziałem tylko na AMD. Teraz to dziękuję.
BogieZobacz profil
Poziom ostrzeżenia: 0%
Bogie2015.01.15, 09:14
Dawno się tak nie ubawiłem czytając komentarze. A wystarczył jeden wpis z LinkedIn ;)
A teraz co do newsa - moim skromnym zdaniem, jeśli czegoś brakuje AMD to nie przepustowości pamięci, a wydajności GPU, wydajności/wat i zmniejszenia narzutu na procesor. Od dłuższego czasu wygrywają w wysokich rozdzielczościach z NVidią i co z tego? Obecna generacja GPU jest mniej wydajna, ma mniejszą sprawność energetyczną i znacznie gorsze referencyjne chłodzenie (nie licząc 295X). Jeśli można cokolwiek z newsa wyczytać, to to, że poprawiają to, co już mają dobre - wydajność pamięci. Wszystko wskazuje na to, że wydajność i wydajność/wat kuleje - bo gdyby architektura była lepsza, to w niższym procesie technologicznym zaproponowaliby kartę o podobnym TDP jak GTX980 z wyższą wydajnością o conajmniej 20%-30%. AMD to nie organizacja charytatywna, gdyby mogli być szybsi od GTX980 mniejszym, tańszym i wydzielającym mniej energii układem, to by z tego skorzystali. Wygląda jednak na to, że w celu pokonania NVidii muszą stworzyć wielką i gorącą krowę. Obym się mylił.
mbe2015.01.15, 09:16
Amdfan @ 2015.01.15 09:06  Post: 822457
Hamil_Hamster @ 2015.01.15 01:24  Post: 822419
(...)

I co? Myślisz, że na GTX 980 albo nawet 970 będziesz miał chłodniej? Te (góra) parędziesiąt wat poboru mocy (i co za tym idzie wydalania ciepła) różnicy to jest nic w skali pomieszczenia. Tyle zapewni stara żarówka, włączony monitor i tuzin innych rzeczy. Nie słyszałem jeszcze aby ktoś gasił światło bo mu gorąco.
Ale w fantastycznej krainie zielonych trolli i znikających smoków wszystko jest możliwe.

To sobie powieś pod biurkiem 8 żarówek 40W (radeon) do tego jeszcze 6 żarówek ( centurion). Ciekawe czy od 14 żarówek świecących koło jajek nie zrobi ci się ciepło. Do tego jak jeszcze sobie pomyślę o tych wyjących na maksa wentylatorach to mi się śmiać chce, że fannoje AMD mogą się tak katować.
Sam jestem fanem AMD - nie fanboyem i jak AMD robiło dobre karty i procki to siedziałem tylko na AMD. Teraz to dziękuję.

Trochę mylisz pojęcia. Rdzeń karty mozna porównać co najwyżej do lutownicy pod względem powieszchni oddawania ciepła. Jrdna żarówka oddaje wiecej ciepła niż karta i procesor razem wzięte.
AmdfanZobacz profil
Poziom ostrzeżenia: 0%
Amdfan2015.01.15, 09:32
mbe @ 2015.01.15 09:16  Post: 822463
Amdfan @ 2015.01.15 09:06  Post: 822457
(...)

To sobie powieś pod biurkiem 8 żarówek 40W (radeon) do tego jeszcze 6 żarówek ( centurion). Ciekawe czy od 14 żarówek świecących koło jajek nie zrobi ci się ciepło. Do tego jak jeszcze sobie pomyślę o tych wyjących na maksa wentylatorach to mi się śmiać chce, że fannoje AMD mogą się tak katować.
Sam jestem fanem AMD - nie fanboyem i jak AMD robiło dobre karty i procki to siedziałem tylko na AMD. Teraz to dziękuję.

Trochę mylisz pojęcia. Rdzeń karty mozna porównać co najwyżej do lutownicy pod względem powieszchni oddawania ciepła. Jrdna żarówka oddaje wiecej ciepła niż karta i procesor razem wzięte.

To chyba spałeś na fizyce. Włókno żarówki w sumie mniej się nagrzewa bo jeszcze emituje trochę energii w postaci śwaitła około (20%). Grot lutownicy prawie 100% energii oddaje w postaci ciepła.
mbe2015.01.15, 09:42
Amdfan @ 2015.01.15 09:32  Post: 822469
mbe @ 2015.01.15 09:16  Post: 822463
(...)

Trochę mylisz pojęcia. Rdzeń karty mozna porównać co najwyżej do lutownicy pod względem powieszchni oddawania ciepła. Jrdna żarówka oddaje wiecej ciepła niż karta i procesor razem wzięte.

To chyba spałeś na fizyce. Włókno żarówki w sumie mniej się nagrzewa bo jeszcze emituje trochę energii w postaci śwaitła około (20%). Grot lutownicy prawie 100% energii oddaje w postaci ciepła.

Tylko w przypadku żarówki rozpatrujesz ja jako całość a nie tylko zarnik. Zarnik oddaje ciepło do bardzo małego 'szklanego pomieszczenia' a własnie szkło oddaje ciepło do otoczenie. Ciekawe czym szybciej byś zagotował litr wody;) proponuje kopernika żebyś odwiedził tam maja podobne doświadczenie.
AmdfanZobacz profil
Poziom ostrzeżenia: 0%
Amdfan2015.01.15, 09:50
mbe @ 2015.01.15 09:42  Post: 822472
Amdfan @ 2015.01.15 09:32  Post: 822469
(...)

To chyba spałeś na fizyce. Włókno żarówki w sumie mniej się nagrzewa bo jeszcze emituje trochę energii w postaci śwaitła około (20%). Grot lutownicy prawie 100% energii oddaje w postaci ciepła.

Tylko w przypadku żarówki rozpatrujesz ja jako całość a nie tylko zarnik. Zarnik oddaje ciepło do bardzo małego 'szklanego pomieszczenia'
Chłopie co ty wciągasz?

mbe2015.01.15, 09:55
Amdfan @ 2015.01.15 09:50  Post: 822478
mbe @ 2015.01.15 09:42  Post: 822472
(...)

Tylko w przypadku żarówki rozpatrujesz ja jako całość a nie tylko zarnik. Zarnik oddaje ciepło do bardzo małego 'szklanego pomieszczenia'
Chłopie co ty wciągasz?


Nic nie wciagam. Skoro niewierzysz proponuję przyjedz do warszawy. Centrum nauki kopernik i się przekonasz.
AmdfanZobacz profil
Poziom ostrzeżenia: 0%
Amdfan2015.01.15, 09:57
Chcesz powiedzieć, że z powodu szklanej bańki wokół żarnika, żarnik oddaje do otoczenia więcej ciepła? Heh. Chyba nawet tej fizyki nigdy nie miałeś...
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2015.01.15, 10:12
Ahaha
Amdfan @ 2015.01.15 09:57  Post: 822482
Chcesz powiedzieć, że z powodu szklanej bańki wokół żarnika, żarnik oddaje do otoczenia więcej ciepła? Heh. Chyba nawet tej fizyki nigdy nie miałeś...

Szkoda klawiatury na tego typa, tyle idiotyzmów nasmarował, że aż przykro.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.