komentarze
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.03.16, 22:59
mlodybe @ 2013.03.16 22:57  Post: 643966
Grave @ 2013.03.16 22:19  Post: 643963
(...)


A zmniejszenie zamówień na CPU u Globala to z czego się bierze jak nie z kiepskiej sprzedaży?


Nie do końca. AMD było niezadowolone z uzysku i problemów z tym związanych.

Zauważ że w TSMC zamówienia wzrosły.


Global robi CPU i APU dla AMD, a przychody ze sprzedaży CPU/APU u AMD ostatnio mocno się zmniejszyły (co jasno jest pokazane w raporcie finansowym na koniec 2012).

Natomiast TSMC dla AMD robi GPU, które sprzedają się względnie nieźle. Być może też TSMC będzie wykonawcą kontraktu AMD dla MS i Sony.
*Konto usunięte*2013.03.16, 22:57
Grave @ 2013.03.16 22:19  Post: 643963
mlodybe @ 2013.03.16 22:13  Post: 643962
(...)


To zdanie mi się najbardziej podoba z jednego prostego powodu.

Ile technologii które wykorzystuje intel (oprócz dekodera x86) w swoich procesorach które oni wymyślili a ile tych które wymyśliło AMD i ew rozwinął intel technologie AMD??

I teraz się zastanów kto kogo okrada i gdzie by było AMD gdyby miało budżet intela.

Słaba kondycja finansowa nie bierze się ze słabej sprzedaży a z restrukturyzacji i inwestycji.


A zmniejszenie zamówień na CPU u Globala to z czego się bierze jak nie z kiepskiej sprzedaży?


Nie do końca. AMD było niezadowolone z uzysku i problemów z tym związanych.

Zauważ że w TSMC zamówienia wzrosły.

W globalu AMD będzie brać tylko tyle ile ma zobowiązania w umowie.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.03.16, 22:19
mlodybe @ 2013.03.16 22:13  Post: 643962
Grave @ 2013.03.16 22:06  Post: 643961


I sprzeciwiam się takiemu kreowaniu rzeczywistości że firma będąca na skraju bankructwa, mająca bardzo słabe udziały w rynku przestawiana jest jako ta co dzieli i rządzi, wszystkie decyzje ma trafne i słuszne, wszystkie produkty świetne etc


To zdanie mi się najbardziej podoba z jednego prostego powodu.

Ile technologii które wykorzystuje intel (oprócz dekodera x86) w swoich procesorach które oni wymyślili a ile tych które wymyśliło AMD i ew rozwinął intel technologie AMD??

I teraz się zastanów kto kogo okrada i gdzie by było AMD gdyby miało budżet intela.

Słaba kondycja finansowa nie bierze się ze słabej sprzedaży a z restrukturyzacji i inwestycji.


A zmniejszenie zamówień na CPU u Globala to z czego się bierze jak nie z kiepskiej sprzedaży?
*Konto usunięte*2013.03.16, 22:13
Grave @ 2013.03.16 22:06  Post: 643961


I sprzeciwiam się takiemu kreowaniu rzeczywistości że firma będąca na skraju bankructwa, mająca bardzo słabe udziały w rynku przestawiana jest jako ta co dzieli i rządzi, wszystkie decyzje ma trafne i słuszne, wszystkie produkty świetne etc


To zdanie mi się najbardziej podoba z jednego prostego powodu.

Ile technologii które wykorzystuje intel (oprócz dekodera x86) w swoich procesorach które oni wymyślili a ile tych które wymyśliło AMD i ew rozwinął intel technologie AMD??

I teraz się zastanów kto kogo okrada i gdzie by było AMD gdyby miało budżet intela.

Słaba kondycja finansowa nie bierze się ze słabej sprzedaży a z restrukturyzacji i inwestycji.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.03.16, 22:06
Szeroki @ 2013.03.16 21:54  Post: 643959
Grave @ 2013.03.16 21:34  Post: 643955
(...)


Nie zawiść, a pragmatyzm.


Przykro mi to pisać ale nie poznałbyś pragmatyzmu nawet jakby przyszedł i kopnął Cię w dupę.

Zawiść i chorobliwe uwielbienie nV i Intela przez Ciebie przemawia - i nie jest ważne czy masz jakiekolwiek realne podstawy do swoich wynurzeń.
W przeinaczaniu i ignorowaniu faktów dla Ciebie niewygodnych jesteś po prostu Mistrzem i to prze duże M.

Wystarczy tylko zajrzeć do archiwum portalu.
Ciąg 'AMD' w newsie i w komentarzach Grave znowu bryluje na fali swoich bredni.
Na palcach jednej ręki można policzyć Twoje komentarze, które są bezstronne/rzetelne/prawdziwe lub mają cokolwiek wspólnego z rzeczywistością.

Żenujące to jest niestety.


Jak rozumiem wyniki finansowe AMD i NV to nie jest rzeczywistość tylko fantastyka :D

Taak masz racje Nvidia normalnie już zwija się z rynku a Jensen sika po gaciach bo oto AMD zarobi tyle miliardów na konsolach, że wykupi NV i Intela razem wziętych.:P

A tak serio. Owszem jestem stronniczy w komentarzach, ale nie bierze się to bynajmniej z uwielbienia do NV czy Intela, ale stąd że w necie jest moda na nachalne wspieranie słabszych i jechanie po silniejszych.

I sprzeciwiam się takiemu kreowaniu rzeczywistości że firma będąca na skraju bankructwa, mająca bardzo słabe udziały w rynku przestawiana jest jako ta co dzieli i rządzi, wszystkie decyzje ma trafne i słuszne, wszystkie produkty świetne etc

Gdyby było więcej komentarzy naprawdę obiektywnych o AMD to i ja bym był bardziej obiektywny. Ale nie widzę powodu, aby dorzucać się do zupełnie nieuzasadnionego chwalenia AMD za wszystko, wyolbrzymiania ponad wszelką miarę nawet drobnych sukcesów AMD oraz wybaczania wszystkich błędów AMD.

Poza tym jako użytkownikowi laptopów od wielu lat niespecjalnie mi po drodze do AMD, którego oferta obiektywnie jest w mobile słabsza od tej Intela i dla mnie po prostu za słaba. (nadzieją na odmianę był ostatni Zenbook na A10-4655M, ale po teście na labie cały czar prysł....)
SzerokiZobacz profil
Poziom ostrzeżenia: 0%
Szeroki2013.03.16, 21:54
Grave @ 2013.03.16 21:34  Post: 643955
mlodybe @ 2013.03.16 21:28  Post: 643953
(...)

Przemawia przez ciebie zawiść.


Nie zawiść, a pragmatyzm.


Przykro mi to pisać ale nie poznałbyś pragmatyzmu nawet jakby przyszedł i kopnął Cię w dupę.

Zawiść i chorobliwe uwielbienie nV i Intela przez Ciebie przemawia - i nie jest ważne czy masz jakiekolwiek realne podstawy do swoich wynurzeń.
W przeinaczaniu i ignorowaniu faktów dla Ciebie niewygodnych jesteś po prostu Mistrzem i to prze duże M.

Wystarczy tylko zajrzeć do archiwum portalu.
Ciąg 'AMD' w newsie i w komentarzach Grave znowu bryluje na fali swoich bredni.
Na palcach jednej ręki można policzyć Twoje komentarze, które są bezstronne/rzetelne/prawdziwe lub mają cokolwiek wspólnego z rzeczywistością.

Żenujące to jest niestety.
SzerokiZobacz profil
Poziom ostrzeżenia: 0%
Szeroki2013.03.16, 21:48
mlodybe @ 2013.03.16 21:28  Post: 643953
Grave @ 2013.03.16 21:03  Post: 643951
(...)


3x mniej? A to żeś skąd wziął? Może jeszcze za darmo AMD rozdaje CPU i GPU...

Nvidii niby nie było stać, a AMD to stać? Chyba kpisz.

Nvidia ~0,5 mld USD na plusie, AMD ~0,5 mld USD NA MINUSIE i na skraju bankructwa (trzymają się głównie dzięki topniejącym z miesiąca na miesiąc rezerwom finansowym). I Ty piszesz, że AMD na coś stać, na co NV nie stać? No wybacz....

Właśnie ta polityka niskich cen za wszelką cenę kończy się dla AMD tragicznie, bo nawet na dobrych produktach (GPU) zarabiają znacznie mniej niż Nvidia.

Ludziom się wydaje, że AMD takie genialne, że w każdym segmencie ma tańsze produkty, a Nvidia i Intel to zdzierają. Ale właśnie ci 'zdziercy' mają się dobrze, podczas gdy 'dobre' AMD zastanawia się czego by tu się jeszcze pozbyć, żeby nie utracić płynności finansowej .... Najpierw sprzedali faby, teraz sprzedają swoją siedzibę.

Firma w takiej sytuacji podpisze kontrakt z Sony i MS choćby miała i 1 cent zysku na sprzedanym egzemplarzu APU.

Przemawia przez ciebie zawiść.


Oczywiście. Przecież to u Grave nic nowego wystarczy, że AMD coś ciekawego/innowacyjnego/lepszego niż konkurencja zrobi (albo w ogóle wystąpi w newsie ciąg AMD) i już jad Grave i jemu podobnych jest obecny w komentarzach.
Drugi oszołom jkbrena, który ani mądrze ani logicznie nic dotychczas nie napisał, a każdy komentarz służy mu tylko do jechania po AMD.
Żal im po prostu dupy ściska i tyle.

A nVidia powoli zaczyna się przekonywać, że się obudzi ze swoimi wynalazkami z ręką w nocniku.
I nie ma tu żadnego znaczenia co jakiś 'mondry' z nV usiłuje ludziom wmawiać.
Robią dobrą minę do złej gry bo im się rynek kurczy.
Titan okazuje się mieć gliniane nogi, Tegra 4 nie istnieje poza 'deskami kreślarskimi', w konsolach w ogóle nie zaistnieją, producenci softu coraz częściej mają w dupie CUDA i stawiają na 'czysty' OCL, physx leży i kwiczy - ale coś trzeba powiedzieć żeby nie wyjść na kompletne zero.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.03.16, 21:42
Hashi @ 2013.03.16 20:17  Post: 643939
Po prostu fajnie rozwiązano efekt rozmycia np. wyostrzenie obiektu ZA obiektem rozmytym. Tu nie rozmazuje się tło ale poszczególne obiekty w DoF.
Mówi nawet o tym ten dziadek z Norwegii
http://www.youtube.com/watch?feature=playe...CXkyoWjg#t=167s

Nie lubię YT... możesz powiedzieć co mówi, a najlepiej podać papierek (bo zazwyczaj marketing mówi jedno, a programiści drugie).
Każdy obiekt rozmazywany osobno to wydajnościowe samobójstwo (czytaj niemożliwe, że to zrobili), więc zapewne jest to jakiś smartblur i max 3 tekstury (bryła widoku od bliskiedo do dalekiego przycięcia jest podzielona na kilka części i rozmywana odpowiednio do odległości) DoF z rozmytym wszystkim, ale z różnymi wartościami, i później w postprocess skłąda się to w jeden obraz... ale ja tam nie widzę po screenach niczego dziwnego, więc to pewnie nawet nie to tylko marketing

Hashi @ 2013.03.16 20:17  Post: 643939
Co do DR moze i istnieje od 90' ale dopiero od 2008-2010 zaczęto go stosować na szeroką skalę. Mnie osobiście podoba się jak IsomniacGames implementuje tą technikę.

Był stosowany wcześniej, ale po prostu nie w grach - GPU nie potrafiły obsłużyć wystarczająco precyzyjnych formatów, a i fillrate nie zachwycał. Dopiero jak sprzęt dojrzał technika była używana w grach (ale istniała już wcześniej).

Co do ostatniego zdania to co dokładnie Ci się podoba? Wygląd? Jeśli tak to nie ma nic wspólnego z Deferred. Deferred Shading to nic innego jak przeniesienie obliczeń cieniowania z pixel shadera na siatce modelu, do obliczeń postprocess. Czyli zapisujesz dane potrzebne do obliczeń cieniowania w teksturach i później obliczasz oświetlenie per texel. Różnicę dotyczą tego jak te dane są zapisane (pozycję można zapisać normalnie jako pozycje w świecie, jako pozycje po projekcji, po przekształceniu widoku, a nawet jako głębokość (oś Z ekranu, i później to razem z pozycją x i y texela na teksturze się mnoży przez macierz aby otrzymać miejsce w przestrzeni świata)). Wszystkie możliwe implementacje to kwestia wydajności lub ilości zajmowanej pamięci (sama głębokość czyli jeden kanał tekstury zajmuje mało, ale dekodowanie zajmuje więcej).
Deferred Shading to rzecz, która nie wygląda - ona tylko pozwala na bardzo duże ilości źródeł światła (forward na to nie pozwala), a to jak wygląda efekt zależy od grafików i innych shaderów, a nie od implementacji Deferred.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.03.16, 21:34
mlodybe @ 2013.03.16 21:28  Post: 643953
Grave @ 2013.03.16 21:03  Post: 643951
(...)


3x mniej? A to żeś skąd wziął? Może jeszcze za darmo AMD rozdaje CPU i GPU...

Nvidii niby nie było stać, a AMD to stać? Chyba kpisz.

Nvidia ~0,5 mld USD na plusie, AMD ~0,5 mld USD NA MINUSIE i na skraju bankructwa (trzymają się głównie dzięki topniejącym z miesiąca na miesiąc rezerwom finansowym). I Ty piszesz, że AMD na coś stać, na co NV nie stać? No wybacz....

Właśnie ta polityka niskich cen za wszelką cenę kończy się dla AMD tragicznie, bo nawet na dobrych produktach (GPU) zarabiają znacznie mniej niż Nvidia.

Ludziom się wydaje, że AMD takie genialne, że w każdym segmencie ma tańsze produkty, a Nvidia i Intel to zdzierają. Ale właśnie ci 'zdziercy' mają się dobrze, podczas gdy 'dobre' AMD zastanawia się czego by tu się jeszcze pozbyć, żeby nie utracić płynności finansowej .... Najpierw sprzedali faby, teraz sprzedają swoją siedzibę.

Firma w takiej sytuacji podpisze kontrakt z Sony i MS choćby miała i 1 cent zysku na sprzedanym egzemplarzu APU.

Przemawia przez ciebie zawiść.


Nie zawiść, a pragmatyzm.
*Konto usunięte*2013.03.16, 21:28
Grave @ 2013.03.16 21:03  Post: 643951
Pharrel @ 2013.03.16 20:25  Post: 643942
Ja tam sie ciesze. Jesli ktos kiedys porownywal na przyklad Intela i AMD to bedzie wiedzial ze AMD choc kosztuje 3x mniej, daje taki sam lub lepszy performance w grach


3x mniej? A to żeś skąd wziął? Może jeszcze za darmo AMD rozdaje CPU i GPU...

Nvidii niby nie było stać, a AMD to stać? Chyba kpisz.

Nvidia ~0,5 mld USD na plusie, AMD ~0,5 mld USD NA MINUSIE i na skraju bankructwa (trzymają się głównie dzięki topniejącym z miesiąca na miesiąc rezerwom finansowym). I Ty piszesz, że AMD na coś stać, na co NV nie stać? No wybacz....

Właśnie ta polityka niskich cen za wszelką cenę kończy się dla AMD tragicznie, bo nawet na dobrych produktach (GPU) zarabiają znacznie mniej niż Nvidia.

Ludziom się wydaje, że AMD takie genialne, że w każdym segmencie ma tańsze produkty, a Nvidia i Intel to zdzierają. Ale właśnie ci 'zdziercy' mają się dobrze, podczas gdy 'dobre' AMD zastanawia się czego by tu się jeszcze pozbyć, żeby nie utracić płynności finansowej .... Najpierw sprzedali faby, teraz sprzedają swoją siedzibę.

Firma w takiej sytuacji podpisze kontrakt z Sony i MS choćby miała i 1 cent zysku na sprzedanym egzemplarzu APU.

Przemawia przez ciebie zawiść.
SNC2013.03.16, 21:21
Hashi @ 2013.03.16 20:17  Post: 643939
Po prostu fajnie rozwiązano efekt rozmycia np. wyostrzenie obiektu ZA obiektem rozmytym. Tu nie rozmazuje się tło ale poszczególne obiekty w DoF.
Mówi nawet o tym ten dziadek z Norwegii
http://www.youtube.com/watch?feature=playe...CXkyoWjg#t=167s
Co do DR moze i istnieje od 90' ale dopiero od 2008-2010 zaczęto go stosować na szeroką skalę. Mnie osobiście podoba się jak IsomniacGames implementuje tą technikę.

Nie, Ty twierdziles ze Sony wymyslilo te technike, jak sie okazuje, wiekszy wklad miala Nvidia :)
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2013.03.16, 21:03
Pharrel @ 2013.03.16 20:25  Post: 643942
Ja tam sie ciesze. Jesli ktos kiedys porownywal na przyklad Intela i AMD to bedzie wiedzial ze AMD choc kosztuje 3x mniej, daje taki sam lub lepszy performance w grach


3x mniej? A to żeś skąd wziął? Może jeszcze za darmo AMD rozdaje CPU i GPU...

Nvidii niby nie było stać, a AMD to stać? Chyba kpisz.

Nvidia ~0,5 mld USD na plusie, AMD ~0,5 mld USD NA MINUSIE i na skraju bankructwa (trzymają się głównie dzięki topniejącym z miesiąca na miesiąc rezerwom finansowym). I Ty piszesz, że AMD na coś stać, na co NV nie stać? No wybacz....

Właśnie ta polityka niskich cen za wszelką cenę kończy się dla AMD tragicznie, bo nawet na dobrych produktach (GPU) zarabiają znacznie mniej niż Nvidia.

Ludziom się wydaje, że AMD takie genialne, że w każdym segmencie ma tańsze produkty, a Nvidia i Intel to zdzierają. Ale właśnie ci 'zdziercy' mają się dobrze, podczas gdy 'dobre' AMD zastanawia się czego by tu się jeszcze pozbyć, żeby nie utracić płynności finansowej .... Najpierw sprzedali faby, teraz sprzedają swoją siedzibę.

Firma w takiej sytuacji podpisze kontrakt z Sony i MS choćby miała i 1 cent zysku na sprzedanym egzemplarzu APU.
PharrelZobacz profil
Poziom ostrzeżenia: 0%
Pharrel2013.03.16, 20:25
Ja tam sie ciesze. Jesli ktos kiedys porownywal na przyklad Intela i AMD to bedzie wiedzial ze AMD choc kosztuje 3x mniej, daje taki sam lub lepszy performance w grach, a o to tu wlasciwe chodzi. Mozliwe ze Nvidia wydala miliony na swoje super mocne karty graficzne po 5k zl i po prostu nie bylo ich stac zeby przebic AMD.
*Konto usunięte*2013.03.16, 20:22
LeeLoo_T @ 2013.03.16 19:11  Post: 643931
mlodybe @ 2013.03.16 17:02  Post: 643920
(...)

Obyś miał racje chodz osobiście w to watpie bo:

-Restrukturyzacja odbije się jeszcze na tym roku.
-Zapewne pieniążki za konsole wpłyna dopiero w 2014r.
-AMD musiało zainwestować w APU do konsol (projekt i produkcja) zapewne z własnej kieszeni.
-SeaMicro nie przynosi jeszcze na tyle dużych zysków aby wyciągnąć AMD z dołka (jeszcze się nie zwróciło).
-Nowe procesory i GPU (pomijając jaguara) to dobiero koniec roku.

Bądzmy realistami - Jeśli AMD ma zacząć zarabiać to nastąpi to najwcześniej w 2014r.

Przeciez juz produkty maja sfinalizowane na 2 lata do przodu, do tego trzeba minimum roku, zeby doszlifowac do masowej produkcji, przerobili juz umowe z GF pod produkcje na ten rok i wiedza ile wytrawia wafli i czego.
Restrukturyzacja i zmiany kadrowe na pewno zmienia firme od poczatku przyszlego roku, projekty po 2014, najbardziej martwi rozbicie zespolu odpowiedzialnego za Brazos/Jaguar(najwyrazniej potrzebowali tego do konsol), ale Keller pewnie polaczy BD z nastepcami ULP.


AMD wprowadza jeszcze projekty starego CEO. na których cały czas AMD traci.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.03.16, 20:17
Po prostu fajnie rozwiązano efekt rozmycia np. wyostrzenie obiektu ZA obiektem rozmytym. Tu nie rozmazuje się tło ale poszczególne obiekty w DoF.
Mówi nawet o tym ten dziadek z Norwegii
http://www.youtube.com/watch?feature=playe...CXkyoWjg#t=167s
Co do DR moze i istnieje od 90' ale dopiero od 2008-2010 zaczęto go stosować na szeroką skalę. Mnie osobiście podoba się jak IsomniacGames implementuje tą technikę.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.03.16, 19:44
Hashi @ 2013.03.16 19:11  Post: 643932
Nie twierdze, że nie pracują ale studia tez pracują nad tym jak dodać ficzery do engine'u.
Co do deferred to KZ2 jest w całości o niego oparty (choć bez forward) i gra była pokazana na E3 2005, a sam deweloping zaczął się w 2004, a jako, że gra hula cała praktycznie na CPU, a CPU zaczęto klepać w 2002 roku to jestem w stanie uwierzyć, że SONY zajrzało do tej samej szafy co Nvidia o G-buffer.

W KZ2 korzystają z połączenia forward i deferred.
Ze względu, na to, że Sony używało GPU Nvidii i Nvidia współpracuje ze studiami tworzącymi gry na konsole, to bardziej prawdopodobne, że po prostu dostali papierek od Nvidii podobnie jak twórcy S.T.A.L.K.E.R.a - Deferred jest fajną ideą i banalnie prostą w implementacji - od przeczytania papierka jeden programista zrobiłby im wersję na CPU i GPU, więc nikogo nie powinno dziwić, że na E3 zdążyli, kiedy Nvidia publicznie wydała papierek rok wcześniej, a oni współpracując z Nvidią zapewne mieli go jeszcze wcześniej.

Hashi @ 2013.03.16 19:11  Post: 643932
Mnie np osobiście podoba się w Uncharted focal blur - nie widziałem jak narazie gry która tak ciekawie uwzględnia głębokość w rozmyciu.

Najzwyklejszy DoF z Bokeh i CoC - nic nowego, ale faktycznie mało gier się decyduje na to i zazwyczaj widać tylko ordynarny blur gausa.

Hashi @ 2013.03.16 19:11  Post: 643932
Pierwsza praca dotycząca „deferred shadingu” została opublikowana już
w 1988 roku przez Michaela Deeringa [1]. W kolejnej pracy autorstwa Saito i
Takahashi’ego [2] z roku 1990 po raz pierwszy pojawiło się pojęcie G-Bufora
jako bufora do przechowywania geometrycznych właściwości powierzchni

Chyba SUN i goście z NTT
http://dl.acm.org/citation.cfm?id=97901
Dokładnie o tych papierkach pisałem 'Deferred Shading istnieje od 1988-90 roku'
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.03.16, 19:11
Nie twierdze, że nie pracują ale studia tez pracują nad tym jak dodać ficzery do engine'u.
Co do deferred to KZ2 jest w całości o niego oparty (choć bez forward) i gra była pokazana na E3 2005, a sam deweloping zaczął się w 2004, a jako, że gra hula cała praktycznie na CPU, a CPU zaczęto klepać w 2002 roku to jestem w stanie uwierzyć, że SONY zajrzało do tej samej szafy co Nvidia o G-buffer. Mnie np osobiście podoba się w Uncharted focal blur - nie widziałem jak narazie gry która tak ciekawie uwzględnia głębokość w rozmyciu.
Pierwsza praca dotycząca „deferred shadingu” została opublikowana już
w 1988 roku przez Michaela Deeringa [1]. W kolejnej pracy autorstwa Saito i
Takahashi’ego [2] z roku 1990 po raz pierwszy pojawiło się pojęcie G-Bufora
jako bufora do przechowywania geometrycznych właściwości powierzchni

Chyba SUN i goście z NTT
http://dl.acm.org/citation.cfm?id=97901
http://www.cs.otago.ac.nz/cosc455/p197-saito.pdf (i pomyśleć że to ma 23 lata :p )
LeeLoo_TZobacz profil
Poziom ostrzeżenia: 0%
LeeLoo_T2013.03.16, 19:11
mlodybe @ 2013.03.16 17:02  Post: 643920
LeeLoo_T @ 2013.03.16 16:55  Post: 643917
(...)

Co do RR to 2 polowa tego roku powinna ich przywrocic nad kreske, a co do zbierania owocow, no coz produkty maja, ale ceny juz niefajne i popyt jest slaby.

Obyś miał racje chodz osobiście w to watpie bo:

-Restrukturyzacja odbije się jeszcze na tym roku.
-Zapewne pieniążki za konsole wpłyna dopiero w 2014r.
-AMD musiało zainwestować w APU do konsol (projekt i produkcja) zapewne z własnej kieszeni.
-SeaMicro nie przynosi jeszcze na tyle dużych zysków aby wyciągnąć AMD z dołka (jeszcze się nie zwróciło).
-Nowe procesory i GPU (pomijając jaguara) to dobiero koniec roku.

Bądzmy realistami - Jeśli AMD ma zacząć zarabiać to nastąpi to najwcześniej w 2014r.

Przeciez juz produkty maja sfinalizowane na 2 lata do przodu, do tego trzeba minimum roku, zeby doszlifowac do masowej produkcji, przerobili juz umowe z GF pod produkcje na ten rok i wiedza ile wytrawia wafli i czego.
Restrukturyzacja i zmiany kadrowe na pewno zmienia firme od poczatku przyszlego roku, projekty po 2014, najbardziej martwi rozbicie zespolu odpowiedzialnego za Brazos/Jaguar(najwyrazniej potrzebowali tego do konsol), ale Keller pewnie polaczy BD z nastepcami ULP.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.03.16, 18:59
Hashi @ 2013.03.16 18:26  Post: 643926

Z ciekawości chciałbym pełną specyfikację GPU SGX543MP4+, wyjaśnij mi co oznacza 'plus' na końcu? Czytałem wywiad z gościem z IT i twierdził, że to wartość dodana którą każdy licencjobiorca może sobie dodać na własne życzenie (co to jest dokładnie nie chciał mówić).

Niestety nie mam informacji co to jest ten + ale zapewne dodanie kontrolera pamięci to ten +.

Hashi @ 2013.03.16 18:26  Post: 643926
Co do działów RD to czy Nvidia nie wydała pierwszego GPU dopiero pod koniec lat 90ych (97, czy 99?). Bo z tego co pamiętam to gry 3D były trochę wcześniej np na konsolach (np. PSX). Czytałem trochę wywiadów i oglądałem trochę prezentacji (które nawet są na PSN) i first-party u SONY opracowują własne techniki renderingu.

Tak, świat istniał przed Nvidią - wtedy opierał się na fixedpipeline i niewielkie były możliwości. Dziś jest inaczej. OFC techniki nie istnieją same z siebie i nikt nie może mówić, że to on jest jej twórcą. Przykład z poprzedniej Twojej wypowiedzi:

'połączenie forward i deferred (Uncharted)'
Deferred Shading istnieje od 1988-90 roku, bo wtedy koncepcja gbuffora pojawiła się na siggraph - wtedy nie miała nic wspólnego z grami i realtime (a renderingiem grafiki na inne potrzeby)... i tak sobie przez lata czekało na to, aż inne techniki i sprzęt dojrzeje. W 2004 pracownicy Nvidii wydali papierek, na którym oparli się twórcy S.T.A.L.K.E.R. i w książce Nvidii z 2005 GPU Gems 2 opisali wszystko dosyć dokładnie... łącznie z tym jak połączyli forward i deferred shading (bo deferred ma wady jak brak przezroczystości)... i na tych wszystkich pracach (i jeszcze kolejnych) opierali się twórcy Uncharted.
Tak jest zazwyczaj - Atmospheric scattering w dzisiejszych grach to zazwyczaj praca oparta o Preetham'a (Ati). Działy RD Nvidii, AMD, Intela robią dla rozwoju bardzo dużo i twórcy silników bardzo silnie z tego korzystają.
OFC studia tworzą własne rozwiązania i wrzucają je do puli wiedzy, aby inni się na tym opierali, jednak nie lekceważyłbym wsparcia RD twórców sprzętu (bo oni są tylko i wyłącznie od tego, aby pracować na pełen zegar nad nowymi rozwiązaniami, podczas gdy twórcy silników i gier poświęcają temu znacznie mniej czasu i przy mniejszych nakładach osobowych i pieniężnych).
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.03.16, 18:26
@Skoti48
Co do VRAM (to jest system-in-package [SiP] a nie SoC) http://chipworksrealchips.blogspot.com/201...hip-sip-3d.html
PSVITA ma budowę stackową (stos) chipu (w pewnym sensie ten chip na budowę 3D). Tutaj widać 4 kanały bezpośrednio nad 4 rdzeniami GPU, każdy kanał ma 8 banków pamięci.
http://2.bp.blogspot.com/-4X1DNFyvxds/T_YE...%25283%2529.png
http://2.bp.blogspot.com/-Nalihr-GPjY/T_YE...%25283%2529.jpg
so likely 2 x 512 bit I/O operation, possibly sub-divided into 4 x 128.
Z ciekawości chciałbym pełną specyfikację GPU SGX543MP4+, wyjaśnij mi co oznacza 'plus' na końcu? Czytałem wywiad z gościem z IT (na jakiejś japońskiej stronie) i twierdził, że to wartość dodana którą każdy licencjobiorca może sobie dodać na własne życzenie (co to jest dokładnie nie chciał mówić).
Co do działów RD to czy Nvidia nie wydała pierwszego GPU dopiero pod koniec lat 90ych (97, czy 99)? Bo z tego co pamiętam to gry 3D były trochę wcześniej np na konsolach (np. PSX). Czytałem trochę wywiadów i oglądałem trochę prezentacji (które nawet są na PSN) i first-party u SONY obok dostępnych opracowują własne techniki renderingu (zwłaszcza pod kątem optymalizacji pamięci).
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.