DX 9b/c różnią się tylko shaderami, wpływu na wydajność 2d nie ma to żadnego. Poza tym nawet jeśli by miało - już widzę jakiegoś inzyniera/grafika który kupuje laptopa z zintegrowanym w chipsecie układem graficznym. IMO to raczej marketing niż realne korzyści.
Zdziwilbys sie:D Ale ok, twoja teroria ma sens, czepiam sie tylko.
A czy DX9 to tylko d3d i gry? Wydaje mi sie, ze za 2d i video tez to odpowiada..
DX 9b/c różnią się tylko shaderami, wpływu na wydajność 2d nie ma to żadnego. Poza tym nawet jeśli by miało - już widzę jakiegoś inzyniera/grafika który kupuje laptopa z zintegrowanym w chipsecie układem graficznym. IMO to raczej marketing niż realne korzyści.
No i na co komu ten DX10 w zintegrowanej grafice? Przykład Intela z DX9 pokazuje chyba wyraźnie że to i tak porażka - pograć się na tym nie da, dodatkowo vertexy realizowane software'owo, wydajność woła o pomstę do nieba a w zastosowaniach biurowych kto wykorzysta DX9? Viśta ma co prawda wykorzystywać intensywnie grafikę w celu odciążenia procesora przy korzystaniu z GUI ale jeśli połowa obliczeń z nią związanych i tak będzie robiona przez procesor to powodzenia.
Coś tak chyba niechętnie zapowiadają. W związku ze znacznymi zmianami z DX9.0c na DX10 osoby nie zmieniające często sprzętu chyba będą wolały wstrzymać się z kupnem.
Skoro obraz i tak renderuje procesor ...
Po co przeplacac ?
Zdziwilbys sie:D Ale ok, twoja teroria ma sens, czepiam sie tylko.
DX 9b/c różnią się tylko shaderami, wpływu na wydajność 2d nie ma to żadnego. Poza tym nawet jeśli by miało - już widzę jakiegoś inzyniera/grafika który kupuje laptopa z zintegrowanym w chipsecie układem graficznym. IMO to raczej marketing niż realne korzyści.
no i audio też wtym zamkneli
A czy DX9 to tylko d3d i gry? Wydaje mi sie, ze za 2d i video tez to odpowiada..
Za jakieś 2 generacje bo G80 ma nie być w pełni zgodny z Dx10. Poczekamy - oj poczekamy na karty nvidia zgodne z tym dx10