Intel ze swoim Larabee niech sie zchowa- co wy macie ze jak karta wychodzi to tylko do grania. Mysle ze po 1 bedzie to kwestia sterownikow. Dla przykładu FirePro V8700 to praktycznie to samo co 4870 i jest kolo 6-7 razy wydajniejsza w zastowaniach profesjonalnych.
Po 2 raytracing to wogole inna bajka i nie ma narazie co marzyc o nim w grach.
Po 3 ta karta moze byc cos jak CUDA dla proca. Niby ze karta liczy i ze szybciej jest.
1. Larrabee wlasnie nie powinno sie chowac, bo Intel swiadom slabosci x86 w obecnej postaci do obliczen RT tworzy nowa architekture, a profesjonalne grafiki to nie tylko powloka sprzetowa, takze komercyjne specjalistyczne oprogramowanie, ktore tworzy roznice wydajnosci w stos. do komercyjnych grafik.
2. Tu chodzi tylko o przelamanie ograniczen, m. in. glownie wydajnosci w trybie czasu rzeczywistego, wtedy pojdzie z gorki, bo wizualnie to bedzie duza roznica, a ten problem znany jest od wielu wielu lat.
3. CUDA, Stream to namiastka, w dodatku komercyjna i mocno przez to ograniczona, ale powoli rozkreca sie.
Hmm, chyba ktoś tu zapomniał S3 Graphics wśród firm produkujących grafy. ;] Fakt, że nie mają potężnych kart, ale póki co Intel też nie ma, a jednak w zestawieniu jest.
diam0nd, mądrze plewisz
A z tymi 6k fps w crysisie to raczej na innej zasadzie. Wprowadzą raytracking, więc polepszą znacznie grafikę bez spadku framerate, lub minimalnym jego wzroście
Dokładnie. Jeśli karta będzie w raytracingu równie szybka co GF280 w dx10, to szybko pojawią sie gry to wykorzystujące. Podobnie było z Voodoo. Zanim powstało to wszyscy grali w Low resolution / point sampling. A po wejściu Voodoo szybko pojawiły sie gry z High Resoultion, Bilinear Filtering i całą gamą efektów 3D.
News beznadziejny!
Karta ta ma za zadanie wspomaganie raytracingu i jako taką przedstawia ją producent. Nie ma się co podniecać i liczyć na ogromne ilości fps-ów w grach(...)
A gdzie w newsie jest coś takiego napisane? Możesz pokazać? Sam jesteś beznadziejny . W tekście jest też wyraźnie napisane, że pierwsza generacja będzie to dodatkowa karta-akcelerator (raytracingu) - na wzór dawnych VooDoo.
Oj... smutno ci? :p może budyń?
Co do ray tracingu to słyszymy podobną gadkę już któryś raz. np. Cell miał miażdżyć w tej technice ale coś chyba im nie wyszło. Jeśli za pomocą tego akceleratora będzie można liczyć średnio zaawansowany ray tracing w czasie rzeczywistym to będzie genialnie Może napiszą/napisali jakiś soft że będzie można włączyć ten lepszejszy tryb... to już by była miazga^2
Liczę na nich
Vega... jest jeden słaby punkt tego newsa. Nie ma tak super jasno powiedzianego że te 200 razy to ewentualnie tylko w tej technice...
Nie takie bajki juz slyszalem. Puszczaja takie ploty, zeby zrobilo sie o nich glosno. Maja darmowa reklame i tyle. W wydajnosc 20x wieksza w zyciu nie uwierze, o 200x chyba wspominac nie musze. Jak to jest, ze ATI i NVidia nie sa w stanie tego uzyskac, a pracownicy ktorzy od nich odeszli juz potrafia.
Żeby to była prawda, ale cena chyba niska nie będzie. Może skończą się kotlety od nvidi w końcu... I tak jakimś cudem będzie jak się ta firma wbije na rynek, pożyjemy zobaczymy
Sterownik karty graficznej dostaje od biblioteki DirectX abo OpenGL tekstury i współrzędne wierzchołków siatki trójkątów, obserwatora i źródeł oświetlenia.
Co karta graficzna z tym zrobi to jej sprawa.
Raytracing pozwala łatwo uzyskać jakość obrazu, nieosiągalną innymi metodami, zwłaszcza cieni częściowych i obiektów półprzezroczystych (np. dym, ogień). Pozwala zasymulować zjawiska załamania światła i odbicia wewnętrznego (np.naskórek jest przezroczysty, odbicie światła następuje od wewnętrznych, ukrwionych warstw skóry). Obiekty bez problemu można będzie opisać powierzchniami Beziera, a nie jako siatki trójkątów, skończą się koła graniaste i ośmiokątne rury.
Wszystko to na podstawie prostych praw fizyki a nie żmudnej artystycznej dłubaniny, jak w obecnych grach.
nie wiem czym się tu podniecać. będzie to typowa karta do zastosowań profesjonalnych i raczej nie widzę nagłej migracji producentów gier na CausticGL i masowego wykorzystania raytracingu. ale każda innowacja jest dobra i może jakieś zmiany kiedyś wymusi
Miejmy szacunek dla legendy - nie 3dfx Voodoo, tylko 3Dfx Voodoo.
Zacytuję:
'Pierwotna nazwa to 3Dfx Interactive (duża literka D), ale w 1999 roku została zmieniona na małą razem z pojawieniem się nowego logo firmy.'
Tak więc obie formy były uzywane.
Co zaś samego newsa, to pożyjemy zobaczymy, wiele już razy góra rodziła mysz, na zdrowy rozsądek i tym razem gracze niczego nie zyskają...
IMO skończy się na tym że wydadzą 1 lub 2 modele (o ile w ogóle coś wydadzą). Jeśli rzeczywiście będą to wydajne, wyspecjalizowane konstrukcje do raytracingu to zostaną wykupieni np. przez Nvidie i skończy się tak jak w przypadku AGEII i PhysX, czyli zobaczymy implementacje tej technologii via CUDA.
No ale trzymam kciuki za nich, trochę zawirowania na rynku się przyda bo kotlety robią się już nudne
Szkoda że autorzy artykułu uderzyli w pompatyczne tony zamiast się trochę zastanowić i zdystansować.
Otóż kolejna mikro firemka robi dym na temat ray tracingu. W jakim celu ? Oczywiście chodzi o kasę. Podobnie jak Ageia, narobią trochę szumu aby ich ktoś wykupił. Pewnie przez Intela, bo ten jest napalony na ray tracing.
Co do podboju rynku gier, to kompletna bzdura. Ta karta może być nawet 1000x szybsza i nikt tego nie wsadzi do PC nawet za darmo. Wszystko co nie jest zgodne z DirectX, jest spalone na starcie. Po za tym ray tarcing w grach nie ma siły przebicia. Czy ktoś grając w Age of Empires III, Half-Life 2 lub Gears of War, naprawdę tęsknił za super realistycznym załamaniem światła na wodzie, lub w szybach okiennych ? To są rzeczy trzeciorzędne, i nikt przy zdrowych zmysłach nie będzie próbował przekonywać twórców gier do porzucenia dobrze już poznanych metod i narzędzi. Zbyt dużo czasu i pieniędzy w to zainwestowali, a ray tarcing nie oferuje takiej infrastruktury, aby szybko i bezboleśnie na niego przeskoczyć. Z bieżących prognoz wynika że w przyszłości, do GPU zostanie dodane jakieś ograniczone wsparcie dla ray tracingu. Jednak teraz nikt nie wie jak tego dokonać, bo łączenie renderingu i ray tracingu jest tak samo proste jak łaczenie samolotu z łodzią podwodną.
Co do Larrabee to szykuje się kolejna porażka po Itanium. Ten procesor ma podobną architekturę do Cell, tylko że jest wykonany w prymitywny sposób. Procesor Cell projektowano od zera (nie licząc jądra PowerPC), i tam wszytko zostało do siebie perfekcyjnie dopasowane. Tymczasem Larrabee jest prostackim połączeniem kilkunastu przestarzałych Pentuim - ów, trochę podrasowanych jakąś rozszerzoną wersją SSE oraz pamięci podręcznej. O wydajności kodu x86 szkoda wspominać. Niestety, ale obydwa te procesory - Cell i Larrabee - kompletnie nie nadają się do DirectX, a forsowanie ray tarcingu raczej nie wypali.
Nawet dzieląc te zapowiedzi przez 10x to i tak może będzie to kop w grafice - i to nie tylko dla pozostałych graczy rynkowych ale i twórców softu! Oby, oby...
Po 2 raytracing to wogole inna bajka i nie ma narazie co marzyc o nim w grach.
Po 3 ta karta moze byc cos jak CUDA dla proca. Niby ze karta liczy i ze szybciej jest.
1. Larrabee wlasnie nie powinno sie chowac, bo Intel swiadom slabosci x86 w obecnej postaci do obliczen RT tworzy nowa architekture, a profesjonalne grafiki to nie tylko powloka sprzetowa, takze komercyjne specjalistyczne oprogramowanie, ktore tworzy roznice wydajnosci w stos. do komercyjnych grafik.
2. Tu chodzi tylko o przelamanie ograniczen, m. in. glownie wydajnosci w trybie czasu rzeczywistego, wtedy pojdzie z gorki, bo wizualnie to bedzie duza roznica, a ten problem znany jest od wielu wielu lat.
3. CUDA, Stream to namiastka, w dodatku komercyjna i mocno przez to ograniczona, ale powoli rozkreca sie.
A z tymi 6k fps w crysisie to raczej na innej zasadzie. Wprowadzą raytracking, więc polepszą znacznie grafikę bez spadku framerate, lub minimalnym jego wzroście
Dokładnie. Jeśli karta będzie w raytracingu równie szybka co GF280 w dx10, to szybko pojawią sie gry to wykorzystujące. Podobnie było z Voodoo. Zanim powstało to wszyscy grali w Low resolution / point sampling. A po wejściu Voodoo szybko pojawiły sie gry z High Resoultion, Bilinear Filtering i całą gamą efektów 3D.
Karta ta ma za zadanie wspomaganie raytracingu i jako taką przedstawia ją producent. Nie ma się co podniecać i liczyć na ogromne ilości fps-ów w grach(...)
A gdzie w newsie jest coś takiego napisane? Możesz pokazać? Sam jesteś beznadziejny
Oj... smutno ci? :p może budyń?
Co do ray tracingu to słyszymy podobną gadkę już któryś raz. np. Cell miał miażdżyć w tej technice ale coś chyba im nie wyszło. Jeśli za pomocą tego akceleratora będzie można liczyć średnio zaawansowany ray tracing w czasie rzeczywistym to będzie genialnie
Liczę na nich
Vega... jest jeden słaby punkt tego newsa. Nie ma tak super jasno powiedzianego że te 200 razy to ewentualnie tylko w tej technice...
http://www.techpowerup.com/87830/New_Compa...D_Graphics.html
można też zajrzeć na stronę producenta:
http://www.caustic.com/
Co karta graficzna z tym zrobi to jej sprawa.
Raytracing pozwala łatwo uzyskać jakość obrazu, nieosiągalną innymi metodami, zwłaszcza cieni częściowych i obiektów półprzezroczystych (np. dym, ogień). Pozwala zasymulować zjawiska załamania światła i odbicia wewnętrznego (np.naskórek jest przezroczysty, odbicie światła następuje od wewnętrznych, ukrwionych warstw skóry). Obiekty bez problemu można będzie opisać powierzchniami Beziera, a nie jako siatki trójkątów, skończą się koła graniaste i ośmiokątne rury.
Wszystko to na podstawie prostych praw fizyki a nie żmudnej artystycznej dłubaniny, jak w obecnych grach.
Zacytuję:
'Pierwotna nazwa to 3Dfx Interactive (duża literka D), ale w 1999 roku została zmieniona na małą razem z pojawieniem się nowego logo firmy.'
Tak więc obie formy były uzywane.
Co zaś samego newsa, to pożyjemy zobaczymy, wiele już razy góra rodziła mysz, na zdrowy rozsądek i tym razem gracze niczego nie zyskają...
Wystarczy integra do tego? Brzmi jak bajka. Przypominają mi czasy Voodoo
Mocny procesor graficzny, dobrze napisane sterowniki i API - sukces.
No ale trzymam kciuki za nich, trochę zawirowania na rynku się przyda bo kotlety robią się już nudne
Otóż kolejna mikro firemka robi dym na temat ray tracingu. W jakim celu ? Oczywiście chodzi o kasę. Podobnie jak Ageia, narobią trochę szumu aby ich ktoś wykupił. Pewnie przez Intela, bo ten jest napalony na ray tracing.
Co do podboju rynku gier, to kompletna bzdura. Ta karta może być nawet 1000x szybsza i nikt tego nie wsadzi do PC nawet za darmo. Wszystko co nie jest zgodne z DirectX, jest spalone na starcie. Po za tym ray tarcing w grach nie ma siły przebicia. Czy ktoś grając w Age of Empires III, Half-Life 2 lub Gears of War, naprawdę tęsknił za super realistycznym załamaniem światła na wodzie, lub w szybach okiennych ? To są rzeczy trzeciorzędne, i nikt przy zdrowych zmysłach nie będzie próbował przekonywać twórców gier do porzucenia dobrze już poznanych metod i narzędzi. Zbyt dużo czasu i pieniędzy w to zainwestowali, a ray tarcing nie oferuje takiej infrastruktury, aby szybko i bezboleśnie na niego przeskoczyć. Z bieżących prognoz wynika że w przyszłości, do GPU zostanie dodane jakieś ograniczone wsparcie dla ray tracingu. Jednak teraz nikt nie wie jak tego dokonać, bo łączenie renderingu i ray tracingu jest tak samo proste jak łaczenie samolotu z łodzią podwodną.
Co do Larrabee to szykuje się kolejna porażka po Itanium. Ten procesor ma podobną architekturę do Cell, tylko że jest wykonany w prymitywny sposób. Procesor Cell projektowano od zera (nie licząc jądra PowerPC), i tam wszytko zostało do siebie perfekcyjnie dopasowane. Tymczasem Larrabee jest prostackim połączeniem kilkunastu przestarzałych Pentuim - ów, trochę podrasowanych jakąś rozszerzoną wersją SSE oraz pamięci podręcznej. O wydajności kodu x86 szkoda wspominać. Niestety, ale obydwa te procesory - Cell i Larrabee - kompletnie nie nadają się do DirectX, a forsowanie ray tarcingu raczej nie wypali.