Powiedzcie mi droga redakcjo w ilu fps i jakiej rozdzielczości nagrywacie filmy do mierzenia na tym waszym komputerze za 10k+
Bardzo mnie to ciekawi
Dobre pytanie...
Przy sprzęcie do nagrywania mamy podane 2560 × 1440, a platformie testowej 3840 × 2160
Natomiast FPS leci taki jaki jest czyli każda klatka posłana jest zapisywana...
Też dziwne jest to, że sprzęt do nagrywania jest jakby trochę mocniejszy od sprzętu do testowania...
.... i7 3820 vs 2600k
O tyle się zastanawiam tutaj, bo 2600k powinien być lepszy do nagrywania jako, że ma zintegrowany kontroler PCI-E
Jestem zielony i nie za bardzo ogarniam. Czyli program nagrywa np. 1 sek. 70 fps a w 2 sek. 100 fps? Zależnie od ilości? Czy np. ustawiacie stale fps na 200 i tyle nagrywa?
To nic nie da. Nie da obiektywnego pomiaru, bo monitor nie wyświetla wszystkich wygenerowanych klatek dokładnie tak jak GPU posyła bez V-Sync-a, a z V-Sync też nie będzie działać, bo GPU nie będzie obciążone w 100%
Zaraz, czyli metoda z kamerą jest lepsza od metody z kartą zapisującą obraz.
Ponieważ nie chodzi tu o obraz wygenerowany czy nawet wysłany na monitor, a o obraz wyświetlany.
Dlatego jeżeli monitor ma 60hz a karta generuje 120fps, to generuje klatkę co 8ms a monitor każdą wyświetla co 16ms, czyli z połową klatek stanie się... no właśnie co? Poza tym, jak już wcześniej było wspomniane, gpu zapisujące obraz pokazuje, że klatka pojawia się na 1ms, co nie ma na monitorze miejsca, gdyż klatka musi być wyświetlana przez 16ms (jedna lub kilka na raz). Różnica między tymi pomiarami sprowadza się do tego, że zapisanie obrazu przez DVI pokaże rzeczywistą ilość klatek wygenerowanych i wysłanych, a kamera pokaże rzeczywistą ilość klatek wyświetlonych, która nie może być większa od 60 lub 120 (zależnie od monitora), ale na jednym zdjęciu może być kilka klatek.
Tak czy inaczej sprawa jest do zbadania. Jeżeli redakcja podchodzi do tej metody testowania bardzo poważnie, to powinni sprawdzić jak będzie wyglądał obraz zapisany i z kamery. Bo ten z kamery będzie tym który naprawę widzimy. Zapisany nie uwzględnia monitora. I może da się tą metodą zmierzyć input lag. Ale to już zupełnie inny temat.
Nvidii właśnie o to chodzi żeby nie mierzyć Input Lag danego monitora!
Jestem przekonany że można by zrobić względnie tanią przystawkę która czytałaby te paski z wyjścia DVI w czasie rzeczywistym tak jak ten komputer z kartą za 7 tys. i macierzą SSD. Niestety rozwiązanie z tą płytką FPGA nie działałoby w rozdzielczościach większych niż 1920x1200, bo HDMI więcej nie obsłuży. Ale mając już działający FPGA można by zamówić płytkę z wejściem DVI albo i DP do 4K.
Dobre pytanie...
Przy sprzęcie do nagrywania mamy podane 2560 × 1440, a platformie testowej 3840 × 2160
Natomiast FPS leci taki jaki jest czyli każda klatka posłana jest zapisywana...
Też dziwne jest to, że sprzęt do nagrywania jest jakby trochę mocniejszy od sprzętu do testowania...
.... i7 3820 vs 2600k
O tyle się zastanawiam tutaj, bo 2600k powinien być lepszy do nagrywania jako, że ma zintegrowany kontroler PCI-E
Jestem zielony i nie za bardzo ogarniam. Czyli program nagrywa np. 1 sek. 70 fps a w 2 sek. 100 fps? Zależnie od ilości? Czy np. ustawiacie stale fps na 200 i tyle nagrywa?
Mniej więcej tak... ale trochę inaczej to wygląda
Jedną klatkę wygeneruje GPU w 24ms, drugą w 25ms, trzecią w 33ms, czwartą w 8ms....wszystko jest zapisywane i składa się na to, że w jednej sekundzie takich klatek masz xyz.
OK mam nadzieje ze to nie będą tylko wykresy, ale wydajność karty będzie podawana w klatkach wyświetlanych na EKRANIE MONITORA w ciągu sekundy ( nie z frapsa, bo o to się chyba rozchodzi tylko na ekranie ale w FPS)
jak nie będzie podawana ilość klatek na sekundę w FPS to tak jakby
prędkość poruszania się auta zamiast w km/h zacząć mierzyć w przyspieszeniu od 0 do 100 km/h lub jeszcze inaczej
Ja chce Kartę która wyświetli więcej klatek na ekranie monitora w ciągu sekundy niż konkurencyjna i z tego portalu chciałbym się tego dowiedzieć. Wynik musi być jasny i zrozumiały czy to dla ślusarza, studenta politologi, gimnazjalisty, czy 40sto letniego pasjonata gier akcji.
Muszą być podane wyniki w FPS ( podawajcie wiec wyniki w FPS czy to taka lub inna metodą nie ważne, a jak nie da się ta metodą podać wyniku w FPS to metoda jest bezużyteczna dla użytkownika który ma zamiar kupić kartę graficzną)
----------------
Wszystko wyjdzie tak czy siak w praniu. Życzę wam powodzenia. Ciekawy artykuł.
No i wszystko jasne i dlatego :
AMD nie zrobi dobrego CPU lepszego od intela ani za 10 lat.
Rok czasu próbowali naprawić pojedynczy problem: mikrozacięcia CrossFire i nie potrafili.
To słabej wydajności pojedynczego rdzenia np. w FX nie naprawią w nowych cpu ani za 5 lat.
Możemy odrazu się przesiąść na podstawkę intela,czekanie na dobry procek od AMD
może potrwać lata świetlne
Dla jasności posiadam Phenoma 965-nie wykluczam zmiany na FX-a
Ilość klatek/sek. na złączu DVI jest stała, zależna od parametrów monitora.
Karta graficzna MUSI wyświetlić klatkę w ustalonym momencie, niezależnie od tego czy GPU zdążył wypełnić bufor ramki nową treścią czy nie. Jeśli nie to zacznie wyświetlać poprzednią klatkę, która nadal jest w buforze ramki.
Zmieniło się to dopiero całkiem niedawno gdy wprowadzono technologię G-Sync, która pozwala monitorowi zgodnemu z G-Sync zaczekać z wyświetlaniem nowej klatki aż GPU ją wyrenderuje.
Ilość klatek/sek. na złączu DVI jest stała, zależna od parametrów monitora.
Karta graficzna MUSI wyświetlić klatkę w ustalonym momencie, niezależnie od tego czy GPU zdążył wypełnić bufor ramki nową treścią czy nie. Jeśli nie to zacznie wyświetlać poprzednią klatkę, która nadal jest w buforze ramki.
Zmieniło się to dopiero całkiem niedawno gdy wprowadzono technologię G-Sync, która pozwala monitorowi zgodnemu z G-Sync zaczekać z wyświetlaniem nowej klatki aż GPU ją wyrenderuje.
Zmieniło to też już wprowadzone nowe eDP oraz zdaję się nowe DP...
STAHURSKI @ 2014.01.26 11:20
No i wszystko jasne i dlatego :
AMD nie zrobi dobrego CPU lepszego od intela ani za 10 lat.
Rok czasu próbowali naprawić pojedynczy problem: mikrozacięcia CrossFire i nie potrafili.
To słabej wydajności pojedynczego rdzenia np. w FX nie naprawią w nowych cpu ani za 5 lat.
Możemy odrazu się przesiąść na podstawkę intela,czekanie na dobry procek od AMD
może potrwać lata świetlne
Dla jasności posiadam Phenoma 965-nie wykluczam zmiany na FX-a
Może zrobić za 2 lata....
Problem FX-a to archi nastawiona na zegary, a nie IPC/MHz. Lata temu zrobili błąd. Intel też zrobił bład aka P4, wychodzi na to, że tworzenie nowej architektury jest błędem i nawet Intel nie ma zasobów, by tworzyć coś wydajnego z niczego. Mała adnotacja... P4 to była pazerność Intel-a w skrajnym momencie chyba rdzeń P4 był 50% mniejszy od Pentium-a M, liczyli po prostu na kasiorę, a tu AMD zrobiło im bombę.
Crossfire może działać, ale nie tak jak dzis. Jedyny sposób to robienie dwóch różnych rzeczy na GPU tak jak w PS3 czy Xbox360...
W innym przypadku zawsze mikrozacięcia będą. PS3 pokazuje, że można tego uniknąć.
Czy za 2 lata wypuszczą dobry procek lepszy od intela ?
( w kontekście wydajności pojedynczego rdzenia)
To jest pytanie.
Moim zdaniem jeśli w ogóle to 4 albo więcej lat.
Czas pokaże.
Czy za 2 lata wypuszczą dobry procek lepszy od intela ?
To jest pytanie.
Moim zdaniem jeśli w ogóle to 4 albo więcej lat.
Czas pokaże.
napisałem mogą... wątpię by to zrobili to kiedykolwiek. Za to mogą zrobić ważna rzecz i skupić się na segmencie mobilnym, muszą mięć spółkę produkującą modemy zintegrować to w swoich SoC i sprzedawać do telefonów tabletów. Szybki modem LTE to podstawa w USA.
Nawet samsung nie wstydzi się dawać prodkty konkurencji do swoich top-owych telefonów.
--> warunek AMD musi zrobić coś lepszego i szybciej.
Pclab pisze tak:
Ogólnie im „grubsza” linia, tym gorsza płynność obrazu, a jak widać, zielona linia reprezentująca SLI jest znacznie cieńsza (z wyjątkiem dwóch, trzech miejsc) od czerwonej przez cały okres testu.
Wyobrazmy sobie taka sytuacja:
1. Grupa linia - klatki od 25 do 200 fps.
2. Cienka linia - wszystkie klatki dokladnie 10fps.
Obraz jest bardziej plynny w pierwszym przypadku a wy piszecie ze w drugim? Jedno jest pewne - AMD nie smaruje ITI.
Czy za 2 lata wypuszczą dobry procek lepszy od intela ?
To jest pytanie.
Moim zdaniem jeśli w ogóle to 4 albo więcej lat.
Czas pokaże.
napisałem mogą... wątpię by to zrobili to kiedykolwiek. Za to mogą zrobić ważna rzecz i skupić się na segmencie mobilnym, muszą mięć spółkę produkującą modemy zintegrować to w swoich SoC i sprzedawać do telefonów tabletów. Szybki modem LTE to podstawa w USA.
Nawet samsung nie wstydzi się dawać prodkty konkurencji do swoich top-owych telefonów.
--> warunek AMD musi zrobić coś lepszego i szybciej.
Na rynku mobilnym sa totalnie martwi. Nie sa w stanie przygotowac gotowych rozwiazan dla srednio wymagajacych, a wszedzie nizej intel swiadomie lub nie zabija ich swoimi celeronami sprzedawanymi za 50$, wiec cena nie zawalcza... Ostatni gwozdz do trumny to nowy atom.
Nawet gdyby zaczeli rozdawac cpu za darmo, na rynku tanich netbookow spotkalbys sie z sytuacja; Woli Pan sprzet gorszy ale o 150 zl taniej czy moze ten troszeczke wydajniejszy ale o wiekszej sprawnosci energetycznej w nowszym procesie produkcyjnym ale za 1050 zl (zamiast 900 zl)? Sytuacja jest mega powazna.
Jesli chodzi o sredni segment (szczegolnie srednio-niski) to wygladalo na to, ze APU moze ich podratowac w mobile. Prawda jest taka, ze gotowe rozwiazania sa drogie, a czyste APU bez dual gpu prawie nie dostepne. Z powodu wad multi-gpu to rozwiazanie nigdy sie nie sprawdz, chyba ze integra zajmie sie innymi obliczeniami, ale raz ze do tego dluga droga, a dwa APU + GPU to juz poziom cenowy i5 + dodatkowe gpu, czasem nawet samodzielnego i7 co jest najlepsza opcja dla osob, ktore potrzebuja sprzetu do pracy i nie zamierzaja na nim grac.
Ja się nieskromnie podpisuję pod petycją o testowanie gier na nowych konsolach przy użyciu tego sprzęciora. Tam też będzie niezły cyrk
Nie będzie, bo masz frame limit i 30 klatek czy wysokie milisekundy to jeden pierun, animacja na tv i tak jest opóźniona.
W AMD jak zwykle bajzel, niestety brak gotówki robi swoje, niestabilność zatrudnienia, presja dodatkowa.
O ile da się zainstalować FCATa na konsolach, a to mało prawdopodobne.
Czemu mało prawdopodobne ? Z tego co ja zrozumiałem wystarczy materiał z rozgrywki, który przepuszczany jest przez komputer do nagrywania i obróbki materiału (ten z kartą), a wszystko idzie przez splitter obrazu, który omija HDCP i pozwala jednocześnie obserwować rozgrywkę w czasie rzeczywistym na drugim ekranie. Zamiast PC, który podaje sygnał do splittera będzie tutaj konsola - nie widzę za bardzo konfliktu, bo to takie same urządzenia. Karty przecież do konsoli nie wpinamy, a jest ona w tym dodatkowym PC.
PClab prawdopodobnie uzywal HDCP strippera przed DVI splitterem, ten pierwszy zdziera HDCP z sygnalu, PClab tego nie pisal bo jest nielegalne to w Polsce, poza tym to za bardzo nie licuje jak sie jest koniuszym ITI.
Panowie, bez obrazy, ale widzę, że tu więcej ogarniętych inżynierów niż w Nvidii
Wszyscy wiedzą, że nagranego filmu wcale nie trzeba mieć nieskompresowanego, karta do nagrywania za 1400f jest zbędna, bo wystarczy jakieś byle co za kilkaset złotych, a skrypty do analizy każdy z osobna pisze lepiej niż cały zespół zielonych
Odrobina logiki podpowiada mi jedno: wątpie, żeby w firmie, która potrafi stworzyć od początku do końca rdzeń graficzny, nie było ani jednego człowieka, który nie zaproponowałby tańszego rozwiązania niż prezentowane w artykule - gdyby się dało
Cieszę się że nareszcie problem dostrzeżono, bo opisywany był już nie raz na różnych zagranicznych zazwyczaj portalach. FRAPs stał się narzędziem w rękach AMD i NVIDIA, które można było obejść i było to wykorzystywane do bólu (niestety), AMD myślę że przesadziło, bo mikroprzycięcia na pojedynczym GPU to nic niezwykłego. Doszło do tak znaczących nadużyć, że można było tylko... pozazdrościć konsolowcom (niestety), bo 30 FPS powinno być 30 fps a nie 20.
Świetnym przykładem było Skyrim, gdzie właściwie dopiero od 50 fps można było mówić o w pełni płynnej i komfortowej grze (moja prywatna opinia).
Tak bardzo jestem zadowolony z tego artykułu że postanowiłem się zalogować i dać feedback. Ostatnie arty PClaba mnie zaskakują. Jeśli obietnice zawarte w tym artykule zostaną spełnione, chyba przestanę wchodzić na inne (konkurencyjne) serwisy tego typu.... no ok .. nie oszukujmy się... będę ale pierwszym na który zajrzę będzie PClab
show some love
,;;;, ,;;;,
;;;' ';' ';;;
;;; ;;;
';;, ,;;'
';;,;;'
';'
Panowie, bez obrazy, ale widzę, że tu więcej ogarniętych inżynierów niż w Nvidii
Wszyscy wiedzą, że nagranego filmu wcale nie trzeba mieć nieskompresowanego, karta do nagrywania za 1400f jest zbędna, bo wystarczy jakieś byle co za kilkaset złotych, a skrypty do analizy każdy z osobna pisze lepiej niż cały zespół zielonych
Odrobina logiki podpowiada mi jedno: wątpie, żeby w firmie, która potrafi stworzyć od początku do końca rdzeń graficzny, nie było ani jednego człowieka, który nie zaproponowałby tańszego rozwiązania niż prezentowane w artykule - gdyby się dało
Z drugiej strony nie można być naiwnym by sądzić, że NV nie ma takich urządzeń specjalistycznych Ale nie może się nimi dzielić
Bardzo mnie to ciekawi
Dobre pytanie...
Przy sprzęcie do nagrywania mamy podane 2560 × 1440, a platformie testowej 3840 × 2160
Natomiast FPS leci taki jaki jest czyli każda klatka posłana jest zapisywana...
Też dziwne jest to, że sprzęt do nagrywania jest jakby trochę mocniejszy od sprzętu do testowania...
.... i7 3820 vs 2600k
O tyle się zastanawiam tutaj, bo 2600k powinien być lepszy do nagrywania jako, że ma zintegrowany kontroler PCI-E
Jestem zielony i nie za bardzo ogarniam. Czyli program nagrywa np. 1 sek. 70 fps a w 2 sek. 100 fps? Zależnie od ilości? Czy np. ustawiacie stale fps na 200 i tyle nagrywa?
To nic nie da. Nie da obiektywnego pomiaru, bo monitor nie wyświetla wszystkich wygenerowanych klatek dokładnie tak jak GPU posyła bez V-Sync-a, a z V-Sync też nie będzie działać, bo GPU nie będzie obciążone w 100%
Zaraz, czyli metoda z kamerą jest lepsza od metody z kartą zapisującą obraz.
Ponieważ nie chodzi tu o obraz wygenerowany czy nawet wysłany na monitor, a o obraz wyświetlany.
Dlatego jeżeli monitor ma 60hz a karta generuje 120fps, to generuje klatkę co 8ms a monitor każdą wyświetla co 16ms, czyli z połową klatek stanie się... no właśnie co? Poza tym, jak już wcześniej było wspomniane, gpu zapisujące obraz pokazuje, że klatka pojawia się na 1ms, co nie ma na monitorze miejsca, gdyż klatka musi być wyświetlana przez 16ms (jedna lub kilka na raz). Różnica między tymi pomiarami sprowadza się do tego, że zapisanie obrazu przez DVI pokaże rzeczywistą ilość klatek wygenerowanych i wysłanych, a kamera pokaże rzeczywistą ilość klatek wyświetlonych, która nie może być większa od 60 lub 120 (zależnie od monitora), ale na jednym zdjęciu może być kilka klatek.
Tak czy inaczej sprawa jest do zbadania. Jeżeli redakcja podchodzi do tej metody testowania bardzo poważnie, to powinni sprawdzić jak będzie wyglądał obraz zapisany i z kamery. Bo ten z kamery będzie tym który naprawę widzimy. Zapisany nie uwzględnia monitora. I może da się tą metodą zmierzyć input lag. Ale to już zupełnie inny temat.
Nvidii właśnie o to chodzi żeby nie mierzyć Input Lag danego monitora!
Jestem przekonany że można by zrobić względnie tanią przystawkę która czytałaby te paski z wyjścia DVI w czasie rzeczywistym tak jak ten komputer z kartą za 7 tys. i macierzą SSD. Niestety rozwiązanie z tą płytką FPGA nie działałoby w rozdzielczościach większych niż 1920x1200, bo HDMI więcej nie obsłuży. Ale mając już działający FPGA można by zamówić płytkę z wejściem DVI albo i DP do 4K.
http://www.blurbusters.com/easy-lightboost...yx-strobelight/
Dobre pytanie...
Przy sprzęcie do nagrywania mamy podane 2560 × 1440, a platformie testowej 3840 × 2160
Natomiast FPS leci taki jaki jest czyli każda klatka posłana jest zapisywana...
Też dziwne jest to, że sprzęt do nagrywania jest jakby trochę mocniejszy od sprzętu do testowania...
.... i7 3820 vs 2600k
O tyle się zastanawiam tutaj, bo 2600k powinien być lepszy do nagrywania jako, że ma zintegrowany kontroler PCI-E
Jestem zielony i nie za bardzo ogarniam. Czyli program nagrywa np. 1 sek. 70 fps a w 2 sek. 100 fps? Zależnie od ilości? Czy np. ustawiacie stale fps na 200 i tyle nagrywa?
Mniej więcej tak... ale trochę inaczej to wygląda
Jedną klatkę wygeneruje GPU w 24ms, drugą w 25ms, trzecią w 33ms, czwartą w 8ms....wszystko jest zapisywane i składa się na to, że w jednej sekundzie takich klatek masz xyz.
jak nie będzie podawana ilość klatek na sekundę w FPS to tak jakby
prędkość poruszania się auta zamiast w km/h zacząć mierzyć w przyspieszeniu od 0 do 100 km/h lub jeszcze inaczej
Ja chce Kartę która wyświetli więcej klatek na ekranie monitora w ciągu sekundy niż konkurencyjna i z tego portalu chciałbym się tego dowiedzieć. Wynik musi być jasny i zrozumiały czy to dla ślusarza, studenta politologi, gimnazjalisty, czy 40sto letniego pasjonata gier akcji.
Muszą być podane wyniki w FPS ( podawajcie wiec wyniki w FPS czy to taka lub inna metodą nie ważne, a jak nie da się ta metodą podać wyniku w FPS to metoda jest bezużyteczna dla użytkownika który ma zamiar kupić kartę graficzną)
----------------
Wszystko wyjdzie tak czy siak w praniu. Życzę wam powodzenia. Ciekawy artykuł.
Zestawicie to?
Będzie się wynik pokrywał?
AMD nie zrobi dobrego CPU lepszego od intela ani za 10 lat.
Rok czasu próbowali naprawić pojedynczy problem: mikrozacięcia CrossFire i nie potrafili.
To słabej wydajności pojedynczego rdzenia np. w FX nie naprawią w nowych cpu ani za 5 lat.
Możemy odrazu się przesiąść na podstawkę intela,czekanie na dobry procek od AMD
może potrwać lata świetlne
Dla jasności posiadam Phenoma 965-nie wykluczam zmiany na FX-a
Karta graficzna MUSI wyświetlić klatkę w ustalonym momencie, niezależnie od tego czy GPU zdążył wypełnić bufor ramki nową treścią czy nie. Jeśli nie to zacznie wyświetlać poprzednią klatkę, która nadal jest w buforze ramki.
Zmieniło się to dopiero całkiem niedawno gdy wprowadzono technologię G-Sync, która pozwala monitorowi zgodnemu z G-Sync zaczekać z wyświetlaniem nowej klatki aż GPU ją wyrenderuje.
Karta graficzna MUSI wyświetlić klatkę w ustalonym momencie, niezależnie od tego czy GPU zdążył wypełnić bufor ramki nową treścią czy nie. Jeśli nie to zacznie wyświetlać poprzednią klatkę, która nadal jest w buforze ramki.
Zmieniło się to dopiero całkiem niedawno gdy wprowadzono technologię G-Sync, która pozwala monitorowi zgodnemu z G-Sync zaczekać z wyświetlaniem nowej klatki aż GPU ją wyrenderuje.
Zmieniło to też już wprowadzone nowe eDP oraz zdaję się nowe DP...
AMD nie zrobi dobrego CPU lepszego od intela ani za 10 lat.
Rok czasu próbowali naprawić pojedynczy problem: mikrozacięcia CrossFire i nie potrafili.
To słabej wydajności pojedynczego rdzenia np. w FX nie naprawią w nowych cpu ani za 5 lat.
Możemy odrazu się przesiąść na podstawkę intela,czekanie na dobry procek od AMD
może potrwać lata świetlne
Dla jasności posiadam Phenoma 965-nie wykluczam zmiany na FX-a
Może zrobić za 2 lata....
Problem FX-a to archi nastawiona na zegary, a nie IPC/MHz. Lata temu zrobili błąd. Intel też zrobił bład aka P4, wychodzi na to, że tworzenie nowej architektury jest błędem i nawet Intel nie ma zasobów, by tworzyć coś wydajnego z niczego. Mała adnotacja... P4 to była pazerność Intel-a w skrajnym momencie chyba rdzeń P4 był 50% mniejszy od Pentium-a M, liczyli po prostu na kasiorę, a tu AMD zrobiło im bombę.
Crossfire może działać, ale nie tak jak dzis. Jedyny sposób to robienie dwóch różnych rzeczy na GPU tak jak w PS3 czy Xbox360...
W innym przypadku zawsze mikrozacięcia będą. PS3 pokazuje, że można tego uniknąć.
Może zrobić za 2 lata....
Czy za 2 lata wypuszczą dobry procek lepszy od intela ?
( w kontekście wydajności pojedynczego rdzenia)
To jest pytanie.
Moim zdaniem jeśli w ogóle to 4 albo więcej lat.
Czas pokaże.
Może zrobić za 2 lata....
Czy za 2 lata wypuszczą dobry procek lepszy od intela ?
To jest pytanie.
Moim zdaniem jeśli w ogóle to 4 albo więcej lat.
Czas pokaże.
Nawet samsung nie wstydzi się dawać prodkty konkurencji do swoich top-owych telefonów.
--> warunek AMD musi zrobić coś lepszego i szybciej.
Oh no...
Ogólnie im „grubsza” linia, tym gorsza płynność obrazu, a jak widać, zielona linia reprezentująca SLI jest znacznie cieńsza (z wyjątkiem dwóch, trzech miejsc) od czerwonej przez cały okres testu.
Wyobrazmy sobie taka sytuacja:
1. Grupa linia - klatki od 25 do 200 fps.
2. Cienka linia - wszystkie klatki dokladnie 10fps.
Obraz jest bardziej plynny w pierwszym przypadku a wy piszecie ze w drugim? Jedno jest pewne - AMD nie smaruje ITI.
Czy za 2 lata wypuszczą dobry procek lepszy od intela ?
To jest pytanie.
Moim zdaniem jeśli w ogóle to 4 albo więcej lat.
Czas pokaże.
Nawet samsung nie wstydzi się dawać prodkty konkurencji do swoich top-owych telefonów.
--> warunek AMD musi zrobić coś lepszego i szybciej.
Na rynku mobilnym sa totalnie martwi. Nie sa w stanie przygotowac gotowych rozwiazan dla srednio wymagajacych, a wszedzie nizej intel swiadomie lub nie zabija ich swoimi celeronami sprzedawanymi za 50$, wiec cena nie zawalcza... Ostatni gwozdz do trumny to nowy atom.
Nawet gdyby zaczeli rozdawac cpu za darmo, na rynku tanich netbookow spotkalbys sie z sytuacja; Woli Pan sprzet gorszy ale o 150 zl taniej czy moze ten troszeczke wydajniejszy ale o wiekszej sprawnosci energetycznej w nowszym procesie produkcyjnym ale za 1050 zl (zamiast 900 zl)? Sytuacja jest mega powazna.
Jesli chodzi o sredni segment (szczegolnie srednio-niski) to wygladalo na to, ze APU moze ich podratowac w mobile. Prawda jest taka, ze gotowe rozwiazania sa drogie, a czyste APU bez dual gpu prawie nie dostepne. Z powodu wad multi-gpu to rozwiazanie nigdy sie nie sprawdz, chyba ze integra zajmie sie innymi obliczeniami, ale raz ze do tego dluga droga, a dwa APU + GPU to juz poziom cenowy i5 + dodatkowe gpu, czasem nawet samodzielnego i7 co jest najlepsza opcja dla osob, ktore potrzebuja sprzetu do pracy i nie zamierzaja na nim grac.
Nie będzie, bo masz frame limit i 30 klatek czy wysokie milisekundy to jeden pierun, animacja na tv i tak jest opóźniona.
W AMD jak zwykle bajzel, niestety brak gotówki robi swoje, niestabilność zatrudnienia, presja dodatkowa.
O ile da się zainstalować FCATa na konsolach, a to mało prawdopodobne.
Czemu mało prawdopodobne ? Z tego co ja zrozumiałem wystarczy materiał z rozgrywki, który przepuszczany jest przez komputer do nagrywania i obróbki materiału (ten z kartą), a wszystko idzie przez splitter obrazu, który omija HDCP i pozwala jednocześnie obserwować rozgrywkę w czasie rzeczywistym na drugim ekranie. Zamiast PC, który podaje sygnał do splittera będzie tutaj konsola - nie widzę za bardzo konfliktu, bo to takie same urządzenia. Karty przecież do konsoli nie wpinamy, a jest ona w tym dodatkowym PC.
PClab prawdopodobnie uzywal HDCP strippera przed DVI splitterem, ten pierwszy zdziera HDCP z sygnalu, PClab tego nie pisal bo jest nielegalne to w Polsce, poza tym to za bardzo nie licuje jak sie jest koniuszym ITI.
Wszyscy wiedzą, że nagranego filmu wcale nie trzeba mieć nieskompresowanego, karta do nagrywania za 1400f jest zbędna, bo wystarczy jakieś byle co za kilkaset złotych, a skrypty do analizy każdy z osobna pisze lepiej niż cały zespół zielonych
Odrobina logiki podpowiada mi jedno: wątpie, żeby w firmie, która potrafi stworzyć od początku do końca rdzeń graficzny, nie było ani jednego człowieka, który nie zaproponowałby tańszego rozwiązania niż prezentowane w artykule - gdyby się dało
Świetnym przykładem było Skyrim, gdzie właściwie dopiero od 50 fps można było mówić o w pełni płynnej i komfortowej grze (moja prywatna opinia).
show some love
,;;;, ,;;;,
;;;' ';' ';;;
;;; ;;;
';;, ,;;'
';;,;;'
';'
Wszyscy wiedzą, że nagranego filmu wcale nie trzeba mieć nieskompresowanego, karta do nagrywania za 1400f jest zbędna, bo wystarczy jakieś byle co za kilkaset złotych, a skrypty do analizy każdy z osobna pisze lepiej niż cały zespół zielonych
Odrobina logiki podpowiada mi jedno: wątpie, żeby w firmie, która potrafi stworzyć od początku do końca rdzeń graficzny, nie było ani jednego człowieka, który nie zaproponowałby tańszego rozwiązania niż prezentowane w artykule - gdyby się dało
Z drugiej strony nie można być naiwnym by sądzić, że NV nie ma takich urządzeń specjalistycznych