oby nv nie robiło swojego mantle bo znając ich będzie kijowo działać na radkach tak dla zasady bo nakombinują w kodzie celowo
Watpie, bottleneck na cpu nikomu nie jest na reke. Ani tworca gier (mniej efektow) ani producenta kart, bo po co mi nowa karta jesli jedyne co moge na niej uzyskac to lepszy poziom FSAA.
Masz kilka wersji OpenGL. Twórcy co roku wydają nową wersję 4.x. W przypadku systemu MacOS każda wersja systemu związana jest z pojedynczą wersją OpenGL np. 4.0 w MacOS 10.8 oraz OpenGL 4.3 w MacOS 10.9. Nie jestem pewien jak działa to pod Windows
Zastanawia mnie głównie czy AMD zrobiło kilka wersji Mantle dla różnych wersji systemów. Bo każdy system ma odmienne sterowniki nawet jeżeli są one spakowane jako jeden wielki wspólny EXE ważący 100MB
Raczej jest jedna wersja. Microsoft w W7 wprowadził nowy model sterowników dla kart graficznych (więc stąd większośc nowych rzeczy nie działa na xp) który jest w W8 taki sam (jeżeli są różnice to bardzo nieznaczne). A kwestnia nie wprowadzania nowych wersji DX do starszych systemów podyktowana jest chęcią sprzedazy najnowszych systemów.
PS. Sam sterownik zajmuje bardzo mało a to, że paczki sterowników ważą po kilkaset MB ... no cóż, dużo tam jest śmieci.
Sterowniki pomiędzy Windows 7 a Windows 8 są odmienne. Nie możesz zabrać przykładowo paczki ze sterownikami z roku 2012 i zainstalować jej w Windows 8.1 bo w środku nie ma odpowiedniego sterownika. Firmy takie jak AMD pakują wszystkie sterowniki razem w jeden ZIP ale on przed instalacją właściwego sterownika się rozpakowuje na dysk. A w środku masz pliki konfiguracyjne INF które definiują co pod którym systemem ma zostać zainstalowane
Dlatego nowa paczka z 2013r zadziała zainstaluje ci odpowiednie pliku pod starszymi systemami ale już w odwrotną stronę to nie zadziała. Paczka sterowników z 2010r nie zainstaluje ci się pod systemem z 2012
Proszę zrobić testy z AA, bo z tego co widzę na zagranicznych stronkach radki sobie znacznie lepiej radzą od nv i chcę wiarygodne potwierdzenie, jest większa różnica miedzy prockami wtedy i fx żle wtedy nie wypadają.
Po wlaczeniu AA dojdziesz do 99% uzycia karty i bedzie stosunkowo malo klatek. potrzeba sli/cf aby testowac cpu w takich warunkach.
Jestem w szoku oglądając niektóre wykresy, czyli nagle okazało się że większość mocy obliczeniowych tych podkręcanych i5 szła w narzut DX ? wałek dziesięciolecia. Biorąc pod uwagę że BF4 ma tylko szczątkową implementacje Mantle, może być ciekawie w Thief.
To nawet nie moc, tylko zatkane kolejki potoków w cpu jakimiś ciągle powtarzalnym zbieraniem danych, ale nie pierwszy raz micro udowadnia, że łindołzy są chyba celowo chrzanione, żeby po paru wersjach doszły do ładu.
Z wykresów widocznych na czwartej stronie wnioskuję, że nawet i7 zyskuje dzięki działaniu Mantle. 15 fps to nie jest przecież 'błąd pomiarowy' ;p
No i zważając na jakość wykonania BF4 można spodziewać się, że w innych grach rezultaty będą jeszcze lepsze.
Co z tego, skoro tańsza 780 GHz na i7 wyświetla 15 FPS więcej (po OC procesora)?
To z tego, ze przy mniejszym narzucie na cpu mozesz zaimplementowac lepszy i bardziej realistyczny model swiata z systemem dobrze odzwzorowanej destrukcji i interakcji. Dzisiaj ta moc i7 idzie w radiator i jest wydmuchiwana w postaci ciepla.
Focus a jak to wygląda gdy sparujemy słabsze GPU z mocnym CPU. Coś takiego też reklamowało AMD ze wydajność też rośnie znacząco.
Przecież widać jak na dłoni, że taki zestaw NIE BĘDZIE działał dobrze, bo Mantle na GPU praktycznie nic nie daje, a na CPU bardzo dużo. Wniosek jest zatem bardzo prosty.
Dodaliśmy też kilka procesorów do rankingu na czwartej stronie.
A można się spodziewać dziś innych kart 7xxx?
To nie ma żadnego sensu. Z punktu widzenia kart graficznych wydajność praktycznie się nie różni. Do tego występują problemy na słabszych GPU (jest wolniej). Trzeba poczekać na nowe sterowniki (może aktualizację gry) i dopiero wtedy to sprawdzić. Relacje między kartami zostają zachowane - przynajmniej w kontekście trybu single. Dla trybu Multi wszystko masz na stronie numer 3 i 4.
no jeśli 10% to nic to tak, tylko że tyle często się uzyskuje dodatkowo robiąc OC albo kupując model wyżej kartę graficzną , wszystko zależy jak na to spojrzeć
To z tego, ze przy mniejszym narzucie na cpu mozesz zaimplementowac lepszy i bardziej realistyczny model swiata z systemem dobrze odzwzorowanej destrukcji i interakcji. Dzisiaj ta moc i7 idzie w radiator i jest wydmuchiwana w postaci ciepla.
To co piszesz miałoby sens, gdyby w branży wypracowano jakiś konsensus. Zamiast iść w OpenGL, albo naciskać na M$, AMD próbuje wyrównać różnice w wydajności pomiędzy swoimi podzespołami, a sprzętem konkurencji. Myślisz, że AMD ma dostatecznie dużo siły, by przeforsować nowe API?
no jeśli 10% to nic to tak, tylko że tyle często się uzyskuje dodatkowo robiąc OC albo kupując model wyżej kartę graficzną , wszystko zależy jak na to spojrzeć
Jest szansa na testy CF na i7? Mniejsza o fcat w tym momencie (dzisiaj), ale o sprawdzenie ile mniej wiecej wyplutych klatek nozna sie spodziewac korzystajac z takiego rozwiazania, skoro i3 radzi sobie swietnie z pojedyncza high endowa karta to czyzby to dawalo szanse na stale 120 fps dla dwoch kart?
no jeśli 10% to nic to tak, tylko że tyle często się uzyskuje dodatkowo robiąc OC albo kupując model wyżej kartę graficzną , wszystko zależy jak na to spojrzeć
A gdzie zaobserwowałeś te 10%?
no może nie u was ale u konkurencji ;P żele sprecyzowałam sry
Czy ja dobrze widzę? Posiadacze Core i5 i Core i7 widzę nie mają co zmieniać Nvidii bo i tak jest szybciej
Dokładnie na to wygląda, pamiętać też trzeba, że sterownik NV tak się powinien zachowywać gdy obciążenie CPU wzrasta w większości grach, a mantle narazie tylko BF4
Mam nadzieję, że pojawią się testy w seriach Total War z mantle o ile CA przeportuje na mantle. Bo tak naprawdę to właśnie ta gra dziś zajedzie każdy procesor na rynku.
Moczę się po nocach by Autodesk przeportował Viewporty, to było AMD solidnego kopa w przemyśle pro.
Wibowit @ 2014.02.01 15:44
Te 290X na wykresach to referenty?
Ma to znaczenie?.... wait
Ma haha,
a tak na poważnie jako test API nie ma, a vs NV niby ma, bo karty AMD mają throttling, a NV Turbo
Dokładnie, rome total war 2 idealnie się nadaję do przepisania na mantle.
Wzrosty wydajności byłyby pewnie ogromne, a teraz nawet na najmocniejszych configach gra ssie.
oby nv nie robiło swojego mantle bo znając ich będzie kijowo działać na radkach tak dla zasady bo nakombinują w kodzie celowo
Watpie, bottleneck na cpu nikomu nie jest na reke. Ani tworca gier (mniej efektow) ani producenta kart, bo po co mi nowa karta jesli jedyne co moge na niej uzyskac to lepszy poziom FSAA.
Masz kilka wersji OpenGL. Twórcy co roku wydają nową wersję 4.x. W przypadku systemu MacOS każda wersja systemu związana jest z pojedynczą wersją OpenGL np. 4.0 w MacOS 10.8 oraz OpenGL 4.3 w MacOS 10.9. Nie jestem pewien jak działa to pod Windows
Zastanawia mnie głównie czy AMD zrobiło kilka wersji Mantle dla różnych wersji systemów. Bo każdy system ma odmienne sterowniki nawet jeżeli są one spakowane jako jeden wielki wspólny EXE ważący 100MB
Raczej jest jedna wersja. Microsoft w W7 wprowadził nowy model sterowników dla kart graficznych (więc stąd większośc nowych rzeczy nie działa na xp) który jest w W8 taki sam (jeżeli są różnice to bardzo nieznaczne). A kwestnia nie wprowadzania nowych wersji DX do starszych systemów podyktowana jest chęcią sprzedazy najnowszych systemów.
PS. Sam sterownik zajmuje bardzo mało a to, że paczki sterowników ważą po kilkaset MB ... no cóż, dużo tam jest śmieci.
Sterowniki pomiędzy Windows 7 a Windows 8 są odmienne. Nie możesz zabrać przykładowo paczki ze sterownikami z roku 2012 i zainstalować jej w Windows 8.1 bo w środku nie ma odpowiedniego sterownika. Firmy takie jak AMD pakują wszystkie sterowniki razem w jeden ZIP ale on przed instalacją właściwego sterownika się rozpakowuje na dysk. A w środku masz pliki konfiguracyjne INF które definiują co pod którym systemem ma zostać zainstalowane
Dlatego nowa paczka z 2013r zadziała zainstaluje ci odpowiednie pliku pod starszymi systemami ale już w odwrotną stronę to nie zadziała. Paczka sterowników z 2010r nie zainstaluje ci się pod systemem z 2012
Po wlaczeniu AA dojdziesz do 99% uzycia karty i bedzie stosunkowo malo klatek. potrzeba sli/cf aby testowac cpu w takich warunkach.
Dodaliśmy też kilka procesorów do rankingu na czwartej stronie.
Dodaliśmy też kilka procesorów do rankingu na czwartej stronie.
A można się spodziewać dziś innych kart 7xxx?
To nawet nie moc, tylko zatkane kolejki potoków w cpu jakimiś ciągle powtarzalnym zbieraniem danych, ale nie pierwszy raz micro udowadnia, że łindołzy są chyba celowo chrzanione, żeby po paru wersjach doszły do ładu.
Z wykresów widocznych na czwartej stronie wnioskuję, że nawet i7 zyskuje dzięki działaniu Mantle. 15 fps to nie jest przecież 'błąd pomiarowy' ;p
No i zważając na jakość wykonania BF4 można spodziewać się, że w innych grach rezultaty będą jeszcze lepsze.
Co z tego, skoro tańsza 780 GHz na i7 wyświetla 15 FPS więcej (po OC procesora)?
To z tego, ze przy mniejszym narzucie na cpu mozesz zaimplementowac lepszy i bardziej realistyczny model swiata z systemem dobrze odzwzorowanej destrukcji i interakcji. Dzisiaj ta moc i7 idzie w radiator i jest wydmuchiwana w postaci ciepla.
Przecież widać jak na dłoni, że taki zestaw NIE BĘDZIE działał dobrze, bo Mantle na GPU praktycznie nic nie daje, a na CPU bardzo dużo. Wniosek jest zatem bardzo prosty.
Dodaliśmy też kilka procesorów do rankingu na czwartej stronie.
A można się spodziewać dziś innych kart 7xxx?
To nie ma żadnego sensu. Z punktu widzenia kart graficznych wydajność praktycznie się nie różni. Do tego występują problemy na słabszych GPU (jest wolniej). Trzeba poczekać na nowe sterowniki (może aktualizację gry) i dopiero wtedy to sprawdzić. Relacje między kartami zostają zachowane - przynajmniej w kontekście trybu single. Dla trybu Multi wszystko masz na stronie numer 3 i 4.
Co dokładnie potrzebujesz? W jakich trybach itd. Bo na prawdę nie dostrzegam tutaj braków w przekazywanych informacjach.
To z tego, ze przy mniejszym narzucie na cpu mozesz zaimplementowac lepszy i bardziej realistyczny model swiata z systemem dobrze odzwzorowanej destrukcji i interakcji. Dzisiaj ta moc i7 idzie w radiator i jest wydmuchiwana w postaci ciepla.
To co piszesz miałoby sens, gdyby w branży wypracowano jakiś konsensus. Zamiast iść w OpenGL, albo naciskać na M$, AMD próbuje wyrównać różnice w wydajności pomiędzy swoimi podzespołami, a sprzętem konkurencji. Myślisz, że AMD ma dostatecznie dużo siły, by przeforsować nowe API?
A gdzie zaobserwowałeś te 10%?
Co dokładnie potrzebujesz? W jakich trybach itd. Bo na prawdę nie dostrzegam tutaj braków w przekazywanych informacjach.
można przedstawić 2-3 standardowe konfiguracje czyt te najpopularniejsze choć by z steama
jakiś hd7850 + fx i3 i5 średniej klasy
A gdzie zaobserwowałeś te 10%?
no może nie u was ale u konkurencji ;P żele sprecyzowałam sry
Dokładnie na to wygląda, pamiętać też trzeba, że sterownik NV tak się powinien zachowywać gdy obciążenie CPU wzrasta w większości grach, a mantle narazie tylko BF4
Mam nadzieję, że pojawią się testy w seriach Total War z mantle o ile CA przeportuje na mantle. Bo tak naprawdę to właśnie ta gra dziś zajedzie każdy procesor na rynku.
Moczę się po nocach by Autodesk przeportował Viewporty, to było AMD solidnego kopa w przemyśle pro.
Ma to znaczenie?.... wait
Ma haha,
a tak na poważnie jako test API nie ma, a vs NV niby ma, bo karty AMD mają throttling, a NV Turbo
Dokładnie, rome total war 2 idealnie się nadaję do przepisania na mantle.
Wzrosty wydajności byłyby pewnie ogromne, a teraz nawet na najmocniejszych configach gra ssie.