komentarze
dziwki koks firefoxZobacz profil
Poziom ostrzeżenia: 0%
dziwki koks firefox2013.08.22, 23:46
-3#21
Prawda jest tak że gdyby nie AMD to wszyscy płacilibyśmy za karty graficzne i procesory po 4.000 PLN. Tak więc wszystkie takie artykuły w których AMD wypada słabo nie są korzystne dla konsumenta.

Myślę, że się Państwo ze mną zgodzą. Bardzo proszę zmienić wyniki.
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2013.08.23, 01:59
-10#22
Na Catalyst 14.6 beta 13 wydajność na pewno wzrośnie.
Ha11ucinogenZobacz profil
Poziom ostrzeżenia: 0%
Ha11ucinogen2013.08.23, 02:32
dziwki koks firefox @ 2013.08.22 23:46  Post: 680805
Prawda jest tak że gdyby nie AMD to wszyscy płacilibyśmy za karty graficzne i procesory po 4.000 PLN. Tak więc wszystkie takie artykuły w których AMD wypada słabo nie są korzystne dla konsumenta.

Myślę, że się Państwo ze mną zgodzą. Bardzo proszę zmienić wyniki.


Uwierz mi chłopcze że tak by nie było
1.Firmy wiedzą że nawet jak mają monopol to nie mogą sobie dać cen takich jakie chcą.Chcą mieć maksimum zysków i tak optymalizują swoje ceny(kto był na szkoleniach w wielkich korporacjach wie o co chodzi)
2.Jakby nie było AMD to ustawa antymonopolowa by zniszczyło Nv(patrz dlaczemo MS wsparł finansowo swojego wielkiego 'KONKURENTA' Apple)


Focus fajnie że będzie test w Dx 10.Choć praktycznie spodziewam się tego jakie będą wyniki bo wy trzymacie się sztywnych procedur a niektórzy muszą kombinować np.
1080p na low czy 720p na high :D
Osobiście powiem że na HD4350 zdecydowanie wolę 1 opcję !!!

Co do samej gry to się nie wypowiem bo w żadną część nie grałem.Mogę tylko odnieść się do wyników uzyskanych tutaj.Można stwierdzić że radeony dostają tutaj baty.To fakt jednak dla mnie karta która zapewnia powyżej 30 fps wystarczy.
bogo126Zobacz profil
Poziom ostrzeżenia: 0%
bogo1262013.08.23, 08:38
-4#24
Typowa nVidia (właśnie dlatego nie przepadam za tą firmą): a to rdzenie CUDA, a to gownox, a to takie żałosne optymalizowanie: jestem pewien, że gdyby gra była 'wspomagana przez AMD', nie chodziłaby tak wolna na kartach nVidii (tzn. hd7850 nie rozpierdalałby gtx770).
*Konto usunięte*2013.08.23, 08:39
-1#25
Ha11ucinogen @ 2013.08.23 02:32  Post: 680836
dziwki koks firefox @ 2013.08.22 23:46  Post: 680805
Prawda jest tak że gdyby nie AMD to wszyscy płacilibyśmy za karty graficzne i procesory po 4.000 PLN. Tak więc wszystkie takie artykuły w których AMD wypada słabo nie są korzystne dla konsumenta.

Myślę, że się Państwo ze mną zgodzą. Bardzo proszę zmienić wyniki.


Uwierz mi chłopcze że tak by nie było
1.Firmy wiedzą że nawet jak mają monopol to nie mogą sobie dać cen takich jakie chcą.Chcą mieć maksimum zysków i tak optymalizują swoje ceny(kto był na szkoleniach w wielkich korporacjach wie o co chodzi)
2.Jakby nie było AMD to ustawa antymonopolowa by zniszczyło Nv(patrz dlaczemo MS wsparł finansowo swojego wielkiego 'KONKURENTA' Apple)


Focus fajnie że będzie test w Dx 10.Choć praktycznie spodziewam się tego jakie będą wyniki bo wy trzymacie się sztywnych procedur a niektórzy muszą kombinować np.
1080p na low czy 720p na high :D
Osobiście powiem że na HD4350 zdecydowanie wolę 1 opcję !!!

Co do samej gry to się nie wypowiem bo w żadną część nie grałem.Mogę tylko odnieść się do wyników uzyskanych tutaj.Można stwierdzić że radeony dostają tutaj baty.To fakt jednak dla mnie karta która zapewnia powyżej 30 fps wystarczy.

Jak czekam na testy CPU w tej grze bo z tego co widze FX lepiej sobie radzi w tej grze niz w AC3 (odczuwalnie wyzsza wydajnosc).
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2013.08.23, 08:42
@mlodybe - wszystkie procesory działają w tej grze lepiej niż AC3. Po prostu mniejsze wymagania.
*Konto usunięte*2013.08.23, 08:49
focus @ 2013.08.23 08:42  Post: 680847
@mlodybe - wszystkie procesory działają w tej grze lepiej niż AC3. Po prostu mniejsze wymagania.

Thx za info.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32013.08.23, 09:13
-11#28
Wenez @ 2013.08.22 21:29  Post: 680745
Moglibyście trzasnąć jakiś test DX10 ze wszystkimi grafikami:) bo ciekawy jestem czy 7770 pokona gtx260 :) i czy 7750 pokona 4870.

HD4870 chyba nie obsługuje DX10, wiec taki test może ci sie zwyczajnie nie udać. Ale ta gra będzie chodzić w średnich detalach na staruszkach bez problemu, jak FAR CRY 3 chodził.
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2013.08.23, 09:13
CortexM3 @ 2013.08.23 09:13  Post: 680853
Wenez @ 2013.08.22 21:29  Post: 680745
Moglibyście trzasnąć jakiś test DX10 ze wszystkimi grafikami:) bo ciekawy jestem czy 7770 pokona gtx260 :) i czy 7750 pokona 4870.

HD4870 chyba nie obsługuje DX10, wiec taki test może ci sie zwyczajnie nie udać. Ale ta gra będzie chodzić w średnich detalach na staruszkach bez problemu, jak FAR CRY 3 chodził.

Ciekawe... HD 4800 to już trzecia seria kart DX10 w wykonaniu ATI/AMD. HD 5800 były pierwszymi DX11.
*Konto usunięte*2013.08.23, 10:01
Zrobie maly offtop ale zauwazylem ze ten test ma bardzo niskie zainteresowanie czytelnikow.

Co do gry - na poczatku gry scenariusz wydaje sie calkiem ciekawy i wciagajacy. Mam tylko nadzieje ze nie skonczy sie tak jak w przypadku spec ops, hitman i ghost recon -od polowy te gry staly sie nudne i strasznie powtarzalne choc patrzac na poprzednie serie SC narazie jestem spokojny.
Stefan999Zobacz profil
Poziom ostrzeżenia: 0%
Stefan9992013.08.23, 10:05
Będzie recenzja HD7730 z uwzględnieniem OC? Skoro ją wprowadziliście do procedury, może warto byłoby przetestować.
abbottZobacz profil
Poziom ostrzeżenia: 0%
abbott2013.08.23, 10:24
to ma lepsza grafe niz doom3 ?
Lukas_16Zobacz profil
Poziom ostrzeżenia: 0%
Lukas_162013.08.23, 11:06
Test proców macie na gamegpu.ru, FX8350 jest na poziomie i3 2100

P.S. W teście 'ustawienia, a wydajność' mogliście dać jakąś słabszą kartę np. gtx 650 albo hd 7750
pybekZobacz profil
Poziom ostrzeżenia: 0%
pybek2013.08.23, 11:10
-5#34
Lukas_16 @ 2013.08.23 11:06  Post: 680897
Test proców macie na gamegpu.ru, FX8350 jest na poziomie i3 2100

P.S. W teście 'ustawienia, a wydajność' mogliście dać jakąś słabszą kartę np. gtx 650 albo hd 7750

No to już wiemy dlaczego pclab nie przetestował procesorów... AMD kiepsko wypada :>

Stefan999Zobacz profil
Poziom ostrzeżenia: 0%
Stefan9992013.08.23, 11:13
FX 4100 szybszy o połowę od P955, bajki jakieś.
ŁukaszGliwiceZobacz profil
Poziom ostrzeżenia: 0%
ŁukaszGliwice2013.08.23, 11:30
rafalddd @ 2013.08.22 23:18  Post: 680794
Czytam ten artykuł na m.pclab.pl za pomocą Galaxy S4 i niestety wykresy wydajności są ucięte tak że nie widać ile klatek mają topowe Geforce. Obrazu nie da się przesunąć a ustawienie ekranu w poziomie nic nie zmienia...
Mogę podesłać screenshota.



Również to zauważyłem (Galaxy S3), nie widzę pełnego wykresu.
Fajnie, że możemy przeglądać naszego PcLab`a na komórkach w wersji mobilnej.
Jak już będzie osobna ' apka ' na androidzie to będę przeszczęśliwy ;)

Pozdrawiam
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2013.08.23, 11:31
Możliwe, że gra mocno siedzi na instrukcjach SSSE3 albo SSE4. W każdym razie nawet na PII X4 da się pograć, więc większego problemu nie widzę.
losiuZobacz profil
Poziom ostrzeżenia: 0%
losiu2013.08.23, 11:32
Stefan999 @ 2013.08.23 11:13  Post: 680902
FX 4100 szybszy o połowę od P955, bajki jakieś.


To samo pomyślałem, wyniki z czołówki sugerują, że ilość rdzeni ma małe znaczenie (i3-2100vs i7-930/fx8350) a bardziej liczy się wydajność pojedynczego wątku, ale wtedy 955 nie powinien być wolniejszy niz FX4100.

Edit, no chyba, ze jest coś takiego na rzeczy tak jak Assassin napisał.
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2013.08.23, 11:33
losiu @ 2013.08.23 11:32  Post: 680916
Stefan999 @ 2013.08.23 11:13  Post: 680902
FX 4100 szybszy o połowę od P955, bajki jakieś.


To samo pomyślałem, wyniki z czołówki sugerują, że ilość rdzeni ma małe znaczenie (i3-2100vs i7-930/fx8350) a bardziej liczy się wydajność pojedynczego wątku, ale wtedy 955 nie powinien być wolniejszy niz FX4100.

Edit, no chyba, ze jest coś takiego na rzeczy tak jak Assassin napisał.

No i bardzo kiepski wynik Phenoma II X2 też jest w tym kontekście zastanawiający.
zakiruZobacz profil
Poziom ostrzeżenia: 0%
zakiru2013.08.23, 11:38
rafalddd @ 2013.08.22 23:18  Post: 680794
Czytam ten artykuł na m.pclab.pl za pomocą Galaxy S4 i niestety wykresy wydajności są ucięte tak że nie widać ile klatek mają topowe Geforce. Obrazu nie da się przesunąć a ustawienie ekranu w poziomie nic nie zmienia...
Mogę podesłać screenshota.


mam to samo na s 3 mini
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.