komentarze
*Konto usunięte*2017.03.01, 06:32
-21#1
zaorane :)
B0BS0NZobacz profil
Poziom ostrzeżenia: 0%
B0BS0N2017.03.01, 06:37
31#2
1080 w dół o 100$, ale ciekawe czy 1070 też potanieje. GTX 1080 była stosunkowo droga i była duża luka pomiędzy nią, a 1070, więc możliwe, że ta obniżka ceny nie dotknie średniego segmentu. Zobaczymy co Janusze na to.
Ard'aenyeZobacz profil
Poziom ostrzeżenia: 0%
Ard'aenye2017.03.01, 06:55
26#3
Takiej specyfikacji nikt się chyba nie spodziewał, odjechane liczby - 11 GB VRAM 352-bit, 88 ROP. Oby cena była bardziej 'standardowa'.
*Konto usunięte*2017.03.01, 07:03
-20#4
gdzieś w necie na szybo 1070 349 $ . nowa TI 699 czyli tyle samo co 1080 na start = 3600. muszą zjechać z cenami poszczególnych modeli bo nie będzie opłacać się kupować 1070 przy różnicy cenowej 50 $
marc99Zobacz profil
Poziom ostrzeżenia: 0%
marc992017.03.01, 07:09
20#5
Podsystem pamięci pachnie mi 970 bez doklejki. ;)
B0BS0NZobacz profil
Poziom ostrzeżenia: 0%
B0BS0N2017.03.01, 07:12
-13#6
1080 na start kosztowała 599$, a nie 699.
Edit:
ok, FE 699$, a MSRP wynosiło 599$.
*Konto usunięte*2017.03.01, 07:13
-20#7
Niekoniecznie. arch trochę się zmieniła. Testy pokażą . wtedy nie było cięcia pamięci tylko re konfiguracja. teraz jednak 1 giga i 64 bitp przycieli
tolek_bananZobacz profil
Poziom ostrzeżenia: 0%
tolek_banan2017.03.01, 07:21
B0BS0N @ 2017.03.01 06:37  Post: 1043309
1080 w dół o 100$, ale ciekawe czy 1070 też potanieje. 1080 był stosunkowo drogi i była duża luka pomiędzy nią, a 1070, więc możliwe, że ta obniżka ceny nie dotknie średniego segmentu. Zobaczymy co Janusze na to.


Według chotomskich informacji 1070 ma być konkurentem cenowym polarisów, guru nie sprecyzował czy to ma być polaris 460/470/480 czy może nadchodzących odświeżonych wersji 500.

Niemniej jednak trzeba przyznać, że info o wersji Ti bardzo ciekawe, szczególnie wycenienie nowej karty, jeśli się to wszystko sprawdzi to bez wątpienia będzie to hit w górnym segmencie wydajności. Szkoda, że w dobrej cenie nie ma monitorów z Gsync, byłem zmuszony do kupna monitora z Freesync i tym samym zmuszony do pozycji amd, także czekamy cierpliwie na Vegę i na coś rozsądnego w podobnych pieniądzach.
*Konto usunięte*2017.03.01, 07:23
-33#9
Obecnie 480 to będzie konkurent cenowy 1070 . O 500 nic nie wiadomo. zapewne kotlety Czas pokaże na chwilę obecną AMD w czarnej ..
cgdestroyerZobacz profil
Poziom ostrzeżenia: 0%
cgdestroyer2017.03.01, 07:27
jeśli cena będzie oscylowała w okolicy 3k to będzie świetna karta do renderingu GPU, już można zacząć odkładać mamonę :)
*Konto usunięte*2017.03.01, 07:29
-17#11
Zamiast G czy free ja stosuje Fastsync. jedyna różnica grafika generuje maksa a wyświetlane są jedynie klatki zgodne z odświeżaniem. roznica do Von kolosalna
*Konto usunięte*2017.03.01, 07:30
-16#12
B0BS0N @ 2017.03.01 07:12  Post: 1043315
1080 na start kosztowała 599$, a nie 699.

FE 699
tolek_bananZobacz profil
Poziom ostrzeżenia: 0%
tolek_banan2017.03.01, 07:44
chotom19 @ 2017.03.01 07:29  Post: 1043321
Zamiast G czy free ja stosuje Fastsync. jedyna różnica grafika generuje maksa a wyświetlane są jedynie klatki zgodne z odświeżaniem. roznica do Von kolosalna


Poczytałem chwilę bo mnie zaciekawiłeś, zgodnie jednak z tym co napisali panowie w tym wątku:
http://forum.pclab.pl/topic/1117018-Nvidia...-gsyncfreesync/
'Ograniczeniem Fast Sync, jest wysoka ilość klatek na sekundę (najlepiej znacznie przewyższająca częstotliwość odświeżania ekranu)' - cecha której niekoniecznie szukam w synchronizacji, dla mnie gsync czy freesync to jest właśnie rozwiązaniem zapobiegającym screen terringu przy spadkach klatek do poziomu powiedzmy 50-60, a z tego co napisali to ten fastsync raczej lubi dużo wyższe klatki niż generuje odświeżanie naszego monitora.

Wiadomo, że w przypadku Ti moc będzie, jednak zawsze znajdzie się dno optymalizacyjne, które i tę kartę zamuli w niedaliekiej przyszłości, dlatego jednak gsync czy freesync jest dla mnie opcją bezpieczniejszą.
SambaVerdeZobacz profil
Poziom ostrzeżenia: 0%
SambaVerde2017.03.01, 07:52
-15#14
marc99 @ 2017.03.01 07:09  Post: 1043314
Podsystem pamięci pachnie mi 970 bez doklejki. ;)

Cała seria Pascal pachnie Maxwellem ;)
Sądzisz, że to będzie 9GB szybkiego RAM + 2GB nieco mniej szybkiego RAM? :D
golyZobacz profil
Poziom ostrzeżenia: 0%
goly2017.03.01, 07:59
-5#15
boją się czerwonego jak ognia
tolek_bananZobacz profil
Poziom ostrzeżenia: 0%
tolek_banan2017.03.01, 07:59
14#16
Ciekawe czy Nvidia zna potencjał Vegi, myślę osobiście, że tak skoro chcą zabić cenowo swojego Titana tą kartą. Nie wierzę, że za darmochę rozdawaliby taką wydajność w tej cenie, zatem pozostaje czekać na oficjalne premiery i walkę cenową, no rok zapowiada się nieźle jeśli chodzi o oba obozy, w segmencie kart graficznych jak i procesorów, ostatnio było trochę nudnawo, no, ale AMD pomału się budzi z zimowego snu, a konkurencja przecież nie śpi ;)
SasiltonZobacz profil
Poziom ostrzeżenia: 0%
Sasilton2017.03.01, 08:02
23#17
Te 5 stopni mniej, to chyba przez to że nie ma slotu DVI który zawsze zasłaniał sporą cześć tylnej kratki.
ŻywyZobacz profil
Poziom ostrzeżenia: 0%
Żywy2017.03.01, 08:06
tolek_banan @ 2017.03.01 07:44  Post: 1043333
chotom19 @ 2017.03.01 07:29  Post: 1043321
Zamiast G czy free ja stosuje Fastsync. jedyna różnica grafika generuje maksa a wyświetlane są jedynie klatki zgodne z odświeżaniem. roznica do Von kolosalna


Poczytałem chwilę bo mnie zaciekawiłeś, zgodnie jednak z tym co napisali panowie w tym wątku:
http://forum.pclab.pl/topic/1117018-Nvidia...-gsyncfreesync/
'Ograniczeniem Fast Sync, jest wysoka ilość klatek na sekundę (najlepiej znacznie przewyższająca częstotliwość odświeżania ekranu)' - cecha której niekoniecznie szukam w synchronizacji, dla mnie gsync czy freesync to jest właśnie rozwiązaniem zapobiegającym screen terringu przy spadkach klatek do poziomu powiedzmy 50-60, a z tego co napisali to ten fastsync raczej lubi dużo wyższe klatki niż generuje odświeżanie naszego monitora.

Wiadomo, że w przypadku Ti moc będzie, jednak zawsze znajdzie się dno optymalizacyjne, które i tę kartę zamuli w niedaliekiej przyszłości, dlatego jednak gsync czy freesync jest dla mnie opcją bezpieczniejszą.


Fastsync dziala ogolnie tak, ze dla monitora przykladowo 60Hz klatki sa zablokowane do 60/120/180/240 itd., zalezy ktorej wartosci sa blizej FPSy wygenerowane przez GPU, i o ile przy 180 czy 240 FPS zdaje to egzamin, tak przy 120 a juz nie daj boze 60 stuttering jest przeokropny, wrecz niegrywalny. Takze poki co G-Sync+ograniczenie FPS (do np. 143FPS) to jedyne realne rozwiazanie na plynna rozgrywke.
*Konto usunięte*2017.03.01, 08:09
-18#19
tolek_banan @ 2017.03.01 07:44  Post: 1043333
chotom19 @ 2017.03.01 07:29  Post: 1043321
Zamiast G czy free ja stosuje Fastsync. jedyna różnica grafika generuje maksa a wyświetlane są jedynie klatki zgodne z odświeżaniem. roznica do Von kolosalna


Poczytałem chwilę bo mnie zaciekawiłeś, zgodnie jednak z tym co napisali panowie w tym wątku:
http://forum.pclab.pl/topic/1117018-Nvidia...-gsyncfreesync/
'Ograniczeniem Fast Sync, jest wysoka ilość klatek na sekundę (najlepiej znacznie przewyższająca częstotliwość odświeżania ekranu)' - cecha której niekoniecznie szukam w synchronizacji, dla mnie gsync czy freesync to jest właśnie rozwiązaniem zapobiegającym screen terringu przy spadkach klatek do poziomu powiedzmy 50-60, a z tego co napisali to ten fastsync raczej lubi dużo wyższe klatki niż generuje odświeżanie naszego monitora.

Wiadomo, że w przypadku Ti moc będzie, jednak zawsze znajdzie się dno optymalizacyjne, które i tę kartę zamuli w niedaliekiej przyszłości, dlatego jednak gsync czy freesync jest dla mnie opcją bezpieczniejszą.

Tak właśnie działa Fast. Karta generuje maksymalna liczbę klatek a wyświetla tylko 60. Ale za to znika lag i r wanien obrazu. Roznica w grach ogromna.
AlexHelZobacz profil
Poziom ostrzeżenia: 0%
AlexHel2017.03.01, 08:20
15#20
Ta karta dobitnie pokazuje jak bardzo NIE WARTO kupować serii xx80 na premierę... Nie dość że po pół roku tamtą tanieje dosyć sporo to w tej cenie dają kartę o około 25-35% szybszą... Za to natychmiastowa obniżka cen innych modeli pokazuje jak dużą marzę mają i jak dużo ma tym zarabiają... I tu by się przydała konkurencja że strony AMD. Choć sama karta masakrycznie wydajna... ;)
Zaloguj się, by móc komentować