Z tego co widzę na stronie nVidii 250M i 260M obsługują pamięci GDDR3, a 350M i 360M obsługują pamięci GDDR5.
W takim razie w przypadku tych GPU zmiana oznaczeń jest uzasadniona, gdyż wymiana kontrolera pamięci znacząco wpływa na wydajność.
Co do gorszych GPU z interfejsem pamięci GDDR3 to może i są to kotlety, ale i tak fanboje uważający laptopa za zabawkę nie są zainteresowani takim low-endem. Zastanawiam się czy coś w tych scalakach zmienili, czy tylko je przemianowali dla towarzystwa tym GPU z DDR5, żeby stworzyć wrażenie kompletnej nowej linii produktów.
GTS 200M mają kontroler obsługujący GDDR5. Toshiba X500 jest na to świetnym przykładem.
Jak oznaczenie GF 3xx może sugerować pokrewieństwo z rodziną produktów opartych na chipie G100 (Fermi), których jeszcze nie ma na rynku i nikt nie zna ich oznaczeń?
Moim zdaniem oznaczenie 3xx jest już spalone jako oznaczenie rodziny układów opartych na Fermi, a jak w końcu wejdą one na rynek, to jako GF 4xx.
Zresztą uważam GF 360M za dobry GPU do laptopa, o mocy wystarczającej do większości gier. Być może NVidia powinna go nazwać GF 265M, ale to ich sprawa.
Może dlatego, że GF100/GT300 to nazwy kodowe rdzenia, a rodzina zgodnie z nie tak całkiem dawno przyjętym i opublikowanym oficjalnie nazewnictwem będzie GT/GTS/GTX3xx ? AMD nawet chipset 780 przystosowany do płyt na AM3 + DDR3 nazwała 785, a NV swój 780 zmieniła na 980
Szanowni użytkownicy Portalu PCLab. Zwracam uwagę na fakt że odpowiadając na posty oczywistych trolli, nie tylko dostarczacie im rozrywki ale również zniżacie się do ich poziomu. Nie ma większego znaczenia czy to jest prowokacja czy prawdziwe zaślepienie. Przyznam szczerze, że dla mnie o wiele bardziej uciążliwe są same odpowiedzi skierowane do trolli niż ich wypociny. Do nowych użytkowników forum: poczytajcie trochę artykułów związanych z firmą Nvidia i komentarzy pod nimi. Po trzecim artykule nie będziecie mieli wątpliwości, jakich osobników miałem na myśli. Szczęśliwego nowego roku życzę redakcji PCLab-u oraz wszystkim użytkownikom forum.
nvidia rozszerzyła swoją ofertę procesorów mobilnych o 7 modeli dopasowanych do różnych segmentów rynku i na pewno każdy znajdzie coś dla siebie...nowe nazewnictwo bardzo wiele uporządkowało...to świetna oferta....ciesze się że nvidia pod koniec roku zrobiła mocne uderzenia na rynek gpu mobilnych.....polecam...cyrix133
Lol ludzie czemu ten marny fanboj nie dostanie bana przecież jego teksty są tak wkurzające ,że jak bym go spotkał w realu to bym mu chyba zaje... no wiecie
Fakty pozostaną faktami.
Jak ktoś nie ma funduszu na dobrą kartę grafiki, kupuje pseudo grafikę marki srATI.
Znikoma oszczędność,
zwiększona głupota.
Kolejny geniusz założę się ,że grasz na swoim GT310 aka Fermi od Nshiti w najnowsze tytuły
Parodii w wykonaniu firmy Nvidia ciąg dalszy. Tak wygląda polityka firmy, w której władzę całkowicie objęli marketingowcy. Stan faktyczny nie ma znaczenia, grunt to dobry bajer. To zaczyna przypominać zbiorową schizofrenię. Ludziom którzy zawzięcie bronią takiej polityki firmy Nvidia zalecam jogę, albo wędkarstwo...
moze chocby dlatego ze FERMI to mial byc trzon wlasnie GF3xx? ,a tu jak narazie dostajemy w seri GF3xx takie ...POTWORKI, wlasnie dlatego zeby ludzie mysleli ze one maja cos z Fermi aka Gf300 (g100)cos wspolnego
Jak oznaczenie GF 3xx może sugerować pokrewieństwo z rodziną produktów opartych na chipie G100 (Fermi), których jeszcze nie ma na rynku i nikt nie zna ich oznaczeń?
Moim zdaniem oznaczenie 3xx jest już spalone jako oznaczenie rodziny układów opartych na Fermi, a jak w końcu wejdą one na rynek, to jako GF 4xx.
Zresztą uważam GF 360M za dobry GPU do laptopa, o mocy wystarczającej do większości gier. Być może NVidia powinna go nazwać GF 265M, ale to ich sprawa.
Andree - hd4870 obsluguje gddr5 a hd4850 gddr3. Nowe układy nv dzięki takim a nie innym oznaczeniom będą dla nieświadomego użytkownika (a takich niestety najwięcej) przynależne do rodziny GF 300 - i wskazywały na pokrewieństwo z Fermi, którego jeszcze nie ma na rynku. Kontroler GDDR5 to nie jest taka wielka różnica w stosunku do GDDR3 żeby zaraz zmieniać drastycznie oznaczenia - karta z kontrolerem GDDR5 obsługuje GDDR3 i DDR2. Bo ilość sygnałów taka sama, tylko troszkę inaczej wyglądają sygnały taktujące no i same poziomy sygnałów.
Z tego co widzę na stronie nVidii 250M i 260M obsługują pamięci GDDR3, a 350M i 360M obsługują pamięci GDDR5.
W takim razie w przypadku tych GPU zmiana oznaczeń jest uzasadniona, gdyż wymiana kontrolera pamięci znacząco wpływa na wydajność.
Co do gorszych GPU z interfejsem pamięci GDDR3 to może i są to kotlety, ale i tak fanboje uważający laptopa za zabawkę nie są zainteresowani takim low-endem. Zastanawiam się czy coś w tych scalakach zmienili, czy tylko je przemianowali dla towarzystwa tym GPU z DDR5, żeby stworzyć wrażenie kompletnej nowej linii produktów.
No nie do końca. W kwestii tych kart graficznych oni tylko zaprojektowali chip. A kwestia jego wykonania jest zlecona podmiotowi trzeciemu jakim jest TSMC.
W porządku, analogie nie są od tego, żeby oddawać podobieństwo w każdym szczególe
Temat dominacji Intela w czasach Athlona 64 był wałkowany - AMD nie miało na tyle siły produkcyjnej, by wyrabiać za popytem i max udział rynkowy wynosił ok 25%.
Nawet jeśli to prawdziwe wyjaśnienie, to i tak analogia z Intelem pasuje do aktualnej sytuacji na rynku kart graficznych.
AMD/ATI nie wyrabia się z podażą kart HD5*** (stąd różne cwaniaczkowate ceny).
No nie do końca. W kwestii tych kart graficznych oni tylko zaprojektowali chip. A kwestia jego wykonania jest zlecona podmiotowi trzeciemu jakim jest TSMC.
Temat dominacji Intela w czasach Athlona 64 był wałkowany - AMD nie miało na tyle siły produkcyjnej, by wyrabiać za popytem i max udział rynkowy wynosił ok 25%.
Nawet jeśli to prawdziwe wyjaśnienie, to i tak analogia z Intelem pasuje do aktualnej sytuacji na rynku kart graficznych.
AMD/ATI nie wyrabia się z podażą kart HD5*** (stąd różne cwaniaczkowate ceny).
Temat dominacji Intela w czasach Athlona 64 był wałkowany - AMD nie miało na tyle siły produkcyjnej, by wyrabiać za popytem i max udział rynkowy wynosił ok 25%.
Te 1,25mld $ wyplacone przez Intela ostatnio to tez taki prezent pod choinke ?
Praktyki Intela nie miały znaczenia. AMD po prostu nigdy nie było w stanie wyrobić, nawet, gdy produkt był lepszy.
Temat dominacji Intela w czasach Athlona 64 był wałkowany - AMD nie miało na tyle siły produkcyjnej, by wyrabiać za popytem i max udział rynkowy wynosił ok 25%.
Te 1,25mld $ wyplacone przez Intela ostatnio to tez taki prezent pod choinke ?
Temat dominacji Intela w czasach Athlona 64 był wałkowany - AMD nie miało na tyle siły produkcyjnej, by wyrabiać za popytem i max udział rynkowy wynosił ok 25%.
rynek bardzo dobrze weryfikuje ten twoj 'lomot' - 30 vs 60% udzialu.
Intelowi też znacząco nie spadł udział w rynku kiedy przez 8 lat wciskał ludziom grzałki do herbaty po zawyżonych cenach (P4), ot siła marketingu i przyzwyczajenia do marki.
Amen, poprostu Intel podobnie jak teraz Samsung w Orange. Dobrze smaruje i pozniej praktycznie 80% produktow, to ich produkty. Na mojej uczelni WSZYSTKIE komputery to Pentium IV, a wlasnie w takich miejscach jak by powstawiac Athlony 64, ktore nie dosc, ze byly tansze, to jeszcze ZNACZNIE mniej pradu braly, to moznaby ladne siano miesiecznie zaoszczedzic przy takiej ilosci kompow. Ale kogo to obchodzi...
Już któryś raz w komentarzach czytam o niedoścignionej od 4 serii kart architekturze NV, tylko jakoś nie ma to potwierdzenia ani w cenach ani w wydajności,
rynek bardzo dobrze weryfikuje ten twoj 'lomot' - 30 vs 60% udzialu.
Intelowi też znacząco nie spadł udział w rynku kiedy przez 8 lat wciskał ludziom grzałki do herbaty po zawyżonych cenach (P4), ot siła marketingu i przyzwyczajenia do marki.
W takim razie w przypadku tych GPU zmiana oznaczeń jest uzasadniona, gdyż wymiana kontrolera pamięci znacząco wpływa na wydajność.
Co do gorszych GPU z interfejsem pamięci GDDR3 to może i są to kotlety, ale i tak fanboje uważający laptopa za zabawkę nie są zainteresowani takim low-endem. Zastanawiam się czy coś w tych scalakach zmienili, czy tylko je przemianowali dla towarzystwa tym GPU z DDR5, żeby stworzyć wrażenie kompletnej nowej linii produktów.
Moim zdaniem oznaczenie 3xx jest już spalone jako oznaczenie rodziny układów opartych na Fermi, a jak w końcu wejdą one na rynek, to jako GF 4xx.
Zresztą uważam GF 360M za dobry GPU do laptopa, o mocy wystarczającej do większości gier. Być może NVidia powinna go nazwać GF 265M, ale to ich sprawa.
Może dlatego, że GF100/GT300 to nazwy kodowe rdzenia, a rodzina zgodnie z nie tak całkiem dawno przyjętym i opublikowanym oficjalnie nazewnictwem będzie GT/GTS/GTX3xx ? AMD nawet chipset 780 przystosowany do płyt na AM3 + DDR3 nazwała 785, a NV swój 780 zmieniła na 980
Lol ludzie czemu ten marny fanboj nie dostanie bana przecież jego teksty są tak wkurzające ,że jak bym go spotkał w realu to bym mu chyba zaje... no wiecie
Fakty pozostaną faktami.
Jak ktoś nie ma funduszu na dobrą kartę grafiki, kupuje pseudo grafikę marki srATI.
Znikoma oszczędność,
zwiększona głupota.
Kolejny geniusz założę się ,że grasz na swoim GT310 aka Fermi od Nshiti w najnowsze tytuły
Moim zdaniem oznaczenie 3xx jest już spalone jako oznaczenie rodziny układów opartych na Fermi, a jak w końcu wejdą one na rynek, to jako GF 4xx.
Zresztą uważam GF 360M za dobry GPU do laptopa, o mocy wystarczającej do większości gier. Być może NVidia powinna go nazwać GF 265M, ale to ich sprawa.
W takim razie w przypadku tych GPU zmiana oznaczeń jest uzasadniona, gdyż wymiana kontrolera pamięci znacząco wpływa na wydajność.
Co do gorszych GPU z interfejsem pamięci GDDR3 to może i są to kotlety, ale i tak fanboje uważający laptopa za zabawkę nie są zainteresowani takim low-endem. Zastanawiam się czy coś w tych scalakach zmienili, czy tylko je przemianowali dla towarzystwa tym GPU z DDR5, żeby stworzyć wrażenie kompletnej nowej linii produktów.
No nie do końca. W kwestii tych kart graficznych oni tylko zaprojektowali chip. A kwestia jego wykonania jest zlecona podmiotowi trzeciemu jakim jest TSMC.
W porządku, analogie nie są od tego, żeby oddawać podobieństwo w każdym szczególe
Nawet jeśli to prawdziwe wyjaśnienie, to i tak analogia z Intelem pasuje do aktualnej sytuacji na rynku kart graficznych.
AMD/ATI nie wyrabia się z podażą kart HD5*** (stąd różne cwaniaczkowate ceny).
No nie do końca. W kwestii tych kart graficznych oni tylko zaprojektowali chip. A kwestia jego wykonania jest zlecona podmiotowi trzeciemu jakim jest TSMC.
Nawet jeśli to prawdziwe wyjaśnienie, to i tak analogia z Intelem pasuje do aktualnej sytuacji na rynku kart graficznych.
AMD/ATI nie wyrabia się z podażą kart HD5*** (stąd różne cwaniaczkowate ceny).
Te 1,25mld $ wyplacone przez Intela ostatnio to tez taki prezent pod choinke ?
Praktyki Intela nie miały znaczenia. AMD po prostu nigdy nie było w stanie wyrobić, nawet, gdy produkt był lepszy.
Ogłaszam Powszechną Mobilizację w Celu Obrony Zakonu Zielonego Serca
a tak liczyłem ,że radeona 5850 będę mógł kupić za 700 zł
Te 1,25mld $ wyplacone przez Intela ostatnio to tez taki prezent pod choinke ?
rynek bardzo dobrze weryfikuje ten twoj 'lomot' - 30 vs 60% udzialu.
Intelowi też znacząco nie spadł udział w rynku kiedy przez 8 lat wciskał ludziom grzałki do herbaty po zawyżonych cenach (P4), ot siła marketingu i przyzwyczajenia do marki.
Amen, poprostu Intel podobnie jak teraz Samsung w Orange. Dobrze smaruje i pozniej praktycznie 80% produktow, to ich produkty. Na mojej uczelni WSZYSTKIE komputery to Pentium IV, a wlasnie w takich miejscach jak by powstawiac Athlony 64, ktore nie dosc, ze byly tansze, to jeszcze ZNACZNIE mniej pradu braly, to moznaby ladne siano miesiecznie zaoszczedzic przy takiej ilosci kompow. Ale kogo to obchodzi...
Już któryś raz w komentarzach czytam o niedoścignionej od 4 serii kart architekturze NV, tylko jakoś nie ma to potwierdzenia ani w cenach ani w wydajności,
rynek bardzo dobrze weryfikuje ten twoj 'lomot' - 30 vs 60% udzialu.
Intelowi też znacząco nie spadł udział w rynku kiedy przez 8 lat wciskał ludziom grzałki do herbaty po zawyżonych cenach (P4), ot siła marketingu i przyzwyczajenia do marki.