OMG!!! Fani nVidii zmieniają dietę. Kotlety już nie smakują? Ten GeForce to będzie kaszana, gorszy w obliczeniach od GTX480, zużycie prądu gdzieś z 400W, grzałka niesamowita za cenę 4000zł.
Smacznej kaszaneczki.
nie wiem jak ty ale ja lubie , z grilla , czy tez na patelni z cebulką . marudzisz czlowieku.
Z cebulką i ogóreczkiem kiszonym pokrojonym w kosteczkę/cienkie słupki.
Mam wrażenie, że ta karta to będzie to o czym nV tak głośno huczało pod kryptonimem gtx 485. Na razie i 475tki nie widać.
Co do wydajnosci to wypowiadac sie nie bede, bo to wrozenie z fusow. Jednak pewne jest, ze taki uklad bedzie sporo drozszy od 480. Wprowadzenie 512 bitowego interfejsu pamieci musi podrozyc koszty. To dolozenie dodatkowych 256 pinow do obudowy. A to oznacza wieksza podstawke, wieksza obudowe, wiecej polaczen z plytki krzemowej do obudowy. Rowniez oznacza to nowa podstawke, zupelnie nowe PCB (pewnie wiecej warstw) i nowe chlodzenia. Trend w dzisiejszej elektronice to integrowanie jak najwiekszej ilosci funkcji w jednym ukladzie scalonym. Bo oznacza to lacznie mniejsze koszty obudowania krzemu, mniej wyprowadzen i polaczen miedzy scalakami. Polaczenia wewnatrz scalaka sa duz tansze niz polaczenia wyprowadzone na piny obudowy i poprowadzone po PCB. A wiec 512 bitowy interfejs, przy zachowaniu wielkosci rdzenia z 480 ozancza sporo wieksze koszty produkcji i zatem koszt samej karty.
Poza tym, owe zmniejszanie wymiaru też ma swój kres, a co potem?
Kwantyzacja układów ,ew. wprowadzenie 'biologicznych' procesorów do 'gry' [nie pamiętam dokładnej nazwy ,ale prototypy-prototypów są stworzone na bazie zmodyfikowanych komórek mózgu - szczura ,tak czytałem w siakiejś gazecie jakiś czas temu]
Poczekamy, zobaczymy - póki co, proponuję nie kupować piecyków gazowych na zimę ,a poczekać na premierę ww. karty graficznej.
Emmmm.
I znowu to całe bla bla bla.
TDP - gratuluje
W grudniu ? hm widzę ze ceny będą wyższe niż normalnie w takim razie. W końcu okres świąteczny trzeba zawyżyć ze niby w 'promocji'.
Mam nadzieje ze teraz Nvidia mówi coś z głową.
Natomiast mamy pewność co do kotletów w serii 300 NVidii bo one na rynku są już od dawna.
Seria 300 to była seria kotletów (tak jak seria 100), ale to nie była seria dla klientów indywidualnych - to były serie kart wymuszone przez producentów OEM (gotowe Laptopy/Komputery) i karty w tych seriach były wydane tylko dla tych producentów jako karty OEM (nie na sprzedaż detaliczną). Z tą serią jest tak jak z częścią kart w nowej serii OEM AMD (niższe numerki mobilnych HD5k), z tym, że tu jest trochę mniej uczciwie, bo w jednej serii są umieszczone karty o dużej różnicy możliwości (nVidia ostatnią taką serię wydała jako GeForce 4). Ale pomińmy rynek OEM. Inne kotlety nVidii zawsze zmieniały segment (hiend w serii 8k stawał się mid endem w 9k, hiend 9k stawał się midendem w 200... tu jeśli stanie się tak jak się zanosi to będzie kotlet do tego samego segmentu, i w ten sam przedział cenowy (co już byłoby jednak większym przegięciem)).
sluka @ 2010.10.15 23:06
Robienie osobnych serii układów pod obliczenia i rynek gier jest co by tu nie powiedzieć kosztowne. Czy Fermi w przypadku obliczeń można traktować jako 32x16SP, czy też 16x32SP. Jeden scheduler jest w końcu na 16SP. Jak to wygląda od strony programisty?
A kto tu mówi o osobnych seriach? Jeśli karta nazywałaby się 580 (w co wątpię i bardziej bym na 485/490 stawiał) to po prostu kolejna Tesla będzie oparta o serię GeForce 600 (bo w to, że Kepler będzie miał osobną nazwę serii chyba nie wątpisz?).
Od strony programisty to nie wygląda ;p. Piszesz kod który działa na n wątkach, ale nie zarządzasz na jakim procku/SIMD będzie to wykonywane - tym się zajmuje już sama karta.
sluka @ 2010.10.15 23:06
Jeśli chodzi CELLopodobność, to imo takie x86 powinno wydajniej działać np w przypadku architektury 4+4 niż pełne 8 rdzeni. (4 pełne rdzenie i 4 jako SPE in order), a czasem nawet i mniej pełnych rdzeni, a zwiększenie ilości SPE zwiększyło by wydajność. IMO wyrzucanie części obliczeń na jednostki wektorowe jest łatwiejsze niż dzielenie na pełnoprawne wątki. Mniejsze zapotrzebowanie na przepustowość pamięci były odczuwalny.
Nie prawda - najszybciej działały by 8x pełne rdzenie (a najlepiej kilkaset takich), ale zbyt dużo energi by potrzeba na takie rdzenie, żeby coś takiego zrobić... dlatego lepiej w zadaniach które da się rozwiązać równolegle, lepiej zachowują się mniejsze procki, gdzie każdy nie musi mieć osobnego zarządzania wątkami, etc. tylko współdzielą większość rzeczy między sobą.
'Seria obliczeniowa (Tesla) już jest gotowa - kolejna będzie już na Kepler - tak samo z Quadro. Ta karta jeśli byłaby wydana to tylko na rynek gier (tak samo jak 460).'
Robienie osobnych serii układów pod obliczenia i rynek gier jest co by tu nie powiedzieć kosztowne. Czy Fermi w przypadku obliczeń można traktować jako 32x16SP, czy też 16x32SP. Jeden scheduler jest w końcu na 16SP. Jak to wygląda od strony programisty?
Jeśli chodzi CELLopodobność, to imo takie x86 powinno wydajniej działać np w przypadku architektury 4+4 niż pełne 8 rdzeni. (4 pełne rdzenie i 4 jako SPE in order), a czasem nawet i mniej pełnych rdzeni, a zwiększenie ilości SPE zwiększyło by wydajność. IMO wyrzucanie części obliczeń na jednostki wektorowe jest łatwiejsze niż dzielenie na pełnoprawne wątki. Mniejsze zapotrzebowanie na przepustowość pamięci były odczuwalny.
Nie licząc kotletów które się robią z HD57xx do HD67xx, to kotletów nie widzę (wręcz przeciwnie, bo Barts to nowa architektura (nie uważam po danych które mamy, że będzie udana... ale jest zupełnie nowa), a u nVidii to już mamy wręcz przesyt nowych architektur (już wyszły 4x nowe architektury w przeciągu jednej serii (GF100, później mocno zmodyfikowana GF104 i mniej, ale też GF106 i GF108) - karta 580 jeśli wyjdzie to też nie będzie to kotlet, a nowa architektura jądra GF110, która jeśli ma spełnić założenia musi być bardziej zmodyfikowana niż GF104)). Mowa tu o kotletach jest co najmniej komiczna.
Masz rację kotletów nie będzie ale też nie byłbym taki pewny czy będzie nowa karta (przynajmniej teraz skoro nie mamy do czynienia z oficjalną zapowidzią), tak samo jak z HD67x0 - nie mamy pewności czy przeniesienie architektury nastąpi skoro nie mamy oficjalnego stanowiska firmy. Natomiast mamy pewność co do kotletów w serii 300 NVidii bo one na rynku są już od dawna.
Już ktoś ładnie powiedział, że jakiekolwiek wypowiedzi na temat tych nowych produktów NV jak i AMD to wróżenie z fusów i absolutnie się z tym zgadzam - poczekajmy do wydania produktu a przynajmniej do oficjalnej zapowiedzi.
P.S. Gdyby AMD faktycznie wzięło się za kotlety mielibyśmy nowy dział na PCLabie - Kulinaria Nie mam nic przeciwko
Bo teraz moda widocznie na postęp zwany +100 do nazwy
EDIT: żeby nie było mam na myśli obu producentów.
Nie licząc kotletów które się robią z HD57xx do HD67xx, to kotletów nie widzę (wręcz przeciwnie, bo Barts to nowa architektura (nie uważam po danych które mamy, że będzie udana... ale jest zupełnie nowa), a u nVidii to już mamy wręcz przesyt nowych architektur (już wyszły 4x nowe architektury w przeciągu jednej serii (GF100, później mocno zmodyfikowana GF104 i mniej, ale też GF106 i GF108) - karta 580 jeśli wyjdzie to też nie będzie to kotlet, a nowa architektura jądra GF110, która jeśli ma spełnić założenia musi być bardziej zmodyfikowana niż GF104)). Mowa tu o kotletach jest co najmniej komiczna.
Najpierw do tego co wcześniej napisałeś a nie zacytowałem, AMD w większości obliczeń ssie, w niektórych ma moc taką jaką deklarują.
Co do kotletów... nie wciskajcie wszędzie kotletów, nic nie wspomniałem nawet o tym. Głodnemu chleb na myśli?
Jakiś to postęp jest u jednych i drugich... Tylko, że AMD BARTSowi zafundowało +100 (bo miał być to HD67xx), a nVidia Fermiemu też +100 Taka zbieżność tylko, kotlety to nie będą, znam definicję kotleta (taki samiuśki układ pod inną nazwą, te nie są)
a niech sie podniecają, jedna lepsza, druga lepsza , a ja jestem za tym aby nv wypuściła ciut szybszą karte od ati wtedy ati tez nie pozostanie na laurach i cos nowego wymyśli ... KONKURENCJA ... niech nam będzie dzwignią postępu i spadku cen
Jeśli chodzi o obliczenia, to po wyjaśnieniach skotiego muszę stwierdzić, że więcej sensu, prościej i wydajniej będzię zrobić układ x86 w podobny sposób jak jest zrobiony CELL.
Tylko, że Cell jest wydajny dzięki jednostką wektorowym (które są tak samo jak jednostki w kartach graficznych SIMD)... x86 też dostaje kopa dzięki takiemu obliczaniu (instrukcje SSE to nic innego jak aktywacja części CPU która ma mniejsze możliwości, ale za to może operować na czterech liczbach na raz - dzięki czemu można mnożyć/dzielić/dodawać... wektory lub inne dane). W obliczeniach jest tak, że przeważnie robisz te same obliczenia dla dużej ilości danych (np. wszystkie piksele na ekranie są uzyskane z jednego programu wykonywanego dla każdego piksela instrukcja po instrukcji - inne tylko są dane wejściowe do programu (shader jest ten sam (dla całego obiektu, bo można użyć ofc różne na całym ekranie - włączysz program X i przesyłasz do niego dane, później włączasz program y i przesyłasz do niego dane innego obiektu), tylko wierzchołki/fragmenty/atrybuty/uniformy są różne)).
Problem nie jest tu gdzie go widzisz (jeden program na wszystkich), a problem leży w tym, że jedna instrukcja jest na wszystkich w warpie (np. warp ma 80 procków tak jak u AMD, i masz np. instrukcje warunkową (zależnie od której wykona się blok instrukcji), a dane np. ułożą się tak niefortunnie, że 79 nie będzie potrzebować obliczać tego (takie dostanie dane wejściowe, że nie spełnią warunku), a jeden dostanie dane, że ma to obliczyć to te 79 nie będą wykonywać kodu dalej, a będą musiały czekać, aż ten jeden wykona instrukcje które nie są potrzebne całej reszcie) - dlatego też AMD mimo dużo większej teoretycznej mocy (w idealnym przypadku gdzie nie ma takich rozgałęzień lub dane wejściowe dają te same obliczenia dla każdego rdzenia) od kart nVidii w obliczeniach ssie (w pesymistycznym wypadku zamiast (HD5780) 1600 rdzeni 850 MHz (w dodatku dużo słabszych (po prostu idą na ilość małego rozmiaru, a nie na wydajność jednej jednostki (przez co większej, ale mającej wiele ścieżek optymalizacji)) od rdzeni nVidii z tym samym taktowaniem), zostaje 20 takich rdzeni).
sluka @ 2010.10.15 19:28
Tylko tu powstaje pytanie czy w takim przypadku ostanie wypowiedzi prezesa nvidii są zgodne z prawdą? Jeśli chcą kłaść większy nacisk na obliczenia, to powinni w projektowanych układach zmiejszać ilość SP w bloku.
Seria obliczeniowa (Tesla) już jest gotowa - kolejna będzie już na Kepler - tak samo z Quadro. Ta karta jeśli byłaby wydana to tylko na rynek gier (tak samo jak 460).
sevae @ 2010.10.15 19:51
Bo teraz moda widocznie na postęp zwany +100 do nazwy
EDIT: żeby nie było mam na myśli obu producentów.
Nie licząc kotletów które się robią z HD57xx do HD67xx, to kotletów nie widzę (wręcz przeciwnie, bo Barts to nowa architektura (nie uważam po danych które mamy, że będzie udana... ale jest zupełnie nowa), a u nVidii to już mamy wręcz przesyt nowych architektur (już wyszły 4x nowe architektury w przeciągu jednej serii (GF100, później mocno zmodyfikowana GF104 i mniej, ale też GF106 i GF108) - karta 580 jeśli wyjdzie to też nie będzie to kotlet, a nowa architektura jądra GF110, która jeśli ma spełnić założenia musi być bardziej zmodyfikowana niż GF104)). Mowa tu o kotletach jest co najmniej komiczna.
po specyfikacji karty powiem jedno cena będzie grubo powyżej dwóch tysięcy a wersje z niereferyncyjnymi zegarami i chłodzeniami przebiją kwotę trzech tysięcy
Mają się pojawić nowe karty AMD, to czas narobić szumu o super kartach nvidii. Było już wcześniej podobnie z super fermi, od atrap do finalnego, niezbyt udanego produktu. Ciągle wielki, piekielnie drogi w produkcji układ. Ktoś w nvidii musi mieć kompleksy na punkcie wielkości. Jeśli chodzi o obliczenia, to po wyjaśnieniach skotiego muszę stwierdzić, że więcej sensu, prościej i wydajniej będzię zrobić układ x86 w podobny sposób jak jest zrobiony CELL. W obliczaniu grafiki czy 16, 32, 64, czy nawet i 128 SP wykonujących ten sam program, to właściwie bez różnicy, na ekranie są miliony pikseli do obliczenia. Wydajne, ale mało elastyczne. Tylko tu powstaje pytanie czy w takim przypadku ostanie wypowiedzi prezesa nvidii są zgodne z prawdą? Jeśli chcą kłaść większy nacisk na obliczenia, to powinni w projektowanych układach zmiejszać ilość SP w bloku.
Na razie nic nie wiemy, i pewnie niczego konkretnego się nie dowiemy, aż nie pojawią się karty na rynku. Snuć opowieści można o wszytkim, jedynym ograniczeniem jest wyobraźnie opowiadającego. A ostanio opowiadający z nvidii wyszli na bajarzy. W przypadku kiedy jest się potencjalnym klientem rozsądniej jest ich mniej słuchać, a tylko zainteresować się finalnym produktem. Jeśli posiadał bym akcje nvidii, to starał bym się ostro weryfikować wszytkie informacje. Na piekne oczy prezesowi po wpadce z Fermim już bym nie uwierzył.
Jeśli mowa o kartach dla graczy, to nikt nie będzie płakał za 'utraconą' mocą obliczeniową, która w GF4XX i tak była sztucznie ograniczona (bodajże o 75%).
W grach płakać teraz nie będą (poza tymi którzy by chcieli kupić kartę na lata i cieszyć się zarówno ładną grafiką, jak i fizyką na GPU w PhysX/Bullet w przyszłych grach). Ale masz rację w dniu wydania gracze płakać nie powinni. Co do sztucznego ograniczenia to jest bzdura i nie powtarzaj takich informacji jeśli nie chcesz wyjść na ignoranta.
Smacznej kaszaneczki.
nie wiem jak ty ale ja lubie , z grilla , czy tez na patelni z cebulką . marudzisz czlowieku.
Z cebulką i ogóreczkiem kiszonym pokrojonym w kosteczkę/cienkie słupki.
Mam wrażenie, że ta karta to będzie to o czym nV tak głośno huczało pod kryptonimem gtx 485. Na razie i 475tki nie widać.
Kwantyzacja układów
Poczekamy, zobaczymy - póki co, proponuję nie kupować piecyków gazowych na zimę ,a poczekać na premierę ww. karty graficznej.
I znowu to całe bla bla bla.
TDP - gratuluje
W grudniu ? hm widzę ze ceny będą wyższe niż normalnie w takim razie. W końcu okres świąteczny trzeba zawyżyć ze niby w 'promocji'.
Mam nadzieje ze teraz Nvidia mówi coś z głową.
Seria 300 to była seria kotletów (tak jak seria 100), ale to nie była seria dla klientów indywidualnych - to były serie kart wymuszone przez producentów OEM (gotowe Laptopy/Komputery) i karty w tych seriach były wydane tylko dla tych producentów jako karty OEM (nie na sprzedaż detaliczną). Z tą serią jest tak jak z częścią kart w nowej serii OEM AMD (niższe numerki mobilnych HD5k), z tym, że tu jest trochę mniej uczciwie, bo w jednej serii są umieszczone karty o dużej różnicy możliwości (nVidia ostatnią taką serię wydała jako GeForce 4). Ale pomińmy rynek OEM. Inne kotlety nVidii zawsze zmieniały segment (hiend w serii 8k stawał się mid endem w 9k, hiend 9k stawał się midendem w 200... tu jeśli stanie się tak jak się zanosi to będzie kotlet do tego samego segmentu, i w ten sam przedział cenowy (co już byłoby jednak większym przegięciem)).
Robienie osobnych serii układów pod obliczenia i rynek gier jest co by tu nie powiedzieć kosztowne. Czy Fermi w przypadku obliczeń można traktować jako 32x16SP, czy też 16x32SP. Jeden scheduler jest w końcu na 16SP. Jak to wygląda od strony programisty?
A kto tu mówi o osobnych seriach? Jeśli karta nazywałaby się 580 (w co wątpię i bardziej bym na 485/490 stawiał) to po prostu kolejna Tesla będzie oparta o serię GeForce 600 (bo w to, że Kepler będzie miał osobną nazwę serii chyba nie wątpisz?).
Od strony programisty to nie wygląda ;p. Piszesz kod który działa na n wątkach, ale nie zarządzasz na jakim procku/SIMD będzie to wykonywane - tym się zajmuje już sama karta.
Nie prawda - najszybciej działały by 8x pełne rdzenie (a najlepiej kilkaset takich), ale zbyt dużo energi by potrzeba na takie rdzenie, żeby coś takiego zrobić... dlatego lepiej w zadaniach które da się rozwiązać równolegle, lepiej zachowują się mniejsze procki, gdzie każdy nie musi mieć osobnego zarządzania wątkami, etc. tylko współdzielą większość rzeczy między sobą.
'Seria obliczeniowa (Tesla) już jest gotowa - kolejna będzie już na Kepler - tak samo z Quadro. Ta karta jeśli byłaby wydana to tylko na rynek gier (tak samo jak 460).'
Robienie osobnych serii układów pod obliczenia i rynek gier jest co by tu nie powiedzieć kosztowne. Czy Fermi w przypadku obliczeń można traktować jako 32x16SP, czy też 16x32SP. Jeden scheduler jest w końcu na 16SP. Jak to wygląda od strony programisty?
Jeśli chodzi CELLopodobność, to imo takie x86 powinno wydajniej działać np w przypadku architektury 4+4 niż pełne 8 rdzeni. (4 pełne rdzenie i 4 jako SPE in order), a czasem nawet i mniej pełnych rdzeni, a zwiększenie ilości SPE zwiększyło by wydajność. IMO wyrzucanie części obliczeń na jednostki wektorowe jest łatwiejsze niż dzielenie na pełnoprawne wątki. Mniejsze zapotrzebowanie na przepustowość pamięci były odczuwalny.
Nie licząc kotletów które się robią z HD57xx do HD67xx, to kotletów nie widzę (wręcz przeciwnie, bo Barts to nowa architektura (nie uważam po danych które mamy, że będzie udana... ale jest zupełnie nowa), a u nVidii to już mamy wręcz przesyt nowych architektur (już wyszły 4x nowe architektury w przeciągu jednej serii (GF100, później mocno zmodyfikowana GF104 i mniej, ale też GF106 i GF108) - karta 580 jeśli wyjdzie to też nie będzie to kotlet, a nowa architektura jądra GF110, która jeśli ma spełnić założenia musi być bardziej zmodyfikowana niż GF104)). Mowa tu o kotletach jest co najmniej komiczna.
Masz rację kotletów nie będzie ale też nie byłbym taki pewny czy będzie nowa karta (przynajmniej teraz skoro nie mamy do czynienia z oficjalną zapowidzią), tak samo jak z HD67x0 - nie mamy pewności czy przeniesienie architektury nastąpi skoro nie mamy oficjalnego stanowiska firmy. Natomiast mamy pewność co do kotletów w serii 300 NVidii bo one na rynku są już od dawna.
Już ktoś ładnie powiedział, że jakiekolwiek wypowiedzi na temat tych nowych produktów NV jak i AMD to wróżenie z fusów i absolutnie się z tym zgadzam - poczekajmy do wydania produktu a przynajmniej do oficjalnej zapowiedzi.
P.S. Gdyby AMD faktycznie wzięło się za kotlety mielibyśmy nowy dział na PCLabie - Kulinaria
Bo teraz moda widocznie na postęp zwany +100 do nazwy
EDIT: żeby nie było mam na myśli obu producentów.
Nie licząc kotletów które się robią z HD57xx do HD67xx, to kotletów nie widzę (wręcz przeciwnie, bo Barts to nowa architektura (nie uważam po danych które mamy, że będzie udana... ale jest zupełnie nowa), a u nVidii to już mamy wręcz przesyt nowych architektur (już wyszły 4x nowe architektury w przeciągu jednej serii (GF100, później mocno zmodyfikowana GF104 i mniej, ale też GF106 i GF108) - karta 580 jeśli wyjdzie to też nie będzie to kotlet, a nowa architektura jądra GF110, która jeśli ma spełnić założenia musi być bardziej zmodyfikowana niż GF104)). Mowa tu o kotletach jest co najmniej komiczna.
Najpierw do tego co wcześniej napisałeś a nie zacytowałem, AMD w większości obliczeń ssie, w niektórych ma moc taką jaką deklarują.
Co do kotletów... nie wciskajcie wszędzie kotletów, nic nie wspomniałem nawet o tym. Głodnemu chleb na myśli?
Jakiś to postęp jest u jednych i drugich... Tylko, że AMD BARTSowi zafundowało +100 (bo miał być to HD67xx), a nVidia Fermiemu też +100
Tylko, że Cell jest wydajny dzięki jednostką wektorowym (które są tak samo jak jednostki w kartach graficznych SIMD)... x86 też dostaje kopa dzięki takiemu obliczaniu (instrukcje SSE to nic innego jak aktywacja części CPU która ma mniejsze możliwości, ale za to może operować na czterech liczbach na raz - dzięki czemu można mnożyć/dzielić/dodawać... wektory lub inne dane). W obliczeniach jest tak, że przeważnie robisz te same obliczenia dla dużej ilości danych (np. wszystkie piksele na ekranie są uzyskane z jednego programu wykonywanego dla każdego piksela instrukcja po instrukcji - inne tylko są dane wejściowe do programu (shader jest ten sam (dla całego obiektu, bo można użyć ofc różne na całym ekranie - włączysz program X i przesyłasz do niego dane, później włączasz program y i przesyłasz do niego dane innego obiektu), tylko wierzchołki/fragmenty/atrybuty/uniformy są różne)).
Problem nie jest tu gdzie go widzisz (jeden program na wszystkich), a problem leży w tym, że jedna instrukcja jest na wszystkich w warpie (np. warp ma 80 procków tak jak u AMD, i masz np. instrukcje warunkową (zależnie od której wykona się blok instrukcji), a dane np. ułożą się tak niefortunnie, że 79 nie będzie potrzebować obliczać tego (takie dostanie dane wejściowe, że nie spełnią warunku), a jeden dostanie dane, że ma to obliczyć to te 79 nie będą wykonywać kodu dalej, a będą musiały czekać, aż ten jeden wykona instrukcje które nie są potrzebne całej reszcie) - dlatego też AMD mimo dużo większej teoretycznej mocy (w idealnym przypadku gdzie nie ma takich rozgałęzień lub dane wejściowe dają te same obliczenia dla każdego rdzenia) od kart nVidii w obliczeniach ssie (w pesymistycznym wypadku zamiast (HD5780) 1600 rdzeni 850 MHz (w dodatku dużo słabszych (po prostu idą na ilość małego rozmiaru, a nie na wydajność jednej jednostki (przez co większej, ale mającej wiele ścieżek optymalizacji)) od rdzeni nVidii z tym samym taktowaniem), zostaje 20 takich rdzeni).
Seria obliczeniowa (Tesla) już jest gotowa - kolejna będzie już na Kepler - tak samo z Quadro. Ta karta jeśli byłaby wydana to tylko na rynek gier (tak samo jak 460).
Bo teraz moda widocznie na postęp zwany +100 do nazwy
EDIT: żeby nie było mam na myśli obu producentów.
Nie licząc kotletów które się robią z HD57xx do HD67xx, to kotletów nie widzę (wręcz przeciwnie, bo Barts to nowa architektura (nie uważam po danych które mamy, że będzie udana... ale jest zupełnie nowa), a u nVidii to już mamy wręcz przesyt nowych architektur (już wyszły 4x nowe architektury w przeciągu jednej serii (GF100, później mocno zmodyfikowana GF104 i mniej, ale też GF106 i GF108) - karta 580 jeśli wyjdzie to też nie będzie to kotlet, a nowa architektura jądra GF110, która jeśli ma spełnić założenia musi być bardziej zmodyfikowana niż GF104)). Mowa tu o kotletach jest co najmniej komiczna.
od kotletów wełbach się powywracało... :S
Bo teraz moda widocznie na postęp zwany +100 do nazwy
EDIT: żeby nie było mam na myśli obu producentów.
od kotletów wełbach się powywracało... :S
Na razie nic nie wiemy, i pewnie niczego konkretnego się nie dowiemy, aż nie pojawią się karty na rynku. Snuć opowieści można o wszytkim, jedynym ograniczeniem jest wyobraźnie opowiadającego. A ostanio opowiadający z nvidii wyszli na bajarzy. W przypadku kiedy jest się potencjalnym klientem rozsądniej jest ich mniej słuchać, a tylko zainteresować się finalnym produktem. Jeśli posiadał bym akcje nvidii, to starał bym się ostro weryfikować wszytkie informacje. Na piekne oczy prezesowi po wpadce z Fermim już bym nie uwierzył.
W grach płakać teraz nie będą (poza tymi którzy by chcieli kupić kartę na lata i cieszyć się zarówno ładną grafiką, jak i fizyką na GPU w PhysX/Bullet w przyszłych grach). Ale masz rację w dniu wydania gracze płakać nie powinni. Co do sztucznego ograniczenia to jest bzdura i nie powtarzaj takich informacji jeśli nie chcesz wyjść na ignoranta.