komentarze
*Konto usunięte*2011.03.11, 18:50
No tak, ale go jeszcze nie ma....

Pamiętam kiedyś pojawił się u konkurencji (praca) Sun, ależ byłem napalony-> tam x86. haha. Jestem ciekaw jak sprawia się aktualne rozwiązania oracle na tle tego co pokazało x86. Przecież w teraz mamy konstrukcje teoretycznie 96 rdzeniowe w x86.

Tak więc, wejdzie ten SPARC, to na rynku już będzie konstrukcja oparta o CPU AMD, która umożliwia osiągnięcie w teorii 128 rdzeni (8CPU po 16 rdzeni) vs SPARC 16 rdzeni po 8 wątków.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842011.03.11, 19:01
wejdą knight's corner i reszta zwija manatki ;)
xoloxZobacz profil
Poziom ostrzeżenia: 0%
xolox2011.03.11, 19:46
Prosta sprawa chodzi o kasę :) Prędzej przepchną 64 bitowy proc do telefonu niż 32 bitowy do serwera. A chodzi o to by projektować tylko raz.
SNC2011.03.11, 21:41
denver nie jest tworzony z mysla o ukladach mobilnych, wiec nie piszcie glupot
*Konto usunięte*2011.03.11, 21:51
Promilus1984 @ 2011.03.11 19:01  Post: 462261
wejdą knight's corner i reszta zwija manatki ;)


No nie wiem, :
''Knight's Corner ma być bowiem nie tyle układem podobnym do Larrabee, co nim samym po odpowiednich modyfikacjach i w nowym procesie produkcyjnym. Projekt ten po prostu nigdy nie został tak naprawdę anulowany, a zmiana nazwy to bardziej zabieg marketingowy niż faktyczna rewolucja. Przeznaczeniem nowej karty graficznej ma być rynek HPC na którym ma ona walczyć z przyszłymi akceleratorami Nvidia Kepler i Maxwell w rozwiązaniach typu GPGPU. Intel ma nadzieję wyprzedzić na tym polu konkurenta dzięki szybszemu wprowadzeniu 22nm niż TSMC czy Global Foundries. Oczywiście proces produkcyjny to nie wszystko, a sam sprzęt bez należytych sterowników i oprogramowania nie jest wiele wart, co może sprawić firmie pewne problemy, zwłaszcza w starciu z CUDA.''
*Konto usunięte*2011.03.11, 21:54
-3#47
SNC @ 2011.03.11 21:41  Post: 462279
denver nie jest tworzony z mysla o ukladach mobilnych, wiec nie piszcie glupot


Dokładnie takie infor znalazłem, ze strony NV. No to pozostaje pytanie kto użyje tych 64bitów w komórce/tablecie... haha.



Virtus* @ 2011.03.11 21:51  Post: 462282
Promilus1984 @ 2011.03.11 19:01  Post: 462261
wejdą knight's corner i reszta zwija manatki ;)


No nie wiem, :
''Knight's Corner ma być bowiem nie tyle układem podobnym do Larrabee, co nim samym po odpowiednich modyfikacjach i w nowym procesie produkcyjnym. Projekt ten po prostu nigdy nie został tak naprawdę anulowany, a zmiana nazwy to bardziej zabieg marketingowy niż faktyczna rewolucja. Przeznaczeniem nowej karty graficznej ma być rynek HPC na którym ma ona walczyć z przyszłymi akceleratorami Nvidia Kepler i Maxwell w rozwiązaniach typu GPGPU. Intel ma nadzieję wyprzedzić na tym polu konkurenta dzięki szybszemu wprowadzeniu 22nm niż TSMC czy Global Foundries. Oczywiście proces produkcyjny to nie wszystko, a sam sprzęt bez należytych sterowników i oprogramowania nie jest wiele wart, co może sprawić firmie pewne problemy, zwłaszcza w starciu z CUDA.''


Jestem ciekaw co intel zrobi za 6lat jak skończy się proces technologiczny... Tylko ciekaw. Wtedy ta taktyka zawiedzie. Fakt faktem, wątpie by byli wstanie prześcignąć wydajnościowo rozwiązania AMD/NV. Ale mogę zwiększyć komfort pisania aplikacji.... A sprzęt to groszowa często sprawa vs koszt opracowania softu.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2011.03.11, 22:12
sluka @ 2011.03.11 14:05  Post: 462182
Bitowość - to pierwsza ofiara marketingu w świecie IT. Trochę historii którą sam przeżyłem.
Komputery '8 bitowe', czyli takie jak ZX Spectrum, C64, Atari XL/XE, Amstrad/Schneider i im podobne chociaż mniej znane napędzały procesory o architekturze 16-to bitowej z 8-mio bitową magistralą danych. Dlatego też mogły one adresować 64KiB pamięci. W tych 'masowo' pionierskich czasach za wyznacznik bitowości uważało się szerokość magistrali danych. Czysty 8-bitowy procesor mógł się tylko nadawać do kalkulatorów i praktycznie niczego więcej. W epoce 16-bitowców obraz całości się trochę komplikuje, a to za sprawą Intela. Komputery oparte na procesorach Motoroli były w architekturze 32/16 (MC68000, MC68010), dla przypomnienia które - seria Atari ST, Amiga 1000, 500, 2000, 500+ i 600, oraz Macintosze, modeli nie będę wymiał, ponieważ ich nie znam, egzotyczny sprzęt, za egzotyczne kwoty pieniędzy. Na procesorach intela było już więcej zamieszania. Procesory 8086 i 8088, serca IBM PC XT i kompatybilnych były nieźle nakombinbowane, co długo się wszystkim odbijało czkawką. Procesory 16/16 i 16/8 ale z 20-to bitowym adresowaniem. XTeki na 8086 można było zgodnie z ówczesnymi standardami nazewnictwa nazywać 16-to bitowymi, ale na 8088 to były rasowe ośmiobitowce ;). Spuścizna po tych procesorach to słynne 640KiB RAM, dziesięć segmentów pamięci po 64KiB i piekło programistów. Dla tych co nie wiedzą, programy pisało się w wybranym modelu pamięci, Tiny, Small, Medium, Large, Hudge. W pierwszym całość program i dane musiały się zmieścić w 64KiB pamięci. Tylko w tym modelu pamięci mogły być programy .COM. Small to już dwa segmenty pamięci jeden na program, drugi na dane. Medium i Large różniły się ilością dostępnych segmentów na program, na dane był jeden. Dopiero w ostatnim modelu dało się użyć więcej danych, ale jedna tablica musiała się dalej mieścić w jednym segmencie. Takiego piekła jak na komputerach poganianych procesorami intela nie było tam gdzie sercem były procesor motoroli. Praktycznie liniowy model pamięci. Wczesne motorole miały 24bitowe adresowanie. Jedynym drobnym zgrzytem był fizyczny brak danych 8-mio bitowych.
Epoka '32' bitów, czyli pojawienie się i386. Motorolę sobie odpuszczę, powiem tylko tyle że były komputery na MC68020, 68030, 68040, no i na tych komputerach wszytko działało już w 32bitach. W komputerach pracujących na procesorach intela dalej był dos + rozpowszechniająca się graficzna nakładka czyli windows 3.1. Programy dalej były w głównej mierze 16-to bitowe. Wyznacznikiem 'bitowości' sprzętu była dalej szerokość magistrali pamięci. I tak i386SX był uważany za procesor 16-to bitowy, a zwykły 386 jak 32-bitowy.

64 bity po raz pierwszy, czyli pierwsze Pentium. Chyba nie muszę przypominać dlaczego ten procesor był za taki uważany.

64 bity po raz drugi to Athlon 64.

O jakie 64 bity chodzi nvidii?

Dla mnie jako programisty sprawa bitowości jest całkowicie jasna.
6502 był procesorem 8-bitowym, gdyż mając 8-bitowe rejestry ogólnego przeznaczenia mógł zaadresować tablicę bajtów o rozmiarze co najwyżej 256 bajtów (2^8). Było to spore ograniczenie dla programistów.
Podobnie 16-bitowy 8086 w trybie adresowania bazowo-indeksowego (np. MOV AX, [SI+BP]) mógł obsłużyć tablicę bajtów nie większą niż 64 KB (2^16).
Kontynuując 386 i potomne mógł w tym trybie adresowania zaadresować tablicę nie większą niż 2^32 bajtów (przynajmniej teoretycznie). To ograniczenie wielkości tablicy którą można utworzyć dotyczy także procesorów 32-bitowych z rozszerzeniami PAE.
Dopiero procesory w pełni 64-bitowe mogą w trybie adresowania bazowo-indeksowego obsłużyć tablicę liczb praktycznie dowolnej długości.

Nie zgodzę się natomiast z twierdzeniem że bitowość procesora zależy od szerokości magistrali danych, 8088 był procesorem wewnętrznie 16-bitowym mimo okrojonej 8-bitowej magistrali danych, podobnie okrojono do 16 bitów magistralę danych w 32-bitowym 386 SX.
W przyszłości procesory zapewne będą się łączyły z pamięcią RAM za pomocą światłowodu (transmisja szeregowa), ale nikt ich nie nazwie 1-bitowymi :E
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482011.03.11, 22:47
SunTzu @ 2011.03.11 21:54  Post: 462284

Dokładnie takie infor znalazłem, ze strony NV. No to pozostaje pytanie kto użyje tych 64bitów w komórce/tablecie... haha.

Ci którzy będą mieli 64bit na nich (czyli nikt, bo 64bit ARM nie mają być przeznaczone na telefony i tablety!!! Tak jak Denver to zupełnie osobny projekt, zupełnie nie związany z serią Tegra (poza samą architekturą)) - podobnie jak z oszczędnymi Atomami z serii Z - one też są 32bit i nikt im 64bit nie wciska (bo na nich nikt nie zamierza robić szybkich i dokładnych obliczeń, ani adresować wielkich ilości pamięci) - procki na desktopy i serwery to już inna bajka i właśnie ten rynek jest celem Denver.
*Konto usunięte*2011.03.11, 23:02
-1#50
To czemu NV używa zwrotu for mobile device? Może mieli na myśli lapki?
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482011.03.11, 23:19
SunTzu @ 2011.03.11 23:02  Post: 462289
To czemu NV używa zwrotu for mobile device? Może mieli na myśli lapki?

Aż mnie zamurowało... w którym miejscu mówiąc o Denver napisali czy powiedzieli cokolwiek o mobilnym zastosowaniu? Podaj linka, wydarzenie, konferencje na której coś takiego mówili.
Bardzo mnie zaskoczysz jeśli coś takiego będzie napisane gdziekolwiek (ale chętnie poznam jaki portal takie bzdury rozpowiada, żeby go nie czytać).
Ja dla kontrastu podam cytaty z bloga nvidii ( http://blogs.nvidia.com/2011/01/project-de...a-of-computing/ ):
As you may have seen, NVIDIA announced today that it is developing high-performance ARM-based CPUs designed to power future products ranging from personal computers to servers and supercomputers.

ARM is already the standard architecture for mobile devices. Project Denver extends the range of ARM systems upward to PCs, data center servers, and supercomputers.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2011.03.11, 23:27
Arlic @ 2011.03.11 16:10  Post: 462215

Intel był ostatni w 64bit..


Bzdura.

http://en.wikipedia.org/wiki/Itanium 'from 2001 to present'

http://en.wikipedia.org/wiki/Athlon_64 'from 2003 to present'

http://en.wikipedia.org/wiki/Via_nano 2008

A w kolejce po 64bit czeka jeszcze ARM

Oczywiście Intel bynajmniej nie był pierwszy z 64bit CPU, ale na pewno nie był ostatni.
*Konto usunięte*2011.03.11, 23:34
-1#53
skoti48 @ 2011.03.11 23:19  Post: 462294
SunTzu @ 2011.03.11 23:02  Post: 462289
To czemu NV używa zwrotu for mobile device? Może mieli na myśli lapki?

Aż mnie zamurowało... w którym miejscu mówiąc o Denver napisali czy powiedzieli cokolwiek o mobilnym zastosowaniu? Podaj linka, wydarzenie, konferencje na której coś takiego mówili.
Bardzo mnie zaskoczysz jeśli coś takiego będzie napisane gdziekolwiek (ale chętnie poznam jaki portal takie bzdury rozpowiada, żeby go nie czytać).
Ja dla kontrastu podam cytaty z bloga nvidii ( http://blogs.nvidia.com/2011/01/project-de...a-of-computing/ ):
As you may have seen, NVIDIA announced today that it is developing high-performance ARM-based CPUs designed to power future products ranging from personal computers to servers and supercomputers.

ARM is already the standard architecture for mobile devices. Project Denver extends the range of ARM systems upward to PCs, data center servers, and supercomputers.


O patrz tu też pisze
'The result is that future systems – from the thinnest laptops to the biggest data centers, and everything in between — will deliver an outstanding combination of performance and power efficiency. Their processors will provide the best of both worlds, while enabling increased battery life for mobile solutions. '-> no, ale tu jasno wynika, że chyba laptopy i koniec.

Trochę śmieszy mnie tutaj słowo super computers... wątpie by to przebiło wymienione w komentarzach CPU Sparc, PPC...
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2011.03.11, 23:43
64-bitowych procesorów RISC na rynku serwerów było naprawdę sporo, jednak poza IBM Power używanym obecnie w konsolach nie były one w stanie wyjść z serwerowej niszy.
Przyczyną nie były względy techniczne, tylko związane z licencjami na produkcję. Monopol na listę instrukcji to brak konkurencji w ramach architektury procesorów i powolny rozwój skutkujący wyprzedzeniem przez duopol x86 (VIA się nie liczy).

Obawiam się że NVidia przyjęła strategię MS (Embrace, Extend, Eradicate) której najlepszym przykładem jest IE6 z rozszerzeniami niezgodnymi z otwartymi standardami W3C. Co będzie gdy konsorcjum ARM zrobi swoje 64-bitowe rozszerzenie listy instrukcji, niezgodne z własnościowym, ale ugruntowanym na rynku rozszerzeniem NVidii? Od kogo inni producenci będą kupować licencje?
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482011.03.12, 00:18
SunTzu @ 2011.03.11 23:34  Post: 462297

O patrz tu też pisze
'The result is that future systems – from the thinnest laptops to the biggest data centers, and everything in between — will deliver an outstanding combination of performance and power efficiency. Their processors will provide the best of both worlds, while enabling increased battery life for mobile solutions. '-> no, ale tu jasno wynika, że chyba laptopy i koniec.

Ten fragment to cytat ze słów pracowników Microsoftu, a i tak widzisz co mieli oni na myśli tu (czyli przedział od najcięższych laptopów do największych centrów danych ('thinnest laptops to the biggest data centers";) - nie ma mowy o telefonach i tabletach - nvidia nie mówi nawet o laptopach (o nich wspominaja MS który dla desktopów z Denver robi W8 ARM)).

SunTzu @ 2011.03.11 23:34  Post: 462297
Trochę śmieszy mnie tutaj słowo super computers... wątpie by to przebiło wymienione w komentarzach CPU Sparc, PPC...

Wspomniane przez ciebie architektury w superkomputerach - PPC ma 8% (40 kompów na 500) w top500, a Sparc poniżej 1% (dokładniej 2 kompy na 500 czyli 0.4%) - 90% to x86 (450 komputerów na 500) - http://www.top500.org/charts/list/36/procfam
W superkomputerach liczy się przede wszystkim wydajność, temperatura i pobór prądu... a ARM ma dobry stosunek wydajność/pobór prądu i niską temperaturę pracy i jeśli stosunek nie spadnie przy podnoszeniu wydajności rdzeni ma szanse zawojować rynek superkomputerów
MegabyteZobacz profil
Poziom ostrzeżenia: 0%
Megabyte2011.03.12, 00:32
SunTzu @ 2011.03.11 23:34  Post: 462297
skoti48 @ 2011.03.11 23:19  Post: 462294
(...)

Aż mnie zamurowało... w którym miejscu mówiąc o Denver napisali czy powiedzieli cokolwiek o mobilnym zastosowaniu? Podaj linka, wydarzenie, konferencje na której coś takiego mówili.
Bardzo mnie zaskoczysz jeśli coś takiego będzie napisane gdziekolwiek (ale chętnie poznam jaki portal takie bzdury rozpowiada, żeby go nie czytać).
Ja dla kontrastu podam cytaty z bloga nvidii ( http://blogs.nvidia.com/2011/01/project-de...a-of-computing/ ):
(...)

(...)


O patrz tu też pisze
'The result is that future systems – from the thinnest laptops to the biggest data centers, and everything in between — will deliver an outstanding combination of performance and power efficiency. Their processors will provide the best of both worlds, while enabling increased battery life for mobile solutions. '-> no, ale tu jasno wynika, że chyba laptopy i koniec.

Trochę śmieszy mnie tutaj słowo super computers... wątpie by to przebiło wymienione w komentarzach CPU Sparc, PPC...

1. Project Denver to projekt dość mocno wybiegający w przyszłość. Jego pierwsza wersja prawdopodobnie znajdzie zastosowanie razem z układami Maxwell, które mają wyjść pod koniec 2013. Tesle z jednym układem fermii są łączone nawet z 6GB pamięciami RAM (4x więcej niż GeForce GTX480), W 2013 będzie to pewnie 12 albo 16GB RAM. Biorąc pod uwagę, że nvidia chce tworzyć komputery z 4 czy 8 układami GPU i CPU, które będą operować na wspólnej przestrzeni adresowej tkwienie w 32bitach jest po prostu śmieszne i głupie.

2. Architektura ARM ma potencjał i nie skazywałbym jej na porażkę w kategorii superkomputerów. Poza tym to nie będzie wojna ARM vs inne CPU tylko zintegrowane rozwiązanie CPU + GPU vs jakieś CPU i jakieś GPU. Efektywniejsza komunikacja pomiędzy CPU i GPU może więcej dać niż nieco szybsze CPU.

3. Ten fragment który wkleiłeś łączy się z wcześniejszym cytatem i mówi, że niedługo nvidia będzie mieć rozwiązania o różnym stopniu wydajności i energooszczędności dla różnych segmentów. Dla mobile będą to kolejne tegry a dla wysokowydajnych maszyn będzie denver.
Pan AdaśZobacz profil
Poziom ostrzeżenia: 0%
Pan Adaś2011.03.12, 00:57
Podejrzewam, że te 64 bit będą dotyczyły jednostek ALU. Dotychczas x86-64 adresują 48 bitów (i tak w cholerę za dużo jak na dzisiejsze standardy!). Wydaje mi się, że 44 bity (limit dzisiejszych Windowsów), albo 48 bit do adresowania zdecydowanie wystarczy nVidii. Stawiam flaszki przeciwko piwom (przyjmuję zakłady do końca miesiąca), że do 2020 roku nie zobaczymy procesorów adresujących 2^64 RAM.
Czyli będą jednostki arytmetyczne 64 bit, ale adresy będą krótsze - i słusznie. Co do samego newsa, to cieszę się, że pierwsza implementacja Project Denver będzie 64-bitowa. Z drugiej strony - jestem zmartwiony, bo projekt się opóźni. nVidia planowała chip Kepler w 28 nm w 2011 roku i Maxwell (pierwsza implementacja Project Denver) w 2013 roku w 22 nm. Nie ma niestety szans na 28 nm od TSMC w 2011 roku - TSMC zaliczy, w najlepszy razie, opóźnienie, do 1. kwartału 2012. Jeżeli wszystko pójdzie fajnie, to Maxwella zobaczymy na początku 2014.
BlackBishopZobacz profil
Poziom ostrzeżenia: 0%
BlackBishop2011.03.12, 02:27
nie myl dwóch rzeczy - możliwej do zaadresowania pamięci i szerokości szyny - szyna jest fizyczna i może mieć np. 48 bitów co nie zmienia faktu, że możesz zaadresować całe 2^64 bajtów pamięci - od tego jest już pamięć wirtualna
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842011.03.12, 06:58
@BlackBishop - od tego akurat (czyli tłumaczenia adresów fizycznych) jest MMU. I w obecnych procach (x86_64) daje to 48bit wirtualnej i 40 bit fizycznej pamięci. NIE 64bit.
darkmartinZobacz profil
Poziom ostrzeżenia: 0%
darkmartin2011.03.12, 07:26
Andree @ 2011.03.11 23:43  Post: 462298
64-bitowych procesorów RISC na rynku serwerów było naprawdę sporo, jednak poza IBM Power używanym obecnie w konsolach nie były one w stanie wyjść z serwerowej niszy.

Zapominasz o MIPS. To jest procesor który osiągnął największy sukces w grupie RISC.
Zaloguj się, by móc komentować