Nie ma sie czym podniecac. Uklad AMD/ATI r600 juz teraz oferuje wydajnosc na poziomie 1Teraflopsa przy taktowaniu 5x mniejszym od polarisa.Zanim polaris trafi na rynek AMD bedzie miec juz fusiona opartego na ukladzie r700 albo i r800 . Intel i jego niedawno powstala grupa VCG nie da rady konkurowac ze specami z ATI ktorzy siedza w tym od dekad.
sr... w banie wywnioskowales to z artykulu o teraflops in a box?? tam sa 2 uklady r600 czyli zapomnieles podzielic przez dwa bo dopiero wtedy wyjdzie ci ile ma jeden uklad tak naprawde jest cos okolo ~0.5teraflopsa na jeden uklad r600 czyli tyle co G80
wniosek: albo chciales namieszac albo jestes funboyem i to skrajnym ktory klamie zeby wyszlo na kozysc r600 albo sie nie znasz i przeoczyles cos kiedy bozia ci dawala muzg na tacy:P nie wzioles pasty termoprzewodzacej czy czegos innego i dlatego pracujesz niestabilnie etc.
A ja tam lubię wykresy Można sobie odczytać interesujące wartości a na podstawie tabelki, kto mi zagwaratuje jak przebiega charakterystyka między podanymi punktami - wcale nie musi być linowa
w 2006 intel raczył nas GHz jakie to miał osiagac P4 (10 GHz) staneło na 3,6 w realiach czyli cosik 3 razy mniej .... To była pomyłka trzeba było coś wymyślić ... Wrócili do architektury ta tak P3 z kilkoma udoskonaleniami pomnożyli x2 nazwali C2D no i jak na razie jest git .... Ale chłopaki pomyśleli jeśli w serwerach (i etc) moze działać kilka procków na raz i jest super to może zastosujemy to w desktopach wszelkiej maści (w sumie pomysł sprawdzony) no i ruszyli do dzieła 80 rdzeni (prostych 80) ale zawsze 80 ... Co z tego wyjdzie pozyjemy tu dużo zależy od stytemu operacyjnego itd .... (jak i samego oprogramowania) trzeba pamiętać ze win zgrozy wszelkiej maści nie sa przystosowane do takich systemów a nawety jesli takowe się pojawiąto bedzie to pewnie za dobre 6-10 lat i tu moze byc problem .... architektura x86 jest jaka jest modyfikowana od lat ale ciągnie za sobą relikt przeszłosci a jak na razie w ciagu najbliższych 10-15 lat mało prawdopodobne by coklowiek sie zmieniło .. Tak czy siak ogólnei nie jest aż tak żle Intelowskie C2D to naprawdę dobre szybkie i uniwesalne procesory. Co do AMD hmmm chłopaki nie mają pomysłu mozę procesory nie aż takie złe ale o rok za intelem a to dość dużo w branży IT.
Z racji tego ze bedzie mozliwosc korzystania z obecnych akceleratorow na platformie fusion wnioskuje Pan ze sam procek fusion bedzie mniej wydajny od rozwiazan standardowych?
A czemuż w innym przypadku miałaby służyć taka możliwość, jeśli nie zastosowaniu mocniejszego GPU?
CYTAT
Wszyscy ,to znaczy kto? bo ja np nie wiem ile tak naprawde poweru da polaczenie CPU z GPU .
Wszyscy, to znaczy ci, którzy się interesują tematem wydajności grafiki. Przepraszam za uproszczenie. Połaczenie CPU z GPU da tyle samo, ile dało przyspieszenie AGP z 4x do 8x, albo zmiana PCI Express 8x na PCI Express 16x.
CYTAT
Rozumiem ze jest Pan specem od budowy układow?
Nie mnie to oceniać. Proponuję Ci przeprowadzenie ankiety wśród producentów układów - Intel, NVIDIA, ATI/AMD - kolejność przypadkowa.
CYTAT
G80 ma podobno 681M tranzystorow natomiast C2Q 582M tranzystorow. Zbyt duzej dysproporcji nie widze.
C2Q, który zresztą w tej dyskusji jest nieco nie na temat, to dwa osobne chipy, umieszczone na wspólnym podłożu obudowy. Mamy więc już tylko 281 milionów tranzystorów procesora versus 681 milionów tranzystorów w GPU. Nie jest to dysproporcja?
CYTAT
Pozatym integracja CPU z GPU pozwala na redukcje pewnych elementow np. jednostki FPU procesora moga byc zastapione przez shadery itp.
Tu racja , wszyscy na to liczymy, ale to będzie dopiero następna faza, nie liczyłbym na to, że już w pierwszych układach Fusion znajdziemy funkcjonalną integrację jednostek.
Ach, to czytanie ze zrozumieniem... Ale wybaczam, bo PR-owskie bełkoty trzeba tłumaczyć na ludzki język. To teraz ludzkim głosem. W pierwszym zdaniu zawarta jest informacja, że rozwiązania Fusion nie będą uniemożliwiać korzystania z dyskretnych kart graficznych, akceleratorów fizyki i innych kart na PCI Express.
Z racji tego ze bedzie mozliwosc korzystania z obecnych akceleratorow na platformie fusion wnioskuje Pan ze sam procek fusion bedzie mniej wydajny od rozwiazan standardowych?
Z kolei trzecie zdanie, mówiące o zysku wydajności z tego, że komunikacja pomiędzy CPU i GPU na tym samym chipie, to klasyczne "mącenie w głowie". Bo przecież wszyscy doskonale wiemy, jak nikłe znaczenie dla wydajności ma komunikacja pomiędzy CPU a GPU.
Wszyscy ,to znaczy kto? bo ja np nie wiem ile tak naprawde poweru da polaczenie CPU z GPU .Rozumiem ze jest Pan specem od budowy układow?
O czasie komunikacji już wyjaśniałem. Ale zasadnicza podstawa do takiej a nie innej oceny klasy zastosowań Fusion leży gdzie indziej - w budżecie tranzystorów. Ile ich zawiera wyższej klasy GPU, a ile typowy procesor? Prawda, że jest pewna dysproporcja? A pamięć ZRAM/eDRAM rzeczywiście umożliwia... zwiększenie cache L3 z dwóch do 10 MB. Świat i ludzie!
G80 ma podobno 681M tranzystorow natomiast C2Q 582M tranzystorow. Zbyt duzej dysproporcji nie widze. Pozatym integracja CPU z GPU pozwala na redukcje pewnych elementow np. jednostki FPU procesora moga byc zastapione przez shadery itp.
Dlaczego tylko do lowendu? Ponizej zamieszczam oswiadczenie prasowe AMD:
"AMD-powered Fusion platforms will continue to fully support high-end discrete graphics, physics accelerators, and other PCI Express-based solutions to meet the ever-increasing needs of the most demanding enthusiast end-users.There is to be an expected speed increase with the Fusion. Because the GPU and CPU will be on the same die, information transfer between the CPU and GPU/GPU memory will significantly increase since there will be no need for the information to travel on a bus to and from the CPU and GPU as it is today with current motherboards."
Ach, to czytanie ze zrozumieniem... Ale wybaczam, bo PR-owskie bełkoty trzeba tłumaczyć na ludzki język. To teraz ludzkim głosem. W pierwszym zdaniu zawarta jest informacja, że rozwiązania Fusion nie będą uniemożliwiać korzystania z dyskretnych kart graficznych, akceleratorów fizyki i innych kart na PCI Express. Z kolei trzecie zdanie, mówiące o zysku wydajności z tego, że komunikacja pomiędzy CPU i GPU na tym samym chipie, to klasyczne "mącenie w głowie". Bo przecież wszyscy doskonale wiemy, jak nikłe znaczenie dla wydajności ma komunikacja pomiędzy CPU a GPU.
CYTAT
Nie wiem na jakiej podstawie twierdzi Pan ze fusion to bedzie tylko dla lowendu bo integracja procka z karta graficzna znacznie zmniejsza czas komunikacji GPU/CPU. Jesli chodzi o ograniczenia zwiazane z przepustowoscia pamieci ram jakie maja obecne rozwiazania zintegrowane to nalezy pametac ze do zniwelowania tego problemu AMD moze uzyc np. pamiec ZRAM o 5x wiekszej pojemnosci albo zrobic fusiona nie na podstawke socket tylko np. na slot1 i wcisnac tam szybka pamiec gddr4.
O czasie komunikacji już wyjaśniałem. Ale zasadnicza podstawa do takiej a nie innej oceny klasy zastosowań Fusion leży gdzie indziej - w budżecie tranzystorów. Ile ich zawiera wyższej klasy GPU, a ile typowy procesor? Prawda, że jest pewna dysproporcja? A pamięć ZRAM/eDRAM rzeczywiście umożliwia... zwiększenie cache L3 z dwóch do 10 MB. Świat i ludzie!
A ja już mam zastosowanie 190W to już można grzać nie tylko cherbatę (wino, piwo) ale gdyby użyć 10 chipów to już można ogrzać pokój, a i do tego mieć bardzo inteligętną lodówkę
pewnie dlatego że dotychczasowe układy graficzne zintegorwane z płytą główną w segmencie deskop nie powalją swoimi osiągami
Nie porownuj dzisiejszych rozwiazan z nadchodzacymi, bo to dwie rozne bajki. Fusion to zintegrowanie grafy bezposrednio z prockiem a nie grafy z chipsetem plyty glownej.
A Fusion to rozwiązanie, przynajmniej w obecnych planach, dla low-endu i dolnego midrange.
Dlaczego tylko do lowendu? Ponizej zamieszczam oswiadczenie prasowe AMD:
"AMD-powered Fusion platforms will continue to fully support high-end discrete graphics, physics accelerators, and other PCI Express-based solutions to meet the ever-increasing needs of the most demanding enthusiast end-users.There is to be an expected speed increase with the Fusion. Because the GPU and CPU will be on the same die, information transfer between the CPU and GPU/GPU memory will significantly increase since there will be no need for the information to travel on a bus to and from the CPU and GPU as it is today with current motherboards."
Nie wiem na jakiej podstawie twierdzi Pan ze fusion to bedzie tylko dla lowendu bo integracja procka z karta graficzna znacznie zmniejsza czas komunikacji GPU/CPU. Jesli chodzi o ograniczenia zwiazane z przepustowoscia pamieci ram jakie maja obecne rozwiazania zintegrowane to nalezy pametac ze do zniwelowania tego problemu AMD moze uzyc np. pamiec ZRAM o 5x wiekszej pojemnosci albo zrobic fusiona nie na podstawke socket tylko np. na slot1 i wcisnac tam szybka pamiec gddr4.
... Uklad AMD/ATI r600 juz teraz oferuje wydajnosc na poziomie 1Teraflopsa przy taktowaniu 5x mniejszym od polarisa.Zanim polaris trafi na rynek AMD bedzie miec juz fusiona opartego na ukladzie r700 albo i r800 . ...
Zapewne, zapewne. Albo i nie! Jeśli jednostki przetwarzania R600 są, jak głosi plotka, nadal wektorowe, to może ATI odzyska palme pierwszeństwa w 3D, ale nic poza tym. A Fusion to rozwiązanie, przynajmniej w obecnych planach, dla low-endu i dolnego midrange.
Swoją drogą ile musiała kosztować produkcja tego cuda? Wcale nie zdziwiłbym się gdyby teraz rozpoczęła się lawina różnych podobnych informacji: ostatnio głośno było o kompie kwantowym ...
Nie ma "produkcji" tego cuda. Wykonano zaledwie kilka wafli i, o ile wiem, w tej wersji więcej ich nie będzie. A co do lawiny rozwiązań multicore - przepraszam, nie wyrabiam się z ich prezentowaniem. Na swoją kolej czeka Vega2 - 48 jąder optymalizowanych do Javy i parę innych ciekawostek. Komputer kwantowy to zupełnie osobna opowieść. Pisze się...
Pozdrawiam.
sr... w banie wywnioskowales to z artykulu o teraflops in a box??
tam sa 2 uklady r600 czyli zapomnieles podzielic przez dwa bo dopiero wtedy wyjdzie ci ile ma jeden uklad
tak naprawde jest cos okolo ~0.5teraflopsa na jeden uklad r600 czyli tyle co G80
wniosek:
albo chciales namieszac
albo jestes funboyem i to skrajnym ktory klamie zeby wyszlo na kozysc r600
albo sie nie znasz i przeoczyles cos kiedy bozia ci dawala muzg na tacy:P nie wzioles pasty termoprzewodzacej czy czegos innego i dlatego pracujesz niestabilnie etc.
Brylant to oszlifowany diament
Panie RS arcik Miodzio.
dziwnie sie ogląda ostatnia expansję intela... jeszcze ze 2 lata temu było sie z niego zdrowo śmiane
Mnie też
Robi się coraz ciekawiej. Widać, że Intel nie odpuszcza w liczbie -flopów
To od razu złoto, albo syntetyczny brylant.
To była pomyłka trzeba było coś wymyślić ...
Wrócili do architektury ta tak P3 z kilkoma udoskonaleniami pomnożyli x2 nazwali C2D no i jak na razie jest git ....
Ale chłopaki pomyśleli jeśli w serwerach (i etc) moze działać kilka procków na raz i jest super to może zastosujemy to w desktopach wszelkiej maści (w sumie pomysł sprawdzony) no i ruszyli do dzieła 80 rdzeni (prostych 80) ale zawsze 80 ...
Co z tego wyjdzie pozyjemy tu dużo zależy od stytemu operacyjnego itd .... (jak i samego oprogramowania) trzeba pamiętać ze win zgrozy wszelkiej maści nie sa przystosowane do takich systemów a nawety jesli takowe się pojawiąto bedzie to pewnie za dobre 6-10 lat i tu moze byc problem ....
architektura x86 jest jaka jest modyfikowana od lat ale ciągnie za sobą relikt przeszłosci a jak na razie w ciagu najbliższych 10-15 lat mało prawdopodobne by coklowiek sie zmieniło ..
Tak czy siak ogólnei nie jest aż tak żle Intelowskie C2D to naprawdę dobre szybkie i uniwesalne procesory.
Co do AMD hmmm chłopaki nie mają pomysłu mozę procesory nie aż takie złe ale o rok za intelem a to dość dużo w branży IT.
A ja nie odpuszczę tych trylionów. Trzeba poprawić ten błąd w artukule.
[
Widzę, że tu ogólny problem z matmą jest.[/
literówki, jak sam u siebie widzisz
ukule.[
Widzę, że tu ogólny problem z matmą jest.[/
edit: co racja to racja.
A czemuż w innym przypadku miałaby służyć taka możliwość, jeśli nie zastosowaniu mocniejszego GPU?
Połaczenie CPU z GPU da tyle samo, ile dało przyspieszenie AGP z 4x do 8x, albo zmiana PCI Express 8x na PCI Express 16x.
Z racji tego ze bedzie mozliwosc korzystania z obecnych akceleratorow na platformie fusion wnioskuje Pan ze sam procek fusion bedzie mniej wydajny od rozwiazan standardowych?
Wszyscy ,to znaczy kto? bo ja np nie wiem ile tak naprawde poweru da polaczenie CPU z GPU .Rozumiem ze jest Pan specem od budowy układow?
A pamięć ZRAM/eDRAM rzeczywiście umożliwia... zwiększenie cache L3 z dwóch do 10 MB. Świat i ludzie!
G80 ma podobno 681M tranzystorow natomiast C2Q 582M tranzystorow. Zbyt duzej dysproporcji nie widze. Pozatym integracja CPU z GPU pozwala na redukcje pewnych elementow np. jednostki FPU procesora moga byc zastapione przez shadery itp.
"AMD-powered Fusion platforms will continue to fully support high-end discrete graphics, physics accelerators, and other PCI Express-based solutions to meet the ever-increasing needs of the most demanding enthusiast end-users.There is to be an expected speed increase with the Fusion. Because the GPU and CPU will be on the same die, information transfer between the CPU and GPU/GPU memory will significantly increase since there will be no need for the information to travel on a bus to and from the CPU and GPU as it is today with current motherboards."
Ach, to czytanie ze zrozumieniem... Ale wybaczam, bo PR-owskie bełkoty trzeba tłumaczyć na ludzki język. To teraz ludzkim głosem. W pierwszym zdaniu zawarta jest informacja, że rozwiązania Fusion nie będą uniemożliwiać korzystania z dyskretnych kart graficznych, akceleratorów fizyki i innych kart na PCI Express.
Z kolei trzecie zdanie, mówiące o zysku wydajności z tego, że komunikacja pomiędzy CPU i GPU na tym samym chipie, to klasyczne "mącenie w głowie". Bo przecież wszyscy doskonale wiemy, jak nikłe znaczenie dla wydajności ma komunikacja pomiędzy CPU a GPU.
Jesli chodzi o ograniczenia zwiazane z przepustowoscia pamieci ram jakie maja obecne rozwiazania zintegrowane to nalezy pametac ze do zniwelowania tego problemu AMD moze uzyc np. pamiec ZRAM o 5x wiekszej pojemnosci albo zrobic fusiona nie na podstawke socket tylko np. na slot1 i wcisnac tam szybka pamiec gddr4.
A pamięć ZRAM/eDRAM rzeczywiście umożliwia... zwiększenie cache L3 z dwóch do 10 MB. Świat i ludzie!
Nie porownuj dzisiejszych rozwiazan z nadchodzacymi, bo to dwie rozne bajki. Fusion to zintegrowanie grafy bezposrednio z prockiem a nie grafy z chipsetem plyty glownej.
mi sie zdawało że to jakiś testowy athlon XP
a recenzja z polarisa nice
pewnie dlatego że dotychczasowe układy graficzne zintegorwane z płytą główną w segmencie deskop nie powalją swoimi osiągami
Dlaczego tylko do lowendu? Ponizej zamieszczam oswiadczenie prasowe AMD:
"AMD-powered Fusion platforms will continue to fully support high-end discrete graphics, physics accelerators, and other PCI Express-based solutions to meet the ever-increasing needs of the most demanding enthusiast end-users.There is to be an expected speed increase with the Fusion. Because the GPU and CPU will be on the same die, information transfer between the CPU and GPU/GPU memory will significantly increase since there will be no need for the information to travel on a bus to and from the CPU and GPU as it is today with current motherboards."
Nie wiem na jakiej podstawie twierdzi Pan ze fusion to bedzie tylko dla lowendu bo integracja procka z karta graficzna znacznie zmniejsza czas komunikacji GPU/CPU.
Jesli chodzi o ograniczenia zwiazane z przepustowoscia pamieci ram jakie maja obecne rozwiazania zintegrowane to nalezy pametac ze do zniwelowania tego problemu AMD moze uzyc np. pamiec ZRAM o 5x wiekszej pojemnosci albo zrobic fusiona nie na podstawke socket tylko np. na slot1 i wcisnac tam szybka pamiec gddr4.
Zapewne, zapewne. Albo i nie! Jeśli jednostki przetwarzania R600 są, jak głosi plotka, nadal wektorowe, to może ATI odzyska palme pierwszeństwa w 3D, ale nic poza tym.
A Fusion to rozwiązanie, przynajmniej w obecnych planach, dla low-endu i dolnego midrange.
Nie ma "produkcji" tego cuda. Wykonano zaledwie kilka wafli i, o ile wiem, w tej wersji więcej ich nie będzie. A co do lawiny rozwiązań multicore - przepraszam, nie wyrabiam się z ich prezentowaniem. Na swoją kolej czeka Vega2 - 48 jąder optymalizowanych do Javy i parę innych ciekawostek. Komputer kwantowy to zupełnie osobna opowieść. Pisze się...