komentarze
Koval_Zobacz profil
Poziom ostrzeżenia: 0%
Koval_2011.03.31, 22:22
Mglisty @ 2010.08.18 14:36  Post: 403887
To co, czekamy aż poprawią wszystkie błędy i nazwą to dumnie Hydra 2?

do hydry nie porównuj, zobacz na cenę, która jest niższa o wiele. Ale dla normalnych użytkowników jak najbardziej się nada. A poprawa błędów to kwestia czasu, wierzę w to. :D
zenwroZobacz profil
Poziom ostrzeżenia: 0%
zenwro2010.08.24, 00:02
Dla mnie ogolnie poroniony pomysł.Albo Crossfire albo SLI i koniec bajki.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2010.08.22, 11:14
Zapewne po dopracowaniu i uzyskaniu wsparcia jednego z producentów, technologia rozwinęłaby skrzydła. Potencjał to ona jednak ma. Bez wsparcia ze strony AMD lub Nvidii nie ma jednak szans na większą poprawę. Nvidia i AMD tego mnie kupią, bo sponsorem (i chyba także właścicielem) Lucida jest Intel ;)
grzesiek1871Zobacz profil
Poziom ostrzeżenia: 0%
grzesiek18712010.08.22, 08:15
Bogie @ 2010.08.18 14:25  Post: 403880
Niestety od początku wydawało się to zbyt piękne, żeby mogło być prawdziwe. Poza tym, jeśli byłoby to skuteczne, AMD lub Nvidia dawno zakupiłaby już tą firmę.
Jeśli coś ma poprawić działanie 2 i więcej kart w systemie, to tylko DirectX - 11 miała to poprawić, a niestety zmian nie ma - system powinien rozdzielać pracę na poszczególne karty na poziomie API - wtedy by to miało sens.


Jaki interes miałaby firma AMD lub Nvidia przy zakupie tej firmy/technologii? Czy Nvidia wydałaby mnóstwo kasy po to tylko aby jej klienci kupowali również karty Ati? ;)
Wiadomo, można łączyć karty jednego producenta ale to nie przynosi poprawy w stosunku co do zwykłego CF/Sli .
Michał OlberZobacz profil
Poziom ostrzeżenia: 0%
Michał Olber2010.08.20, 11:26
Czemu brakuje testów z OpenGL? Ciągle tylko DirectX i MS. Moglibyście dać jakieś gry zrobione na OpenGL, jak ta technologia zachowuje się w tym układzie logiki.
A jak sprawa ma się z wykorzystaniem potencjału dwóch różnych kart graficznych w programach do obliczeń.
marti_944Zobacz profil
Poziom ostrzeżenia: 0%
marti_9442010.08.20, 03:14
N0Control @ 2010.08.20 02:45  Post: 404508
marti_944 @ 2010.08.20 00:50  Post: 404492
(...)


Znaczy, że za 15 PLN, czy tam $, czy Euro można ją dopracować ? :E

@EDIT:

(...)


Ano po to, że jedne karty mają tamto, drugie natomiast owamto (np. PhysX u nV i... coś tam u ATi ;), dopiszcie sobie: 'co takiego ATi ma', bo chwilowo nie mogę nic skojarzyć ).
Samo w sobie to sens ma, tylko jak już powiedziano - implementacja do bani.


Ale przy korzystaniu z tego wynalazku chyba physx nie da się odpalić.


Przecież napisałem - pomysł jest OK, ale obecna implementacja/zastosowanie jest bez sensu.
N0ControlZobacz profil
Poziom ostrzeżenia: 0%
N0Control2010.08.20, 02:45
marti_944 @ 2010.08.20 00:50  Post: 404492
XGwizdekX @ 2010.08.18 14:15  Post: 403871
(...)


Obawiam się, że na badanie i rozwijanie tej technologii potrzeba jeszcze z pięć lat i trzy razy tyle pieniędzy.


Znaczy, że za 15 PLN, czy tam $, czy Euro można ją dopracować ? :E

@EDIT:

Rapture @ 2010.08.18 22:01  Post: 404063
po co to komu to ja nie wiem...


Ano po to, że jedne karty mają tamto, drugie natomiast owamto (np. PhysX u nV i... coś tam u ATi ;), dopiszcie sobie: 'co takiego ATi ma', bo chwilowo nie mogę nic skojarzyć ).
Samo w sobie to sens ma, tylko jak już powiedziano - implementacja do bani.


Ale przy korzystaniu z tego wynalazku chyba physx nie da się odpalić.
marti_944Zobacz profil
Poziom ostrzeżenia: 0%
marti_9442010.08.20, 00:50
-1#44
XGwizdekX @ 2010.08.18 14:15  Post: 403871
Telvas @ 2010.08.18 14:05  Post: 403865
Emmm... Czy tego nikt nie przetestował przed wprowadzeniem do produkcji? o_O Przecież wydawanie takiego chłamu to strzał w kolano - dla Hydry i samego MSI też. Już i tak się wieść rozeszła, że to całe MSI Fuzion to chłam...
Po całej tej Hydrze spodziewałem się znacznie więcej...


Obawiam się, że na badanie i rozwijanie tej technologii potrzeba jeszcze z pięć lat i trzy razy tyle pieniędzy.


Znaczy, że za 15 PLN, czy tam $, czy Euro można ją dopracować ? :E

@EDIT:

Rapture @ 2010.08.18 22:01  Post: 404063
po co to komu to ja nie wiem...


Ano po to, że jedne karty mają tamto, drugie natomiast owamto (np. PhysX u nV i... coś tam u ATi ;), dopiszcie sobie: 'co takiego ATi ma', bo chwilowo nie mogę nic skojarzyć ).
Samo w sobie to sens ma, tylko jak już powiedziano - implementacja do bani.
ReduxZobacz profil
Poziom ostrzeżenia: 0%
Redux2010.08.19, 11:28
'tryb X nie działa w Windows Vista'
Wprawdzie szajs powoduje szajs, nie dziwcie się :E
wojtzuchZobacz profil
Poziom ostrzeżenia: 0%
wojtzuch2010.08.19, 11:27
NeRio1987 @ 2010.08.19 10:49  Post: 404201
Wiem, że forma 'znikło' jest poprawna, ale chyba ładniej wyglądałoby 'zniknęło', ale to tylko taka mała dygresja.

Kwestia osłuchania, na pewno w różnych rejonach polski przeważają różne formy (tak jest choćby w przypadku otwarł i otworzył, na których widok co chwila ktoś gdzieś się buntuje). To stuprocentowe synonimy.

W Uniwersalnym słowniku języka polskiego PWN w przykładach i objaśnieniach forma znikło występuje siedem razy, w tym dwukrotnie w haśle zniknąć, a zniknęło - trzy (w haśle zniknąć - raz). Choć jeśli chodzi o pozostałe podwójne formy słowa zniknąć, podobną przewagę mają tu końcówki w dłuższej wersji.

Jeszcze wpis z poradni PWN-u:

http://poradnia.pwn.pl/lista.php?id=10185
i odmiana z USJP (skopiowałem z elektronicznej wersji):

dk — ndk · Va a. Vc, ˜nę, ˜niesz, ˜nij, ˜ął a. znikł, ˜nęła a. ˜kła, ˜nęli a. ˜kli, ˜ąwszy a. ˜kłszy; rzecz. zniknięcie n I — I, ˜am, ˜asz, ˜ają, ˜aj, ˜ał, ˜any; rzecz. znikanie n I; w zn. 3 tylko w 3 os
NeRio1987Zobacz profil
Poziom ostrzeżenia: 0%
NeRio19872010.08.19, 10:49
Wiem, że forma 'znikło' jest poprawna, ale chyba ładniej wyglądałoby 'zniknęło', ale to tylko taka mała dygresja.
Co do samej płyty, to jedna, wielka porażka. Po co ten układ Lucida skoro nic nie daje?
SuLac0Zobacz profil
Poziom ostrzeżenia: 0%
SuLac02010.08.19, 10:31
te logo lucida kojarzy mi sie z polamana sfastyka :/
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2010.08.19, 08:39
Mnie się wydaje że 1 GB/s, ale mogę się mylić. Najważniejsze jest jednak to, że jest to bezpośrednie i ekskluzywne połączenie między kartami. Komunikacja między kartami przez PCIE odbywa się za pośrednictwem mostka północnego, a pasmo musi być też dzielone z danymi z i do CPU. Dlatego ten mostek o niewielkiej przepustowości daje tak dużo.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.08.19, 08:22
sluka - mostek sli z tego co pamiętam to 0.9GB/s, biorąc pod uwagę że teraz mamy pci-e 2.0 to niewiele.
xoloxZobacz profil
Poziom ostrzeżenia: 0%
xolox2010.08.18, 23:49
-3#37
cyrix133 @ 2010.08.18 16:49  Post: 403966
widać że radeon spowalniał gtxa na każdym kroku...no cóż to nie ta liga....a swoją droga łączenie tych kart to zniewaga dla doskonałego gpu nvidii

Bosz.. co ty bierzesz ? Zmień dilera :)
slukaZobacz profil
Poziom ostrzeżenia: 0%
sluka2010.08.18, 23:07
Taaa, a karty przepychają wszytkie dane przez PCI-e i mostkiem nie są połączone.
Tu nie chodzi o to że to działa kiedy nic nie robi, wtedy zachowuje się jak mostek (przynajmniej wg schematu blokowego), ale nie wyrabia się wtedy kiedy sam 'udaje' kartę graficzną. Wtedy następuje tłumaczenie rozkazów i podział pracy. Ten obiekt na karcie A, ten na karcie B. Jeśli wyświetlaniem obrazu zajmuje się karta A, to musi przepchać całość wyników końcowych z pamięci karty B do karty A. Oooo nowa instrukcja, do której nie ma algorytmu w pamięci podręcznej, to wio przez PCI-e zapytać się co z tym robić CPU i programu sterownika. Ten układ nie ma żadnej własnej pamięci po za pamięcią podręczną. Czyli albo musi poszukiwać takich danych w pamięci RAM, albo ordynarnie upycha je w pamięci karty graficznej. Dostęp do tego co mu brakuje jest zawsze wolny, bo przez PCI-e. Wszystkie jaskółki śpiewają, że Lucid wpadł na pomysł programowalnego mostka PCI-e, tyle że nie było co z nim zrobić, i jak go sprzedać. Więc spece od marketingu wpadli na taki pomysł i nazwali go Hydra. Obiecamy gruszki na wierzbie i entuzjaści go łykną. A to że to nie będzie miało prawa działać wydajnie przemilczą.
PCI-e jest szeregowa, i w przypadku grafiki pewnie przelatuje przez nią więcej danych niż instrukcji, ale np ma się pojawić nowy obiekt na scenie, to leci tam instukcja (co to) i rersta danych obiektu, np współrzędne wierzchołków. Teraz przechwytuje to hydra, decyduje na która kartę to wysłać, dokonuje tłumaczenia instrukcji pod właściwe GPU i wysyła... ale, ale pracuje tylko z zegarem 3x szybszym niż PCI-e, a tu musi gdzieś tą instrukcję odłożyć, sprawdzić na co wysłać i w jakiej postaci, pobrać właściwy kod rozkazu i wysłać... nie coś tu nie gra dalej, ;) a gdzie dane? Ot zanim zdecyduje co i jak i gdzie musi cały pociąg z danymi odebrać, zatrzymać na bocznicy (cache) zmienić lokomotywę ( istrukcję) i dopiero puścić to dalej. Jak widać nie zawsze się to udaje, bo nie 'hula'... o nie, nawet nie zawsze poprawnie jest to wyświetlane. Gorzej czasami muszą być te dane gubione bo se coś mryga na ekranie. No ale tym powinien się zająć 'sterownik' aby na raz więcej nie wysłać niz CPU w hydrze może obsłużyć, tyle ze nie zawsze się to da zrobić. Gdyby RISC w hydrze miał parę MB własnej pamięci ram nie było by tyle problemów.

Teraz jeszcze jedno, nVidia udostępniła tryb SLI dla kart GF6200, gdzie karty wymieniały ze sobą dane przez PCI-e, Jednak już w przypadku GF6600 mówiła że PCI-e będzie za mało wydajne i konieczny jest mostek SLI. Owszem, to było na PCI-e 1, a teraz mamy PCI-e z dwa razy większą przepustowością, ale hmmm które z obecnych kart można równać wydajnościowo z GF6600?

To nie będzie, bo nie może, ani nigdy nie mogło sprawnie działać
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.08.18, 22:12
Przecież masz SLI i CrosfireX. Tu się CPU zajmuje rozdzielaniem zadań.

Niczym się nie zajmuje... 99% gier w których to działa posługuje się AFR - CPU nic zasadniczo nie musi dzielić, po prostu jedna karta renderuje klatki parzyste, druga nieparzyste i odsyła je do mastera gdzie są naprzemiennie wysyłane na wyświetlacz. Do tego nie trzeba żadnego dzielenia zadań, wystarczają mechanizmy wbudowane w kartę. Hydra to inna sprawa, pokazałeś specyfikację więc widzisz sam wyraźnie że tu nie liczy się wydajność obliczeniowa, tylko szybkość reakcji na dane zdarzenia na magistralach. Tyle od strony sprzęu - układ tylko 'demultipleksuje' polecenia wysyłane poprzez sterownik urządzenia, ewentualnie odsyła mu stan urządzeń docelowych. Tylko tyle i aż tyle, bez tego układziku byłoby to może nie NIEMOŻLIWE, ale z całą pewnością ZNACZNIE trudniejsze do wykonania. Zresztą włącz tryb PIO w dysku i zacznij coś kopiować ;) Im szybszy dysk i większy transfer (oraz większa liczba transferów, żądań dostępu itp) to tym obciążenie proca by poszło w górę... a tak... niezbyt wydajny układzik mający dokładnie jedno konkretne zadanie się całością zajmuje.
RaptureZobacz profil
Poziom ostrzeżenia: 0%
Rapture2010.08.18, 22:01
po co to komu to ja nie wiem...
slukaZobacz profil
Poziom ostrzeżenia: 0%
sluka2010.08.18, 21:38
Promilus1984 @ 2010.08.18 20:27  Post: 404025
Nadal twierdzę, że żaden obecny x86 nie byłby odpowiednim konkurentem dla Hydry.


Jak to nie :). Przecież masz SLI i CrosfireX. Tu się CPU zajmuje rozdzielaniem zadań.


Od tego są właśnie układy specjalizowane, np. Xena, który jest wielokrotnie mniej wydajny (obliczeniowo) niż CPU obecnej i poprzedniej generacji, ale ma zalety (bardzo szybko obsługuje wszystkie zdarzenia na pinach) których owe procesory nie posiadają. Zrozum, że CPU tak naprawdę do wielu zadań po prostu się NIE nadaje.


Dopisanie Dx11 to jeden z dowodów na to że to jest CPU, rozdzielanie rozkazów to kolejny dowód. Sceny 3D są za bardzo złożone aby sprawdzał się jeden sztywny algorytm zaszyty na sztywno w tranzystorach sobie z tym poradził. To nie strumieniowe mpegi gdzie paczka danych jest całością (zwłaszcza te pierwsze mpegi).
A trzecim dowodem jest sama dokumentacja układu LT22102

'Embedded RISC

o
Tensilica Diamond Architecture 32-bit RISC
o
300 Mhz clock
o
64 Kbytes on-chip instruction memory
o
32 KBytes on-chip data memory
o
On chip DMA engine to enable PCIe packet generation and reception
o
Real time control over the switch operation
'

On jest już obecnie za mało wydajny aby poradził sobie z dzisiejszymi kartami z górnej półki.
GalnospokeZobacz profil
Poziom ostrzeżenia: 0%
Galnospoke2010.08.18, 20:34
SunTzu @ 2010.08.18 20:04  Post: 404023
Galnospoke @ 2010.08.18 19:55  Post: 404018
Wyglada to na oszustwo. Jak to mozliwe, aby dolozenie kolejnej silnej karty nic nie dawalo. Tu logika prostestuje.

Pioy @ 2010.08.18 20:01  Post: 404020
Logika i komputery? Nie zauważyłeś jeszcze, że te dwa terminy niemal się wykluczają? :P

To jest dla entuzjastów... Nie jesteś entuzjastą nowinek nie kupuj.


Raczej frajerow, skoro wydajac 800 zl na kolejna karte przyrost wydanosci jest rowny 0%. O cenie plyty z tym wynalazkiem nie wspomne.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.