komentarze
barwniakZobacz profil
Poziom ostrzeżenia: 0%
barwniak2019.03.02, 14:25
Ciekawe ile wyciągają GPU i maszynki ASCI.
kainZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjikain2019.03.02, 14:31
barwniak @ 2019.03.02 14:25  Post: 1191582
Ciekawe ile wyciągają GPU i maszynki ASCI.


W tych projektach nie da się się ich używać. ASIC nie da się w żadnym.
titobpZobacz profil
Poziom ostrzeżenia: 0%
titobp2019.03.02, 14:38
14#3
Aż założyłem konto.
Jako, że BOINC jest mi bliski to i artykuł przeczytałem z przyjemnością. Do końca czekałem na wyniki pobieranej mocy, ale tu muszę chyba poczekać.
@Kain - nie pamiętasz nielubianego projektu BitcoinUtopia? Tam można było liczyć na ASIC - z własnego doświadczenia wiem, że inwestycja 50zł w najtańszego minera dawała większy RAC niż najlepsze GPU.
@Barwniak - mam nadzieję , że redakcja zareaguje i wkrótce zobaczymy porównanie CPUvsGPU tam gdzie to jest możliwe.
VendeurZobacz profil
Poziom ostrzeżenia: 0%
Vendeur2019.03.02, 14:43
-10#4
kosztujący mniej niż 1500 złotych (a da się jeszcze kupić taniej)


Masło maślane. Skoro kosztuje 'mniej niż', to stwierdzenie z nawiasu jest niewłaściwym i rzekomym kontrastem.

A tak poza tym, to bardzo interesująca informacja podsumowująca artykuł na końcu :).
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842019.03.02, 14:50
universe@home działa też z tego co pamiętam na aarch64 (ARMv8) - nie wiem czy te same WU, ale jeśli tak to zupełnie dla celów porównawczych można by to wrzucić (czyt. czy lepiej stosik na rpi3, czy jakiś PC do crunchingu).
HΛЯPΛGŌNZobacz profil
Poziom ostrzeżenia: 0%
HΛЯPΛGŌN2019.03.02, 15:20
Nie licząc kocurów TR 24 i 36, to walka obu obozów jest wyrównana. No ale własnie, te kocury są :)
andy101Zobacz profil
Poziom ostrzeżenia: 0%
andy1012019.03.02, 15:22
16#7
Piękny wkład w promowanie idei BOINC. Warto wymienić którzy koledzy z redakcji wspierają idee obliczeń rozproszonych. Dla nich również ogromne podziękowania.
AvitrZobacz profil
Poziom ostrzeżenia: 0%
Avitr2019.03.02, 15:28
-19#8
Widać że jak aplikacja jest porządnie zoptymalizowana dla AMD (lub Intel nie zapłacił za brak optymalizacji dla AMD) to Ryzeny potrafią dogonić Intele.
KinexityZobacz profil
Poziom ostrzeżenia: 0%
Kinexity2019.03.02, 15:57
Avitr @ 2019.03.02 15:28  Post: 1191594
Widać że jak aplikacja jest porządnie zoptymalizowana dla AMD (lub Intel nie zapłacił za brak optymalizacji dla AMD) to Ryzeny potrafią dogonić Intele.

Prawdopodobnie nie używa AVX2 i AVX512.
i386Zobacz profil
Poziom ostrzeżenia: 0%
i3862019.03.02, 15:58
ASCI RED osiągał wydajność około 1Tflopa.
Czyli jeden PPro 1000 / 4510 = 220 Mflopów (0,22GFlopa).
A dziś ?

Dzisiejsze procesory te 18 rdzeniowe około 1 Tflopa
Nie wiem jak te 28 (na pewno więcej) ...
Jeszcze większą teoretyczną wydajność mają GPU choć tylko w specyficznych przypadkach (inne konstrukcja).
Ale fakt za mniej niż 10 k PLN da radę zbudować superkomputer sprzed 20 lat.

Pentium DZobacz profil
Poziom ostrzeżenia: 0%
Pentium D2019.03.02, 16:35
18#11
Sporo czasu i prądu poszło na te testy więc wyłączę adblocka na jakiś czas byście mieli trochę $$ na rachunki.
bigovskyZobacz profil
Poziom ostrzeżenia: 0%
bigovsky2019.03.02, 16:53
12#12
Zostanę zaminusowany, ale naprawdę trzeba być idealistą by w obecnych czasach bawić się w obliczenia rozproszone. Pomijając wysoką komercjalizację wielu projektów, to koszt prądu czy różnica między poborem spoczynkowym, a maksymalnym sprzętu wzrosły dramatycznie. W epoce A64 czy wczesnych PII sam uczestniczyłem, a teraz ? Prąd 2x droższy, obciążam jeden rdzeń i pobór z 50w wzrasta do 120W, obciążam wszystkie i mam 260W. Można mówić o darmowym udostępnianiu zasobów gdyby istniał mechanizm rekompensaty za pobór energii. Tutaj za to płacimy. Z wiekiem poziom idealizmu spada, proporcjonalnie do obciążeń i doświadczeń. Za stary jestem :)
Edytowane przez autora (2019.03.02, 17:11)
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842019.03.02, 17:01
Można mówić o darmowym udostępnianiu zasobów gdyby istniał mechanizm rekompensaty za pobór energii.

grcpool ...
Teraz odnośnie idealizmu... co miesiąc płacisz ZUS, na co konkretnie liczysz? Że pieniążki, które tam wkładasz rzeczywiście będą efektywnie wykorzystane na Twoje leczenie i Twoją emeryturę? Naiwnym idealizmem jest wiara w to, że ten system będzie działał lepiej gdy od 2 dekad działa coraz gorzej (bo coraz gorszy stosunek pracujących do pobierających świadczenia). Tylko w przypadku WCG dajesz jeśli chcesz, a w przypadku ZUS dajesz bo musisz ;)
Pyth0nZobacz profil
Poziom ostrzeżenia: 0%
Pyth0n2019.03.02, 17:03
Miałem BP6 i 2x Celeron 500. Aby włożyć 2x PIII można było kupić przejściówki (NeoS370) albo dostosować płytę bezpośrednio żyletką, kynarem i lutownicą. https://web.archive.org/web/20031006012141...rticle&k=17
Ja nic nie ruszałem, tylko naprawiłem obwód stabilizacji VTT (standardowa usterka)
bigovskyZobacz profil
Poziom ostrzeżenia: 0%
bigovsky2019.03.02, 17:14
Promilus1984 @ 2019.03.02 17:01  Post: 1191613

Teraz odnośnie idealizmu... co miesiąc płacisz ZUS, na co konkretnie liczysz? a w przypadku ZUS dajesz bo musisz ;)


Na nic, staram się zgromadzić własny kapitał na emeryturę. Jak sam zauważyłeś płacenie ZUS ma niewiele wspólnego z idealizmem i dobrowolnością... Już szczególnie jak się prowadzi własną działalność

o grcpool nie słyszałem, może kiedyś zainteresuje się tematem ;)
Edytowane przez autora (2019.03.02, 17:17)
kretowiczZobacz profil
Poziom ostrzeżenia: 0%
kretowicz2019.03.02, 17:20
Używajmy bionic - generujmy większe zużycie prądu, płaćmy za to przy niskim poziome efektywności.

Sprzęt przygotowany do tego typu obliczeń wykonał by pewnie x więcej razy pracy w tym samym czasie zużywając znacznie mniej energii...
krzyszpZobacz profil
Poziom ostrzeżenia: 0%
krzyszp2019.03.02, 17:28
14#17
Świetny artykuł :)

Ze swojej strony, jako admin Universe@Home dodam kilka uwag.
1. Fajnie by było faktycznie dodać do porównania maszynki na ARM, zwłaszcza świetnie sobie radzące Odroid C2 i XU4 - perf/Watt mają niesamowicie korzystny (Oryginalne RPi niestety mają słabe CPU).
2. Wykonałbym też testy (ważne - na tych samych WU) pod Linuksem. Aplikacje liczące często są optymalizowane na ten system, bo początkowo na nim są one tworzone i w niektórych przypadkach przyrost wydajności na Linuksie sięga 30% (tak, nawet na Linuksie odpalonym na maszynie wirtualnej).
3. Aplikację Universe@Home warto dla tego samego WU odpalić kilkakrotnie w celach testowych, gdyż w części przypadków ilość obliczeń może być różna ze względu na użycia generatora liczb pseudolosowych.
titobpZobacz profil
Poziom ostrzeżenia: 0%
titobp2019.03.02, 17:36
bigovsky @ 2019.03.02 16:53  Post: 1191609
.... Z wiekiem poziom idealizmu spada, proporcjonalnie do obciążeń i doświadczeń. Za stary jestem :)

Ja traktuję to jako hobby, a jak wiadomo koszty w hobby niekonieczne są sensowne. Ale faktem jest, że staram się zmniejszyć pobór prądu przez UV i power limity.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842019.03.02, 17:36
@kretowicz - pewnie, tylko czy każdą uczelnię i każdy ośrodek badawczy stać przy takiej skali przedsięwzięcia na badania na dedykowanym sprzęcie zamiast wolontariat na platformie BOINC? No właśnie... nie. Poza tym większość projektów (medycznych) to po prostu konieczność przetworzenia dużej ilości niepowiązanych danych (np. w zakończonym Help Conquer Cancer była to analiza 'skanów' rentgenowskich protein zw. z rakiem by móc łatwiej i szybciej diagnozować komórek rakowych, gdy zrobili klienta wykorzystującego GPU to całą analizę zakończono w kilkukrotnie krótszym niż planowany czasie - co za tym idzie w tym przypadku warto było przysiąść nad OpenCL bo koszt czasowy przepisania wielokrotnie się spłacił). Teraz trochę bardziej przyziemnie - czy ktoś jest aż takim idealistą, że myśli, że to co się uda odkryć przez BOINC będzie tanie i powszechne? Lek na raka, na aids, na zanik mięśni? Nie. Nie będzie. Ale może taki w pełni skuteczny się pojawi szybciej, co dla wielu ludzi ma zasadnicze znaczenie.
Edytowane przez autora (2019.03.02, 17:37)
krzyszpZobacz profil
Poziom ostrzeżenia: 0%
krzyszp2019.03.02, 17:56
kretowicz @ 2019.03.02 17:20  Post: 1191621
Używajmy bionic - generujmy większe zużycie prądu, płaćmy za to przy niskim poziome efektywności.

Sprzęt przygotowany do tego typu obliczeń wykonał by pewnie x więcej razy pracy w tym samym czasie zużywając znacznie mniej energii...


Zadziwię Cię - wcale nie.
Gdyby np. CAMK (obecny patron Universe@Home) zakupił sprzęt dedykowany do tych obliczeń, to poniósłby koszty opracowania, kilka etatów administratorów, prądu, klimatyzacji itd - to wcale nie wyszłoby taniej.
Druga sprawa - naukowcy U@H wyliczyli, że już w pierwszym roku wolontariusze dokonali wyliczenia mówiącego, że aby wykonać tę ilość obliczeń musieliby nabyć superkomputer o wartości ponad 2 mln złotych. Dwóch milionów!
Ostatnią sprawą jest poruszona już kwestia, że nie jest opłacalniejsze stawianie dedykowanego superkomputera często z bardzo prostego powodu - nie ma na niego kasy...
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.