komentarze
sinoZobacz profil
Poziom ostrzeżenia: 0%
sino2019.03.04, 12:24
kain @ 2019.03.02 21:07  Post: 1191680
Tego typu testy możesz znaleźć na moje prywatnej stronie, niedługo pojawi się ich więcej. Nie ma żadnych szans żebyśmy kilkadziesiąt platform testowali od nowa w pclabie, nie ma na to niestety po prostu czasu.
Fajne byłoby potwierdzenie wyników passmark cpu.

i386 @ 2019.03.02 15:58  Post: 1191602
Ale fakt za mniej niż 10 k PLN da radę zbudować superkomputer sprzed 20 lat.
20 lat = 10 lat + 10 lat :)

A te nie są sobie równe, np.
-rok 2004 Pentium 4 3 GHz wynik 353
-rok 2011 i5-2400 wynik 5963
-rok 2019 i5-9400f wynik 12455
Tak więc skok z 2004 na 2011 aż 17 razy szybciej, a z 2011 na 2019 zaledwie 2,1 raza.

Wybrałem te procesory bo wydają mi się odpowiednikami ze swoich lat, a wyniki są z passmark cpu. Jak wiadomo z testów (choćby na pclab) różnie bywa w różnych zastosowaniach i te wyniki to nie wyrocznią. Jednak reguła jest PEWNA: z 2004 do 2011 ogromny skok, z 2011 do 2019 powolnie czołganie.
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2019.03.04, 13:59
Amitoza @ 2019.03.03 20:26  Post: 1191802
Telvas @ 2019.03.03 01:54  Post: 1191719
Fraza 'HT versus SMT' to masło maślane. HT to właśnie jest SMT, bo SMT to nazwa techniki (idei, pomysłu), a HT to marketingowa nazwa implementacji tego rozwiązania w procesorach Intela.

Żadne masło maślane. HT to nazwa handlowa smt u intela, a ze amd nie ma swojej to zostaje określenie smt. Wiec jest to porównanie smt w amd i HT u intela.

Ależ oczywiście, że nie. SMT jest pojęciem ogólnym i koncepcyjnym. To, że AMD nie wymyśliło nazwy na swoją własną jego implementację nie czyni precyzyjnym i prawdziwym nazywania jej ogólnikiem, do którego nota bene samo HT również się zalicza. To trochę jakby napisać 'xDrive vs napęd na wszystkie koła'. Jest to logicznie błędne, bo xDrive JEST napędem na wszystkie koła. Tak samo HT to jest SMT.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842019.03.04, 14:40
@Telvas quattro vs 4WD ;)
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2019.03.04, 15:00
@sino
Niby tak, ale Threadrippery sporo namieszały. O ile porównując i7-990X z 2010 r. z dzisiejszym i7-9900K wzrost wydajności nie będzie zbyt imponujący, to już porównując tego pierwszego z topowych Threadripperem w aplikacjach wielowątkowych wzrost jest dość adekwatny do upływu lat (choć szybki wzrost wydajności wielowątkowej to w zasadzie dopiero ostatnie 2 lata, w ciągu których udało się nadrobić bardzo wiele zaległości). Zanim jednak przejdziemy do standardowego narzekania na korporacje warto mieć w pamięci, że w zastosowaniach domowych nadal wydajność 1 wątku ma spore znaczenie i jej rozwijanie niekoniecznie należy uznawać za ślepą uliczkę (przynajmniej dopóki tempo wdrażania nowych litografii na to pozwalało).
Edytowane przez autora (2019.03.04, 15:01)
krzyszpZobacz profil
Poziom ostrzeżenia: 0%
krzyszp2019.03.04, 15:44
bi3dron4 @ 2019.03.04 12:11  Post: 1191835
Które projekty korzystające z obliczeniowego wolontariatu udostępniają nieodpłatnie wyniki badań? Chętnie dołożył bym się do wynalezienia 'leku na raka', pod warunkiem, że kiedy pójdę po niego do apteki, to nie dowiem się, że za 5 tabletek będę musiał sprzedać nerkę...

Większość projektów tak działa, a z opisanych w artykule to zarówno WCG jak i Universe@Home.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842019.03.04, 16:40
@krzyszp - nie przesadzaj
https://boinc.berkeley.edu/wiki/Publicatio..._BOINC_projects
Jasne, nie jest to jawne przekazanie wszystkich wyników (a jedynie zgrubne podsumowanie badań) ale nie jest też tak, że koncerny farmaceutyczne sobie tam robią projekty, patentują rozwiązania i ciągną kasę od tych samych naiwniaków, którzy im udostępnili moc obliczeniową.
Atak_SnajperaZobacz profil
Poziom ostrzeżenia: 0%
Atak_Snajpera2019.03.04, 17:21

Ciekawe czy Coreprio by coś tu pomogło w przypadku tego szarego wykresu...
https://bitsum.com/portfolio/coreprio/
Edytowane przez autora (2019.03.04, 17:22)
kainZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjikain2019.03.04, 19:03
ban21 @ 2019.03.02 23:29  Post: 1191706
No cóż, moje Xeony 5570 nie zachwyciły. Ciekawe jak wyjdzie porównanie poboru mocy.
A tak przy okazji to może warto byłoby przetestować opterony? Mam platformę z dwoma Opkami 2346.


Jakby nie patrzeć to Xeon 5570 to już naprawdę stara architektura. Pobór prądu, a właściwie sprawność energetyczną mają już bardzo złą na tle współczesnych rozwiązań. Ale to temat na osobny artykuł. Co do Opteronów to zapamiętam, może się w tej sprawie jeszcze odezwę ;-)

Telvas @ 2019.03.03 01:54  Post: 1191719
Fraza 'HT versus SMT' to masło maślane. HT to właśnie jest SMT, bo SMT to nazwa techniki (idei, pomysłu), a HT to marketingowa nazwa implementacji tego rozwiązania w procesorach Intela.


No dobrze, a jak to w takim razie określić czy zatytułować lepiej?

Telvas @ 2019.03.03 01:58  Post: 1191720
A co do samego BOINC, a nawet SETI@home w wydaniu sprzed istnienia BOINC... Bawiłem się w to przez ponad 10 lat... Dość szybko przestałem, gdy zacząłem sam płacić własne rachunki za prąd i zdałem sobie sprawę, jak dużo pieniędzy kosztuje mizerny wkład obliczeniowy domowego peceta. Bardziej opłaca się po prostu przelać dotacje, niech opłacą z tego czas obliczeniowy bardziej efektywnych maszyn ;)


Czy taki mizerny to mam wątpliwości. Czy 'bardziej się opłaca' też mam trochę wątpliwości. Ale ja na przykład WCG liczę na Threadripperach więc efektywniej się aktualnie nie da. Podać numer konta na który można mi przelać dotacje? :E

VirtuaBoy @ 2019.03.03 08:24  Post: 1191735
trudno oszacować, jak wiele zmieniło - nic sie nie zmieniło przez 10 lat procesor powinien być z 5x szybszy a jest 30%.


Przeczytałeś opis procedury testowej? Wydaje mi się, że nie. Nawet w artykule jest podkreślone, że przez kilka lat wydajność wzrosła wielokrotnie, a nie o 30%...

Stjepan @ 2019.03.03 11:09  Post: 1191754
Ciekawe testy, szkoda że nie było FX6300 oraz Athlona X2 3000+ :)


Athlona x2 3000+ nie było i nie będzie bo taki nie istniał w desktopie, najniższy model to był x2 3600+ na socket 939. Mam taki, ale nie zdążyłem już przetestować. Jeśli artykuł będzie miał aktualizację (na co liczę) to niewątpliwie go dodam :)

ueuser @ 2019.03.03 18:02  Post: 1191787
Bardzo fajnie sie czyta - wiecej takich artykulow prosze


Dziękuję, postaramy się :) Z tym, że biorąc pod uwagę ile czasu zajmują to oczywiście nie będą się pojawiać co miesiąc.
Alexandre09Zobacz profil
Poziom ostrzeżenia: 0%
Alexandre092019.03.04, 20:09
Normalnie poczułem się jak na Labie z 2009r. :o
ban21Zobacz profil
Poziom ostrzeżenia: 0%
ban212019.03.04, 20:44
Assassin @ 2019.03.03 18:46  Post: 1191789
Bardzo ciekawy artykuł, oby takich więcej!

Wyniki na pozór niespodziewane, ale w sumie da się je wyjaśnić. Idea obliczeń rozproszonych wymaga, żeby każde WU było od siebie niezależne, więc takie kwestie jak liczba domen NUMA czy przepustowość między rdzeniami nie mają istotnego znaczenia (chyba, że OS zaczyna przeszkadzać i każe rdzeniowi czytać dane z odległej domeny). Widać jednak wyraźnie, że testowane programy wymagają wysokiej wydajności podsystemu pamięci, nawet jeśli w danej platformie przepustowość osiągana jest 'ekstensywnie'.

Ciekawe jest, że zysk z AVX podobny jest na platformie AMD i Intela. Wskazuje to, że albo AVX działa na 128-bitowych rejestrach, albo na Intelu wąskim gardłem jest przepustowość pamięci.

Trochę dziwią mnie słabe wyniki dwuprocesorowej platformy LGA1366 - niby dwa kontrolery i ograniczona przepustowość QPI nie powinny jej zbytnio przeszkadzać (co pokazuje przykład Threadrippera). Macie na to jakaś teorię? Myślałem o braku AVX (ale w testach porównawczych wszystkich platform wszystkie CPU mają je wyłączone) i o wolnej pamięci DDR3-1333 (ale 6 kanałów powinno mimo wszystko ratować sytuację).

Byłoby super, jakby w teście wzięły udział bardziej egzotyczne platformy AMD: Magny-Cours i ten 32-wątkowy serwerowy Bulldozer (ale oczywiście wiem, że to trudno dostępny sprzęt). Od siebie mógłbym zaproponować w razie potrzeby pożyczenie np. Pentium XE 965 (4-wątkowy Netburst) i Xeona na Gultfownie (6-rdzenowiec pod LGA1366). Trzymam trochę takich rzeczy po szufladach ;)

Zastosowana płyta główna pod 1366 ma tylko dwukanałową obsługę pamięci.
kainZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjikain2019.03.04, 21:33
Assassin @ 2019.03.03 18:46  Post: 1191789
Widać jednak wyraźnie, że testowane programy wymagają wysokiej wydajności podsystemu pamięci, nawet jeśli w danej platformie przepustowość osiągana jest 'ekstensywnie'.


Niekoniecznie, WCG na przykład jest niezbyt wrażliwe na wydajność pamięci. TN-Grid ekstemalnie. Rosetta@home też dość mocno plus potrafi zżerać jej bardzo duże ilości. W niej jeszcze jak miałem Xeona z 14c/28t przy dwóch kanałach obciążenie CPU sięgało tylko około 90%. Przy trzech skakało 97-100%, a przy czterech było już stabilne jak skała 100% ;-)


Ciekawe jest, że zysk z AVX podobny jest na platformie AMD i Intela. Wskazuje to, że albo AVX działa na 128-bitowych rejestrach, albo na Intelu wąskim gardłem jest przepustowość pamięci.


Tu w grę wchodzi na pewno kilka czynników. Nie można też zapominać o tym, że AVX/AVX2 to tylko jakiś element całości programu. Nawet jeśli na procesorze X będzie wykonywany dwa razy szybciej niż na procesorze Y to jednak cały program nie wykona się dwukrotnie szybciej, a jedynie o procent zależny od tego jak dużą część kodu da się poprzez AVX przyspieszyć.


Trochę dziwią mnie słabe wyniki dwuprocesorowej platformy LGA1366 - niby dwa kontrolery i ograniczona przepustowość QPI nie powinny jej zbytnio przeszkadzać (co pokazuje przykład Threadrippera). Macie na to jakaś teorię? Myślałem o braku AVX (ale w testach porównawczych wszystkich platform wszystkie CPU mają je wyłączone) i o wolnej pamięci DDR3-1333 (ale 6 kanałów powinno mimo wszystko ratować sytuację).


W jaki sensie pozostałe platformy miały AVX wyłączone? Na pewno w VGTU AVX robiło robotę tam gdzie było dostępne. Wydaje mi się, że POGS też choć szczerze mówiąc nie pamiętam. Natomiast LGA1366 to jest jednak zabytek, te procesory mają niskie taktowanie i działały z wolnym ramem.


Byłoby super, jakby w teście wzięły udział bardziej egzotyczne platformy AMD: Magny-Cours i ten 32-wątkowy serwerowy Bulldozer (ale oczywiście wiem, że to trudno dostępny sprzęt). Od siebie mógłbym zaproponować w razie potrzeby pożyczenie np. Pentium XE 965 (4-wątkowy Netburst) i Xeona na Gultfownie (6-rdzenowiec pod LGA1366). Trzymam trochę takich rzeczy po szufladach ;)


Dziękuję za propozycje, zapamiętam :)
Egzotyczna VIA nie wzbudziła jak widzę żadnego zainteresowania więc nie wiem czy mi się będzie chciało dalej polować na takie ciekawostki ;-)

titobp @ 2019.03.03 19:19  Post: 1191791

Są projekty, które potrafią używać kilku rdzeni na liczenie jednego WU (Np PrimeGrid).
W tym też projekcie AVX Intela robi robotę. AMD pozostaje w tyle.
Gdyby zostały wzięte pod uwagę inne projekty to przewaga AMD by się zmniejszyła, lub zgoła sytuacja by się odwróciła.


Takie projekty, zwłaszcza PrimeGrid to bardziej matematyczne syntetyki niż aplikacje przetwarzające konkretne dane. Z tego wynika fakt, że najwięcej zyskują na AVX i najłatwiej je pod nie dostosować. Osobiście interesują mnie jednak projekty biologiczne i medyczne więc na nich się skupiłem.

gofer87 @ 2019.03.03 19:48  Post: 1191793
Ciekawe czy większość projektów obsługuje cuda lub open-CL, bo jeśli tak to artykuł jest do niczego bez porównań, przypuszczam że w obliczeniach wielowatkowych nawet marny gtx 1050 przegonilby niejednego i9 czy threadrippera


Żaden z nich nie obsługuje ani CUDA ani OpenCL. Nie każdy algorytm da się przenieść na GPGPU, z wielu różnych powodów. Są projekty działające wyłącznie na kartach graficznych, ale nie o tym był artykuł.

oliwer21 @ 2019.03.03 20:13  Post: 1191796
'Jako że posiadamy sprawny egzemplarz Pentium Pro' Uuu redakcja takie rarytasy posiada? ;)
Test bardzo fajny ukazujący jaki postęp nastąpił na przestrzeni lat u każdej z firm, oraz jak się zestarzało HT...
Sam liczę WCG bo jak 'marnować prund' to w dobrym celu:)


Redakcja posiada, znaczy konkretnie ja prywatnie ;-) I całe mnóstwo innych sprzętów jak na przykład płyty z pierwszej strony ;) Część z nich pojawi się jeszcze na pclabie przy takiej czy innej okazji, większość na www.kva.pl

XiaomiGorsze93 @ 2019.03.03 22:15  Post: 1191808
dałem się namówić, nie żałuję. Program nie muli nawet jak np. grasz w coś pełnoekranowego, a nie żrącego wszystkie zasoby, jak leci. Jeśli można dołożyć cegiełkę w czasie, jak i tak korzystasz z pc, to why not?
Mam tylko nadzieję, że mnie rachunki nie zeżrą żywcem :P


Przy kilku h dziennie na pewno rachunki Cię nie zabiją ;-) Bardzo dziękuję :)

SundayUser @ 2019.03.04 11:53  Post: 1191833
@Wojciech Koczyk
Dla takich artykułów widzę sens wyłączania AdBlocka.
Dziękuję za kawał dobrego tekstu :)


:)

bi3dron4 @ 2019.03.04 12:11  Post: 1191835
Które projekty korzystające z obliczeniowego wolontariatu udostępniają nieodpłatnie wyniki badań? Chętnie dołożył bym się do wynalezienia 'leku na raka', pod warunkiem, że kiedy pójdę po niego do apteki, to nie dowiem się, że za 5 tabletek będę musiał sprzedać nerkę...


To nie do końca tak działa. Tu alternatywa jest raczej między tym czy te tabletki będą dostępne za 5 czy za 15 lat. Natomiast wyniki badań niejako z definicji są publiczne. Wiem na przykład, że część związków chemicznych opracowanych w ramach WCG opatentowano, ale nie po to by je potem sprzedawać, a po to by nie opatentował ich kto inny. Są w tej chwili udostępnione każdemu nieodpłatnie do dalszych badań.
krzyszpZobacz profil
Poziom ostrzeżenia: 0%
krzyszp2019.03.04, 22:24
Promilus1984 @ 2019.03.04 16:40  Post: 1191885
@krzyszp - nie przesadzaj
https://boinc.berkeley.edu/wiki/Publicatio..._BOINC_projects
Jasne, nie jest to jawne przekazanie wszystkich wyników (a jedynie zgrubne podsumowanie badań) ale nie jest też tak, że koncerny farmaceutyczne sobie tam robią projekty, patentują rozwiązania i ciągną kasę od tych samych naiwniaków, którzy im udostępnili moc obliczeniową.

Strona którą podałeś nie jest żadnym argumentem, bo nie agreguje wszystkich publikacji. O tych zwykle informują strony projektów.
lolek.oloZobacz profil
Poziom ostrzeżenia: 0%
lolek.olo2019.03.04, 22:53
Bardzo ciekawy test. Naprawdę mam nadzieję na więcej takich.
Jeśli chodzi o wnioski to widać jak na dłoni, że dla nauki lepsze są CPU od AMD.

Ps. Od dawna zastanawiałem się czy kiedyś FX8 zdoła pokonać 'legendarnego' i7 2600? No i właśnie dowiedziałem się, że odpowiedź brzmi - tak :)
https://pclab.pl/art79387-9.html
Edytowane przez autora (2019.03.04, 22:55)
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2019.03.05, 01:49
kain @ 2019.03.04 21:33  Post: 1191945
W jaki sensie pozostałe platformy miały AVX wyłączone? Na pewno w VGTU AVX robiło robotę tam gdzie było dostępne. Wydaje mi się, że POGS też choć szczerze mówiąc nie pamiętam. Natomiast LGA1366 to jest jednak zabytek, te procesory mają niskie taktowanie i działały z wolnym ramem.

Mea culpa. W TN-Grid są osobno testy z AVX i SSE2. Pochopnie założyłem, że w innych testach w których występują wszystkie procesory instrukcje też zostały zrównane w dół.
A co do LGA1366 to bym jednak polemizował. Ostatnio przesiadłem się z i7-6700 na Gulftowna (dla zabawy, zablokowany Skylake to strasznie nudna platforma...). Po oc na 4,2GHz wydajność w programach wielowątkowych przeważnie jest wyższa na starym LGA1366, w starszych/gorzej zoptymalizowanych pod nowe instrukcje (eg. Cinebench) nawet bardzo wyraźnie. W grach jest oczywiście przewaga 6700, ale raczej pomijalna. Prawie 10-letni dziadek jeszcze się więc trzyma, a do tego dość skutecznie ogrzewa pokój ;) W Twoim teście prawdopodobnie ubiła go niska przepustowość pamięci, 1333 MHz w dualu to niestety bardzo mało dla dzisiejszych programów.

kain @ 2019.03.04 21:33  Post: 1191945
Dziękuję za propozycje, zapamiętam :)
Egzotyczna VIA nie wzbudziła jak widzę żadnego zainteresowania więc nie wiem czy mi się będzie chciało dalej polować na takie ciekawostki ;-)

Mnie VIA zainteresowała ;) Ale generalnie faktycznie jest to tylko dla koneserów, bo VIA od dłuższego czasu praktycznie nie istnieje na rynku i ten sprzęt nawet nie aspiruje do highendu. Jestem jednak przekonany, że kontrowersyjny highend (jak np. ten Bulldozer 16-wątkowy) wzbudziłby duże emocje i zainteresowanie. Najciekawszy nie jest sprzęt najlepszy, ale właśnie kontrowersyjny (a do tego rzadki) :) Dlatego na aukcjach starszego sprzętu najwyższe ceny osiągają takie wynalazki, jak Voodoo5 czy Geforce FX5800U. Ten mój Pentium XE też długo trzymał cenę, a jeśli chodzi o wydajność to nawet parę lat temu dostał drugie życie (ostatnim razem jak go testowałem w nowych grach pokonywał Core 2 Duo, choć w chwili premiery Core rozjeżdżał go jak chciał).
kainZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjikain2019.03.05, 13:40
sino @ 2019.03.04 12:24  Post: 1191836
Fajne byłoby potwierdzenie wyników passmark cpu.

(...)

Jednak reguła jest PEWNA: z 2004 do 2011 ogromny skok, z 2011 do 2019 powolnie czołganie.


Passmark jest bardzo 'takim se' wyznacznikiem. I nie, wcale nie było tak że między 2004, a 2011 był wielki skok, a potem nie. Zmieniły się środki wykorzystywane do wzrostu wydajności, ale on nadal występował. Trochę piszę o tym tutaj - http://kva.pl/artykul/celeron_tualatin_120...eron_220-1.html
Promilus1984 @ 2019.03.04 16:40  Post: 1191885
@krzyszp - nie przesadzaj
https://boinc.berkeley.edu/wiki/Publicatio..._BOINC_projects
Jasne, nie jest to jawne przekazanie wszystkich wyników (a jedynie zgrubne podsumowanie badań) ale nie jest też tak, że koncerny farmaceutyczne sobie tam robią projekty, patentują rozwiązania i ciągną kasę od tych samych naiwniaków, którzy im udostępnili moc obliczeniową.


Z przyczyn które są mi nieznane i niezrozumiałe ta strona na wiki, która powinna być głównym źródłem informacji jest bardzo, ale to bardzo nieaktualna. Nie wiem czy jest na niej choć 1/10 wszystkich publikacji :(

Alexandre09 @ 2019.03.04 20:09  Post: 1191931
Normalnie poczułem się jak na Labie z 2009r. :o


Ale to dobrze czy źle? ;-)

ban21 @ 2019.03.04 20:44  Post: 1191936

Zastosowana płyta główna pod 1366 ma tylko dwukanałową obsługę pamięci.


Warto dodać, że per CPU ;-)
Adi_CZobacz profil
Poziom ostrzeżenia: 0%
Adi_C2019.03.05, 14:12
Podziekowania za kawał dobrej roboty, świetny tekst. Fajnie widac prawdziwą moc procesorów przede wszystkim AMD gdy nie ogranicza ich źle napisany program. Swoją drogą wzrost mocy topowego proca amd na przestrzeni ostatnich lat jest imponujący FX vs TR.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842019.03.05, 14:35
Z przyczyn które są mi nieznane i niezrozumiałe ta strona na wiki, która powinna być głównym źródłem informacji jest bardzo, ale to bardzo nieaktualna. Nie wiem czy jest na niej choć 1/10 wszystkich publikacji :(

A owszem, ale to miało tylko pokazać, że wyniki projektów z BOINC nie są chowane do szuflady pazernych koncernów.
Alexandre09Zobacz profil
Poziom ostrzeżenia: 0%
Alexandre092019.03.05, 23:57
kain @ 2019.03.05 13:40  Post: 1192055

Alexandre09 @ 2019.03.04 20:09  Post: 1191931
Normalnie poczułem się jak na Labie z 2009r. :o

Ale to dobrze czy źle? ;-)

Bardzo dobrze :thumbup:
W końcu jakiś sensowny artykuł z którego można się coś nauczyć a nie kolejne newsy o tym jak drogi będzie nowy srajfon czy szajsung albo czy dostanie nocza czy nie :)
Edytowane przez autora (2019.03.06, 00:02)
Borat1Zobacz profil
Poziom ostrzeżenia: 0%
Borat12019.03.06, 14:37
-4#79
Czyli ktoś kto prowadzi badania używając twojego komputera opracuje jakąś technologie, na której być może zarobi spore pieniądze a ty nie dość, że nic z tego nie masz to jeszcze dołożysz z własnej kieszeni na rachunki za energię. Super układ :)
krzyszpZobacz profil
Poziom ostrzeżenia: 0%
krzyszp2019.03.06, 15:06
Borat1 @ 2019.03.06 14:37  Post: 1192304
Czyli ktoś kto prowadzi badania używając twojego komputera opracuje jakąś technologie, na której być może zarobi spore pieniądze a ty nie dość, że nic z tego nie masz to jeszcze dołożysz z własnej kieszeni na rachunki za energię. Super układ :)

Naprawdę tak ciężko przeczytać komentarze?
Przecież jasno jest napisane, że większość projektów publikuje wyniki badań dla WSZYSTKICH...
Po prostu nic nie stoi na przeszkodzie, żebyś i ty opatentował lek na raka bazując na tych wynikach...
Ale to takie polskie... Nie, nic nie zrobię, bo 'somsiad' albo 'te złe korporacje' zarobią... Bo gość nawet nie zada sobie trudu i nie sprawdzi, że 99 na 100 tych projektów prowadzą ośrodki akademickie, a nie korporacje...
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.