Ciało kształtuje umysł i dlatego prawdopodobnie nie da się zrobić sztucznej osobowości bez ciała.
Ludzkiej osobowości sie nie da, ale po co nam ludzka osobowość?
Nie lepiej stworzyć inna lepszą? która przerośnie nas we wszystkim w takim te,pie jak dziś przerosła nas w 'Go'.
To może będzie kolejny etap ewolucji, porzucenie biologicznych opakowań.
I kiedyś za 10mln lat być moze sztuczne inteligencje będą poszukiwac brakującego ogniwa w teorii ewolucji bo zapomną jak to sie stało ze z bakterii a później zwierząt wyewoluowały 'czyste inteligencje' Gdzie jest brakujące ogniwo
Cywilizacja ludzka na skali czasu to jakieś 15 tys lat, cywilizacja techniczna to ledwie 300 lat, w skali milionów lat tak krótki okres czasu można przeoczyć i zapomnieć, szczególnie ze nosniki pamieci nie sa zbyt trwałe
Houdini, Stockfish i Komodo to praktycznie ten sam poziom (tabelka kolejnosc według rankingu Elo) najlepsi ludzie maja około 2800 punktów. Między tymi silnikami nie ma istotnych róznic, wazne jednak ze one są poprawiane od lat przez rzesze ludzi, a alfa zero to dopiero początek tego co sie będzie działo.
Tak bardzo są poprawiane od lat, że Google musiał użyć wersji o rok za starej. Do tego źle skonfigurowanej, co przyznaje sam twórca Stockfish:
The version of Stockfish used is one year old, was playing with far more search threads than has ever received any significant amount of testing, and had way too small hash tables for the number of threads. I believe the percentage of draws would have been much higher in a match with more normal conditions.
darkonza @ 2018.08.05 14:38
Stockfish podczas treningu dostał na talerzu cała więdze ludzkosci o szachach. Wszystkie doświadczenie z wszystkich najlepszych partii.
Jakiej mocy by nie dostała Alfa zero to jest nic w porównaniu z tym
A jednak nie całą, bo 'przypadkiem' zapomniano dać dostęp do bazy danych otwarć, do czego Stockfish jest zoptymalizowany:
It should be pointed out that AlphaZero had effectively built its own opening book, so a fairer run would be against a top engine using a good opening book.
darkonza @ 2018.08.05 14:38
Kiedyś uważano ze silnik szachowy nigdy nie będzie zdolny do wymyślania do nowych posunięc https://www.youtube.com/watch?v=AcZXjJ1VkeI&t=88s
Dziś mamy dowody że maszyna wymyśla nowe posuniecia i to nawet w otwarciach które wydawały sie po tylu latach sprawą zamknięta: https://www.wykop.pl/wpis/33521131/niesamo...ro-przechodzi-/
To jest nowe otwarcie, nowa teoria szachowa.Nie trzeba żadengo więcej dowodu na to by stwierdzić ze to jest sztuczna inteligencja skoro wymysliła nowe otwarcie mimo ze gra słabiej niż Stockfish
Zgodnie z tą definicją program generujący losowe otwarcia też jest inteligentny - na pewno pojawi się wiele nowych i niespotykanych. W przypadku AlphaZero pojawiają się natomiast wątpliwości, czy owe otwarcia nie są z góry zaplanowane:
Another question which does not seem clear from the paper is if the games started from a particular opening or from scratch. Given the variety of openings displayed in these ten games, it seems that some initial positions were predetermined.
Cały czas ich używamy.
Oceniamy czy chce nam sie sikać, czy nie, jeśli tak, szukamy miejsca gdzie się wysikamy, jeśli nie chce nam sie sikać nie szukamy tego miejsca.
Czym to jest jak nie algorytmem?
Nie ma tu żadnego wielkiego myślenia, proste 'IF' http://marciszewski.eu/?p=6541
. A w tym celu trzeba będzie dać jej ciało - najlepiej symulowane w rzeczywistości wirtualnej. Bez tego trudno będzie jej pojąć tzw. wiedzę ogólną i zachowanie ludzi.
Chcesz stworzyć prawie ze kopię człowieka a tu nie o to chodzi.
Chodzi o to by stworzyć coś innego, z innym 'punktem widzenia'
Alfa zero nie rozumie ludzi i nie probuje zrozumieć, ale umie wygrywac z nimi w szachy.
Teraz chodzi tylko o to by stworzyć coś co nie bedzie lepsze tylko w grach, ale tez w innych dziedzinach i ciało temu czemus będzie tylko przeszkadzać, jest zbędnym balastem, bo na obsługe ciała nasz mózg zużywa większosc mocy obliczeniowej, a Alfa zero na obsługę ciała nie musi zużywać nic
Ciało kształtuje umysł i dlatego prawdopodobnie nie da się zrobić sztucznej osobowości bez ciała.
Jak się tłumaczy dzieciom algorytmy na przykładzie przepisów na ciasto, to kończą potem z właśnie takim sposobem myślenia
Kolega widze chce wprowadzić nową definicję, czyli algorytmy skomplikowane nazywać algorytmami, a algorytmy proste przestać nazywąc algorytmami bo na dziś taki podział pasuje mu do dyskusji
Tylko pewnie sam będzie miał problem od którego momentu algorytm jest na tyle skomplikowany ze juz mozna go nazwać algorytmem
Algorytmy implementują sztuczną inteligencję, ale ona tak jak i my nie używa algorytmów. Algorytm to abstrakcja oznaczająca na sztywno formalnie ściśle zdefiniowane kroki do wykonania jakiejś czynności, bez żadnych odstępstw. To co ma natomiast miejsce w przypadku AI to rodzaj 'nadrukowywania' się środowiska w postaci wzorców na model tegoż środowiska. Tego nadruku NIJAK nie da się nazwać algorytmem, nawet jeśli mamy do czynienia ze statycznym modelem rozpoznającym np. kwiatki. Badanie takich modeli, jakie procesy w nich zaszły w trakcie treningu, itd. przekracza nasze możliwości (poza najprostszymi modelami typu 'Hello World' jak np. sieci rozpoznające odręcznie napisane cyferki). Dlatego właśnie absolutnie NIE MOŻNA myśleć o ML/AI jako o zbiorze algorytmów, tak jak o człowieku nie da się myśleć jak o zbiorze algorytmów, a co najwyżej o zbiorze złożonych wzorców odpowiedzi na bodźce środowiska.
PS. Widzę, że bardzo szybko odpowiadasz - mam nadzieję, że nie wynika to z braku przemyślenia tematu.
To wynika z tego ze temat mam bardzo dobrze przemyslany
qas1 @ 2018.08.05 13:57
Zdajesz sobie sprawę, że Stockfish nie jest najmocniejszym silnikiem szachowym - zajmuje 3. miejsce po Komodo i Houdini. Jak z nimi poradziłby sobie AlphaZero?
http://kszgk.com/?p=11298
Houdini, Stockfish i Komodo to praktycznie ten sam poziom (tabelka kolejnosc według rankingu Elo) najlepsi ludzie maja około 2800 punktów.
Między tymi silnikami nie ma istotnych róznic, wazne jednak ze one są poprawiane od lat przez rzesze ludzi, a alfa zero to dopiero początek tego co sie będzie działo.
qas1 @ 2018.08.05 13:57
Faktycznie AlphaZero obliczał mniej ruchów - 'tylko' 80000, jednak bez cienia wątpliwości miał do dyspozycji znacząco więcej mocy podczas turnieju i monstrualnie więcej podczas treningu.
Stockfish podczas treningu dostał na talerzu cała więdze ludzkosci o szachach. Wszystkie doświadczenie z wszystkich najlepszych partii.
Jakiej mocy by nie dostała Alfa zero to jest nic w porównaniu z tym
Kiedyś uważano ze silnik szachowy nigdy nie będzie zdolny do wymyślania do nowych posunięc https://www.youtube.com/watch?v=AcZXjJ1VkeI&t=88s
Dziś mamy dowody że maszyna wymyśla nowe posuniecia i to nawet w otwarciach które wydawały sie po tylu latach sprawą zamknięta: https://www.wykop.pl/wpis/33521131/niesamo...ro-przechodzi-/
To jest nowe otwarcie, nowa teoria szachowa.Nie trzeba żadengo więcej dowodu na to by stwierdzić ze to jest sztuczna inteligencja skoro wymysliła nowe otwarcie mimo ze gra słabiej niż Stockfish
Zreszta mówimy o szachach które łatwo 'brutalnie policzyć' wiec właśnie dlatego klasyczne silniki szachowe moga jeszcze wygrywać z tymi nowego typu jak Alfa zero czy Leela zero,
jednak spójrzmy na 'Go'. W 'Go' drzewko możliwości rozgałęzia sie dużo mocniej i szybciej niż w szachach, dlatego nawet jak sie ma gigantyczną moc obliczeniową to zaraz jej brakuje i dlatego tam klasyczne silniki przegrywaja z ludźmi.
A ten nowy, alfa zero z ludźmi wygrywa - czy to nie jest dowód którego szukamy ze to nowe jest czymś zupełnie innym?
Silniki szachowe sa lepsze niz ludzie bo jest mniej rozgałezien i da sie brutalnie policzyć, silniki od Go sa słabsze od ludzi, a alfa zero jest od nich lepsza
Nie mam już siły odpowiadac na wszystkie argumenty, niektóre są na pewno celne, jednak to byloby po prostu brniecie w coraz drobniejsze sprawy i dzielenie włosa na czworo.
Prawda jest taka ze i tak ludzie odpowiadaja na emocjach do z góry załozonej tezy.
Ktoś nie wierzy, nie lubi idei SI, albo spotkał sie z jakimś jej ośmieszeniem (pewnie słusznym) i dziś już ma taki pogląd wiec z góry odrzuca fakt ze w roku 2017 (akurat w tym) sporo sie w tej kwestii zmieniło i dlatego nawet najlepsze dowody nie są w stanie go przekonać.
I na co mu ta 900 razy większa moc obliczeniowa, skoro liczył nie to co trzeba, bo przy minucie na posunięcie nie miał czasu dokonać wyboru?
Skoro przeliczył 900 razy więcej wariantów to miał z czego wybierać.
To tak nie działa. Jest mnóstwo znanych przykładów pozycji, które człowiek od razu wziął pod uwagę, podczas gdy współczesne silniki nie były do tego zdolne albo potrzebowały na właściwą decyzję kilku, kilkunastu minut. Zdarzało się też, że nowsza wersja silnika widziała dane posunięcie od razu, podczas gdy starsza szybko je odrzucała. Nawet znacznie większą przewagę w mocy obliczeniowej łatwo stracić na liczenie wariantów, które przy dłuższym czasie do namysłu zostałyby odrzucone podczas wstępnej selekcji.
Stockfish liczył w ciągu sekundy 900 razy więcej pozycji, ale nie liczył wszystkich wariantów z jednakową głębokością. Tym bardziej nie robił tego AlphaZero, ten jednak miał wystarczająco dużo czasu (i nie tylko czasu) na wybór. Czyli przykładowo AlphaZero wybiera właściwe posunięcie, a Stockfish liczy je do głębokości zaledwie kilku półruchów, bo nie ma czasu na więcej, po czym je odrzuca, żeby zająć się innym, które przy takiej głębokości wydaje się bardziej obiecujące.
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero.
To prawda ze Stockfish został poddany pewnym ograniczeniom, ale mimo tych ograniczeń jego moc obliczeniowa wciąż byłą zdecydowanie wieksza.
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
qas1 @ 2018.08.05 12:54
Skoro Google musiało uciekać się do takich sztuczek
Sztuczka jest zmniejszenie przewagi w ilości obliczeń z np. 10 000 razy większej mocy obliczeniowej do tylko 900 razy większej mocy?
qas1 @ 2018.08.05 12:54
to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)?
Jest przełomem, bo stockfish czy inne programy to tylko korzystnie z wiedzy którą stworzyła ludzkość.
Alfa zero sama stworzyła tą wiedzę + dodała do tego wiedze na która my ludzie nie wpadliśmy. W szachch to jest nieiwele nowych posuniec bo tam ilosc kombinacji jest jako tako do ogarniecia, ale już w 'Go' okazuje sie ze ludzkie strategie zaczynają wyglądać na błedne, tak jak błedna okaząła się średniowieczna medycyna z jej upuszczaniem krwi
'Jednak eksperci z Go są pod wrażeniem wydajności AlphaGo i jego stylu nieludzkiej gry; Ke Jie stwierdził, że „Gdy ludzkość przez tysiące lat ulepszała naszą taktykę, komputery informują nas, że ludzie są w pełni w błędzie... Chciałbym powiedzieć, że żaden człowiek nie dotknął krawędzi prawdy Go'
Ciężko mi nazwać 'pewnymi ograniczeniami' użycie starej wersji programu, niedostatecznej mocy obliczeniowej, złych ustawień, sztywnego przydziału czasu i pozbawienie Stockfish dostępu do bazy danych otwarć szachowych. Identyczne zdanie mają zarówno inżynierzy, szachiści, jak również Jose Camacho Collados, który jest jednym i drugim.
Jak rozumiem, przy porównywaniu mocy obliczeniowej zupełnie pomijasz to?
4-hour training. The amount of training of AlphaZero has been one of the most confusing elements as explained by general media. According to the paper, after 4 hours of training on 5000 TPUs the level of AlphaZero was already superior to the open-source chess engine Stockfish (the fully-trained AlphaZero took a few more hours to train). This means that the time spent by AlphaZero per TPU was roughly two years, a time which would be considerably higher on a normal CPU. So, even though the 4-hour figure may seem impressive (and it is indeed impressive), this is mainly due to the large capacities of computing power available nowadays with respect to some years ago, especially for a company like DeepMind investing heavily on it. For example, by 2012 all chess positions with seven pieces or less had been mathematically solved, using significantly less computing power [9]. This improvement on computing power paves the way for the development of newer algorithms, and probably in a few years a game like chess could be almost solved by heavily relying on brute force.
Stockfish nawet przez sekundę nie miał dostępu do porównywalnej mocy obliczenowej, natomiast AlphaZero trenowało podobno 4 godziny - 2 lata przy procesorze takim jak Stockfish.
Kolejna rzecz - o ile AlphaZero do treningu potrzebowało 5000 TPU, o tyle w czasie turnieju miał do dyspozycji 4 TPU. Jaką to ma moc obliczeniową? Wiemy, że pojedynczy TPU v2 ma moc obliczeniową 45 TFLOPS, w takim razie 4 mają moc 180 TFLOPS: https://en.wikipedia.org/wiki/Tensor_processing_unit
Google stated the first generation TPU design was memory bandwidth limited, and using 16 GB of High Bandwidth Memory in the second generation design increased bandwidth to 600GB/s and performance to 45 TFLOPS. The TPUs are then arranged into 4-chip modules with a performance of 180 TFLOPS.
A może użyto tam inżynieryjnych wersji TPU v3, z 8x razy większą mocą obliczeniową? Google ujawniło dokładną architekturę systemu i kod źródłowy, żeby to porównać? Wnioskuję, że tak, skoro darzysz to takim uwielbieniem. Inaczej wielbiłbyś baśnie i iluzje, a przedstawiasz podobno racjonalny ogląd świata. Tak czy inaczej i7-8700K ma ok. 59 GFLOPS - mam nadzieję, że nie muszę tłumaczyć różnicy. https://setiathome.berkeley.edu/cpu_list.php
Faktycznie AlphaZero obliczał mniej ruchów - 'tylko' 80000, jednak bez cienia wątpliwości miał do dyspozycji znacząco więcej mocy podczas turnieju i monstrualnie więcej podczas treningu. Nikogo nie powinno obchodzić, na co przetrawiono resztę mocy - czyżby na wstępną selekcję najbardziej obiecujących ruchów? Faktycznie, 900x razy mniejsza moc obliczeniowa.
However, the experimental setting does not seem fair. The version of Stockfish used was not the last one but, more importantly, it was run in its released version on PC, while AlphaZero was ran using considerably higher processing power. For example, in the TCEC competition engines play against each other using the same processor.
Jak rozumiem Jose Comacho Collados - znany szachista i badacz AI, też się nie zna.
Co do tego, że AlphaZero grało całkowicie samodzielnie, też są wątpiwośc - było potrzebne pewne wsparcie:
Self-play. Does AlphaZero completely learn from self-play? This seems to be true according to the details provided in the paper, but with two important nuances: the rules and the typical number of moves have to be taught to the system before starting playing with itself. The first nuance, although looking obvious, is not as trivial as it seems. A lot of work has to be dedicated to find a suitable neural network architecture on which these rules are encoded, as also explained in the AlphaZero paper. The initial architecture based on convolutional neural networks used in AlphaGo was suitable for Go, but not for other games. For instance, unlike Go, chess and shogi are asymmetric and some pieces behave differently depending on their position. In the newest AlphaZero, a more generic version of the AlphaGo algorithm was introduced, englobing games like chess and Shogi. The second nuance (i.e. the typical number moves was given to AlphaZero to “scale the exploration noise” also requires some prior knowledge of the game. The games that exceeded a maximum number of steps were terminated with a draw outcome (this maximum number of steps is not provided) and it is not clear whether this heuristic was also used in the games against Stockfish or only during training.
Pewne początkowe pozycje najpewniej były zaprogramowane z góry:
Another question which does not seem clear from the paper is if the games started from a particular opening or from scratch. Given the variety of openings displayed in these ten games, it seems that some initial positions were predetermined.
PS. Widzę, że bardzo szybko odpowiadasz - mam nadzieję, że nie wynika to z braku przemyślenia tematu. W każdym razie i na to odpowiedziałem wcześniej.
PPS. Zdajesz sobie sprawę, że Stockfish nie jest najmocniejszym silnikiem szachowym - zajmuje 3. miejsce po Komodo i Houdini. Jak z nimi poradziłby sobie AlphaZero?
I na co mu ta 900 razy większa moc obliczeniowa, skoro liczył nie to co trzeba, bo przy minucie na posunięcie nie miał czasu dokonać wyboru?
Skoro przeliczył 900 razy więcej wariantów to miał z czego wybierać.
Ten numer z tą 'minutą' to w nim chodziło o to ze myślał minutę nawet nad ruchem który był oczywisty, zamiast wykonac ruch w sekundę i później myślec 1:59 nad kolejnym ruchem.
Po prostu wyłaczono dobrze dopracowany bonus zarządzania czasem u Stockfisha.
No i trzeba pamiętać ze już Stockfish ma sporo wspólnego ze sztuczną inteligencją:
'Między rokiem 2003 a chwilą obecną jest przepaść w sile gry programów. Algorytmy są cały czas ulepszane, co widać w różnicach rzędu 50 pkt. elo między kolejnymi wersjami tego samego silnika. Kramnik przegrał mecz z komputerem w wyniku podstawienia mata w jednym ruchu, ale obecne silniki niszczą arcymistrzów nawet w partiach z forami materialnymi (grają bez jakości, bez pionka f7, człowiek może zacząć partię od 2 posunięć itp.).
Coraz bardziej liczy się ocena pozycji, heurystyki, wcześniejsze programy grały metodą brute force, czyli rozpatrywały wszystkie możliwe warianty. Współczesne silniki potrafią znacznie ograniczyć obszar obliczeń, szczególnie Stockfish stosuje bardzo agresywne algorytmy ucinania słabszych wariantów - dzięki temu szybciej osiągają większą głębokość obliczeń, a to jest w przypadku długich kombinacji kluczowe.
Starsze programy wybierały inne posunięcia, bo korzyści płynące z ofiary nie pojawiały się na horyzoncie ich obliczeń, a pozycja na mniejszej głębokości oceniana była negatywnie na podstawie straty materiału.'
I nabijanie sie ze Stockfisha jako sztucznej inteligencji moge zrozumieć, ale już nabijanie się z Alfy która sama sie uczy od zera i w grze 'go' robi z nas ludzi mięso mielone to jest szczyt ignorancji
To prawda ze Stockfish został poddany pewnym ograniczeniom, ale mimo tych ograniczeń jego moc obliczeniowa wciąż byłą zdecydowanie wieksza.
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
I na co mu ta 900 razy większa moc obliczeniowa, skoro liczył nie to co trzeba, bo przy minucie na posunięcie nie miał czasu dokonać wyboru?
Obecnie nie ma nawet precyzyjnej definicji gatunku (sprawdziłem wcześniej, co Wikipedia pisze na ten temat ).
Myślę, że układ, w którym można ustawić, co jest celem działania, i który będzie rozpoznawać, czy jego dzialania przybliżają go, czy oddalają od celu, i na tej podstawie je korygować, można nazwać 'sztucznie inteligentnym'.
Jedyna różnica między sztucznie a naturalnie inteligentnym układem jest taka, że ten pierwszy nie ma wstępnie ustawionych celów, innych niż zadania, do których ma się go używać.
Naturalna inteligencja (pracownika, czy niewolnika) ma takie wstępnie ustawione cele (motywacje), które mogą wchodzić w konflikt z celami zadanymi.
O ile przy tworzeniu sztucznie inteligentnego układu nie zostanie popełniony poważny błąd, taki układ nie będzie wykazywać tendencji do wydostania się spod kontroli, czy zmiany celów.
Oczywiście może być podatny na manipulację, tak jak istniejące obecnie błędne programy przy przetwarzaniu odpowiednio spreparowanych danych, są podatne na wykonanie kodu znajdującego się w tych danych.
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero.
To prawda ze Stockfish został poddany pewnym ograniczeniom, ale mimo tych ograniczeń jego moc obliczeniowa wciąż byłą zdecydowanie wieksza.
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
qas1 @ 2018.08.05 12:54
Skoro Google musiało uciekać się do takich sztuczek
Sztuczka jest zmniejszenie przewagi w ilości obliczeń z np. 10 000 razy większej mocy obliczeniowej do tylko 900 razy większej mocy. Ty widzisz w tym sztuczke a ja zmniejszenie przewagi w której zamiast Dawid walczyć z SuperGoliatem, walczy tylko z Goliatem.
qas1 @ 2018.08.05 12:54
to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)?
Jest przełomem, bo stockfish czy inne programy to tylko korzystnie z wiedzy którą stworzyła ludzkość.
Alfa zero sama stworzyła tą wiedzę, nikt jej nie zaprogramował + Alfa dodała do tego wiedze na która my ludzie nie wpadliśmy. W szachach to jest niewiele nowych posuniec bo tam ilosc kombinacji jest jako tako do ogarniecia, ale już w 'Go' okazuje sie ze ludzkie strategie zaczynają wyglądać na błędne, tak jak błędna okazała się średniowieczna medycyna z jej upuszczaniem krwi
'Jednak eksperci z Go są pod wrażeniem wydajności AlphaGo i jego stylu nieludzkiej gry; Ke Jie stwierdził, że „Gdy ludzkość przez tysiące lat ulepszała naszą taktykę, komputery informują nas, że ludzie są w pełni w błędzie... Chciałbym powiedzieć, że żaden człowiek nie dotknął krawędzi prawdy Go'
Daje do myślenia??? Nigdy się nad tym nie zastanawiałem ale artykuł wzbudził moją ciekawość - poszperam i temat na pewno zgłębię. A tak na marginesie dzięki za ciekawe komentarze - już mało jest miejsc gdzie można znaleźć takowe pod artykułem.
Na onet znajdziesz podobnej jakości każdą ilość
doktorat czytalem o bitcoin tragedja ze pisze ktos kto nie kuma czaczy i ocenia ktos to wie jeszcze mniej o coin360 to wogole zawodnik sie chyba jeszcze nie dowiedzial
A ci którzy nie wierzą ze to inteligencja (tyle ze na razie tylko do gierek) niech wytłumaczą jakim cudem program liczacy około 900 razy mniej posuniec na sekundę wygrywa z tym liczącym więcej:
'Sztuczna sieć neuronowa AlphaZero pokonała Stockfisha, wygrywając 28 partii i remisując 72. Warto podkreślić, że AI od Google nie została przed pojedynkiem 'zaopatrzona' w bazę otwarć ani żadną teorię szachową, a - podobnie jak w przypadku GO - opracowała całą teorię od nowa, grając przez 4 godziny 'sama ze sobą'. Co więcej, podczas samego meczu, AlphaZero analizowała 'jedynie' 80 tys. pozycji na sekundę, podczas gdy Stockfish 70 mln - uwidacznia to dobitnie błyskawiczny rozwój 'sztucznej intuicji' i udowadnia, że moc oprogramowania DeepMind nie tkwi w 'rozwiązaniach siłowych'.
Arcymistrz Peter Heine Nielsen, jeden z najlepszych szachistów na świecie, skomentował mecz słowami - '... przeanalizowałem kilka partii i cóż - kiedyś zastanawiałem się co by było, gdyby obca, dalece bardziej rozwinięta cywilizacja wylądowała na ziemi i pokazała nam, jak u nich gra się w szachy - dziś czuję, jakbym poznał odpowiedź'.
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero. Google nie miało dość pieniędzy, aby zapewnić konkurentowi zbliżoną moc obliczeniową, czy może w przypadku lepszej konfiguracji AlphaZero nie miał szans? Raczej można przypuszczać, że Google przed takim ważnym wydarzeniem starannie się przygotował - kod Stockfish jest w końcu publicznie dostępny, łatwo można było 'odpowiednio' go ustawić, natomiast AlphaZero to czarna skrzynka - Google nie udostępniło kodu. Google znane jest ze swojej zapobiegliwości: https://www.dobreprogramy.pl/Rozmowy-AI-z-...News,88226.html
Faktycznie, AlphaZero na superkomputerze vs Stockfish na laptopie to bardzo uczciwa konkurencja. Dodatkowo zapomniano udostępnić temu programowi dostępu do bazy danych otwarć szachowych, ale to pewnie tylko przeoczenie. Wielka szkoda również, że sztywno przydzielono minutę na każdy ruch, co jest również bardzo niekorzystne dla konkurenta. Zastosowano roczną wersję Stockfish, zamiast najnowszej, ale inżynierzy Google pewnie nie mają dostępu do internetu. Opinia twórcy Stockfish:
Stockfish developer Tord Romstad responded with 'The match results by themselves are not particularly meaningful because of the rather strange choice of time controls and Stockfish parameter settings: The games were played at a fixed time of 1 minute/move, which means that Stockfish has no use of its time management heuristics (lot of effort has been put into making Stockfish identify critical points in the game and decide when to spend some extra time on a move; at a fixed time per move, the strength will suffer significantly). The version of Stockfish used is one year old, was playing with far more search threads than has ever received any significant amount of testing, and had way too small hash tables for the number of threads. I believe the percentage of draws would have been much higher in a match with more normal conditions.
Other machine-learning experts El Reg chatted to this week privately agreed that while AlphaZero is a cool research project, it is not quite the scientific breakthrough the mainstream press has been screaming about.
Hikaru Nakamura:
I think the research is certainly very interesting; the concept of trying to learn from the start without any prior knowledge so certainly it's a new approach and it worked quite well obviously with go. It's definitely interesting. That being said, having looked at the games and understand[ing] what the playing strength was I don't necessarily put a lot of credibility in the results simply because my understanding is that AlphaZero is basically using the Google super computer and Stockfish doesn't run on that hardware; Stockfish was basically running on what would be my laptop. If you wanna have a match that's comparable you have to have Stockfish running on a super computer as well.
Larry Kaufman:
It is of course rather incredible, he said. 'Although after I heard about the achievements of AlphaGo Zero in Go I was rather expecting something like this, especially since the team has a chess master, Demis Hassabis. What isn't yet clear is whether AlphaZero could play chess on normal PCs and if so how strong it would be. It may well be that the current dominance of minimax chess engines may be at an end, but it's too soon to say so. It should be pointed out that AlphaZero had effectively built its own opening book, so a fairer run would be against a top engine using a good opening book.
Davide Nastasio
Similarly, one could argue the AlphaZero programmers erred when they made their comparison solely against the top engine. The mistake was to think the best engine is de facto the strongest chess player on the planet. This is not true. The strongest chess player on the planet is the Centaur, one who has a machine dedicated to chess, an SSD (Solid State Drive) for the endgame tablebases — or an Endgame Turbo USB flash drive —, and an SSD for the opening repertoire, which has been deepened through the years with the Monte Carlo method. The findings made by the Centaur are nowhere to be found, even in commercial engines (if a commercial engine is the top one to find!). Against such a creature, AlphaZero would have had difficulties to win even one game.
Wolff Morrow
That whole spectacle seemed to be a spun tale with a stacked deck. If AlphaZero were to play in an actual engine tournament like the TCEC, I seriously doubt it would even make it to the semifinals. In terms of beating it though, I couldn't say if that would actually happen. It could play something like the Petroff and easily draw and that would look like some sort of small victory on its part. However, I will say it will NOT beat me in a Centaur CC game. That's just not going to happen.
PS. Skoro Google musiało uciekać się do takich sztuczek, to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)? Poza tym skoro przestarzały i źle skonfigurowany Stockfish przy mocy zwykłego PC niemal dorównał AlphaZero na superkomputerze (zremisował 72 razy na 100), to może jest inteligentniejszy? Wiem, że działa w zupełnie inny sposób od AlphaZero, ale przecież ludzki mózg też działa zupełnie inaczej, a jednak to wszystko się porównuje.
. A w tym celu trzeba będzie dać jej ciało - najlepiej symulowane w rzeczywistości wirtualnej. Bez tego trudno będzie jej pojąć tzw. wiedzę ogólną i zachowanie ludzi.
Chcesz stworzyć prawie ze kopię człowieka a tu nie o to chodzi.
Chodzi o to by stworzyć coś innego, z innym 'punktem widzenia'
Alfa zero nie rozumie ludzi i nie probuje zrozumieć, ale umie wygrywac z nimi w szachy.
Teraz chodzi tylko o to by stworzyć coś co nie bedzie lepsze tylko w grach, ale tez w innych dziedzinach i ciało temu czemus będzie tylko przeszkadzać, jest zbędnym balastem, bo na obsługe ciała nasz mózg zużywa większosc mocy obliczeniowej, a Alfa zero na obsługę ciała nie musi zużywać nic
Jak się tłumaczy dzieciom algorytmy na przykładzie przepisów na ciasto, to kończą potem z właśnie takim sposobem myślenia
Kolega widze chce wprowadzić nową definicję, czyli algorytmy skomplikowane nazywać algorytmami, a algorytmy proste przestać nazywąc algorytmami bo na dziś taki podział pasuje mu do dyskusji
Tylko pewnie sam będzie miał problem od którego momentu algorytm jest na tyle skomplikowany ze juz mozna go nazwać algorytmem
A ci którzy nie wierzą ze to inteligencja (tyle ze na razie tylko do gierek) niech wytłumaczą jakim cudem program liczacy około 900 razy mniej posuniec na sekundę wygrywa z tym liczącym więcej:
'Sztuczna sieć neuronowa AlphaZero pokonała Stockfisha, wygrywając 28 partii i remisując 72. Warto podkreślić, że AI od Google nie została przed pojedynkiem 'zaopatrzona' w bazę otwarć ani żadną teorię szachową, a - podobnie jak w przypadku GO - opracowała całą teorię od nowa, grając przez 4 godziny 'sama ze sobą'. Co więcej, podczas samego meczu, AlphaZero analizowała 'jedynie' 80 tys. pozycji na sekundę, podczas gdy Stockfish 70 mln - uwidacznia to dobitnie błyskawiczny rozwój 'sztucznej intuicji' i udowadnia, że moc oprogramowania DeepMind nie tkwi w 'rozwiązaniach siłowych'.
Arcymistrz Peter Heine Nielsen, jeden z najlepszych szachistów na świecie, skomentował mecz słowami - '... przeanalizowałem kilka partii i cóż - kiedyś zastanawiałem się co by było, gdyby obca, dalece bardziej rozwinięta cywilizacja wylądowała na ziemi i pokazała nam, jak u nich gra się w szachy - dziś czuję, jakbym poznał odpowiedź'.
Wystarczyłoby na tyle skomplikować szachy, żeby maszyna była w stanie obliczyć maksymalnie 5-7 posunięć i nagle zaczyna przegrywać z w miarę przeciętnymi graczami.
'Go' jest właśnie 'na tyle skomplikowanymi szachami' i dlatego do niedawna człowiek wygrywał z klasycznymi komputerami które analizują tylko miliony pozycji na sekundę
Dobre podejście przy pisaniu. Rzeczowe spojrzenie.
Tak od siebie dodam, że z tymi algorytmami mamy jeszcze jeden problem - np piszę się, że si się nie myli, że np autonomiczne samochody będą powodować mniej wypadków niż ludzi e bo nie będą łamać przepisów. To świadczy o tym, ze ktoś nie do końca rozumie jak takie algorytmy działają. W zdecydowanej większości wypadków jest tak, że tego typu systemy są skuteczniejsze jak pozwoli im się bardziej elastycznie kształtować matryce neuronowe co oznacza, że pozwoli im sie na większy margines błędu. To był np problem z Uberem. Waymo podchodzi do sprawy ostrożnie, selekcjonuje trasy, implementuje restrykcyjne ograniczniki prędkości niezależne od systemu i uczy go je uwzględniać (z różnym skutkiem - ich samochody mają masę stłuczek brew temu co twierdzi Waymo w większości z ich winy ale przynajmniej nie mają podobno ofiar śmiertelnych na koncie choć z niektórych miasteczek w Kalifornii ich wyrzucono). Uber chciał jak najszybciej stworzyć uniwersalną taksówkę, która mogła by w każdych warunkach zastąpić klasyczną. To nie przypadek czy błąd, ze system nie zauważył pieszej. To tak działa na obecnym etapie.
Kolejnym problemem jest uczenie. Prawdziwe SI to takie które modyfikuje swoje zachowanie ucząc się nowych wzorców reakcji na dostarczane bodźce. Problem w tym, że nie do końca jesteśmy w stanie stworzyć skuteczny i bezpieczny system tego typu. Bot od microsoftu najlepiej prezentuje dlaczego. Nie potrafimy przewidzieć wpływu takiego uczenia na fabryczną matrycę wzorców i kontrolować efekt w dostateczny sposób. W wypadku motoryzacji, medycyny, eksperckich systemów kontrolujących działających just in time czy innych bardzo newralgicznych systemów to może być olbrzymim zagrożeniem. Dochodzą różnice między poszczególnymi systemami - by to było bezpieczne i systemy często nie kolidowały ze sobą oraz uwzględniały 'doświadczenia' szczególnie te krytyczne innych trzeba stworzyć mechanizm uzgadniania sieci wraz z testowaniem i weryfikacją zmian. To nie jest proste bo... nie do końca wiemy jak to działa. Czasem drobne różnice w sieci neuronowej wynikają z np różnej kalibracji czujników czy różnic jednostkowych w sytuacjach dotyczących danego systemu (np średniego obciążenia samochodu, średniej temperatury przy systemie sterowania np układami kontrolującymi zużycie itd) . Nakładanie na to zmian z innych implementacji może dawać nieprzewidywalne skutki.
Tutaj dochodzimy do kolejnego problemu z przenośnością takich systemów.
Ciało kształtuje umysł i dlatego prawdopodobnie nie da się zrobić sztucznej osobowości bez ciała.
Ludzkiej osobowości sie nie da, ale po co nam ludzka osobowość?
Nie lepiej stworzyć inna lepszą? która przerośnie nas we wszystkim w takim te,pie jak dziś przerosła nas w 'Go'.
To może będzie kolejny etap ewolucji, porzucenie biologicznych opakowań.
I kiedyś za 10mln lat być moze sztuczne inteligencje będą poszukiwac brakującego ogniwa w teorii ewolucji bo zapomną jak to sie stało ze z bakterii a później zwierząt wyewoluowały 'czyste inteligencje' Gdzie jest brakujące ogniwo
Cywilizacja ludzka na skali czasu to jakieś 15 tys lat, cywilizacja techniczna to ledwie 300 lat, w skali milionów lat tak krótki okres czasu można przeoczyć i zapomnieć, szczególnie ze nosniki pamieci nie sa zbyt trwałe
Tak bardzo są poprawiane od lat, że Google musiał użyć wersji o rok za starej. Do tego źle skonfigurowanej, co przyznaje sam twórca Stockfish:
Jakiej mocy by nie dostała Alfa zero to jest nic w porównaniu z tym
A jednak nie całą, bo 'przypadkiem' zapomniano dać dostęp do bazy danych otwarć, do czego Stockfish jest zoptymalizowany:
https://www.youtube.com/watch?v=AcZXjJ1VkeI&t=88s
Dziś mamy dowody że maszyna wymyśla nowe posuniecia i to nawet w otwarciach które wydawały sie po tylu latach sprawą zamknięta:
https://www.wykop.pl/wpis/33521131/niesamo...ro-przechodzi-/
To jest nowe otwarcie, nowa teoria szachowa.Nie trzeba żadengo więcej dowodu na to by stwierdzić ze to jest sztuczna inteligencja skoro wymysliła nowe otwarcie mimo ze gra słabiej niż Stockfish
Zgodnie z tą definicją program generujący losowe otwarcia też jest inteligentny - na pewno pojawi się wiele nowych i niespotykanych. W przypadku AlphaZero pojawiają się natomiast wątpliwości, czy owe otwarcia nie są z góry zaplanowane:
ona tak jak i my nie używa algorytmów.
Cały czas ich używamy.
Oceniamy czy chce nam sie sikać, czy nie, jeśli tak, szukamy miejsca gdzie się wysikamy, jeśli nie chce nam sie sikać nie szukamy tego miejsca.
Czym to jest jak nie algorytmem?
Nie ma tu żadnego wielkiego myślenia, proste 'IF'
http://marciszewski.eu/?p=6541
Chcesz stworzyć prawie ze kopię człowieka a tu nie o to chodzi.
Chodzi o to by stworzyć coś innego, z innym 'punktem widzenia'
Alfa zero nie rozumie ludzi i nie probuje zrozumieć, ale umie wygrywac z nimi w szachy.
Teraz chodzi tylko o to by stworzyć coś co nie bedzie lepsze tylko w grach, ale tez w innych dziedzinach i ciało temu czemus będzie tylko przeszkadzać, jest zbędnym balastem, bo na obsługe ciała nasz mózg zużywa większosc mocy obliczeniowej, a Alfa zero na obsługę ciała nie musi zużywać nic
Ciało kształtuje umysł i dlatego prawdopodobnie nie da się zrobić sztucznej osobowości bez ciała.
Jak się tłumaczy dzieciom algorytmy na przykładzie przepisów na ciasto, to kończą potem z właśnie takim sposobem myślenia
Kolega widze chce wprowadzić nową definicję, czyli algorytmy skomplikowane nazywać algorytmami, a algorytmy proste przestać nazywąc algorytmami bo na dziś taki podział pasuje mu do dyskusji
Tylko pewnie sam będzie miał problem od którego momentu algorytm jest na tyle skomplikowany ze juz mozna go nazwać algorytmem
Algorytmy implementują sztuczną inteligencję, ale ona tak jak i my nie używa algorytmów. Algorytm to abstrakcja oznaczająca na sztywno formalnie ściśle zdefiniowane kroki do wykonania jakiejś czynności, bez żadnych odstępstw. To co ma natomiast miejsce w przypadku AI to rodzaj 'nadrukowywania' się środowiska w postaci wzorców na model tegoż środowiska. Tego nadruku NIJAK nie da się nazwać algorytmem, nawet jeśli mamy do czynienia ze statycznym modelem rozpoznającym np. kwiatki. Badanie takich modeli, jakie procesy w nich zaszły w trakcie treningu, itd. przekracza nasze możliwości (poza najprostszymi modelami typu 'Hello World' jak np. sieci rozpoznające odręcznie napisane cyferki). Dlatego właśnie absolutnie NIE MOŻNA myśleć o ML/AI jako o zbiorze algorytmów, tak jak o człowieku nie da się myśleć jak o zbiorze algorytmów, a co najwyżej o zbiorze złożonych wzorców odpowiedzi na bodźce środowiska.
PS. Widzę, że bardzo szybko odpowiadasz - mam nadzieję, że nie wynika to z braku przemyślenia tematu.
To wynika z tego ze temat mam bardzo dobrze przemyslany
http://kszgk.com/?p=11298
Houdini, Stockfish i Komodo to praktycznie ten sam poziom (tabelka kolejnosc według rankingu Elo) najlepsi ludzie maja około 2800 punktów.
Między tymi silnikami nie ma istotnych róznic, wazne jednak ze one są poprawiane od lat przez rzesze ludzi, a alfa zero to dopiero początek tego co sie będzie działo.
Faktycznie AlphaZero obliczał mniej ruchów - 'tylko' 80000, jednak bez cienia wątpliwości miał do dyspozycji znacząco więcej mocy podczas turnieju i monstrualnie więcej podczas treningu.
Stockfish podczas treningu dostał na talerzu cała więdze ludzkosci o szachach. Wszystkie doświadczenie z wszystkich najlepszych partii.
Jakiej mocy by nie dostała Alfa zero to jest nic w porównaniu z tym
Kiedyś uważano ze silnik szachowy nigdy nie będzie zdolny do wymyślania do nowych posunięc
https://www.youtube.com/watch?v=AcZXjJ1VkeI&t=88s
Dziś mamy dowody że maszyna wymyśla nowe posuniecia i to nawet w otwarciach które wydawały sie po tylu latach sprawą zamknięta:
https://www.wykop.pl/wpis/33521131/niesamo...ro-przechodzi-/
To jest nowe otwarcie, nowa teoria szachowa.Nie trzeba żadengo więcej dowodu na to by stwierdzić ze to jest sztuczna inteligencja skoro wymysliła nowe otwarcie mimo ze gra słabiej niż Stockfish
Zreszta mówimy o szachach które łatwo 'brutalnie policzyć' wiec właśnie dlatego klasyczne silniki szachowe moga jeszcze wygrywać z tymi nowego typu jak Alfa zero czy Leela zero,
jednak spójrzmy na 'Go'. W 'Go' drzewko możliwości rozgałęzia sie dużo mocniej i szybciej niż w szachach, dlatego nawet jak sie ma gigantyczną moc obliczeniową to zaraz jej brakuje i dlatego tam klasyczne silniki przegrywaja z ludźmi.
A ten nowy, alfa zero z ludźmi wygrywa - czy to nie jest dowód którego szukamy ze to nowe jest czymś zupełnie innym?
Silniki szachowe sa lepsze niz ludzie bo jest mniej rozgałezien i da sie brutalnie policzyć, silniki od Go sa słabsze od ludzi, a alfa zero jest od nich lepsza
Nie mam już siły odpowiadac na wszystkie argumenty, niektóre są na pewno celne, jednak to byloby po prostu brniecie w coraz drobniejsze sprawy i dzielenie włosa na czworo.
Prawda jest taka ze i tak ludzie odpowiadaja na emocjach do z góry załozonej tezy.
Ktoś nie wierzy, nie lubi idei SI, albo spotkał sie z jakimś jej ośmieszeniem (pewnie słusznym) i dziś już ma taki pogląd wiec z góry odrzuca fakt ze w roku 2017 (akurat w tym) sporo sie w tej kwestii zmieniło i dlatego nawet najlepsze dowody nie są w stanie go przekonać.
Skoro przeliczył 900 razy więcej wariantów to miał z czego wybierać.
To tak nie działa. Jest mnóstwo znanych przykładów pozycji, które człowiek od razu wziął pod uwagę, podczas gdy współczesne silniki nie były do tego zdolne albo potrzebowały na właściwą decyzję kilku, kilkunastu minut. Zdarzało się też, że nowsza wersja silnika widziała dane posunięcie od razu, podczas gdy starsza szybko je odrzucała. Nawet znacznie większą przewagę w mocy obliczeniowej łatwo stracić na liczenie wariantów, które przy dłuższym czasie do namysłu zostałyby odrzucone podczas wstępnej selekcji.
Stockfish liczył w ciągu sekundy 900 razy więcej pozycji, ale nie liczył wszystkich wariantów z jednakową głębokością. Tym bardziej nie robił tego AlphaZero, ten jednak miał wystarczająco dużo czasu (i nie tylko czasu) na wybór. Czyli przykładowo AlphaZero wybiera właściwe posunięcie, a Stockfish liczy je do głębokości zaledwie kilku półruchów, bo nie ma czasu na więcej, po czym je odrzuca, żeby zająć się innym, które przy takiej głębokości wydaje się bardziej obiecujące.
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero.
To prawda ze Stockfish został poddany pewnym ograniczeniom, ale mimo tych ograniczeń jego moc obliczeniowa wciąż byłą zdecydowanie wieksza.
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
Skoro Google musiało uciekać się do takich sztuczek
Sztuczka jest zmniejszenie przewagi w ilości obliczeń z np. 10 000 razy większej mocy obliczeniowej do tylko 900 razy większej mocy?
to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)?
Jest przełomem, bo stockfish czy inne programy to tylko korzystnie z wiedzy którą stworzyła ludzkość.
Alfa zero sama stworzyła tą wiedzę + dodała do tego wiedze na która my ludzie nie wpadliśmy. W szachch to jest nieiwele nowych posuniec bo tam ilosc kombinacji jest jako tako do ogarniecia, ale już w 'Go' okazuje sie ze ludzkie strategie zaczynają wyglądać na błedne, tak jak błedna okaząła się średniowieczna medycyna z jej upuszczaniem krwi
'Jednak eksperci z Go są pod wrażeniem wydajności AlphaGo i jego stylu nieludzkiej gry; Ke Jie stwierdził, że „Gdy ludzkość przez tysiące lat ulepszała naszą taktykę, komputery informują nas, że ludzie są w pełni w błędzie... Chciałbym powiedzieć, że żaden człowiek nie dotknął krawędzi prawdy Go'
Ciężko mi nazwać 'pewnymi ograniczeniami' użycie starej wersji programu, niedostatecznej mocy obliczeniowej, złych ustawień, sztywnego przydziału czasu i pozbawienie Stockfish dostępu do bazy danych otwarć szachowych. Identyczne zdanie mają zarówno inżynierzy, szachiści, jak również Jose Camacho Collados, który jest jednym i drugim.
Jak rozumiem, przy porównywaniu mocy obliczeniowej zupełnie pomijasz to?
Stockfish nawet przez sekundę nie miał dostępu do porównywalnej mocy obliczenowej, natomiast AlphaZero trenowało podobno 4 godziny - 2 lata przy procesorze takim jak Stockfish.
Kolejna rzecz - o ile AlphaZero do treningu potrzebowało 5000 TPU, o tyle w czasie turnieju miał do dyspozycji 4 TPU. Jaką to ma moc obliczeniową? Wiemy, że pojedynczy TPU v2 ma moc obliczeniową 45 TFLOPS, w takim razie 4 mają moc 180 TFLOPS:
https://en.wikipedia.org/wiki/Tensor_processing_unit
A może użyto tam inżynieryjnych wersji TPU v3, z 8x razy większą mocą obliczeniową? Google ujawniło dokładną architekturę systemu i kod źródłowy, żeby to porównać? Wnioskuję, że tak, skoro darzysz to takim uwielbieniem. Inaczej wielbiłbyś baśnie i iluzje, a przedstawiasz podobno racjonalny ogląd świata. Tak czy inaczej i7-8700K ma ok. 59 GFLOPS - mam nadzieję, że nie muszę tłumaczyć różnicy.
https://setiathome.berkeley.edu/cpu_list.php
Faktycznie AlphaZero obliczał mniej ruchów - 'tylko' 80000, jednak bez cienia wątpliwości miał do dyspozycji znacząco więcej mocy podczas turnieju i monstrualnie więcej podczas treningu. Nikogo nie powinno obchodzić, na co przetrawiono resztę mocy - czyżby na wstępną selekcję najbardziej obiecujących ruchów? Faktycznie, 900x razy mniejsza moc obliczeniowa.
Jak rozumiem Jose Comacho Collados - znany szachista i badacz AI, też się nie zna.
Co do tego, że AlphaZero grało całkowicie samodzielnie, też są wątpiwośc - było potrzebne pewne wsparcie:
Pewne początkowe pozycje najpewniej były zaprogramowane z góry:
PS. Widzę, że bardzo szybko odpowiadasz - mam nadzieję, że nie wynika to z braku przemyślenia tematu. W każdym razie i na to odpowiedziałem wcześniej.
PPS. Zdajesz sobie sprawę, że Stockfish nie jest najmocniejszym silnikiem szachowym - zajmuje 3. miejsce po Komodo i Houdini. Jak z nimi poradziłby sobie AlphaZero?
lehre... znowu tu wróciłeś? i jak zwykle piszesz nie na temat
Skoro przeliczył 900 razy więcej wariantów to miał z czego wybierać.
Ten numer z tą 'minutą' to w nim chodziło o to ze myślał minutę nawet nad ruchem który był oczywisty, zamiast wykonac ruch w sekundę i później myślec 1:59 nad kolejnym ruchem.
Po prostu wyłaczono dobrze dopracowany bonus zarządzania czasem u Stockfisha.
No i trzeba pamiętać ze już Stockfish ma sporo wspólnego ze sztuczną inteligencją:
'Między rokiem 2003 a chwilą obecną jest przepaść w sile gry programów. Algorytmy są cały czas ulepszane, co widać w różnicach rzędu 50 pkt. elo między kolejnymi wersjami tego samego silnika. Kramnik przegrał mecz z komputerem w wyniku podstawienia mata w jednym ruchu, ale obecne silniki niszczą arcymistrzów nawet w partiach z forami materialnymi (grają bez jakości, bez pionka f7, człowiek może zacząć partię od 2 posunięć itp.).
Coraz bardziej liczy się ocena pozycji, heurystyki, wcześniejsze programy grały metodą brute force, czyli rozpatrywały wszystkie możliwe warianty. Współczesne silniki potrafią znacznie ograniczyć obszar obliczeń, szczególnie Stockfish stosuje bardzo agresywne algorytmy ucinania słabszych wariantów - dzięki temu szybciej osiągają większą głębokość obliczeń, a to jest w przypadku długich kombinacji kluczowe.
Starsze programy wybierały inne posunięcia, bo korzyści płynące z ofiary nie pojawiały się na horyzoncie ich obliczeń, a pozycja na mniejszej głębokości oceniana była negatywnie na podstawie straty materiału.'
I nabijanie sie ze Stockfisha jako sztucznej inteligencji moge zrozumieć, ale już nabijanie się z Alfy która sama sie uczy od zera i w grze 'go' robi z nas ludzi mięso mielone to jest szczyt ignorancji
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
I na co mu ta 900 razy większa moc obliczeniowa, skoro liczył nie to co trzeba, bo przy minucie na posunięcie nie miał czasu dokonać wyboru?
Myślę, że układ, w którym można ustawić, co jest celem działania, i który będzie rozpoznawać, czy jego dzialania przybliżają go, czy oddalają od celu, i na tej podstawie je korygować, można nazwać 'sztucznie inteligentnym'.
Jedyna różnica między sztucznie a naturalnie inteligentnym układem jest taka, że ten pierwszy nie ma wstępnie ustawionych celów, innych niż zadania, do których ma się go używać.
Naturalna inteligencja (pracownika, czy niewolnika) ma takie wstępnie ustawione cele (motywacje), które mogą wchodzić w konflikt z celami zadanymi.
O ile przy tworzeniu sztucznie inteligentnego układu nie zostanie popełniony poważny błąd, taki układ nie będzie wykazywać tendencji do wydostania się spod kontroli, czy zmiany celów.
Oczywiście może być podatny na manipulację, tak jak istniejące obecnie błędne programy przy przetwarzaniu odpowiednio spreparowanych danych, są podatne na wykonanie kodu znajdującego się w tych danych.
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero.
To prawda ze Stockfish został poddany pewnym ograniczeniom, ale mimo tych ograniczeń jego moc obliczeniowa wciąż byłą zdecydowanie wieksza.
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
Skoro Google musiało uciekać się do takich sztuczek
Sztuczka jest zmniejszenie przewagi w ilości obliczeń z np. 10 000 razy większej mocy obliczeniowej do tylko 900 razy większej mocy. Ty widzisz w tym sztuczke a ja zmniejszenie przewagi w której zamiast Dawid walczyć z SuperGoliatem, walczy tylko z Goliatem.
to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)?
Jest przełomem, bo stockfish czy inne programy to tylko korzystnie z wiedzy którą stworzyła ludzkość.
Alfa zero sama stworzyła tą wiedzę, nikt jej nie zaprogramował + Alfa dodała do tego wiedze na która my ludzie nie wpadliśmy. W szachach to jest niewiele nowych posuniec bo tam ilosc kombinacji jest jako tako do ogarniecia, ale już w 'Go' okazuje sie ze ludzkie strategie zaczynają wyglądać na błędne, tak jak błędna okazała się średniowieczna medycyna z jej upuszczaniem krwi
'Jednak eksperci z Go są pod wrażeniem wydajności AlphaGo i jego stylu nieludzkiej gry; Ke Jie stwierdził, że „Gdy ludzkość przez tysiące lat ulepszała naszą taktykę, komputery informują nas, że ludzie są w pełni w błędzie... Chciałbym powiedzieć, że żaden człowiek nie dotknął krawędzi prawdy Go'
Na onet znajdziesz podobnej jakości każdą ilość
doktorat czytalem o bitcoin
A ci którzy nie wierzą ze to inteligencja (tyle ze na razie tylko do gierek) niech wytłumaczą jakim cudem program liczacy około 900 razy mniej posuniec na sekundę wygrywa z tym liczącym więcej:
'Sztuczna sieć neuronowa AlphaZero pokonała Stockfisha, wygrywając 28 partii i remisując 72. Warto podkreślić, że AI od Google nie została przed pojedynkiem 'zaopatrzona' w bazę otwarć ani żadną teorię szachową, a - podobnie jak w przypadku GO - opracowała całą teorię od nowa, grając przez 4 godziny 'sama ze sobą'. Co więcej, podczas samego meczu, AlphaZero analizowała 'jedynie' 80 tys. pozycji na sekundę, podczas gdy Stockfish 70 mln - uwidacznia to dobitnie błyskawiczny rozwój 'sztucznej intuicji' i udowadnia, że moc oprogramowania DeepMind nie tkwi w 'rozwiązaniach siłowych'.
Arcymistrz Peter Heine Nielsen, jeden z najlepszych szachistów na świecie, skomentował mecz słowami - '... przeanalizowałem kilka partii i cóż - kiedyś zastanawiałem się co by było, gdyby obca, dalece bardziej rozwinięta cywilizacja wylądowała na ziemi i pokazała nam, jak u nich gra się w szachy - dziś czuję, jakbym poznał odpowiedź'.
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero. Google nie miało dość pieniędzy, aby zapewnić konkurentowi zbliżoną moc obliczeniową, czy może w przypadku lepszej konfiguracji AlphaZero nie miał szans? Raczej można przypuszczać, że Google przed takim ważnym wydarzeniem starannie się przygotował - kod Stockfish jest w końcu publicznie dostępny, łatwo można było 'odpowiednio' go ustawić, natomiast AlphaZero to czarna skrzynka - Google nie udostępniło kodu. Google znane jest ze swojej zapobiegliwości:
https://www.dobreprogramy.pl/Rozmowy-AI-z-...News,88226.html
Faktycznie, AlphaZero na superkomputerze vs Stockfish na laptopie to bardzo uczciwa konkurencja. Dodatkowo zapomniano udostępnić temu programowi dostępu do bazy danych otwarć szachowych, ale to pewnie tylko przeoczenie. Wielka szkoda również, że sztywno przydzielono minutę na każdy ruch, co jest również bardzo niekorzystne dla konkurenta. Zastosowano roczną wersję Stockfish, zamiast najnowszej, ale inżynierzy Google pewnie nie mają dostępu do internetu. Opinia twórcy Stockfish:
Starannie wybrana opinia Nielsena niczego nie zmienia. Wielu innych mistrzów szachowych mówi raczej o oszustwie. Tutaj artykuł od szachisty eksperta od AI:
https://medium.com/@josecamachocollados/is...ai-bf66ae1c84f2
Kolejny artykuł:
https://www.theregister.co.uk/2017/12/14/d...azero_ai_unfair
Hikaru Nakamura:
Larry Kaufman:
Davide Nastasio
Wolff Morrow
PS. Skoro Google musiało uciekać się do takich sztuczek, to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)? Poza tym skoro przestarzały i źle skonfigurowany Stockfish przy mocy zwykłego PC niemal dorównał AlphaZero na superkomputerze (zremisował 72 razy na 100), to może jest inteligentniejszy? Wiem, że działa w zupełnie inny sposób od AlphaZero, ale przecież ludzki mózg też działa zupełnie inaczej, a jednak to wszystko się porównuje.
Chcesz stworzyć prawie ze kopię człowieka a tu nie o to chodzi.
Chodzi o to by stworzyć coś innego, z innym 'punktem widzenia'
Alfa zero nie rozumie ludzi i nie probuje zrozumieć, ale umie wygrywac z nimi w szachy.
Teraz chodzi tylko o to by stworzyć coś co nie bedzie lepsze tylko w grach, ale tez w innych dziedzinach i ciało temu czemus będzie tylko przeszkadzać, jest zbędnym balastem, bo na obsługe ciała nasz mózg zużywa większosc mocy obliczeniowej, a Alfa zero na obsługę ciała nie musi zużywać nic
Jak się tłumaczy dzieciom algorytmy na przykładzie przepisów na ciasto, to kończą potem z właśnie takim sposobem myślenia
Kolega widze chce wprowadzić nową definicję, czyli algorytmy skomplikowane nazywać algorytmami, a algorytmy proste przestać nazywąc algorytmami bo na dziś taki podział pasuje mu do dyskusji
Tylko pewnie sam będzie miał problem od którego momentu algorytm jest na tyle skomplikowany ze juz mozna go nazwać algorytmem
A ci którzy nie wierzą ze to inteligencja (tyle ze na razie tylko do gierek) niech wytłumaczą jakim cudem program liczacy około 900 razy mniej posuniec na sekundę wygrywa z tym liczącym więcej:
'Sztuczna sieć neuronowa AlphaZero pokonała Stockfisha, wygrywając 28 partii i remisując 72. Warto podkreślić, że AI od Google nie została przed pojedynkiem 'zaopatrzona' w bazę otwarć ani żadną teorię szachową, a - podobnie jak w przypadku GO - opracowała całą teorię od nowa, grając przez 4 godziny 'sama ze sobą'. Co więcej, podczas samego meczu, AlphaZero analizowała 'jedynie' 80 tys. pozycji na sekundę, podczas gdy Stockfish 70 mln - uwidacznia to dobitnie błyskawiczny rozwój 'sztucznej intuicji' i udowadnia, że moc oprogramowania DeepMind nie tkwi w 'rozwiązaniach siłowych'.
Arcymistrz Peter Heine Nielsen, jeden z najlepszych szachistów na świecie, skomentował mecz słowami - '... przeanalizowałem kilka partii i cóż - kiedyś zastanawiałem się co by było, gdyby obca, dalece bardziej rozwinięta cywilizacja wylądowała na ziemi i pokazała nam, jak u nich gra się w szachy - dziś czuję, jakbym poznał odpowiedź'.
Wystarczyłoby na tyle skomplikować szachy, żeby maszyna była w stanie obliczyć maksymalnie 5-7 posunięć i nagle zaczyna przegrywać z w miarę przeciętnymi graczami.
Tak od siebie dodam, że z tymi algorytmami mamy jeszcze jeden problem - np piszę się, że si się nie myli, że np autonomiczne samochody będą powodować mniej wypadków niż ludzi e bo nie będą łamać przepisów. To świadczy o tym, ze ktoś nie do końca rozumie jak takie algorytmy działają. W zdecydowanej większości wypadków jest tak, że tego typu systemy są skuteczniejsze jak pozwoli im się bardziej elastycznie kształtować matryce neuronowe co oznacza, że pozwoli im sie na większy margines błędu. To był np problem z Uberem. Waymo podchodzi do sprawy ostrożnie, selekcjonuje trasy, implementuje restrykcyjne ograniczniki prędkości niezależne od systemu i uczy go je uwzględniać (z różnym skutkiem - ich samochody mają masę stłuczek brew temu co twierdzi Waymo w większości z ich winy ale przynajmniej nie mają podobno ofiar śmiertelnych na koncie choć z niektórych miasteczek w Kalifornii ich wyrzucono). Uber chciał jak najszybciej stworzyć uniwersalną taksówkę, która mogła by w każdych warunkach zastąpić klasyczną. To nie przypadek czy błąd, ze system nie zauważył pieszej. To tak działa na obecnym etapie.
Kolejnym problemem jest uczenie. Prawdziwe SI to takie które modyfikuje swoje zachowanie ucząc się nowych wzorców reakcji na dostarczane bodźce. Problem w tym, że nie do końca jesteśmy w stanie stworzyć skuteczny i bezpieczny system tego typu. Bot od microsoftu najlepiej prezentuje dlaczego. Nie potrafimy przewidzieć wpływu takiego uczenia na fabryczną matrycę wzorców i kontrolować efekt w dostateczny sposób. W wypadku motoryzacji, medycyny, eksperckich systemów kontrolujących działających just in time czy innych bardzo newralgicznych systemów to może być olbrzymim zagrożeniem. Dochodzą różnice między poszczególnymi systemami - by to było bezpieczne i systemy często nie kolidowały ze sobą oraz uwzględniały 'doświadczenia' szczególnie te krytyczne innych trzeba stworzyć mechanizm uzgadniania sieci wraz z testowaniem i weryfikacją zmian. To nie jest proste bo... nie do końca wiemy jak to działa. Czasem drobne różnice w sieci neuronowej wynikają z np różnej kalibracji czujników czy różnic jednostkowych w sytuacjach dotyczących danego systemu (np średniego obciążenia samochodu, średniej temperatury przy systemie sterowania np układami kontrolującymi zużycie itd) . Nakładanie na to zmian z innych implementacji może dawać nieprzewidywalne skutki.
Tutaj dochodzimy do kolejnego problemu z przenośnością takich systemów.