W OBU PRZYPADKACH ANI ROZPOZNAWANIE WZORCÓW, ANI DECYZJE CO DO DZIAŁAŃ NIE ZA ZAPROGRAMOWANE Z GÓRY ŻADNYM ALGORYTMEM!
Widze ze z szachami słabo.
Otwarcia szachowe to jak najbardziej algorytmy - czyli proste i jednoznaczne odpowiedzi na posuniecia przeciwnika. Wynajduje się optymalne rozwiazenie i później powtarza przy każdej okazji.
Twoje zachowanie to też algorytmy.
Czytasz tekst i jeśli masz coś do napisania to piszesz, jak nie masz to nie piszesz.
To też jest algorytm. Wszystko to pętle i algorytmy.
Jak się tłumaczy dzieciom algorytmy na przykładzie przepisów na ciasto, to kończą potem z właśnie takim sposobem myślenia
No to powiedz kto go nauczył albo napisz, 'przepraszam, wprowadziłem w błąd'
Alfa zero jest algorytmem który TWORZY ALGORYTMY
Sam stworzył algorytm do gry w szachy, sam stworzył algorytm do gry w 'Go'.
yendrek @ 2018.08.04 18:14
Tak jak nie nauczy się sam gry nową figurą - bo nie ma jej w algorytmie.
Nie miał żadnych figur w algorytmie, pomyliłeś algorytm z twórcą algorytmów jakim jest Alfa zero
Te algorytmy można porównać do łamania haseł metoda brute force. Jak jest wystarczająco mocna maszyna to złamie każdy szyfr, choćby tam były wprowadzane drobne zmiany.
Wystarczyłoby na tyle skomplikować szachy, żeby maszyna była w stanie obliczyć maksymalnie 5-7 posunięć i nagle zaczyna przegrywać z w miarę przeciętnymi graczami.
Daje do myślenia??? Nigdy się nad tym nie zastanawiałem ale artykuł wzbudził moją ciekawość - poszperam i temat na pewno zgłębię. A tak na marginesie dzięki za ciekawe komentarze - już mało jest miejsc gdzie można znaleźć takowe pod artykułem.
I znów przypadkowa myśl - jeśli komputer byłby naprawdę inteligentny, powinien być zdolny do stworzenia własnego języka do porozumiewania się z innymi inteligentnymi komputerami, tak jak zrobili to ludzie i... zwierzęta.
Ostatnio jakiś projekt chatbotów trzeba było zmodyfikować właśnie dlatego, że wymyśliły własny język, a miały się posługiwać pełnym angielskim.
I tak właśnie powstanie pierwsze prawdziwe SI, nie będzie napisane przez ludzi bo natury inteligencji sami w pełni nie rozumiemy więc nie damy rady jej napisać, będzie emergentne, samo uczący się program albo bardziej prawdopodobne - sieć będzie się rozwiać ,aż w pewnym momencie przekroczy próg świadomości i się 'obudzi'.
Przez dziesiątki lat próbowano osiągnąć sztuczną inteligencję za pomocą metod formalnych opartych na logice matematycznej i językach takich jak Prolog czy Lisp. Można powiedzieć że szukano drogi na skróty, która pozwoliłaby maszynom myśleć mimo znikomej dostępnej mocy obliczeniowej. Jednak programowanie i modyfikowanie takich systemów eksperckich jest bardzo żmudne, ponadto takie systemy kiepsko sobie radzą z niestandardowymi przypadkami.
Obecna rewolucja w dostępności mocy obliczeniowej dzięki wykorzystaniu GPU, umożliwiła symulowanie znacznie większych sieci neuronowych, niż było to możliwe jeszcze dekadę temu. Dzięki temu osiągnięto przełom w skuteczności rozpoznawania mowy (dla najpopularniejszych na świecie języków), także syntetyzowana w ten sposób mowa brzmi lepiej niż generowana algorytmicznie.
Najważniejsze jest, że możliwości symulacji sieci neuronowych powiększają się w zawrotnym tempie - jestem przekonany że wkrótce będzie możliwe stworzenie sieci neuronowej o podobnej złożoności i możliwościach co ludzki mózg, nawet jeśli będzie ona zajmowała cały budynek. Jednak żeby z tej sieci neuronowej powstała inteligentna istota, trzeba ją będzie wychować jak dziecko. A w tym celu trzeba będzie dać jej ciało - najlepiej symulowane w rzeczywistości wirtualnej. Bez tego trudno będzie jej pojąć tzw. wiedzę ogólną i zachowanie ludzi.
P.S.
Wielki biznes jest bardziej zainteresowany systemami świadczącymi konkretne usługi, niż powstaniem takiej sztucznej inteligencji. Bo budynek pełen kart Tesla musi na siebie zarabiać.
No to powiedz kto go nauczył albo napisz, 'przepraszam, wprowadziłem w błąd'
Alfa zero jest algorytmem który TWORZY ALGORYTMY
Sam stworzył algorytm do gry w szachy, sam stworzył algorytm do gry w 'Go'.
(...)
Nie miał żadnych figur w algorytmie, pomyliłeś algorytm z twórcą algorytmów jakim jest Alfa zero
Te algorytmy można porównać do łamania haseł metoda brute force. Jak jest wystarczająco mocna maszyna to złamie każdy szyfr, choćby tam były wprowadzane drobne zmiany.
Wystarczyłoby na tyle skomplikować szachy, żeby maszyna była w stanie obliczyć maksymalnie 5-7 posunięć i nagle zaczyna przegrywać z w miarę przeciętnymi graczami.
Tam nie ma obliczania posunięć per se, w Go się nawet nie da, a w ogóle to wyjdźcie wszyscy, albo ja wyjdę, bo takiej ilości bredni na raz jak ten artykuł i komentarze pod nim nie da się przetrawić.
Daje do myślenia??? Nigdy się nad tym nie zastanawiałem ale artykuł wzbudził moją ciekawość - poszperam i temat na pewno zgłębię. A tak na marginesie dzięki za ciekawe komentarze - już mało jest miejsc gdzie można znaleźć takowe pod artykułem.
Przez dziesiątki lat próbowano osiągnąć sztuczną inteligencję za pomocą metod formalnych opartych na logice matematycznej i językach takich jak Prolog czy Lisp. Można powiedzieć że szukano drogi na skróty, która pozwoliłaby maszynom myśleć mimo znikomej dostępnej mocy obliczeniowej. Jednak programowanie i modyfikowanie takich systemów eksperckich jest bardzo żmudne, ponadto takie systemy kiepsko sobie radzą z niestandardowymi przypadkami.
Obecna rewolucja w dostępności mocy obliczeniowej dzięki wykorzystaniu GPU, umożliwiła symulowanie znacznie większych sieci neuronowych, niż było to możliwe jeszcze dekadę temu. Dzięki temu osiągnięto przełom w skuteczności rozpoznawania mowy (dla najpopularniejszych na świecie języków), także syntetyzowana w ten sposób mowa brzmi lepiej niż generowana algorytmicznie.
Najważniejsze jest, że możliwości symulacji sieci neuronowych powiększają się w zawrotnym tempie - jestem przekonany że wkrótce będzie możliwe stworzenie sieci neuronowej o podobnej złożoności i możliwościach co ludzki mózg, nawet jeśli będzie ona zajmowała cały budynek. Jednak żeby z tej sieci neuronowej powstała inteligentna istota, trzeba ją będzie wychować jak dziecko. A w tym celu trzeba będzie dać jej ciało - najlepiej symulowane w rzeczywistości wirtualnej. Bez tego trudno będzie jej pojąć tzw. wiedzę ogólną i zachowanie ludzi.
P.S.
Wielki biznes jest bardziej zainteresowany systemami świadczącymi konkretne usługi, niż powstaniem takiej sztucznej inteligencji. Bo budynek pełen kart Tesla musi na siebie zarabiać.
Dobre podejście przy pisaniu. Rzeczowe spojrzenie.
Tak od siebie dodam, że z tymi algorytmami mamy jeszcze jeden problem - np piszę się, że si się nie myli, że np autonomiczne samochody będą powodować mniej wypadków niż ludzi e bo nie będą łamać przepisów. To świadczy o tym, ze ktoś nie do końca rozumie jak takie algorytmy działają. W zdecydowanej większości wypadków jest tak, że tego typu systemy są skuteczniejsze jak pozwoli im się bardziej elastycznie kształtować matryce neuronowe co oznacza, że pozwoli im sie na większy margines błędu. To był np problem z Uberem. Waymo podchodzi do sprawy ostrożnie, selekcjonuje trasy, implementuje restrykcyjne ograniczniki prędkości niezależne od systemu i uczy go je uwzględniać (z różnym skutkiem - ich samochody mają masę stłuczek brew temu co twierdzi Waymo w większości z ich winy ale przynajmniej nie mają podobno ofiar śmiertelnych na koncie choć z niektórych miasteczek w Kalifornii ich wyrzucono). Uber chciał jak najszybciej stworzyć uniwersalną taksówkę, która mogła by w każdych warunkach zastąpić klasyczną. To nie przypadek czy błąd, ze system nie zauważył pieszej. To tak działa na obecnym etapie.
Kolejnym problemem jest uczenie. Prawdziwe SI to takie które modyfikuje swoje zachowanie ucząc się nowych wzorców reakcji na dostarczane bodźce. Problem w tym, że nie do końca jesteśmy w stanie stworzyć skuteczny i bezpieczny system tego typu. Bot od microsoftu najlepiej prezentuje dlaczego. Nie potrafimy przewidzieć wpływu takiego uczenia na fabryczną matrycę wzorców i kontrolować efekt w dostateczny sposób. W wypadku motoryzacji, medycyny, eksperckich systemów kontrolujących działających just in time czy innych bardzo newralgicznych systemów to może być olbrzymim zagrożeniem. Dochodzą różnice między poszczególnymi systemami - by to było bezpieczne i systemy często nie kolidowały ze sobą oraz uwzględniały 'doświadczenia' szczególnie te krytyczne innych trzeba stworzyć mechanizm uzgadniania sieci wraz z testowaniem i weryfikacją zmian. To nie jest proste bo... nie do końca wiemy jak to działa. Czasem drobne różnice w sieci neuronowej wynikają z np różnej kalibracji czujników czy różnic jednostkowych w sytuacjach dotyczących danego systemu (np średniego obciążenia samochodu, średniej temperatury przy systemie sterowania np układami kontrolującymi zużycie itd) . Nakładanie na to zmian z innych implementacji może dawać nieprzewidywalne skutki.
Tutaj dochodzimy do kolejnego problemu z przenośnością takich systemów.
Wystarczyłoby na tyle skomplikować szachy, żeby maszyna była w stanie obliczyć maksymalnie 5-7 posunięć i nagle zaczyna przegrywać z w miarę przeciętnymi graczami.
'Go' jest właśnie 'na tyle skomplikowanymi szachami' i dlatego do niedawna człowiek wygrywał z klasycznymi komputerami które analizują tylko miliony pozycji na sekundę
Jak się tłumaczy dzieciom algorytmy na przykładzie przepisów na ciasto, to kończą potem z właśnie takim sposobem myślenia
Kolega widze chce wprowadzić nową definicję, czyli algorytmy skomplikowane nazywać algorytmami, a algorytmy proste przestać nazywąc algorytmami bo na dziś taki podział pasuje mu do dyskusji
Tylko pewnie sam będzie miał problem od którego momentu algorytm jest na tyle skomplikowany ze juz mozna go nazwać algorytmem
A ci którzy nie wierzą ze to inteligencja (tyle ze na razie tylko do gierek) niech wytłumaczą jakim cudem program liczacy około 900 razy mniej posuniec na sekundę wygrywa z tym liczącym więcej:
'Sztuczna sieć neuronowa AlphaZero pokonała Stockfisha, wygrywając 28 partii i remisując 72. Warto podkreślić, że AI od Google nie została przed pojedynkiem 'zaopatrzona' w bazę otwarć ani żadną teorię szachową, a - podobnie jak w przypadku GO - opracowała całą teorię od nowa, grając przez 4 godziny 'sama ze sobą'. Co więcej, podczas samego meczu, AlphaZero analizowała 'jedynie' 80 tys. pozycji na sekundę, podczas gdy Stockfish 70 mln - uwidacznia to dobitnie błyskawiczny rozwój 'sztucznej intuicji' i udowadnia, że moc oprogramowania DeepMind nie tkwi w 'rozwiązaniach siłowych'.
Arcymistrz Peter Heine Nielsen, jeden z najlepszych szachistów na świecie, skomentował mecz słowami - '... przeanalizowałem kilka partii i cóż - kiedyś zastanawiałem się co by było, gdyby obca, dalece bardziej rozwinięta cywilizacja wylądowała na ziemi i pokazała nam, jak u nich gra się w szachy - dziś czuję, jakbym poznał odpowiedź'.
. A w tym celu trzeba będzie dać jej ciało - najlepiej symulowane w rzeczywistości wirtualnej. Bez tego trudno będzie jej pojąć tzw. wiedzę ogólną i zachowanie ludzi.
Chcesz stworzyć prawie ze kopię człowieka a tu nie o to chodzi.
Chodzi o to by stworzyć coś innego, z innym 'punktem widzenia'
Alfa zero nie rozumie ludzi i nie probuje zrozumieć, ale umie wygrywac z nimi w szachy.
Teraz chodzi tylko o to by stworzyć coś co nie bedzie lepsze tylko w grach, ale tez w innych dziedzinach i ciało temu czemus będzie tylko przeszkadzać, jest zbędnym balastem, bo na obsługe ciała nasz mózg zużywa większosc mocy obliczeniowej, a Alfa zero na obsługę ciała nie musi zużywać nic
A ci którzy nie wierzą ze to inteligencja (tyle ze na razie tylko do gierek) niech wytłumaczą jakim cudem program liczacy około 900 razy mniej posuniec na sekundę wygrywa z tym liczącym więcej:
'Sztuczna sieć neuronowa AlphaZero pokonała Stockfisha, wygrywając 28 partii i remisując 72. Warto podkreślić, że AI od Google nie została przed pojedynkiem 'zaopatrzona' w bazę otwarć ani żadną teorię szachową, a - podobnie jak w przypadku GO - opracowała całą teorię od nowa, grając przez 4 godziny 'sama ze sobą'. Co więcej, podczas samego meczu, AlphaZero analizowała 'jedynie' 80 tys. pozycji na sekundę, podczas gdy Stockfish 70 mln - uwidacznia to dobitnie błyskawiczny rozwój 'sztucznej intuicji' i udowadnia, że moc oprogramowania DeepMind nie tkwi w 'rozwiązaniach siłowych'.
Arcymistrz Peter Heine Nielsen, jeden z najlepszych szachistów na świecie, skomentował mecz słowami - '... przeanalizowałem kilka partii i cóż - kiedyś zastanawiałem się co by było, gdyby obca, dalece bardziej rozwinięta cywilizacja wylądowała na ziemi i pokazała nam, jak u nich gra się w szachy - dziś czuję, jakbym poznał odpowiedź'.
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero. Google nie miało dość pieniędzy, aby zapewnić konkurentowi zbliżoną moc obliczeniową, czy może w przypadku lepszej konfiguracji AlphaZero nie miał szans? Raczej można przypuszczać, że Google przed takim ważnym wydarzeniem starannie się przygotował - kod Stockfish jest w końcu publicznie dostępny, łatwo można było 'odpowiednio' go ustawić, natomiast AlphaZero to czarna skrzynka - Google nie udostępniło kodu. Google znane jest ze swojej zapobiegliwości: https://www.dobreprogramy.pl/Rozmowy-AI-z-...News,88226.html
Faktycznie, AlphaZero na superkomputerze vs Stockfish na laptopie to bardzo uczciwa konkurencja. Dodatkowo zapomniano udostępnić temu programowi dostępu do bazy danych otwarć szachowych, ale to pewnie tylko przeoczenie. Wielka szkoda również, że sztywno przydzielono minutę na każdy ruch, co jest również bardzo niekorzystne dla konkurenta. Zastosowano roczną wersję Stockfish, zamiast najnowszej, ale inżynierzy Google pewnie nie mają dostępu do internetu. Opinia twórcy Stockfish:
Stockfish developer Tord Romstad responded with 'The match results by themselves are not particularly meaningful because of the rather strange choice of time controls and Stockfish parameter settings: The games were played at a fixed time of 1 minute/move, which means that Stockfish has no use of its time management heuristics (lot of effort has been put into making Stockfish identify critical points in the game and decide when to spend some extra time on a move; at a fixed time per move, the strength will suffer significantly). The version of Stockfish used is one year old, was playing with far more search threads than has ever received any significant amount of testing, and had way too small hash tables for the number of threads. I believe the percentage of draws would have been much higher in a match with more normal conditions.
Other machine-learning experts El Reg chatted to this week privately agreed that while AlphaZero is a cool research project, it is not quite the scientific breakthrough the mainstream press has been screaming about.
Hikaru Nakamura:
I think the research is certainly very interesting; the concept of trying to learn from the start without any prior knowledge so certainly it's a new approach and it worked quite well obviously with go. It's definitely interesting. That being said, having looked at the games and understand[ing] what the playing strength was I don't necessarily put a lot of credibility in the results simply because my understanding is that AlphaZero is basically using the Google super computer and Stockfish doesn't run on that hardware; Stockfish was basically running on what would be my laptop. If you wanna have a match that's comparable you have to have Stockfish running on a super computer as well.
Larry Kaufman:
It is of course rather incredible, he said. 'Although after I heard about the achievements of AlphaGo Zero in Go I was rather expecting something like this, especially since the team has a chess master, Demis Hassabis. What isn't yet clear is whether AlphaZero could play chess on normal PCs and if so how strong it would be. It may well be that the current dominance of minimax chess engines may be at an end, but it's too soon to say so. It should be pointed out that AlphaZero had effectively built its own opening book, so a fairer run would be against a top engine using a good opening book.
Davide Nastasio
Similarly, one could argue the AlphaZero programmers erred when they made their comparison solely against the top engine. The mistake was to think the best engine is de facto the strongest chess player on the planet. This is not true. The strongest chess player on the planet is the Centaur, one who has a machine dedicated to chess, an SSD (Solid State Drive) for the endgame tablebases — or an Endgame Turbo USB flash drive —, and an SSD for the opening repertoire, which has been deepened through the years with the Monte Carlo method. The findings made by the Centaur are nowhere to be found, even in commercial engines (if a commercial engine is the top one to find!). Against such a creature, AlphaZero would have had difficulties to win even one game.
Wolff Morrow
That whole spectacle seemed to be a spun tale with a stacked deck. If AlphaZero were to play in an actual engine tournament like the TCEC, I seriously doubt it would even make it to the semifinals. In terms of beating it though, I couldn't say if that would actually happen. It could play something like the Petroff and easily draw and that would look like some sort of small victory on its part. However, I will say it will NOT beat me in a Centaur CC game. That's just not going to happen.
PS. Skoro Google musiało uciekać się do takich sztuczek, to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)? Poza tym skoro przestarzały i źle skonfigurowany Stockfish przy mocy zwykłego PC niemal dorównał AlphaZero na superkomputerze (zremisował 72 razy na 100), to może jest inteligentniejszy? Wiem, że działa w zupełnie inny sposób od AlphaZero, ale przecież ludzki mózg też działa zupełnie inaczej, a jednak to wszystko się porównuje.
Daje do myślenia??? Nigdy się nad tym nie zastanawiałem ale artykuł wzbudził moją ciekawość - poszperam i temat na pewno zgłębię. A tak na marginesie dzięki za ciekawe komentarze - już mało jest miejsc gdzie można znaleźć takowe pod artykułem.
Na onet znajdziesz podobnej jakości każdą ilość
doktorat czytalem o bitcoin tragedja ze pisze ktos kto nie kuma czaczy i ocenia ktos to wie jeszcze mniej o coin360 to wogole zawodnik sie chyba jeszcze nie dowiedzial
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero.
To prawda ze Stockfish został poddany pewnym ograniczeniom, ale mimo tych ograniczeń jego moc obliczeniowa wciąż byłą zdecydowanie wieksza.
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
qas1 @ 2018.08.05 12:54
Skoro Google musiało uciekać się do takich sztuczek
Sztuczka jest zmniejszenie przewagi w ilości obliczeń z np. 10 000 razy większej mocy obliczeniowej do tylko 900 razy większej mocy. Ty widzisz w tym sztuczke a ja zmniejszenie przewagi w której zamiast Dawid walczyć z SuperGoliatem, walczy tylko z Goliatem.
qas1 @ 2018.08.05 12:54
to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)?
Jest przełomem, bo stockfish czy inne programy to tylko korzystnie z wiedzy którą stworzyła ludzkość.
Alfa zero sama stworzyła tą wiedzę, nikt jej nie zaprogramował + Alfa dodała do tego wiedze na która my ludzie nie wpadliśmy. W szachach to jest niewiele nowych posuniec bo tam ilosc kombinacji jest jako tako do ogarniecia, ale już w 'Go' okazuje sie ze ludzkie strategie zaczynają wyglądać na błędne, tak jak błędna okazała się średniowieczna medycyna z jej upuszczaniem krwi
'Jednak eksperci z Go są pod wrażeniem wydajności AlphaGo i jego stylu nieludzkiej gry; Ke Jie stwierdził, że „Gdy ludzkość przez tysiące lat ulepszała naszą taktykę, komputery informują nas, że ludzie są w pełni w błędzie... Chciałbym powiedzieć, że żaden człowiek nie dotknął krawędzi prawdy Go'
Obecnie nie ma nawet precyzyjnej definicji gatunku (sprawdziłem wcześniej, co Wikipedia pisze na ten temat ).
Myślę, że układ, w którym można ustawić, co jest celem działania, i który będzie rozpoznawać, czy jego dzialania przybliżają go, czy oddalają od celu, i na tej podstawie je korygować, można nazwać 'sztucznie inteligentnym'.
Jedyna różnica między sztucznie a naturalnie inteligentnym układem jest taka, że ten pierwszy nie ma wstępnie ustawionych celów, innych niż zadania, do których ma się go używać.
Naturalna inteligencja (pracownika, czy niewolnika) ma takie wstępnie ustawione cele (motywacje), które mogą wchodzić w konflikt z celami zadanymi.
O ile przy tworzeniu sztucznie inteligentnego układu nie zostanie popełniony poważny błąd, taki układ nie będzie wykazywać tendencji do wydostania się spod kontroli, czy zmiany celów.
Oczywiście może być podatny na manipulację, tak jak istniejące obecnie błędne programy przy przetwarzaniu odpowiednio spreparowanych danych, są podatne na wykonanie kodu znajdującego się w tych danych.
To prawda ze Stockfish został poddany pewnym ograniczeniom, ale mimo tych ograniczeń jego moc obliczeniowa wciąż byłą zdecydowanie wieksza.
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
I na co mu ta 900 razy większa moc obliczeniowa, skoro liczył nie to co trzeba, bo przy minucie na posunięcie nie miał czasu dokonać wyboru?
I na co mu ta 900 razy większa moc obliczeniowa, skoro liczył nie to co trzeba, bo przy minucie na posunięcie nie miał czasu dokonać wyboru?
Skoro przeliczył 900 razy więcej wariantów to miał z czego wybierać.
Ten numer z tą 'minutą' to w nim chodziło o to ze myślał minutę nawet nad ruchem który był oczywisty, zamiast wykonac ruch w sekundę i później myślec 1:59 nad kolejnym ruchem.
Po prostu wyłaczono dobrze dopracowany bonus zarządzania czasem u Stockfisha.
No i trzeba pamiętać ze już Stockfish ma sporo wspólnego ze sztuczną inteligencją:
'Między rokiem 2003 a chwilą obecną jest przepaść w sile gry programów. Algorytmy są cały czas ulepszane, co widać w różnicach rzędu 50 pkt. elo między kolejnymi wersjami tego samego silnika. Kramnik przegrał mecz z komputerem w wyniku podstawienia mata w jednym ruchu, ale obecne silniki niszczą arcymistrzów nawet w partiach z forami materialnymi (grają bez jakości, bez pionka f7, człowiek może zacząć partię od 2 posunięć itp.).
Coraz bardziej liczy się ocena pozycji, heurystyki, wcześniejsze programy grały metodą brute force, czyli rozpatrywały wszystkie możliwe warianty. Współczesne silniki potrafią znacznie ograniczyć obszar obliczeń, szczególnie Stockfish stosuje bardzo agresywne algorytmy ucinania słabszych wariantów - dzięki temu szybciej osiągają większą głębokość obliczeń, a to jest w przypadku długich kombinacji kluczowe.
Starsze programy wybierały inne posunięcia, bo korzyści płynące z ofiary nie pojawiały się na horyzoncie ich obliczeń, a pozycja na mniejszej głębokości oceniana była negatywnie na podstawie straty materiału.'
I nabijanie sie ze Stockfisha jako sztucznej inteligencji moge zrozumieć, ale już nabijanie się z Alfy która sama sie uczy od zera i w grze 'go' robi z nas ludzi mięso mielone to jest szczyt ignorancji
Widze ze z szachami słabo.
Otwarcia szachowe to jak najbardziej algorytmy - czyli proste i jednoznaczne odpowiedzi na posuniecia przeciwnika. Wynajduje się optymalne rozwiazenie i później powtarza przy każdej okazji.
Twoje zachowanie to też algorytmy.
Czytasz tekst i jeśli masz coś do napisania to piszesz, jak nie masz to nie piszesz.
To też jest algorytm. Wszystko to pętle i algorytmy.
Jak się tłumaczy dzieciom algorytmy na przykładzie przepisów na ciasto, to kończą potem z właśnie takim sposobem myślenia
Wprowadzasz w błąd..... A nie sam się nauczył.
No to powiedz kto go nauczył albo napisz, 'przepraszam, wprowadziłem w błąd'
Alfa zero jest algorytmem który TWORZY ALGORYTMY
Sam stworzył algorytm do gry w szachy, sam stworzył algorytm do gry w 'Go'.
Nie miał żadnych figur w algorytmie, pomyliłeś algorytm z twórcą algorytmów jakim jest Alfa zero
Te algorytmy można porównać do łamania haseł metoda brute force. Jak jest wystarczająco mocna maszyna to złamie każdy szyfr, choćby tam były wprowadzane drobne zmiany.
Wystarczyłoby na tyle skomplikować szachy, żeby maszyna była w stanie obliczyć maksymalnie 5-7 posunięć i nagle zaczyna przegrywać z w miarę przeciętnymi graczami.
Ostatnio jakiś projekt chatbotów trzeba było zmodyfikować właśnie dlatego, że wymyśliły własny język, a miały się posługiwać pełnym angielskim.
I tak właśnie powstanie pierwsze prawdziwe SI, nie będzie napisane przez ludzi bo natury inteligencji sami w pełni nie rozumiemy więc nie damy rady jej napisać, będzie emergentne, samo uczący się program albo bardziej prawdopodobne - sieć będzie się rozwiać ,aż w pewnym momencie przekroczy próg świadomości i się 'obudzi'.
Obecna rewolucja w dostępności mocy obliczeniowej dzięki wykorzystaniu GPU, umożliwiła symulowanie znacznie większych sieci neuronowych, niż było to możliwe jeszcze dekadę temu. Dzięki temu osiągnięto przełom w skuteczności rozpoznawania mowy (dla najpopularniejszych na świecie języków), także syntetyzowana w ten sposób mowa brzmi lepiej niż generowana algorytmicznie.
Najważniejsze jest, że możliwości symulacji sieci neuronowych powiększają się w zawrotnym tempie - jestem przekonany że wkrótce będzie możliwe stworzenie sieci neuronowej o podobnej złożoności i możliwościach co ludzki mózg, nawet jeśli będzie ona zajmowała cały budynek. Jednak żeby z tej sieci neuronowej powstała inteligentna istota, trzeba ją będzie wychować jak dziecko. A w tym celu trzeba będzie dać jej ciało - najlepiej symulowane w rzeczywistości wirtualnej. Bez tego trudno będzie jej pojąć tzw. wiedzę ogólną i zachowanie ludzi.
P.S.
Wielki biznes jest bardziej zainteresowany systemami świadczącymi konkretne usługi, niż powstaniem takiej sztucznej inteligencji. Bo budynek pełen kart Tesla musi na siebie zarabiać.
No to powiedz kto go nauczył albo napisz, 'przepraszam, wprowadziłem w błąd'
Alfa zero jest algorytmem który TWORZY ALGORYTMY
Sam stworzył algorytm do gry w szachy, sam stworzył algorytm do gry w 'Go'.
Nie miał żadnych figur w algorytmie, pomyliłeś algorytm z twórcą algorytmów jakim jest Alfa zero
Te algorytmy można porównać do łamania haseł metoda brute force. Jak jest wystarczająco mocna maszyna to złamie każdy szyfr, choćby tam były wprowadzane drobne zmiany.
Wystarczyłoby na tyle skomplikować szachy, żeby maszyna była w stanie obliczyć maksymalnie 5-7 posunięć i nagle zaczyna przegrywać z w miarę przeciętnymi graczami.
Tam nie ma obliczania posunięć per se, w Go się nawet nie da, a w ogóle to wyjdźcie wszyscy, albo ja wyjdę, bo takiej ilości bredni na raz jak ten artykuł i komentarze pod nim nie da się przetrawić.
Na onet znajdziesz podobnej jakości każdą ilość
Obecna rewolucja w dostępności mocy obliczeniowej dzięki wykorzystaniu GPU, umożliwiła symulowanie znacznie większych sieci neuronowych, niż było to możliwe jeszcze dekadę temu. Dzięki temu osiągnięto przełom w skuteczności rozpoznawania mowy (dla najpopularniejszych na świecie języków), także syntetyzowana w ten sposób mowa brzmi lepiej niż generowana algorytmicznie.
Najważniejsze jest, że możliwości symulacji sieci neuronowych powiększają się w zawrotnym tempie - jestem przekonany że wkrótce będzie możliwe stworzenie sieci neuronowej o podobnej złożoności i możliwościach co ludzki mózg, nawet jeśli będzie ona zajmowała cały budynek. Jednak żeby z tej sieci neuronowej powstała inteligentna istota, trzeba ją będzie wychować jak dziecko. A w tym celu trzeba będzie dać jej ciało - najlepiej symulowane w rzeczywistości wirtualnej. Bez tego trudno będzie jej pojąć tzw. wiedzę ogólną i zachowanie ludzi.
P.S.
Wielki biznes jest bardziej zainteresowany systemami świadczącymi konkretne usługi, niż powstaniem takiej sztucznej inteligencji. Bo budynek pełen kart Tesla musi na siebie zarabiać.
https://creators.vice.com/en_us/article/vv...arter-every-day
Tak od siebie dodam, że z tymi algorytmami mamy jeszcze jeden problem - np piszę się, że si się nie myli, że np autonomiczne samochody będą powodować mniej wypadków niż ludzi e bo nie będą łamać przepisów. To świadczy o tym, ze ktoś nie do końca rozumie jak takie algorytmy działają. W zdecydowanej większości wypadków jest tak, że tego typu systemy są skuteczniejsze jak pozwoli im się bardziej elastycznie kształtować matryce neuronowe co oznacza, że pozwoli im sie na większy margines błędu. To był np problem z Uberem. Waymo podchodzi do sprawy ostrożnie, selekcjonuje trasy, implementuje restrykcyjne ograniczniki prędkości niezależne od systemu i uczy go je uwzględniać (z różnym skutkiem - ich samochody mają masę stłuczek brew temu co twierdzi Waymo w większości z ich winy ale przynajmniej nie mają podobno ofiar śmiertelnych na koncie choć z niektórych miasteczek w Kalifornii ich wyrzucono). Uber chciał jak najszybciej stworzyć uniwersalną taksówkę, która mogła by w każdych warunkach zastąpić klasyczną. To nie przypadek czy błąd, ze system nie zauważył pieszej. To tak działa na obecnym etapie.
Kolejnym problemem jest uczenie. Prawdziwe SI to takie które modyfikuje swoje zachowanie ucząc się nowych wzorców reakcji na dostarczane bodźce. Problem w tym, że nie do końca jesteśmy w stanie stworzyć skuteczny i bezpieczny system tego typu. Bot od microsoftu najlepiej prezentuje dlaczego. Nie potrafimy przewidzieć wpływu takiego uczenia na fabryczną matrycę wzorców i kontrolować efekt w dostateczny sposób. W wypadku motoryzacji, medycyny, eksperckich systemów kontrolujących działających just in time czy innych bardzo newralgicznych systemów to może być olbrzymim zagrożeniem. Dochodzą różnice między poszczególnymi systemami - by to było bezpieczne i systemy często nie kolidowały ze sobą oraz uwzględniały 'doświadczenia' szczególnie te krytyczne innych trzeba stworzyć mechanizm uzgadniania sieci wraz z testowaniem i weryfikacją zmian. To nie jest proste bo... nie do końca wiemy jak to działa. Czasem drobne różnice w sieci neuronowej wynikają z np różnej kalibracji czujników czy różnic jednostkowych w sytuacjach dotyczących danego systemu (np średniego obciążenia samochodu, średniej temperatury przy systemie sterowania np układami kontrolującymi zużycie itd) . Nakładanie na to zmian z innych implementacji może dawać nieprzewidywalne skutki.
Tutaj dochodzimy do kolejnego problemu z przenośnością takich systemów.
Wystarczyłoby na tyle skomplikować szachy, żeby maszyna była w stanie obliczyć maksymalnie 5-7 posunięć i nagle zaczyna przegrywać z w miarę przeciętnymi graczami.
Jak się tłumaczy dzieciom algorytmy na przykładzie przepisów na ciasto, to kończą potem z właśnie takim sposobem myślenia
Kolega widze chce wprowadzić nową definicję, czyli algorytmy skomplikowane nazywać algorytmami, a algorytmy proste przestać nazywąc algorytmami bo na dziś taki podział pasuje mu do dyskusji
Tylko pewnie sam będzie miał problem od którego momentu algorytm jest na tyle skomplikowany ze juz mozna go nazwać algorytmem
A ci którzy nie wierzą ze to inteligencja (tyle ze na razie tylko do gierek) niech wytłumaczą jakim cudem program liczacy około 900 razy mniej posuniec na sekundę wygrywa z tym liczącym więcej:
'Sztuczna sieć neuronowa AlphaZero pokonała Stockfisha, wygrywając 28 partii i remisując 72. Warto podkreślić, że AI od Google nie została przed pojedynkiem 'zaopatrzona' w bazę otwarć ani żadną teorię szachową, a - podobnie jak w przypadku GO - opracowała całą teorię od nowa, grając przez 4 godziny 'sama ze sobą'. Co więcej, podczas samego meczu, AlphaZero analizowała 'jedynie' 80 tys. pozycji na sekundę, podczas gdy Stockfish 70 mln - uwidacznia to dobitnie błyskawiczny rozwój 'sztucznej intuicji' i udowadnia, że moc oprogramowania DeepMind nie tkwi w 'rozwiązaniach siłowych'.
Arcymistrz Peter Heine Nielsen, jeden z najlepszych szachistów na świecie, skomentował mecz słowami - '... przeanalizowałem kilka partii i cóż - kiedyś zastanawiałem się co by było, gdyby obca, dalece bardziej rozwinięta cywilizacja wylądowała na ziemi i pokazała nam, jak u nich gra się w szachy - dziś czuję, jakbym poznał odpowiedź'.
Chcesz stworzyć prawie ze kopię człowieka a tu nie o to chodzi.
Chodzi o to by stworzyć coś innego, z innym 'punktem widzenia'
Alfa zero nie rozumie ludzi i nie probuje zrozumieć, ale umie wygrywac z nimi w szachy.
Teraz chodzi tylko o to by stworzyć coś co nie bedzie lepsze tylko w grach, ale tez w innych dziedzinach i ciało temu czemus będzie tylko przeszkadzać, jest zbędnym balastem, bo na obsługe ciała nasz mózg zużywa większosc mocy obliczeniowej, a Alfa zero na obsługę ciała nie musi zużywać nic
A ci którzy nie wierzą ze to inteligencja (tyle ze na razie tylko do gierek) niech wytłumaczą jakim cudem program liczacy około 900 razy mniej posuniec na sekundę wygrywa z tym liczącym więcej:
'Sztuczna sieć neuronowa AlphaZero pokonała Stockfisha, wygrywając 28 partii i remisując 72. Warto podkreślić, że AI od Google nie została przed pojedynkiem 'zaopatrzona' w bazę otwarć ani żadną teorię szachową, a - podobnie jak w przypadku GO - opracowała całą teorię od nowa, grając przez 4 godziny 'sama ze sobą'. Co więcej, podczas samego meczu, AlphaZero analizowała 'jedynie' 80 tys. pozycji na sekundę, podczas gdy Stockfish 70 mln - uwidacznia to dobitnie błyskawiczny rozwój 'sztucznej intuicji' i udowadnia, że moc oprogramowania DeepMind nie tkwi w 'rozwiązaniach siłowych'.
Arcymistrz Peter Heine Nielsen, jeden z najlepszych szachistów na świecie, skomentował mecz słowami - '... przeanalizowałem kilka partii i cóż - kiedyś zastanawiałem się co by było, gdyby obca, dalece bardziej rozwinięta cywilizacja wylądowała na ziemi i pokazała nam, jak u nich gra się w szachy - dziś czuję, jakbym poznał odpowiedź'.
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero. Google nie miało dość pieniędzy, aby zapewnić konkurentowi zbliżoną moc obliczeniową, czy może w przypadku lepszej konfiguracji AlphaZero nie miał szans? Raczej można przypuszczać, że Google przed takim ważnym wydarzeniem starannie się przygotował - kod Stockfish jest w końcu publicznie dostępny, łatwo można było 'odpowiednio' go ustawić, natomiast AlphaZero to czarna skrzynka - Google nie udostępniło kodu. Google znane jest ze swojej zapobiegliwości:
https://www.dobreprogramy.pl/Rozmowy-AI-z-...News,88226.html
Faktycznie, AlphaZero na superkomputerze vs Stockfish na laptopie to bardzo uczciwa konkurencja. Dodatkowo zapomniano udostępnić temu programowi dostępu do bazy danych otwarć szachowych, ale to pewnie tylko przeoczenie. Wielka szkoda również, że sztywno przydzielono minutę na każdy ruch, co jest również bardzo niekorzystne dla konkurenta. Zastosowano roczną wersję Stockfish, zamiast najnowszej, ale inżynierzy Google pewnie nie mają dostępu do internetu. Opinia twórcy Stockfish:
Starannie wybrana opinia Nielsena niczego nie zmienia. Wielu innych mistrzów szachowych mówi raczej o oszustwie. Tutaj artykuł od szachisty eksperta od AI:
https://medium.com/@josecamachocollados/is...ai-bf66ae1c84f2
Kolejny artykuł:
https://www.theregister.co.uk/2017/12/14/d...azero_ai_unfair
Hikaru Nakamura:
Larry Kaufman:
Davide Nastasio
Wolff Morrow
PS. Skoro Google musiało uciekać się do takich sztuczek, to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)? Poza tym skoro przestarzały i źle skonfigurowany Stockfish przy mocy zwykłego PC niemal dorównał AlphaZero na superkomputerze (zremisował 72 razy na 100), to może jest inteligentniejszy? Wiem, że działa w zupełnie inny sposób od AlphaZero, ale przecież ludzki mózg też działa zupełnie inaczej, a jednak to wszystko się porównuje.
Na onet znajdziesz podobnej jakości każdą ilość
doktorat czytalem o bitcoin
Takim cudem, że Stockfish celowo został skonfigurowany bardzo nieoptymalnie, aby tylko AlphaZero mógł wygrać. To, że Stockfish przeliczał 70 mln ruchów wobec 80 tys. AlfaZero ma marginalne znaczenie, skoro miał do dyspozycji znikomy ułamek mocy AlphaZero.
To prawda ze Stockfish został poddany pewnym ograniczeniom, ale mimo tych ograniczeń jego moc obliczeniowa wciąż byłą zdecydowanie wieksza.
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
Skoro Google musiało uciekać się do takich sztuczek
Sztuczka jest zmniejszenie przewagi w ilości obliczeń z np. 10 000 razy większej mocy obliczeniowej do tylko 900 razy większej mocy. Ty widzisz w tym sztuczke a ja zmniejszenie przewagi w której zamiast Dawid walczyć z SuperGoliatem, walczy tylko z Goliatem.
to może AlphaZero wcale nie jest aż tak wielkim przełomem (tak zresztą twierdzą różni inżynierzy AI)?
Jest przełomem, bo stockfish czy inne programy to tylko korzystnie z wiedzy którą stworzyła ludzkość.
Alfa zero sama stworzyła tą wiedzę, nikt jej nie zaprogramował + Alfa dodała do tego wiedze na która my ludzie nie wpadliśmy. W szachach to jest niewiele nowych posuniec bo tam ilosc kombinacji jest jako tako do ogarniecia, ale już w 'Go' okazuje sie ze ludzkie strategie zaczynają wyglądać na błędne, tak jak błędna okazała się średniowieczna medycyna z jej upuszczaniem krwi
'Jednak eksperci z Go są pod wrażeniem wydajności AlphaGo i jego stylu nieludzkiej gry; Ke Jie stwierdził, że „Gdy ludzkość przez tysiące lat ulepszała naszą taktykę, komputery informują nas, że ludzie są w pełni w błędzie... Chciałbym powiedzieć, że żaden człowiek nie dotknął krawędzi prawdy Go'
Myślę, że układ, w którym można ustawić, co jest celem działania, i który będzie rozpoznawać, czy jego dzialania przybliżają go, czy oddalają od celu, i na tej podstawie je korygować, można nazwać 'sztucznie inteligentnym'.
Jedyna różnica między sztucznie a naturalnie inteligentnym układem jest taka, że ten pierwszy nie ma wstępnie ustawionych celów, innych niż zadania, do których ma się go używać.
Naturalna inteligencja (pracownika, czy niewolnika) ma takie wstępnie ustawione cele (motywacje), które mogą wchodzić w konflikt z celami zadanymi.
O ile przy tworzeniu sztucznie inteligentnego układu nie zostanie popełniony poważny błąd, taki układ nie będzie wykazywać tendencji do wydostania się spod kontroli, czy zmiany celów.
Oczywiście może być podatny na manipulację, tak jak istniejące obecnie błędne programy przy przetwarzaniu odpowiednio spreparowanych danych, są podatne na wykonanie kodu znajdującego się w tych danych.
Zastanów się jak Stockfish mógł miec mniejsza moc obliczeniową skoro liczył 900 razy wiecej posunieć?
I na co mu ta 900 razy większa moc obliczeniowa, skoro liczył nie to co trzeba, bo przy minucie na posunięcie nie miał czasu dokonać wyboru?
Skoro przeliczył 900 razy więcej wariantów to miał z czego wybierać.
Ten numer z tą 'minutą' to w nim chodziło o to ze myślał minutę nawet nad ruchem który był oczywisty, zamiast wykonac ruch w sekundę i później myślec 1:59 nad kolejnym ruchem.
Po prostu wyłaczono dobrze dopracowany bonus zarządzania czasem u Stockfisha.
No i trzeba pamiętać ze już Stockfish ma sporo wspólnego ze sztuczną inteligencją:
'Między rokiem 2003 a chwilą obecną jest przepaść w sile gry programów. Algorytmy są cały czas ulepszane, co widać w różnicach rzędu 50 pkt. elo między kolejnymi wersjami tego samego silnika. Kramnik przegrał mecz z komputerem w wyniku podstawienia mata w jednym ruchu, ale obecne silniki niszczą arcymistrzów nawet w partiach z forami materialnymi (grają bez jakości, bez pionka f7, człowiek może zacząć partię od 2 posunięć itp.).
Coraz bardziej liczy się ocena pozycji, heurystyki, wcześniejsze programy grały metodą brute force, czyli rozpatrywały wszystkie możliwe warianty. Współczesne silniki potrafią znacznie ograniczyć obszar obliczeń, szczególnie Stockfish stosuje bardzo agresywne algorytmy ucinania słabszych wariantów - dzięki temu szybciej osiągają większą głębokość obliczeń, a to jest w przypadku długich kombinacji kluczowe.
Starsze programy wybierały inne posunięcia, bo korzyści płynące z ofiary nie pojawiały się na horyzoncie ich obliczeń, a pozycja na mniejszej głębokości oceniana była negatywnie na podstawie straty materiału.'
I nabijanie sie ze Stockfisha jako sztucznej inteligencji moge zrozumieć, ale już nabijanie się z Alfy która sama sie uczy od zera i w grze 'go' robi z nas ludzi mięso mielone to jest szczyt ignorancji