komentarze
Linux_psychoZobacz profil
Poziom ostrzeżenia: 0%
Linux_psycho2018.09.21, 10:39
SI to definitywnie marketingowy bełkot. Podstawowe założenia SI to zdawanie sobie sprawy z istnienia samego siebie, samorozwój, adaptacja, analiza danych. To, że możemy stworzyć obszerny algorytm to nie znaczy, że już mamy do czynienia z SI.
Rybaczek KoziołkaZobacz profil
Poziom ostrzeżenia: 0%
Rybaczek Koziołka2018.08.23, 14:57
Świetny tekst, chociaż trochę za długi :)
co do wszelkich syntetycznych tzw. inteligencji które ostatnio przeżywają boom, to nie są tak naprawdę systemy inteligentne, lecz takie które się adaptują do bieżących parametrów swojego otoczenia, i nic więcej.
Metodami na to są albo fizyczne albo softwareowe odwzorowania sieci neuronowych, oraz ..... o czym zdaje się całkiem zapomniano, ważne są tu też algorytmy genetyczne, które nie tylko potrafią się zaadaptować do bieżącej sytuacji, ale przy odpowiednim sprofilowaniu, potrafią sobie 'przypomnieć' wcześniejsze sytuacje do których się zadaptowały w momencie, kiedy te sytuacje powrócą.
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2018.08.14, 10:46
[quote name='Bono[UG]' date='2018.08.14 04:16' post='1159032']Czyli nadal pomijasz odpowiedź... Szkoda, spodziewałem się więcej po tobie, skoro kreujesz się na takiego wiedzącego.[/quote]

Jak widać nie uczy się świni śpiewać, bo się tylko straci czas i energię, a i świnia się zdenerwuje ;)
Bono[UG]Zobacz profil
Poziom ostrzeżenia: 0%
Bono[UG]2018.08.14, 04:16
Czyli nadal pomijasz odpowiedź... Szkoda, spodziewałem się więcej po tobie, skoro kreujesz się na takiego wiedzącego.
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2018.08.13, 22:53
BonoUG @ 2018.08.13 08:51  Post: 1158843

Te reguły środowiska ustala programista, jak mam to jeszcze jaśniej napisać, żeby dotarło?


Po pierwsze poznaj w końcu swoje miejsce w szeregu pod względem intelektu (to taki żarcik, bo mniej inteligentny nie tylko nie zrozumie takiego mocno bardziej, ale i nie dostrzeże, bo nie widzi się tego czego się nie zna – taka ciekawostka), a po drugie reguły twojego środowiska ustaliła bozia i nawet sam sobie nie potrafisz wyobrazić niczego, czego wcześniej w nim nie widziałeś, więc...

No i nie odpowiedziałeś na pytanie o ten mój konkretny przykład, tylko wymijająco piszesz. To jak, przy tak ustalonym środowisku sieć będzie mogła dać inną odpowiedź, czy jednak nie?
Potrafisz na to odpowiedzieć, czy wolisz uciekać w obrażanie?


To nie jest albo-albo: Obrażam cię celem wytrenowania twojej sieci do trzymania się w ramach realiów własnych możliwości i nastawienia bardziej na skromność połączoną z próbami internalizacji nowej wiedzy, niż na kreowaniu bełkotu z bezwartościowych strzępków pseudowiedzy. To raz, a dwa: Myślę, że w ramach internalizacji lepiej się sprawdzą filmiki, więc oto filmik – AI znajdujące i wykorzystujące bugi w starych grach, bugi o których nie mieliśmy pojęcia. Czy to jest wystarczająco obrazowy przykład znajdowania przez AI innej odpowiedzi niż z góry przewidywało środowisko i niż się grający dotąd białkowcy spodziewali?

https://www.youtube.com/watch?v=wm8tK91k37U
Edytowane przez autora (2018.08.14, 02:33)
Bono[UG]Zobacz profil
Poziom ostrzeżenia: 0%
Bono[UG]2018.08.13, 08:51
Nope. Jest ZERO problemu żeby sieć SAMA poznawała REGUŁY ŚRODOWISKA. Jesteś po prostu tak niedouczony w tym co piszesz, że wierzysz w to w stylu płaskoziemców.

Te reguły środowiska ustala programista, jak mam to jeszcze jaśniej napisać, żeby dotarło?

No i nie odpowiedziałeś na pytanie o ten mój konkretny przykład, tylko wymijająco piszesz. To jak, przy tak ustalonym środowisku sieć będzie mogła dać inną odpowiedź, czy jednak nie?
Potrafisz na to odpowiedzieć, czy wolisz uciekać w obrażanie?
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2018.08.13, 00:22
BonoUG @ 2018.08.11 16:02  Post: 1158674

Patrząc jedynie na twoje 'byłem kiedyś na wykładzie', to ja mam wątpliwości czy masz cokolwiek związku z programowaniem.


I właśnie dlatego nie mamy szans ze sztuczną inteligencją, ponieważ naturalna ludzka działa tak jak twoja tutaj na przykład ;)

To co dany program zwróci jest tym na co piszący go pozwoli. Jeżeli jest to program 'Hello World', to zwróci jedynie ten napis. Jeżeli program losuje liczbę z przedziału 1-100, to zwróci jedynie takie liczby. Nie ważne czy to będzie prosty szkolny program czy rozbudowana sieć neuronowa, wynik jest określony, koniec kropka, nie przeskoczysz tego.


Sieć neuronowa to nie program, geniuszu i nie działa tak jak piszesz. A jak trudne jest liczenie na sieciach neuronowych to powinieneś sam czuć po tym jak sobie twoja radzi. Co ciekawe dosłownie kilka dni temu mieliśmy przełom w sieciach rozumiejących liczby:

https://www.youtube.com/watch?v=v9E7Wg0dHiU
To co słyszałeś na tym wykładzie kilkanaście lat temu, nawet w ułamku nie kłóci się z tym o czym piszę. Jeżeli sieć neuronowa będzie zwracała wynik w języku umożliwiającym opisanie syreny, to jak najbardziej taki wynik może powstać, tylko taki język trzeba zdefiniować i 'udostępnić' SI do użytku.


Nope. Jest ZERO problemu żeby sieć SAMA poznawała REGUŁY ŚRODOWISKA. Jesteś po prostu tak niedouczony w tym co piszesz, że wierzysz w to w stylu płaskoziemców.

Ty z kolei piszesz jakby taka sieć neuronowa była tak wspaniałą maszynką, że wszystko sama zrobi i wymyśli nowe rzeczy. Nie, nie zrobi, chyba że doszliśmy już do poziomu, gdzie takie sieci mogą same tworzyć czy modyfikować język zwracanych danych i wchodzić na zupełnie nowe poziomy abstrakcji.


Problem polega na tym, że 'wymysla nowe rzeczy' to jest DOKŁADNIE DEFINICJA TEGO CZYM JEST MACHINE LEARNING :D Chłopie, robisz z siebie pośmiewisko na całą globalną wioskę.

Podałem bardzo prosty przykład co sieć neuronowa miałaby robić. Jeżeli twierdzisz, że jest w stanie z języka 'trójkąt, kwadrat, koło, inna' zrobić odpowiedzi: pięciokąt, stożek, dom, koło w trójkącie, to napisz w jaki sposób miałaby to zrobić


Poza tym, że de facto każda sieć robi to z samej definicji, to ukonkretniając jest wiele typów sieci, które wybitnie zajmują się właśnie odkrywaniem złożonych koncepcji:

https://www.youtube.com/watch?v=eSaShQbUJTQ
Bono[UG]Zobacz profil
Poziom ostrzeżenia: 0%
Bono[UG]2018.08.11, 16:02
Arael @ 2018.08.09 23:58  Post: 1158353
BonoUG @ 2018.08.07 20:02  Post: 1157875

(...)


Napisałeś kiedykolwiek jakikolwiek program czy preferujesz takie filozofowanie bardziej?

'I dla podrażnienia, SI i wszystko z nią związane, to są algorytmy. Masz algorytm budowy sieci, algorytm uczenia, a wyuczone wzorce to też algorytmy.'
– stawiam na to drugie, bo inaczej byś nie pisał bredni typu 'wyuczone algorytmy'. Chyba u studenta informatyki, kuźwa.

'Tylko znowu jeżeli w procesie uczenia, czy raczej definiowania możliwych (interesujących nas) rozwiązań nie uwzględnimy czegoś, to SI tego nie wymyśli (np. robimy sieć rozpoznającą figury geometryczne, jeżeli ograniczymy się do zbioru kwadrat, trójkąt, koło, inne, to nie dostaniemy odpowiedzi 'trójkąt z kwadratów';).'
– kilkanaście lat temu (!) byłem na wykładzie na temat sieci neuronowych, gdzie wykładowca tłumaczył asocjacje w takiej sieci na przykładzie ryby i kobiety: Jeśli będziemy pokazywać sieci jedno i drugie, to stworzy jej się koncepcja syreny. Sama z siebie. Inaczej mówiąc nie da się z tobą dyskutować, sorry, ale coś tam słyszałeś może, ale pod wpływem tego usłyszenia jedyne co produkujesz to bezwartościowa kakofonia.

Patrząc jedynie na twoje 'byłem kiedyś na wykładzie', to ja mam wątpliwości czy masz cokolwiek związku z programowaniem.

To co dany program zwróci jest tym na co piszący go pozwoli. Jeżeli jest to program 'Hello World', to zwróci jedynie ten napis. Jeżeli program losuje liczbę z przedziału 1-100, to zwróci jedynie takie liczby. Nie ważne czy to będzie prosty szkolny program czy rozbudowana sieć neuronowa, wynik jest określony, koniec kropka, nie przeskoczysz tego.
To co słyszałeś na tym wykładzie kilkanaście lat temu, nawet w ułamku nie kłóci się z tym o czym piszę. Jeżeli sieć neuronowa będzie zwracała wynik w języku umożliwiającym opisanie syreny, to jak najbardziej taki wynik może powstać, tylko taki język trzeba zdefiniować i 'udostępnić' SI do użytku.
Ty z kolei piszesz jakby taka sieć neuronowa była tak wspaniałą maszynką, że wszystko sama zrobi i wymyśli nowe rzeczy. Nie, nie zrobi, chyba że doszliśmy już do poziomu, gdzie takie sieci mogą same tworzyć czy modyfikować język zwracanych danych i wchodzić na zupełnie nowe poziomy abstrakcji.

Podałem bardzo prosty przykład co sieć neuronowa miałaby robić. Jeżeli twierdzisz, że jest w stanie z języka 'trójkąt, kwadrat, koło, inna' zrobić odpowiedzi: pięciokąt, stożek, dom, koło w trójkącie, to napisz w jaki sposób miałaby to zrobić.
darkonzaZobacz profil
Poziom ostrzeżenia: 0%
darkonza2018.08.10, 16:58
Sanctrum @ 2018.08.09 00:31  Post: 1158123
Tyle, że ten algorytm nawet jak jest zapisany w formie matematycznej jest niezrozumiały dla naukowców DLACZEGO właściwie działa.

To akurat da sie wyjasnić.
Rozwiązując test na inteligencję w niektórych zdaniach widzimy analogie i dajemy poprawną odpowiedź w innych zdaniach brakuje nam inteligencji by te analogie zauważyć. One tam sa, ale my ich nie widzimy, natomiast ktoś bardziej inteligentny je zauważy.
Jeśli widzimy wiec działający algorytm ale nie rozumiemy dlaczego dziąła to dlatego ze do zrozumiena jego sensu potrzeba np. IQ 250, a ludzie tyle nie mają, w związku z tym są bezradni jak ktos mało inteligentny rozwiazujacy skomplikowany test na inteligencję.

Pies też nigdy nie pojmie dlaczego działa latarka, brakuje mu do tego inteligencji (pomijając inne braki)
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2018.08.10, 00:13
@Sanctrum
High five! Dobrze tu zobaczyć takie głosy na tle bełkotu licznych average Joe (łącznie z autorem artykułu – też wcześniej pisałem żeby art zdjąć), którzy niewiele widzieli, a z tego co widzieli jeszcze mniej zrozumieli, nie wspominając o wyciąganiu wniosków :)

Dodam jeszcze, że wg. istniejących modeli świadomość to najprawdopodobniej zwykłe samoprzewidywanie się, więc...

http://www.youtube.com/watch?v=xRel1JKOEbI
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2018.08.10, 00:09
qas1 @ 2018.08.09 23:12  Post: 1158341
darkonza @ 2018.08.09 09:59  Post: 1158186
(...)

Twój komentarz sam w sobie jest o wiele lepszy niż artykuł który komentujemy :)

@qas1
wszyscy wymienieni mówia ze ta rewolucja startuje a nie ze sie dokonała
jesteśmy w takim miejscu w jakim byliśmy gdy pojawiły się pierwsze uniwersalne komputery w latach 70/80-tych

Rewolucja w SI 'startuje' już od lat 50. XX w.


Obecną rewolucję możemy datować na ok. 2012 rok – przez te dekady wcześniej mieliśmy liczne 'AI winters', nie wiedzieliśmy co dalej. Dopiero teraz jest sprzęt, efekty i pewne perspektywy.
Edytowane przez autora (2018.08.10, 00:10)
AraelZobacz profil
Poziom ostrzeżenia: 0%
Arael2018.08.09, 23:58
BonoUG @ 2018.08.07 20:02  Post: 1157875

(...)


Napisałeś kiedykolwiek jakikolwiek program czy preferujesz takie filozofowanie bardziej?

'I dla podrażnienia, SI i wszystko z nią związane, to są algorytmy. Masz algorytm budowy sieci, algorytm uczenia, a wyuczone wzorce to też algorytmy.'
– stawiam na to drugie, bo inaczej byś nie pisał bredni typu 'wyuczone algorytmy'. Chyba u studenta informatyki, kuźwa.

'Tylko znowu jeżeli w procesie uczenia, czy raczej definiowania możliwych (interesujących nas) rozwiązań nie uwzględnimy czegoś, to SI tego nie wymyśli (np. robimy sieć rozpoznającą figury geometryczne, jeżeli ograniczymy się do zbioru kwadrat, trójkąt, koło, inne, to nie dostaniemy odpowiedzi 'trójkąt z kwadratów';).'
– kilkanaście lat temu (!) byłem na wykładzie na temat sieci neuronowych, gdzie wykładowca tłumaczył asocjacje w takiej sieci na przykładzie ryby i kobiety: Jeśli będziemy pokazywać sieci jedno i drugie, to stworzy jej się koncepcja syreny. Sama z siebie. Inaczej mówiąc nie da się z tobą dyskutować, sorry, ale coś tam słyszałeś może, ale pod wpływem tego usłyszenia jedyne co produkujesz to bezwartościowa kakofonia.
Edytowane przez autora (2018.08.09, 23:59)
qas1Zobacz profil
Poziom ostrzeżenia: 0%
qas12018.08.09, 23:12
darkonza @ 2018.08.09 09:59  Post: 1158186
Sanctrum @ 2018.08.09 00:31  Post: 1158123
Ten artykuł

Twój komentarz sam w sobie jest o wiele lepszy niż artykuł który komentujemy :)

@qas1
wszyscy wymienieni mówia ze ta rewolucja startuje a nie ze sie dokonała
jesteśmy w takim miejscu w jakim byliśmy gdy pojawiły się pierwsze uniwersalne komputery w latach 70/80-tych

Rewolucja w SI 'startuje' już od lat 50. XX w.
darkonzaZobacz profil
Poziom ostrzeżenia: 0%
darkonza2018.08.09, 09:59
Sanctrum @ 2018.08.09 00:31  Post: 1158123
Ten artykuł

Twój komentarz sam w sobie jest o wiele lepszy niż artykuł który komentujemy :)

@qas1
wszyscy wymienieni mówia ze ta rewolucja startuje a nie ze sie dokonała
jesteśmy w takim miejscu w jakim byliśmy gdy pojawiły się pierwsze uniwersalne komputery w latach 70/80-tych
Edytowane przez autora (2018.08.09, 10:01)
qas1Zobacz profil
Poziom ostrzeżenia: 0%
qas12018.08.09, 02:09
darkonza @ 2018.08.08 18:42  Post: 1158060
Każdy, kto pracuje nad sztuczną inteligencją, wie, że komputery pokonają nas we wszystkim.
Autor: Gary Marcus, profesor New York University

Na naszych oczach startuje czwarta rewolucja przemysłowa, UCZĄCE SIE KOMPUTERY drastycznie zmienią nasze życie. Bardziej niż koło, prąd czy internet.
Autor: Jen Hsun Huang, szef Nvidii

Jeszcze przed 2029 r. boty nas dogonią. Będą nie do odróżnienia od ludzkiej inteligencji. Co więcej, zdołają przyswoić czyjś styl myślenia, osobowość i słownictwo tak, by wyręczać go np. w prowadzeniu bloga.
Autor: Raymond Kurzweil

Gdybyśmy wzięli człowieka sprzed 10 tys. lat, wcisnęli mu smartfon i pokazali samolot – byłby przerażony. A taka zmiana, taki skok technologiczny czeka nas w najbliższych dwóch-trzech dekadach. Ludzie mają prawo być przerażeni. NIE SĄ BO NIE WIEDZĄ CO SIĘ ŚWIĘCI I JAK ZMIENI SIĘ ŚWIAT
Autor: Kevin Ho, szef Huawei

https://businessinsider.com.pl/firmy/strat...ju-chin/y6yc8bq
Jak na razie Ray Kurzweil co parę lat przekłada datę pojawienia się 'osobliwości' - jak widać nie idzie zbyt dobrze, skoro nie mogą się ziścić nawet pesymistyczne wersje. Nvidia schce sprzedawać swoje akceleratory obliczeniowe (np. autonomiczne samochody) musi więc przekonywać o rewolucji co się czai za rogiem. Tak samo Huang przekonywał, że chipy Tegra będą fundamentem zysków Nvidii - nie są, nie chcą ich nawet twórcy samochodów. Chińskiemu rządowi na pewno zależy na rozwoju SI - może nie uda się osiągnąć silnej SI, ale nawet to co jest wystarczy do większej kontroli ludności. Już dziś sieci neuronowe są używane do automatycznego rozpoznawania ludzi w tłumie.
SanctrumZobacz profil
Poziom ostrzeżenia: 0%
Sanctrum2018.08.09, 00:31
Ten artykuł zmusił mnie do odzyskania sobie po latach hasła do konta... Tylko po to aby skomentować ten stek 80% bzdur i półprawd w nim zawartych... Niemniej niewielka część (ok. 20%) odnośnie bełkotu marketingowego jest trafna… choć wynika to z zupełnie innych przesłanek... Ten artykuł powinien być zdjęty bo jest kompromitacją i całkowitym pomyleniem pojęć…

Niestety ale autor artykułu kompletnie zatrzymał się ze swoją 'wiedzą' w temacie PRAWDZIWYCH AI, SI, ML itd. (a nie tych bzdetów zawartych w komórkach i usługach mobilnych)... niestety na poziomie sprzed około 20 lat - no może sprzed 12 lat...

Od lat różne AI/ML SAME SIĘ UCZĄ – dokładnie jak człowiek na podstawie różnych bodźców: dźwięk, obraz, video, tekst itd. w zależności do czego dana sieć ma być wykorzystana. Np. TYLKO na podstawie obserwowania tysięcy streamingów z gier między dwoma graczami – vide np. Starcraft 2, gdzie AI samo odgaduje/uczy się zasad gry i itd… a później w efekcie rozwala pro gamerów… Jedynie co ludzie robią to wymyślają różne algorytmy aby te samouczenie było efektywniejsze, czytaj: szybsze i dawało mniej błędów oraz budują bardziej rozległe sieci neuronowe to obsługujące… Do tego też dochodzą problemy/badania nad SKALOWANIEM wydajności i trafności już POPRAWNIE samonauczonych sieci neuronowych… Bo proste dodanie kolejnych „neuronów” powoduje, że sieć musi uczyć się na nowo… Nad tym pracują całe SZTABY ludzi na uniwersytetach, w korporacjach i działach R&D.

Temat jest MEGA trudny do zrozumienia, tym bardziej tego typu artykuły powinny pisać prawdziwi eksperci… a nie amatorzy mylący prawdziwe AI z bzdurami obecnie dostępnymi w usługach mobilnych.

Dzisiejszy stan wiedzy and AI/ML/SI czy jakkolwiek to nazwać można sprowadzić do czterech stwierdzeń:

1. Obecnie NIKT na świecie tak naprawdę dogłębnie nie rozumie dlaczego w ramach samouczenia się sztucznych sieci neuronowych do jednych celów zastosowania danej sieci lepsze wyniki daje algorytm samouczenia A niż np. B, C i D – choć są wyjątki gdzie istnieją na to modele koncepcyjne. Jest tak, bo wiedzieć jak działa i po części rozumieć jak uczy się sieć neuronowa nie oznacza rozumieć/widzieć CZEGO tak właściwie dana sieć neuronowa właściwie się uczy – Wiemcy do widzi... ale nie wiemy jak właściwie to postrzega a tym bardziej jak 'rozumie' co ma osiągnąć w nauce. A właściwie wiemy, że raczej nie rozumie co ma osiągnąć lecz ma to zadane odgórnie. Nie ma na to modelu matematycznego… bo to świat analogowy jest… Jakby to było zrozumiałe w 100% to ludzie rozumieliby w 100% działanie ludzkiego mózgu zamiast ogólnych przybliżonych teorii, a tak nie jest. Bo przecież sieci neuronowe są właśnie wzorowane na działaniu neuronów w mózgu. Nadal dążymy do zrozumienia tego…

2. Dla już wyuczonych do niektórych zastosowań sieci neuronowych… da się z nich „wyciągnąć” przybliżony wynikowy=wyuczony=samodzielnie przez sieć opracowany matematyczny algorytm działania dla danego celu zastosowania… Tyle, że ten algorytm nawet jak jest zapisany w formie matematycznej jest niezrozumiały dla naukowców DLACZEGO właściwie działa. Na co obecnie są próby stosowania innych AI aby to zrozumieć – AI rozpracowuje sposób działania drugiej AI. Są tu oczywiście chlubne wyjątki… vide systemy automatycznie tłumaczące z języka na język. I tak, są już systemy o NIEBO LEPSZE od Google Translator… ale nie są jeszcze dostępne dla mas… dla nich dokładnie wiadomo czemu lepiej się uczą i dają lepsze wyniki od Google, gdyż istnieją dal nich matematyczne modele w przestrzeni wielowymiarowej tłumaczące sposób działania, czyli rozumienia tekstu pisanego, jego kontekstu oraz sposobów tłumaczenia. Te nowe systemy są lepsze bo często łączy się wiele modeli starszych w rozwiązanie „hybrydowe”.

3. AI/ML/SI mylą się i będą się nadal mylić, tak jak ludzie, gdyż ich sposób nauki i działania jest ludzki = „analogowy”, a nie ścisły = matematyczny. Niemniej stają się coraz doskonalsze i będą coraz lepsze w przyszłości. To, że tak mocno obecnie WIDAĆ, że się mylą wynika z niedoskonałości usług dostępnych dla mas… i właśnie nieodpowiedniej „skali”= rozległości sieci neuronowej. Ludzie badają przyczyny dlaczego np. ogólne rozpoznawanie obrazów czasami się myli w oczywistych przypadkach co dane zdjęcie przedstawia… Vide, wystarczy nieznacznie zmienić kolor 3 pikseli w 10Mbitowym zdjęciu kota… aby siec powiedziała, że to pies albo wydra… a nie kot . To skrajny przykład… ale wiemy dokładnie obecnie dlaczego tak się dzieje – głównie to kwestia zbyt małej ilości neuronów w sieci… co znów prowadzi do problemu skalowania… dodanie większej ilości powoduje konieczność ponownego wyuczenia sieci.

4. To, że dana AI jest dobra i sama się wyuczyła na podstawie tysięcy próbek danych = bodźców, nie oznacza, że posiada świadomość = vide raczej nie spełnia potocznie rozumianego kryterium bycia inteligencją. A już na 100% wiadomo, że nie będzie się kompletnie nadawać do innych celów niż jest wyuczona. Nie będzie więc multidyscyplinarna jak ludzki mózg. Co nie znaczy, że takich różnych sieci nie da się łączyć w multidyscyplinarne byty… otóż się da… to tylko kwestia skali i czasu. Nawet systemy tłumaczące mimo coraz lepszego „rozumienia” kontekstu treści nie gwarantują, że ten sposób jest zbieżny ze sposobem rozumienia ludzkiego mózgu… bo przecież NIE wiemy jak ludzki mózg rozumie kontekst… więc NIE wiemy czy model zastosowany w AI jest zbieżny… czy lata świetlne odległy od nas. A to, czy kiedykolwiek AI uzyska samoświadomość tego nawet najlepsi naukowcy nie potrafią stwierdzić… Ale jedno jest pewne, że na 100% AI będzie się prędzej czy później potrafiła zachowywać tak jakby tą samoświadomość faktycznie posiadała i człowiek nie będzie potrafił stwierdzić różnicy.
Edytowane przez autora (2018.08.09, 00:45)
darkonzaZobacz profil
Poziom ostrzeżenia: 0%
darkonza2018.08.08, 18:45
darkonza @ 2018.08.06 20:28  Post: 1157645

Kombinuj, ten kto to stworzy i utrzyma nad tym czymś kontrolę (jeśli utrzyma) zostanie władcą tego świata.
To już ostatnie rozdanie w walce o władzę i kontrolę. Przedostatnie wygrało USA, teraz czas na finał :)

https://businessinsider.com.pl/technologie...m-putin/43px288
darkonzaZobacz profil
Poziom ostrzeżenia: 0%
darkonza2018.08.08, 18:42
Każdy, kto pracuje nad sztuczną inteligencją, wie, że komputery pokonają nas we wszystkim.
Autor: Gary Marcus, profesor New York University

Na naszych oczach startuje czwarta rewolucja przemysłowa, UCZĄCE SIE KOMPUTERY drastycznie zmienią nasze życie. Bardziej niż koło, prąd czy internet.
Autor: Jen Hsun Huang, szef Nvidii

Jeszcze przed 2029 r. boty nas dogonią. Będą nie do odróżnienia od ludzkiej inteligencji. Co więcej, zdołają przyswoić czyjś styl myślenia, osobowość i słownictwo tak, by wyręczać go np. w prowadzeniu bloga.
Autor: Raymond Kurzweil

Gdybyśmy wzięli człowieka sprzed 10 tys. lat, wcisnęli mu smartfon i pokazali samolot – byłby przerażony. A taka zmiana, taki skok technologiczny czeka nas w najbliższych dwóch-trzech dekadach. Ludzie mają prawo być przerażeni. NIE SĄ BO NIE WIEDZĄ CO SIĘ ŚWIĘCI I JAK ZMIENI SIĘ ŚWIAT
Autor: Kevin Ho, szef Huawei

https://businessinsider.com.pl/firmy/strat...ju-chin/y6yc8bq
Edytowane przez autora (2018.08.08, 18:44)
Bono[UG]Zobacz profil
Poziom ostrzeżenia: 0%
Bono[UG]2018.08.08, 18:09
Te hasełka nie są od dzisiaj, tylko wcześniej inaczej się nazywały: cybernetyka i robotyka, sztuczna inteligencja, data mining, a teraz machine learning, deep learning. Są to bliskie sobie dziedziny, tylko po dekadzie czy dwóch bez rezultatów są wymyślane nowe nazwy ;)
AlartZobacz profil
Poziom ostrzeżenia: 0%
Alart2018.08.07, 23:14
@Bono[UG]
Bardzo fajne tematy poruszasz i niejako odpowiadasz sobie na pytania z pierwszego posta w drugim.
Dobra linearyzacja (w sensie model) i zastosowanie filtru Kalmana gwarantuje bardzo dużą szybkość działania i odporność. Tylko że wymaga sporej wiedzy i trudno to potem reklamować 'zrobiliśmy sterownik który działa jak inne sterowniki, czyli szybko i dobrze'.
Znacznie łatwiej jest zastosować tajemnicze SIECI NEURONOWE które wprawdzie dają wyniki takie-sobie, uczą się długo itd. ale SZTUCZNA INTELIEGENCJA. Nawet jakiś czas temu był news że jakaś uczelnia w Polsce zrobiła system przeciwpożarowy oparty na sieci neuronowej.

Co do reklamowania to Huawei reklamował SI w Kirin. Ale naprawdę różne elementy sztucznej inteligencji są podawane w różnych kontekstach. Powiedz mi, że hasełka jak machine learning, deep learning nie są co jakiś czas w losowych chwilach rzucane.

Sumarycznie uważam że trzeba rozdzielić między sztuczną świadomością i sztuczną inteligencją i pamiętać że sztuczna inteligencja to tylko podklasa algorytmów. I artykuł dobrze to opisuje.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.