Wydaje się, że przełomowe technologie zawsze są od 5 do 10 lat przed nami, przynajmniej tak wynika z licznych prognoz technicznych (dotyczących źródeł energii, transportu, technologii medycznych, związanych z ciałem itp.) zawierających to pojęcie. Takie przypuszczenia uwzględniały też informacje przewidujące przełom w robotyce/SI, ale zauważmy, że najwcześniejsze pochodzą z roku 2006, a reszta – z ostatnich 2 lat. Brak podobnych sformułowań z wcześniejszego okresu wynika prawdopodobnie z tego, że w przypadku sztucznej inteligencji (ang. artificial intelligence, AI) wielki przełom – „osobliwość”, która będzie podobna do ludzkiej inteligencji – ma mniej wyraźną granicę.
Historia SI w pigułce
Oto kilka najważniejszych wydarzeń w historii prognoz dotyczących SI:
- 1950: Alan Turing przewiduje, że komputer będzie emulować ludzką inteligencję (nie będziemy mogli odróżnić, czy korespondujemy z człowiekiem czy z komputerem) do końca wieku.
- 1970: „Life Magazine” cytuje kilku wybitnych informatyków mówiących, że będziemy mieć maszynę o ogólnej inteligencji człowieka w czasie od 3 do 15 lat.
- 1983: Autorzy bestsellera Piąta generacja przewidują, że Japonia stworzy inteligentne maszyny w ciągu 10 lat.
- 2002: naukowiec z MIT Rodney Brooks przewiduje, że maszyny zyskają emocje, pragnienia, lęki, miłość i dumę w ciągu 20 lat.
- Podobnie futurysta Ray Kurzweil przewidział, że ta osobliwość powstanie w ciągu 20 lat.
- Obecnie uważa się, że stanie się to do roku 2029 lub 2045. (Podobno obie prognozy zostały przedstawione na tej samej konferencji).
Technologia nie taka nowa
W tym samym czasie Elon Musk i Władimir Putin ostrzegają nas przed armagedonem SI oraz inwazjami zabójczych robotów. Zauważyliście, że jeśli chodzi o rzeczywiste osiągnięcia w SI, wydaje się, że szumu jest o wiele więcej niż pożytecznych treści?
Być może dzieje się tak dlatego, że SI – w formie, w której istnieje dziś – jest bardzo stara. Trzy techniki wdrażania sztucznej inteligencji używane w obecnych czasach: nauczanie maszynowe, sieci neuronowe i rozpoznawanie wzorców, zostały wymyślone dziesiątki lat temu. Wprawdzie z czasem były udoskonalane, a BigData stosowane jako sposób zwiększenia ich dokładności (jak w przewidywaniu następnego słowa, które napiszesz), ale wyniki nie są szczególnie spektakularne, ponieważ tak naprawdę nie było żadnych przełomów.
Ślepy zaułek SI?
Na przykład rozpoznawanie mowy jest tylko trochę dokładniejsze niż 20 lat temu. Identyfikujemy pojedyncze wypowiedziane słowa, ale wciąż brakuje rozumienia kontekstu, więc podczas dyktowania prawie zawsze pojawiają się niewłaściwe słowa. To dlatego rozpoznawanie głosu w systemach poczty głosowej nadal ogranicza się do liter, cyfr i kilku prostych wyrazów.
Innym przykładem są popularni ostatnio asystenci głosowi, np. Siri firmy Apple. Chociaż jest on sprytnie zaprogramowany i wydaje się interaktywny, łatwo może się pomylić i często bywa niedokładny, o czym świadczy bogactwo filmów o wpadkach Siri dostępnych w serwisie YouTube.
Innym obszarem, w którym sztuczna inteligencja miała dokonać znacznych postępów, są gry strategiczne. Przez lata ludzie konsekwentnie pokonywali komputery w chińskiej grze Go. Teraz już nie. Komputery od dawna są zdolne pokonać mistrzów szachowych, a od niedawna – także specjalistów od Go. Maszyny wydają się inteligentne, prawda?
Cóż, oto mały eksperyment myślowy. Dodajmy do szachownicy pionek, który łączy ruchy skoczka i królowej. Mimo że człowiek, mistrz szachowy, mógłby narzekać na zmianę, to natychmiast dostosowałby do niej swoją grę. Program komputerowy – nawet Big Blue – musiałby zostać przeprogramowany... przez człowieka. Gdzie tu inteligencja? Piętnaście lat temu Rodney Brooks, wówczas naukowiec z MIT, twierdził, że komputer nie może zeskanować blatu i rozpoznać, że nieznany obiekt to tak naprawdę pilot do telewizora, a to wyczyn w zasięgu 2-letniego dziecka. Podobne sytuacje zdarzają się do dziś.
Samochody autonomiczne są często wymieniane jako (potencjalnie niebezpieczny) triumf sztucznej inteligencji. Jednak techniki, których używają – unikanie obiektów, rozpoznawanie wzorców, różne formy radaru itp. – również mają kilkadziesiąt lat.
Co więcej, nawet najbardziej ambitne wdrożenia produkcyjne samojezdnych samochodów będą prawdopodobnie ograniczone do jazdy po autostradzie, najbardziej powtarzalnej i przewidywalnej ze wszystkich sytuacji drogowych. Oczywiście, plusem jest to, że auta autonomiczne mogą powodować mniej wypadków niż ludzie – kierowcom zdarza się brak koncentracji czy nieprzestrzeganie przepisów.
To samo dotyczy rozpoznawania twarzy. W iPhonie X firmy Apple jest ono reklamowane jako ogromny przełom; w rzeczywistości to podstawowa technika, która istnieje od dekad. Nowością jest jej miniaturyzacja, dzięki czemu mieści się w telefonie.
Dobry PR sztucznej inteligencji
Ale co z tymi wszystkimi algorytmami, o których słyszymy? Czy to nie SI? Cóż, nie bardzo. Słownikowa definicja algorytmu to „proces lub zestaw reguł, których należy przestrzegać w obliczeniach lub innych operacjach rozwiązywania problemów”.
Innymi słowy, algorytm jest po prostu fantazyjną nazwą dla logiki programu komputerowego. To tylko odzwierciedlenie intencji programisty. Pomimo całej wrzawy wokół „Sturm und Drang” w kwestii komputerów zastępujących ludzi nie ma najmniejszych oznak, że jakikolwiek program komputerowy stworzył lub kiedykolwiek stworzy coś oryginalnego.
Przykładem jest superkomputer IBM Watson. Mimo że pierwotnie był reklamowany jako implementacja sztucznej inteligencji, która przewyższa ludzkich lekarzy w diagnozowaniu raka i przepisywaniu terapii, stało się jasne, że nic takiego nie nastąpi. Jak niedawno zauważył „Stat News”:
Trzy lata po tym, jak IBM rozpoczął sprzedaż Watsona, aby polecić najlepszy sposób leczenia raka lekarzom z całego świata, badanie „Stat News” wykazało, że superkomputer nie spełnia oczekiwań. Wciąż zmaga się z podstawowym krokiem poznawania różnych form raka.
Co więcej, niektóre z możliwości Watsona dotyczą „niezwracania uwagi na człowieka za zasłoną”. Ponownie zacytujmy „Stat News”:
W swojej istocie Watson w onkologii używa superkomputera opartego na chmurze do przetwarzania ogromnych ilości danych – od notatek lekarza do badań medycznych oraz wytycznych klinicznych. Ale jego zalecenia dotyczące leczenia nie opierają się na własnych spostrzeżeniach dokonanych na podstawie tych danych. Zamiast tego opierają się wyłącznie na szkoleniach prowadzonych przez ludzkich nadzorców, którzy pracowicie przekazują Watsonowi informacje o tym, jak należy leczyć pacjentów o określonych cechach.
Watson, jak wszystko inne w rubryce „SI”, nie spełnia oczekiwań. Ale może dlatego, że obecnie w rozwoju sztucznej inteligencji wcale nie ma żadnych przełomów, bo sprowadza się on do szumu medialnego, zarabiania pieniędzy i wreszcie wprowadzania w błąd klienta?
Co mniej więcej 10 lat eksperci odkurzają modę na sztuczną inteligencję i starają się przekonać opinię publiczną, że w następnym wdrożeniu tych ugruntowanych technik jest coś nowego i godnego uwagi.
Marketerzy dodają modne hasła do swoich projektów, żeby nadać im blask świętej technologii. Naukowcy również dokładają SI do zaproszeń na seminaria, co znacznie poprawia frekwencję. Więcej w tym, oczywiście, przymusu ze strony środowiska związanego z marketingiem niż złej woli. Znak czasów.
Okresowemu powrotowi modnych haseł związanych z SI zawsze towarzyszą odważne prognozy (takie, jak zabójcze roboty Muska i osobliwość Kurzweila), które nigdy się nie spełniły. Maszyny, które mogą myśleć, cały czas pozostają 20 lat w przyszłości. Tymczasem wszystko, co dostajemy, to Siri i bardziej wyrafinowana wersja tempomatu, a także mnóstwo wyolbrzymionych niepokojących wizji.
Co wspólnego ma sztuczna inteligencja z ceną jajek?
Powiedzmy, że próbujesz wybrać kilka różnych jaj w sklepie. Jedno rzuca się w oczy, bo jest „całkowicie naturalne”. Cóż, to miło. Naturalne jest dobre i kosztuje tylko 30 groszy więcej, więc je kupujesz. Obecnie sprzedawane jajka mogą być bardziej „naturalne” niż inne, ponieważ nie ma oficjalnej, a nawet ogólnie przyjętej definicji „naturalności”. Jest to typowy trik, przez który płacisz 30 groszy za nic. Ta sama kwestia staje się problemem w technologii sztucznej inteligencji.
Nie ma oficjalnej lub ogólnie przyjętej definicji SI. Nie powstrzymało to jednak wielkich i małych firm od zastosowania sztucznej inteligencji jako nowej rewolucyjnej funkcji w inteligentnych telewizorach, wtyczkach, słuchawkach czy innych wynalazkach. Oczywiście, inteligentnych tylko w najprostszym sensie – jak większość komputerów, które zasadniczo są głupie jak but.
Pojawiają się tu dwa problemy. Pierwszy polega na tym, że przez brak określonej definicji SI bardzo łatwo jest powiedzieć, że twoje urządzenie lub usługa ją ma, i poprzeć to pewnym prawdopodobnie brzmiącym stwierdzeniem dotyczącym zasilania sieci neuronowej ogromną ilością danych w programach telewizyjnych lub wzorców zużycia wody w inteligentnym kranie. „To pojęcie to kompletne bzdury” – powiedziała dyrektor generalna dużej firmy z branży robotyki, która nie chciała ujawnić swojego imienia i nazwiska. Jednak na pewno zatrudnia roboty, które większość zgodziłaby się nazwać „wykorzystującymi SI”. Jest to termin marketingowy używany do określania kompetencji, ponieważ większość ludzi nie może wyobrazić sobie niekompetentnej sztucznej inteligencji. Może być zła („Przykro mi, Janku, ale nie mogę tego zrobić”), ale nie niekompetentna.
Weźmy za przykład sieć neuronową operującą na różnego rodzaju prawdopodobieństwach. Tak jak w przypadku niedawnych testów Movidiusa na łamach PCLab.pl sieć rozpoznająca obraz ma do dyspozycji kilka różnych kategorii, a każda z nich ma przypisane jakieś niezerowe prawdopodobieństwo. Gdy wczytamy poloneza, to może stwierdzi, że to polonez aso na 75%, polonez caro na 10%, polonez kombi na 5%, volkswagen jetta na 5%, a ostatnie 5% to wszystkie inne kategorie. Nawet najbardziej absurdalne przewidywania, np. rower wigry, mogą mieć wartość jedną miliardową, lecz nie zero. Pamiętajmy, że tak naprawdę sieć nigdy nie jest niczego pewna, ale jest o tyle uczciwsza od człowieka, że podaje margines błędu. Sieć dostarcza wynik – niestety, dalej nic się nie dzieje, SI zwyczajnie nie myśli. Silnik, podobnie do silnika renderującego scenerię gry komputerowej, nie zastanawia się, czy obraz, który nam wyświetla, jest piękny, po prostu wykonuje instrukcję. To człowiek (programista) mówi sieci, że popełnia błąd lub ma rację, i w zależności od tego symbolicznie modyfikuje olbrzymią liczbę parametrów treningowych sieci, by jej przewidywania były bliższe rzeczywistości.
Brak definicji i mylenie pojęć
Ostatnio obserwowany rozkwit sztucznej inteligencji i stosowanie modnych sloganów pasujących do każdej wypunktowanej listy cech przynajmniej częściowo wynikają z mylenia sieci neuronowych ze sztuczną inteligencją. Bez zbytniego wchodzenia w szczegóły: te terminy nie są wymienne, ale marketerzy traktują je tak, jakby były.
Sieci neuronowe, o których tak wiele słyszymy w dzisiejszych czasach, są nowatorskim sposobem przetwarzania dużych zbiorów danych przez wymuszanie w nich wzorców za pomocą powtarzalnej, uporządkowanej analizy matematycznej. Metoda jest inspirowana sposobem, w jaki mózg przetwarza dane, więc w pewnym sensie termin sztuczna inteligencja ma zastosowanie – ale w inny, ważniejszy sposób, który jest bardzo mylący. To termin o własnym znaczeniu i własnych konotacjach, które nie pasują do tego, co faktycznie robią sieci neuronowe.
Być może nie zdefiniowaliśmy SI dobrze, ale mamy kilka pomysłów. Można śmiało powiedzieć, że te programy nie są inteligentne, chociaż są interesujące, wszechstronne, a ich twórcy inspirowali się ludzkimi procesami myślowymi. Jednak każdy program, który w danym momencie swojego rozwoju wykorzystuje splotową sieć neuronową, system głębokiego uczenia się, jest określany jako oparty na sztucznej inteligencji lub jakiejś jej odmianie.
SI dźwignią handlu
Teraz kiedy nawet eksperci nie mogą powiedzieć, czym jest sztuczna inteligencja, co mają zrobić konsumenci? To tylko następny element na liście funkcji, który tak naprawdę niewiele mówi. Mimo to klienci wiedzą, że sztuczna inteligencja jest zaawansowaną techniką i że pracują nad nią wszystkie duże firmy, więc produkt z SI musi być lepszy. Podobnie jest z osobami wybierającymi „naturalne” jajka: każda inna firma równie dobrze mogłaby umieścić tę etykietę na swoim pudełku, z takim samym uzasadnieniem.
Drugi problem polega na tym, że nawet gdyby istniały jakieś wytyczne, czym jest, a czym nie jest sztuczna inteligencja, i mielibyśmy określić, na ile są one spełnione, to nie są problemy, z których rozwiązywaniem sztuczna inteligencja dobrze sobie radzi.
Na przykład jedna firma reklamuje TV wykorzystujący sztuczną inteligencję do polecania programów telewizyjnych. Jakie wnioski mogą wypływać z zastosowania systemu głębokiego uczenia się do tak ograniczonego zbioru danych? Określenie rekomendacji dla kogoś, kto lubi serial CSI: Kryminalne zagadki Miami, nie jest trudnym zadaniem. Mogą mu przypaść do gustu Impersonalni lub coś podobnego. Nie są to subtelne, ukryte wzorce, które ujawniają się dopiero po dokładnym zbadaniu preferencji odbiorcy lub wymagają wielu godzin pracy superkomputera.
Jaron Lanier wyjaśnił to dobrze w Micie AI: ponieważ dane pochodzą od ludzi, którzy oglądają różne filmy, sztuczna inteligencja jest całkowicie zależna od ludzkiej we wszystkich podejmowanych przez nią decyzjach. Ludzie już wykonali najtrudniejszą część: określili swoje gusta, wybrali rzeczy, które lubią, ocenili jakość odcinków i grę aktorów. Wszystko, co robi komputer, to przeszukiwanie tych danych i zwracanie odpowiednich wyników. Należałoby więc nazwać większość obecnych na rynku rozwiązań z SI spersonalizowaną wyszukiwarką!
Podobne wątpliwości są zgłaszane co do urządzeń IoT (ang. internet of things), takich jak termostaty, a teraz głowice prysznicowe, które monitorują twoje urządzenie i zalecają oszczędzanie energii, kiedy nie ma cię w domu. SI dla twojego domu! Informuje cię, kiedy kończy ci się mleko w lodówce! Mówi, kto jest za drzwiami! Takie komunikaty są fałszywe: zbiory danych są rzadkie i proste, a wyniki – binarne lub bardzo ograniczone. I właśnie dlatego to, że nowe urządzenie nie jest tak prymitywne funkcjonalnie jak 30-letnie, nie czyni go inteligentnym. Przeciwnie, te twierdzenia o inteligencji są… sztuczne. To, że SI znacząco poprawia wiele z tych rzeczy, jest fikcją kultywowaną przez firmy technologiczne. Jest nawet możliwe, że poleganie na uczeniu maszynowym jest szkodliwe dla celu ich zastosowania, ponieważ metody, za pomocą których modele te dochodzą do swoich wniosków, są często niejasne.
Znów powraca tutaj przedstawiona wcześniej technika sprzedaży jajek.
Czym zatem jest SI?
Może myślisz: no dobrze, panie ekspercie od SI, jeśli nic z tego nie można sklasyfikować jako sztuczną inteligencję, to co określamy tym mianem? I dlaczego nie jesteś tak wybredny w kwestii pojęcia SI, gdy wymyślasz przyciągające nagłówki w swoich tekstach?
Cóż, to tylko moja opinia. Ale kiedy mówimy o sztucznej inteligencji jako koncepcji opracowywanej lub rozwijanej przez duże firmy i uniwersytety, można nieco rozciągnąć tę definicję. To, o czym mówimy, jest tak naprawdę powstającą klasą oprogramowania i nie ma sensu pedanteria w kwestii nazewnictwa, bo i tak większość osób będzie je odbierała jako SI. Ale kiedy firmy korzystają z ogólników jako zwodniczych chwytów sprzedażowych, czuję, że muszę się sprzeciwić. Nie jest fair w stosunku do klienta, gdy np. producent telefonów X sprzedaje rewolucyjne urządzenie, którego „SI” automatycznie dobiera ustawienia aparatu przed wykonaniem zdjęcia, podczas gdy jest to trywialny algorytm oparty na kilku szablonach ustawień. Sterowanie głosowe sprowadza się zaś do prostych komend, które nie tylko nie mają związku z SI, ale nawet nie zasługują na to, by je nazwać prawdziwym uczeniem maszynowym.
Wprowadzające w błąd, lub wręcz sfabrykowane, listy funkcji są świętą tradycją w dziedzinie technologii, więc ta praktyka nie jest niczym nowym. Warto jednak trzymać rękę na pulsie, kiedy nowe słowo wchodzi do słowników marketerów, dla których najważniejsze jest podążanie za trendami. Być może nadejdzie dzień, w którym sztuczna inteligencja stanie się czymś, czego będziemy szukać w lodówce. Ale to jeszcze nie dziś. Na razie musimy zadowolić się uczeniem maszynowym w innych wydaniach. Niekoniecznie światowych – choćby tych z własnego podwórka, np. w postaci projektu CLARIN-PL. Polscy naukowcy tworzą w nim naprawdę świetne rzeczy z pogranicza SI, ale nie wmawiają nam, że coś jest czymś innym niż w rzeczywistości. Przykładem są systemy rozpoznawania mowy, mówców, tłumaczenia itp. tworzone przez zespół prof. Maraska z Polsko-Japońskiej Akademii Technik Komputerowych w Warszawie czy przedsięwzięcia o zasięgu globalnym, takie jak nowy projekt spod skrzydeł DeepMind, który ocenia zdolność SI do wnioskowania, a dokładniej: oceniania inteligencji w ogólnym kształcie, a nie jedynie wykonywania jakiegoś wąskiego zadania.
Innym ciekawym pytaniem na koniec jest to, czy SI może być kreatywna. Przecież w sieci nie brakuje przykładów generowania poezji, muzyki, obrazów czy transferowania stylu danego artysty. W tym miejscu odnieśmy się do następnego polskiego projektu, deepart.io, który łączy styl obrazu z zawartością obrazu. O ile takie zastosowania zwracają jakieś wyniki, które są świetne z punktu widzenia marketingu, o tyle żadna twórczość nie bierze się znikąd i każda jest inspirowana bogatymi doświadczeniami autora i dziełami innych artystów. Czy zatem odtwórcze działanie SI można nazwać inteligentnym lub kreatywnym? Opartym na jakichś doświadczeniach i innowacyjnym?
Czym więc jest współczesna SI? Dla mnie jest zwyczajnym narzędziem wspomagającym, a nie zastępującym człowieka.