Pierwszy prototyp algorytmu sztucznej inteligencji, powstały we wspomnianym 1951 roku, to dzieło matematyka Alana Mathisona Turinga. Stworzył on na papierze projekt zabawy The Imitation Game, która później została nazwana testem Turinga. Pierwotna wersja nie zawierała jeszcze inteligencji komputerowej. Była wzorowana na popularnej wówczas zabawie towarzyskiej, polegającej na odgadnięciu płci dwóch osób ukrytych przed zgadującym (sędzią) na podstawie odpowiedzi na zadawane przez niego pytania.
Następnie Turing zaproponował pewną modyfikację, która była kolejnym krokiem ku algorytmom sztucznej inteligencji. Jedną z osób chciał całkowicie zastąpić komputerem, choć nie miał wtedy własnego urządzenia. Test polegał na bardzo podobnych założeniach jak w przypadku wersji papierowej. Jeśli sędzia nie umiał wiarygodnie określić, która ze stron jest maszyną, a która człowiekiem, można było powiedzieć, że maszyna przeszła test. Zakładamy, że zarówno człowiek, jak i maszyna starają się zachowywać w sposób możliwie charakterystyczny dla ludzkiej emocjonalności i ogólnie człowieczeństwa.
Okazało się jednak, że algorytm ten przegrywał nawet z bardzo słabymi graczami, co sprawiło, że krytycy określili grę Turinga jako pozbawioną sensu. Ale już rok po tej porażce profesor Arthur Samuel, zatrudniony przez IBM, stworzył inny kod, bardzo dobrze grający w warcaby. Po wielu poprawkach jego algorytm pokonał w 1954 roku czwartego gracza w rankingu Stanów Zjednoczonych.
Jako sposób określania zdolności maszyny do posługiwania się językiem naturalnym/ludzkim przyjął się jednak test Turinga. Pośrednio miał dowodzić opanowania przez maszynę umiejętności myślenia w sposób podobny do ludzkiego.
W 1956 roku amerykański informatyk John McCarthy zorganizował pierwszą w historii konferencję poświęconą sztucznej inteligencji. Tematem przewodnim były możliwości skonstruowania maszyny, która mogłaby rozumować jak człowiek, wykazywać się zdolnością abstrakcyjnego myślenia, rozwiązywania problemów i samodoskonalenia. John uważał, że każdy aspekt uczenia się lub jakąkolwiek inną cechę inteligencji można dokładnie opisać i dzięki temu skonstruować maszynę symulującą. Uznał, że przełom powinien nastąpić w czasie od 5 do 500 lat.
W 1958 roku John stworzył własny język programowania, nazwany LISP, który stał się standardowym językiem programowania sztucznej inteligencji, a zapoczątkowane przez niego algorytmy dalej są w jakiś sposób wykorzystywane, między innymi w robotyce i oprogramowaniu naukowym, a nawet w projektowaniu usług internetowych (od wykrywania fałszywych kart kredytowych po planowanie przebiegu linii lotniczych). Co ciekawe, LISP przyczynił się również do rozwoju technik rozpoznawania głosu, w tym Siri firmy Apple. Dlatego właśnie to Johna McCarthy'ego uznaje się za ojca sztucznej inteligencji. Założył on w latach 60. XX wieku laboratorium SI w budynku Massachusetts Institute of Technology, który do dziś pozostaje czołowym ośrodkiem badań na tym polu.
Historia rozwoju SI w grach komputerowych
Na początku lat 70. powstał Pong, w którym komputerowy przeciwnik umiał odbijać piłeczkę za pomocą prostokątnej platformy. To właśnie Pong zapoczątkował rozwój przemysłu gier komputerowych i był pierwszą produkcją wykorzystującą zalążki sztucznej inteligencji. W roku 1978 wydano Space Invaders, w której gracz niszczył kolejne nadciągające fale kosmitów. Gra odniosła ogromny sukces na całym świecie, a w Japonii spowodowała krótkotrwały niedobór monet 100-jenowych. Bardzo przyczyniła się do popularyzacji gier komputerowych i uczyniła z nich światowy przemysł. Wymienione produkcje nie przyniosły jednak rewolucji w SI. Na duży krok naprzód musieliśmy poczekać dalszych 12 miesięcy.
Oryginalny Pong i podstawowa sztuczna inteligencja
Właśnie wtedy powstał Pac-Man firmy Namco. Choć zastosowane w nim algorytmy sztucznej inteligencji nie były zbyt skomplikowane, i tak robiły wrażenie. Zjadając kolejne małe kuleczki, musieliśmy uważać na maksymalnie cztery duszki (potworki), które chciały nas złapać. Ich sposób działania był prosty, oparty na trzech trybach. Początkowo duszek losowo wybierał, dokąd się uda. Widząc nas, mógł podjąć decyzję, by za nami podążać, lub zaprzestać pościgu i znowu udać się w losowo wybrane miejsce. Gdy zjedliśmy mrugającą kuleczkę, pozwalającą pożreć potworka, ten wiedział o tym i rozpoczynał ucieczkę.
Współcześnie Pac-Man, w tym zachowania duszków, jest obiektem wielu badań i testów. Powstało też kilka nieautoryzowanych adaptacji, choćby Puck-Man (1980) i Ms. Pac-Man (1981). W nieco nowszych wersjach Pac-Mana zachowania duszków zostały udoskonalone. Każdy z nich otrzymał też imię. Czerwony, czyli Blinky, nieustannie podąża za Pac-Manem i przyspiesza, gdy tamten zje więcej kulek. Jest określany mianem cienia, bo rzadko kiedy zaprzestaje pogoni. To on jest głównym przeciwnikiem naszego żółtego bohatera. Pinky, czyli różowy duszek, zwykle atakuje „z zasadzki”, starając się przewidywać ruchy gracza i być o krok przed nim. Często z Blinkym atakują z dwóch stron, by Pac-Man nie miał dokąd uciec. Zielono-niebieski, czyli Inky, to duszek nieprzewidywalny, a jego taktyka zależy od kierunku, w którym patrzy Pac-Man, i pozycji Blinky'ego. Pomarańczowy, Clyde, jest z kolei najbardziej nieśmiały. Zwykle mamy wrażenie, że ucieka od gracza, a pogoń rozpoczyna dopiero, gdy znajdzie się wystarczająco daleko.
Po wydaniu Pac-Mana aż do roku 1989 nie było wielu wydarzeń, które warto wspomnieć w kontekście rozwoju sztucznej inteligencji w grach. W roku 1967 Richard Greenblatt stworzył program MacHack. Brał on udział w turniejach szachowych i jest pierwszym, który pokonał żywego przeciwnika. Co ciekawe, został też wpisany na listę honorowych członków Massachusetts State Chess Association i znalazł się nawet na 1243. miejscu w ówczesnym rankingu najlepszych szachistów. Przez niemal dwie kolejne dekady pojawiały się co prawda gry wykorzystujące podstawowe algorytmy sztucznej inteligencji, ale była ona bardzo przewidywalna i niezwykle prosta do pokonania.
W tamtych latach przeciwnicy w grach umieli poruszać się tylko w bardzo wąskim zakresie do przodu lub do tyłu. Żeby zaatakować, musieli poczekać, aż gracz do nich podejdzie. W roku 1989 SEGA wydała grę Golden Axe. Zastosowała w niej specjalny kod, który pozwalał przeciwnikom podążać w kierunku gracza, a następnie zaatakować go. Wrogowie potrafili też przejść za gracza, by uderzyć od tyłu. Był to kolejny mały krok w rozwoju sztucznej inteligencji względem wydanego 10 lat wcześniej Pac-Mana.
Dzięki nagraniu wideo lepiej widać zachowanie sztucznej inteligencji
W roku 1994 mogliśmy zagrać w Warcrafta, RTS-a wydanego przez firmę Blizzard. Wykorzystywał on m.in. algorytmy wyszukiwania ścieżek, dzięki czemu komputerowe jednostki umiały omijać przeszkody, a także przemieszczać się po wskazanym terenie i skutecznie podążać za wrogiem. Algorytmy wyszukiwania ścieżek były znane już znacznie wcześniej, ale Blizzard pierwszy zastosował je dla tak wielu jednostek naraz i tym samym dokonał małej rewolucji. Warcraft rozwijał model rozgrywki zaczerpnięty z gry Dune II (wydanej w 1992 roku), oparty na prostej maksymie „stwórz bazę, stwórz armię, zniszcz wroga”. Blizzard wprowadził też nowe, niespotykane wcześniej rodzaje misji, takie jak podbijanie rebeliantów, i ograniczenia liczby możliwych do wytworzenia jednostek. W grze zastosowano również losowy generator map (na potrzeby potyczek i rozgrywek wieloosobowych), użyty wcześniej w strategii turowej Cywilizacja (wydanej w 1991 roku). Warcraft: Orcs & Humans to także pierwszy RTS, w którym akcja rozgrywa się w czasach średniowiecza.
Na kolejną małą rewolucję musieliśmy poczekać do roku 1997, gdy firma Rare wydała grę GoldenEye 007, w której zastosowała algorytm reagowania wrogów na widok zastrzelonego kolegi. Rozpoczynali wtedy poszukiwania zabójcy i stawali się ostrożniejsi. Prawdziwy postęp przyniosły jednak wydane w 1998 roku trzy wielkie produkcje: Half-Life (Valve), Thief: The Dark Project (Looking Game Studios) i Metal Gear Solid (Konami). W każdej z tych gier przeciwnicy byli nauczeni ze sobą współpracować. W Half-Lifie musieliśmy walczyć przeciwko komandosom, którzy umieli wzajemnie się osłaniać czy oskrzydlić gracza. Co jednak ciekawe, tylko dwóch pierwszych aktywnie atakowało postać, a inni jedynie symulowali flankowanie.
W Thiefie musieliśmy ukrywać się w cieniu, a to, czy wróg dostrzegł postać gracza, zależało od stopnia jej ukrycia, odległości od przeciwnika i kierunku, w którym patrzył. Dodatkowo strażnicy reagowali na dźwięki i światło. Metal Gear Solid również wykorzystywał algorytmy pozwalające wrogom dostrzegać zabitych kolegów oraz skutecznie reagować i informować pozostałych towarzyszy o niebezpieczeństwie.
Thief: The Dark Project był w tamtych latach bardzo wciągający
W roku 1999 nadeszła kolejna duża produkcja, która przyniosła znaczący rozwój algorytmów sztucznej inteligencji w grach. Studia Epic Games i Digital Extremes zaprezentowały FPS-a Unreal Tournament, w którym boty umiały uczyć się zachowań gracza. Dzięki temu wiedziały, gdzie są dogodne miejsca na kryjówkę, i stosowały podobne schematy poruszania się. Co ciekawe, boty pochodzące z Unreal Tournament 2004 potrafiły w 2012 roku zdać test Turinga po tym, jak przeprojektowano je na potrzeby turnieju BotPrize.
Sztuczna inteligencja była przekonująca do tego stopnia, że oszukała blisko połowę graczy, którzy myśleli, że mają do czynienia z żywym przeciwnikiem. W finałowej rundzie zmierzyło się ze sobą czterech żywych przeciwników, a każdy z nich grał z taką samą liczbą „przeciętnych” botów i sześcioma, które starały się jak najlepiej naśladować zachowania prawdziwego człowieka. Gracze zostali wyposażeni w „broń sędziowską”, pozwalającą im wskazać, który z przeciwników jest człowiekiem z krwi i kości. Dwa z sześciu „człowieczych” botów dostały aż 52% wskazań. Osiągnęły dzięki temu wyższy wynik od któregokolwiek z prawdziwych graczy. Jeszcze w roku 2007 boty otrzymywały 15–20% wskazań, zatem w ciągu 5 lat programiści zrobili duży postęp.
Pod sam koniec 1999 roku pojawił się też Quake 3: Arena, który wykorzystywał podobne założenia algorytmów jak Unreal Tournament. Boty w Quake'u także uczyły się zachowań pozostałych graczy i umiały opracować lepszą strategię pokonania przeciwnika. Ich sztuczna inteligencja testowała kolejne taktyki, akceptując działające i odrzucając te, które się nie sprawdzały.
W 2000 roku studio Codemasters wydało grę Colin McRae Rally 2.0. Jako pierwsza wykorzystywała sieć neuronową. Sztuczna inteligencja zbierała dane o przejeździe gracza i określała tor (linię) oraz model jazdy. SI umiała określić nie tylko linię optymalnego przejazdu, ale też jego szybkość, rodzaj nawierzchni czy parametry zastosowane przez gracza. Algorytmy na podstawie tej wiedzy próbowały nawiązać równą walkę z człowiekiem i z czasem stawały się coraz lepsze.
W 2000 roku została też wydana rewolucyjna w dziedzinie sztucznej inteligencji gra The Sims studia Maxis. Była to pierwsza produkcja, w której wprowadzono system potrzeb. Wirtualne postaci umiały zakomunikować, że chcą iść do łazienki, wykąpać się, zjeść coś czy obejrzeć program w telewizji. Potrzebowały rozrywki i miłości, same wyznaczały sobie zadania do wykonania i wykorzystywały dostępne w domu sprzęty, w naturalny sposób adaptując się do nowych zakupów. Mogły ocenić, czy nowy przedmiot podoba im się czy nie. Co ciekawe, programiści nie nauczyli Simów korzystać z przedmiotów, a to przedmioty informowały ich, w jaki sposób powinny zostać użyte. The Sims na samym początku miały być jedynie programem do wystroju wnętrz, ale Will Wright postanowił przerobić je na pełnoprawną grę.
Następną rewolucję przyniosła wydana w 2001 roku gra Black & White, zaprojektowana przez Petera Molyneux i studio Lionhead (podobnie jak wydana w 2005 roku kontynuacja). Na potrzeby produkcji wykreowano tzw. chowańca, zwierzątko, które umiało uczyć się właściwych zachowań na podstawie postępowania gracza. Mogliśmy je pochwalić albo skrytykować, co miało wpływ na wiele sytuacji podczas rozgrywki. Jeżeli regularnie chwaliliśmy chowańca, a zarazem karaliśmy, nie wiedział on, w jaki sposób postępować, a jego zachowanie stawało się chaotyczne i nieprzewidywalne.
Dobrze wyszkolony zwierzak był dużą pomocą. Mógł nauczyć się korzystania na przykład ze spichlerza albo posługiwania się totemem. Zły z kolei często spał lub sprzeciwiał się rozkazom. Chowaniec miał kilka statystyk, w tym siłę, energię i głód. Od nich uzależnione było jego postępowanie, a do zadań gracza należało pokierowanie zwierzęciem w taki sposób, by niczego mu nie brakowało. Dla przykładu, trzeba było nauczyć go podnoszenia i przenoszenia głazów i kamieni, by ćwiczyło i zwiększało swoją siłę. Gracz, jako istota nadprzyrodzona, musiał nieprzerwanie doglądać chowańca, by ten stale się rozwijał. Black & White to pierwsza gra, w której sztuczna inteligencja przyswajała wiedzę w czasie rzeczywistym w trakcie rozgrywki. A może pamiętacie popularne jajka Tamagotchi?
W listopadzie 2004 roku wyszedł długo oczekiwany Half-Life 2, którego wielu graczy wspomina jako grę ze świetną sztuczną inteligencją, choć programiści nie ustrzegli się kilku wpadek. Jednym z przykładów jest sposób na oszukanie przeciwnika. Wystarczyło chwycić dowolny przedmiot i nieść go przed sobą idealnie w kierunku strzelającego wroga. Ten zaprzestawał strzelania i czekał, aż do niego podejdziemy. Gdy jednak na chwilę spojrzeliśmy w inną stronę (dalej trzymając przedmiot), przeciwnik wznawiał ostrzał. Ale poza takimi ciekawostkami produkcja studia Valve przyniosła kilka świetnych rozwiązań. Przeciwnicy umieli wysadzać drzwi, szukać wroga, wspierać się czy zachodzić z flanki. Ponadto maszyny współpracowały ze sobą do tego stopnia, że wymyślały różne sposoby na zabicie gracza. Jeśli z grupy czterech pierwsza wychodziła z atakiem, to ostatnia, czwarta, stojąca najdalej, atakowała od tyłu, a dwie pozostałe zapewniały wsparcie. Wrogowie potrafili znaleźć osłonę w czasie rzeczywistym i dostosować się do zmieniającej się sytuacji. Sztuczna inteligencja już wtedy wyglądała nieźle.
Ranking najpopularniejszych gier na PC w styczniu i lutym 2018 roku
W 2005 roku pojawił się F.E.A.R. Monolith Studios. Gra zachwycała klimatem i zaawansowaną sztuczną inteligencją, przez wielu uważaną za niedoścignioną w grach FPS. Oprócz standardowych już wtedy zachowań, takich jak ukrywanie się i strzelanie do gracza zza osłony, przeciwnicy mieli w repertuarze niezwykle rozwiniętą umiejętność współpracy drużynowej. Umieli flankować, wykorzystywać granaty (żeby na przykład wykurzyć nas zza osłony), wspierać ogniem swojego kolegę, gdy ten wycofywał się z pola walki, a nawet posłać jednego spośród siebie jako mięso armatnie i zaatakować od drugiej strony w liczniejszym gronie.
Co ciekawe, programiści nie wykorzystali tutaj żadnych specjalistycznych technik kodowania, lecz świetnie zaimplementowali znane już wcześniej algorytmy. Przeciwnicy w F.E.A.R. mieli jedynie trzy stany działania: GoTo, Animate i Use Smart Object, a mimo to regularnie zaskakiwali. Jeżeli gracz widział przed sobą kilku wrogów i jednego z nich zdołał zabić, pozostała dwójka, zamiast strzelać do postaci, wycofywała się i szukała dogodnej pozycji do ataku. Co więcej, przeciwnicy w F.E.A.R. potrafili w razie potrzeby wyskoczyć przez okno, by ocalić własną skórę.
Jeff Orkin, starszy inżynier studia Monolith, podczas GDC w 2006 roku powiedział, że jednym z celów przy projektowaniu sztucznej inteligencji było to, by przeciwnicy umieli o siebie zadbać (myśleli o przetrwaniu) i by dynamicznie reagowali na wydarzenia. Jeśli gracz podchodził od frontu do trzech wrogów, dwóch z nich robiło wszystko, by skupić na sobie uwagę, podczas gdy trzeci szukał dogodnego punktu do ataku z prawej lub lewej flanki, co często zmuszało gracza do wycofania się i znalezienia osłony. Co ciekawe, przeciwnicy często informowali o swojej sytuacji przez radio, mówiąc, czy są w stanie podjąć jakieś działanie, czy nie mają dokąd uciec. Gdy znaleźli się w wyjątkowo złej sytuacji, atakowali gracza na wszystkie możliwe sposoby, by go spowolnić.
F.E.A.R. na dobre odmienił podejście twórców gier do sztucznej inteligencji i do tej pory pozostaje pod tym względem w czołówce, a przecież ma już 13 lat.
Nie mogę pominąć też studia Irrational Games i serii gier Bioshock, a szczególnie ostatniej części, o podtytule Infinite, wydanej w 2013 roku. Kobieca postać, z którą współpracujemy, Elizabeth, została świetnie pomyślana. Nie tylko wyszukuje nam pożyteczne przedmioty w danym pomieszczeniu, ale też umie w razie potrzeby rzucić nam apteczkę, broń czy amunicję. Chętnie angażuje się we wszystkie działania podejmowane przez mieszkańców Columbii. Biega za graczem, ale ma swój rozum i nie trzeba się obawiać, że gdzieś utknie. Bohater, którym sterujemy, Brooker DeWitt, nawiązuje z nią bardzo zażyłą relację. Główny programista w Irrational Games, John Abercrombie, w jednym z wywiadów oświadczył, że wykreowanie postaci Elizabeth było największym wyzwaniem w jego karierze. Całemu studiu zależało na tym, żeby była tak ludzka, jak to tylko możliwe.
Rzeczywiście, Elizabeth ma swój wachlarz emocjonalny i nie jest obojętna na to, co się dzieje wokół niej. Okazuje strach, przerażenie i zmartwienie, gdy ktoś nas atakuje, zachwyca się widokami, docenia florę i faunę Columbii, a także konstrukcje, które napotyka na swojej drodze. Ciepło wypowiada się o wielu rzeczach, które widzi, i krytykuje postępowanie wrogich ugrupowań. Gracz może odnieść wrażenie, że ta postać rzeczywiście żyje na tyle, na ile pozwala na to świat Columbii. Nie sposób nie polubić Elizabeth i za to trzeba pochwalić Irrational Games. Nie wykorzystano tutaj szczególnie zaawansowanych algorytmów sztucznej inteligencji, ale stworzono naturalną i ciekawą postać. Zresztą cała seria Bioshock charakteryzuje się rozbudowaną SI, choć w większości algorytmy powielają to, co było już wcześniej. Ciekawostka: w Bioshocku pierwszy pocisk wystrzelony przez wroga zawsze jest niecelny.
Oczywiście, świetnie rozpisanych postaci było w historii gier bardzo wiele. To choćby Trevor z Grand Theft Auto V, Kratos, Max Payne, Snake czy Nathan Drake i Chloe z serii Uncharted. Nie przychodzi mi do głowy jednak żadna gra, która szczególnie przyczyniłaby się do rozwoju sztucznej inteligencji w ciągu ostatniej dekady. Myślałem też o takich produkcjach, jak Splinter Cell (2002), Crysis (2007), Far Cry (2004) i Assassin's Creed (2007), ale i tam nie ma żadnych prawdziwie rewolucyjnych rozwiązań. Owszem, w Splinter Cellu wrogowie potrafili zareagować, gdy został aktywowany alarm, co czasem oznaczało koniec misji. Z kolei DMA Design w Grand Theft Auto 3 (2001) jako pierwszy wprowadził zróżnicowanie zachowań i majątku mieszkańców miasta zależnie od pory dnia i dzielnicy. Nie była to jednak zaawansowana forma sztucznej inteligencji, choć takie urozmaicenie było bardzo ciekawe.
Światełkiem w tunelu była wydana w 2013 roku gra The Last of Us, w której przeciwnicy umieli współpracować, otaczać gracza i atakować go w momencie, gdy zabrakło mu amunicji. Mogliśmy się schować, ale wrogowie stale nas szukali, czasem odpuszczali, czasem skupiali siły w miejscu, w którym ostatnio nas widzieli. Widać też było ich strach, jeśli zostawali sami, lub pewność siebie, gdy mieli kilku kompanów do pomocy. Potrafili zareagować w panice i natychmiast zaatakować gracza lub wycofać się za osłonę. Gra była znakomita pod względem klimatu i fabuły, ale podobną SI widywaliśmy już wcześniej. Muszę jednak przyznać, że współpraca Joela i Ellie niejednokrotnie mnie zachwyciła, choć ta druga miała skłonność do wchodzenia pod samą lufę, przy czym wiele razy zdarzało się tak, że wystawiała się na pewną śmierć, a przeciwnicy... po prostu jej nie widzieli. Studio Naughty Dog zrobiło jednak kawał dobrej roboty, dlatego TLOU to jedna z najciekawszych i najlepiej zrealizowanych gier ostatnich lat (sprawdź najlepsze oferty na konsolę PS4 Pro).
Jeśli uważacie, że jakiejś produkcji brakuje w tym zestawieniu, dajcie znać w komentarzach. Wspomniałem o najważniejszych tytułach w historii sztucznej inteligencji w grach, ale nie mogłem wspomnieć o wszystkich wartych wzmianki, bo było ich po prostu za dużo. Z całą pewnością warto jednak wymienić takie, jak Full Spectrum Warrior (2004), początkowo wykorzystujący sztuczną inteligencję do budowy symulatora treningowego dla wojska, i Warhammer: Dark Omen (1998), który wprowadził rozbudowane algorytmy przemieszczania się formacji w czasie rzeczywistym.
Rodzaje algorytmów SI wykorzystywanych w grach
W większości współczesnych gier komputerowych wykorzystywanych jest co najmniej kilka różnych algorytmów. Inaczej obliczane jest zachowanie SI podczas poruszania się, a inaczej w trakcie podejmowania decyzji o walce czy rozmowie. Gatunek i sposób rozgrywki również zmieniają zachowanie systemu. Inne algorytmy stosuje się w strzelankach, a inne w grach wyścigowych. Symulacja ludzkich zachowań i wykorzystanie zdolności adaptacyjnych są możliwe dzięki algorytmom, które pozwalają na:
- tworzenie planu działania
- rozwiązywanie problemów decyzyjnych
- planowanie strategiczne.
Do takich algorytmów zaliczamy algorytm stadny, automaty stanów skończonych i drzewa decyzyjne. Poza tym mamy Algorytm A z 1968 roku. Został opracowany przez trzech programistów: Petera Harta, Nilsa Nilssona i Bertrama Raphaela. Jest powszechnie wykorzystywany do wyszukiwania ścieżek. Za jego pomocą nakreśla się drogę danej postaci z punktu A do punktu B przy użyciu sieci węzłów. Co szczególnie istotne, dzięki niemu postać nie szuka drogi na ślepo, lecz szacuje kierunek, w którym podąży, a następnie ustala trasę i wykreśla ścieżki, które z jakiegoś powodu są niedostępne (np. ze względu na obecność ściany czy stromego wzniesienia). Jak jednak możecie się domyślać, największą wadą tego algorytmu jest jego całkowita przewidywalność. Jeżeli programista nie zastosuje innych sztuczek, gracz bardzo szybko zorientuje się, którą drogą podąża sztuczna inteligencja.
Craig Reynolds po raz pierwszy zaprezentował algorytm stadny w 1987 roku na łamach pisma Computer Graphics. Nadaje on określonej liczbie obiektów realistyczne zbiorowe zachowania. Łączy kilka prostych reguł, które mogą symulować skomplikowane działania grupowe, na przykład te, które dotyczą stada ptaków, ławicy ryb czy tłumu. Głównym założeniem było takie sterowanie obiektami, by te nie wpadały na siebie, podążały w tym samym kierunku czy zachowywały bezpieczną odległość między sobą. Algorytm znalazł zastosowanie m.in. w pierwszym Warcrafcie i Command & Conquer. Z biegiem czasu programiści rozwijali go, by umożliwić graczowi jeszcze większą kontrolę nad stadem, choćby w przypadku drużyn w Baldur's Gate czy Icewind Dale.
Automaty stanów skończonych po raz pierwszy zostały użyte w grach z lat 90. do kontrolowania agentów. W najnowszych produkcjach pozwalają na sterowanie sztuczną inteligencją gry. Znajdują zastosowanie głównie w grach fabularnych, w których wykorzystywane są w rozmowach z graczem, interakcjach z otoczeniem i funkcjach zarządzania wirtualnym światem. Przechowują też zapisy gry, przetwarzają polecenia od gracza i zarządzają stanem danego obiektu. Dobrym przykładem są rozbudowane gry RPG, pozwalające podejmować graczom decyzje, które mają wpływ na otaczający ich świat. Dzięki automatom stanów skończonych można stworzyć kilka różnych zakończeń jednego zadania i poprowadzić je na różne sposoby.
Metro: Last Light to dobry przykład współczesnej gry z SI znacznie gorszą niż w produkcjach sprzed ponad dekady
Drzewa decyzyjne to nic innego jak algorytmy pomagające określić sztucznej inteligencji, czy warto wykonać jakieś działanie. Drzewa te przedstawia się w postaci tabeli decyzji i możliwych konsekwencji. Obiekt analizuje drzewo tak daleko, jak uzna to za konieczne, rozpatrując wszelkie możliwe posunięcia względem obecnej sytuacji. W założeniu wybiera to, które uzna za najkorzystniejsze. Oczywiście, ta metoda najlepiej sprawdza się w przypadku nieskomplikowanych treści (do czterech kroków), ale podczas projektowania bardziej złożonej sztucznej inteligencji trudno jest właściwie zoptymalizować drzewo decyzyjne. Ten algorytm najczęściej stosuje się w rozbudowanych grach RPG, takich jak właśnie Baldur's Gate.
Sztuczna inteligencja w grach to algorytmy wykonujące pewne działania, a czasami także uczące się pewnych zachowań gracza. Wspomniana seria Black & White to jak dotąd jedyna, w której zastosowano tak zaawansowany system SI, zdolny uczyć się od gracza w trakcie rozgrywki. To niełatwe do napisania i wyważenia fragmenty kodu. Problemem jest stworzenie sztucznej inteligencji działającej w taki sposób, by osiągała założone cele, a przy tym nie była postrzegana jako nieludzki automat. Niestety, najczęściej to właśnie ona najmocniej kuleje, co wielokrotnie ma wpływ na przyjemność z rozgrywki.
A jak Wy postrzegacie sztuczną inteligencję w grach? Czego oczekujecie po tegorocznych produkcjach?