Inne
Artykuł
Maciej Zabłocki, Piątek, 13 października 2017, 07:00

Mieliśmy przyjemność uczestniczyć w specjalnym pokazie zorganizowanym przez firmy Intel oraz DeepSense, dotyczącym ostatnich rozwiązań naukowych. Zobaczyliśmy, jak przebiega rozwój sztucznej inteligencji, na przykładzie prostych gier: Breakout i River Raid, pierwotnie wydanych na Atari. Porozmawialiśmy też z Arturem Długoszem, ekspertem ds. sztucznej inteligencji w firmie Intel Technology. Dowiedzieliśmy się kilku ciekawych rzeczy.

Choć zagadnienie sztucznej inteligencji jest powszechnie znane, kolejne prezentacje możliwości współczesnej architektury przynoszą szereg nowych rozwiązań. Jak mówi jeden z przedstawicieli firmy DeepSense.ai, Jakub Czakon, inspiracją do rozpoczęcia badań był projekt realizowany przez Google DeepMind. Naukowcy opracowali technologię, która pozwoliła ograć najlepszych graczy w GO. Jeden z mistrzów gry, Lee Sedol, na pięć rozegranych partii wygrał zaledwie jedną, a potem program AlphaGo pokonał mistrza świata, Chińczyka Ke Jie, nie oddawszy żadnej partii. 

Podczas prezentacji mogliśmy obserwować, jak komputer staje się coraz lepszy wraz z upływającym czasem, a specjalne algorytmy sztucznej inteligencji pozwalają mu uczyć się na błędach. Projekt łączy w sobie trzy istotne elementy: gry retro znane z Atari, tajemnicze zwroty akcji i udział Polaków. Główny cel przedsięwzięcia jest bardzo prosty. Naukowcy chcieli sprawdzić, czy sztuczna inteligencja pracująca na platformie Intela, ucząc się samodzielnego rozgrywania gier wideo, zdoła na tej samej zasadzie nauczyć się kierowania prawdziwymi robotami czy autonomicznymi pojazdami i pomagania ludziom w rozwiązaniu wielu problemów. 

Najbardziej intrygujące są jednak same podstawy tych działań. Sztuczna inteligencja nic nie wie o zasadach w Breakout, grze wydanej na Atari w 1976 roku, i opiera się wyłącznie na tym, co widzi. Drogą do zwycięstwa jest osiągnięcie jak największej liczby punktów – i to jedyne źródło wiedzy dla naszej maszyny. W pierwszej wersji doświadczenia komputer korzysta z kamery skierowanej na ekran, na którym toczy się rozgrywka. Ten sposób trenowania sieci neuronowych wykorzystuje algorytmy, które kiedyś pozwolą robotom zyskać autonomię niezbędną do poruszania się w naszym świecie. 

W projekcie opracowanym przez Google DeepMind w 2013 roku efekty takiego postępowania były zaskakująco dobre. Komputer nauczył się, wyłącznie na podstawie obserwacji, zasad gry w Breakout i ostatecznie prześcignął człowieka. Niestety, maszyna potrzebowała na to aż tygodnia nieprzerwanej nauki.

Naukowcy z DeepSense.ai zainteresowali się tym projektem w zeszłym roku. Firma miała już na swoim koncie duży sukces. Opracowała „Facebooka” dla zagrożonego gatunku waleni – model sztucznej inteligencji, który rozpoznawał danego osobnika po jego rysach na podstawie zdjęć lotniczych. Mógł tym samym precyzyjnie ocenić, ile osobników jeszcze żyje na ziemi, i rozróżnić je względem nadanych imion.

Ponieważ Google nie udostępniło właściwie żadnych informacji dotyczących algorytmów sztucznej inteligencji użytych podczas gry w Breakout, naukowcy z DeepSense.ai postanowili zastosować własne modyfikacje, oparłszy cały projekt na zwykłym serwerze, wykorzystującym procesor Intel Xeon (a nie, jak Google, GPU). Kluczowy w tym wszystkim okazał się system wynagradzania maszyny za wykonane ruchy. Na podstawie dostępnych obrazów musi sama ocenić, które działania zbliżają ją do zwycięstwa, a które od niego oddalają. Efekty okazały się obiecujące, bo dzięki opracowanej przez Polaków metodzie maszyna potrzebowała na opanowanie zasad gry do perfekcji już nie tygodnia, a zaledwie doby

Podczas prezentacji widzieliśmy dopracowane algorytmy, które pozwalały komputerowi osiągnąć 476 punktów już po 60 minutach nauki. Postanowiłem spróbować swoich sił i za czwartym podejściem zdobyłem 426 punktów. Zajęło mi to kilka minut przygotowań. Okazałem się zatem tylko nieznacznie gorszy od maszyny, ale ta i tak zrobiła na mnie duże wrażenie, choć trenowała przez znacznie dłuższy czas. Gdyby uczyła się jeszcze kilka godzin, nie zdołałbym jej dorównać. W przyszłości nauczanie zostanie uruchomione w systemach klastrowych, co pozwoli na skrócenie czasu nauki wszystkich zasad gry z 24 godzin do nawet kilkunastu minut.

Graliśmy dokładnie w tę samą grę. Tu widać, jak maszyna radzi sobie w praktyce

DeepSense.ai udostępniło wszystkie techniczne szczegóły swoich badań wraz z kodem źródłowym, by każdy zainteresowany mógł powtórzyć przebieg prac na własnym sprzęcie. Robert Adamski z Intela odpowiadał za dostarczenie właściwych komputerów, a jednym z celów było sprawienie, by program nie rozpraszał zadań na tysiące małych rdzeni, jak w przypadku procesorów graficznych. Zamiast tego powinien optymalnie wykorzystywać moc zaledwie kilku, ale znacznie potężniejszych, rdzeni CPU. Rozwiązanie zastosowane przez DeepSense.ai pozwala uruchomić na jednym serwerze (wyposażonym w dwa procesory Intel Xeon) kilkaset jednocześnie działających programów.

Jak tłumaczy Artur Długosz, z którym mieliśmy przyjemność porozmawiać, dziś uczenie maszynowe i głębokie rewolucjonizują takie sektory, jak finanse i bankowość, medycyna, przemysł, transport, obsługa klienta. A projekty prowadzone przez polskich naukowców i inżynierów wytyczają kierunki dalszego rozwoju prac nad możliwościami sztucznej inteligencji.

Innym przykładem zastosowania sieci neuronowych może być nauczenie robota, gdzie znajdują się konkretne przedmioty. Wyobraźmy sobie, że prosimy go o przyniesienie mleka z lodówki. Ponieważ to nie fabryka i mleko nie musi się znajdować w tym samym miejscu, jest konieczne, by robot miał umiejętność adaptacji do okoliczności. W świecie realnym każda lodówka jest nieco inna, jest inaczej ustawiona i ma inną zawartość. Nie można zaprogramować maszynie jedynie określonej sekwencji ruchów. Robot powinien nauczyć się radzenia sobie z różnymi lodówkami, konfiguracjami pomieszczeń, a przede wszystkim współpracy z ludźmi o różnych potrzebach.

Tego typu eksperymenty mają niebagatelny wpływ na rozwój szeroko pojętej robotyki. Artur Długosz dodaje, że zanim roboty na dobre zagoszczą w naszym życiu, muszą być do tego perfekcyjnie przygotowane.

Artur Długosz (po prawej) – ekspert ds. sztucznej inteligencji w firmie Intel Technology

Z rozmowy z Arturem Długoszem dowiedzieliśmy się, że obecne infrastruktury komputerowe dostępne w większości instytucji naukowych czy prywatnych firmach są wystarczająco wydajne, by spełnić wymagania sztucznej inteligencji. Nie są konieczne bardzo kosztowne modyfikacje. Szczególnie istotna jest kwestia optymalizacji programowej. Artur wspomina, że jeszcze długo nie będzie sztucznej inteligencji, która pozwoli na przeprowadzenie normalnej rozmowy jak z drugim człowiekiem. Oczywiście, powstały już pewne projekty, choćby popularny Cleverbot, ale to bardzo prymitywne oprogramowanie.

Zapytałem, czy zatem w ciągu najbliższych 5 lub 10 lat będzie możliwe przeprowadzenie konkretnej rozmowy z maszyną. Artur uważa, że mogą już powstać systemy, które będą miały wystarczająco głęboką wiedzę, by rozmawiać na precyzyjnie określony temat. „Jeżeli jesteś miłośnikiem literatury angielskiej XVIII wieku, być może będziesz mógł wtedy z taką maszyną porozmawiać” – dodał. Rozwój sztucznej inteligencji jest w pełni zależny od mocy obliczeniowej komputera. Rzecz jasna, są problemy wielokrotnie bardziej złożone od nauczenia maszyny zasad prostej gry, a zagadnienia związane z cyberbezpieczeństwem czy autonomicznymi pojazdami wymagają wielokrotnie większej mocy. 

„Sztuczna inteligencja nie jest zależna od liczby tranzystorów. Kwestie wydajności, skalowalności i tego, jak połączone są różne systemy komputerowe, są bardzo ważne. Dzisiaj stosujemy sygnał elektryczny, ale pracujemy nad zastosowaniem światła, by wszystko znacząco przyspieszyć” – mówi Artur. Czyli takie udoskonalenie światłowodów. Można sobie wyobrazić duży klaster spięty światłowodami, by ograniczyć liczbę wąskich gardeł, który ma nadzorować ruch pojazdów w wielkim mieście. Nie dość, że pojazdy same w sobie będą zbiorem ogromnych ilości danych, to jeszcze mnóstwo tych informacji będzie wysyłanych przez infrastrukturę 5G (prawdopodobnie) do jednostek centralnych. To wymaga gigantycznej przepustowości. 

Zaintrygowała mnie kwestia bezpieczeństwa, bo w przyszłości będziemy zmagać się ze znacznie większą liczbą potencjalnych cyberprzestępstw (jak choćby w serii gier Watch Dogs). Jak mówi Artur: „Jest duże ryzyko, że coś takiego będzie się dziać. Kwestia bezpieczeństwa to nie jest kwestia jednego komponentu, tylko bardziej oprogramowania, całości sprzętu, sumienności pracowników, przestrzegania procedur czy jawności informacji. To skomplikowane zagadnienie. Jeśli mówimy o autonomicznych pojazdach, musimy wypracować kompletnie nowe, dzisiaj jeszcze nieznane, metody zabezpieczeń. Wyobrażam sobie, że będzie gdzieś pewna grupa specjalistów kontrolujących cały ten system. Ktoś, kto zostanie wybrany do zarządzania ruchem miejskim w świecie autonomicznych pojazdów, będzie obarczony ogromną odpowiedzialnością. Być może pomocna w tym będzie mechanika kwantowa”. 

17-kubitowy czip kwantowy

Intel zaprezentował ostatnio pierwszy kwantowy czip: malutki, złożony z 17 kubitów (najmniejszych i niepodzielnych jednostek informacji kwantowej). Ta technika cechuje się znacznie lepszymi parametrami elektrycznymi i termomechanicznymi i może znacząco usprawnić przesyłanie połączeń. Układ może wysyłać nawet do 100 razy większą liczbę sygnałów niż dotychczasowe znane nam rozwiązania. Więcej informacji o tym niezwykłym projekcie znajdziecie w witrynie Intela, a my spróbujemy w przyszłości opisać go zdecydowanie bardziej szczegółowo.

Zapytałem Artura o możliwości krzemu, jego przyszłość i potencjalnych następców. „Prowadzimy badania z paroma materiałami, ale myślę, że z krzemem jeszcze trochę jest do zrobienia. Po drodze jest kilka technologii, które poprawią możliwości tego materiału, szczególnie jeśli chodzi o zużycie energii”.

Następnie nasz rozmówca przeszedł do tematu przepustowości obecnych złączy. SATA jest już zbyt wolne, więc można się spodziewać całkowitego przejścia na PCI-E. Intel zaczął promować i wykorzystywać najnowszą technikę Optane, która zapewnia czas dostępu 10 tysięcy razy szybszy niż standardowy dysk talerzowy. „Pamięć Optane nie jest pamięcią flash, ma bardzo dobrą charakterystykę. Dzisiaj oferujemy ją w postaci nośników SSD do złącza M.2, ale można ją także stosować jako pamięć rozszerzoną. Dla kogoś, kto ma ogromny talerzowy dysk, na którym przechowuje dużą ilość danych, przejście na SSD może być utrudnione, ze względu na cenę czy pojemność takich nośników. Najlepszym rozwiązaniem dla takiego klienta z perspektywy finansowej jest zakupienie małego modułu, 32-gigabajtowego, na przykład pamięci Optane, i zainstalowanie specjalnego oprogramowania. To może sprawić, że dotychczasowy komputer z dyskiem HDD może zachowywać się podobnie do systemu, w którym znajduje się SSD”.

„W przyszłym roku będziemy dostarczali na rynek normalne kości DRAM DDR4 wykorzystujące Optane, o wielkości od 128 GB. Będą dostępne tylko dla serwerów. Będą dwu-, a nawet trzykrotnie tańsze niż DRAM. Chodzi o to, że w serwerach wymagających wrzucania dużych ilości danych złożenie dzisiaj jednostki wyposażonej w 3 TB pamięci kosztuje bardzo dużo. Optane znacząco zmniejszy potencjalne koszty. Do tego będzie potrzebna platforma serwerowa Purley, którą wprowadziliśmy w lipcu tego roku”.

Artur Długosz uważa też, że procesory CPU mają przed sobą bardzo dobrą przyszłość i że w najbliższych latach zupełnie nic się tu nie zmieni. Naukowcy nie porzucą CPU na rzecz GPU, co jakiś czas temu głosił prezes Nvidii Jensen Huang. Karty graficzne zużywają bardzo dużo energii, a poza tym oprogramowanie legacy czy gry nie przestaną wykorzystywać zwykłych procesorów. Zresztą jak mówią naukowcy z DeepSense.ai, programować pod kątem układów graficznych jest znacznie trudniej.

„Rozwijamy równolegle technologię oferującą procesory, które nie są zgodne z architekturą x86. Dzisiaj już widać, że są wyzwania, w których potrzebne jest inne podejście. Kilkanaście dni temu pokazaliśmy swój pierwszy czip neuromorficzny, zwany Loihi, który tworzyliśmy przez sześć lat i w którym poszczególne elementy nie są tradycyjnymi tranzystorami, lecz imitują neurony i synapsy. Procesor składa się ze 130 tysięcy tych pierwszych i blisko 130 milionów tych drugich” – mówi Artur. Układ w pierwszej połowie przyszłego roku zostanie rozesłany do czołowych uniwersytetów z całego świata, by wspomagały rozwój badań nad zaawansowaną sztuczną inteligencją. Więcej o nim przeczytacie w witrynie Intela.

Wydaje nam się, że mogą być takie zadania, w których odejście od szkół projektowania tradycyjnych procesorów na rzecz tego, jak biologia rozwiązała pewne rzeczy w mózgu człowieka, może być korzystne. Nikt dotąd nie powiedział tu ostatniego słowa, ale architektura x86 bardzo długo będzie podstawą działania większości komputerów.

Na sam koniec Artur powiedział jeszcze jedną ciekawą rzecz: „Tylko budżet jest limitem możliwości dzisiejszych technologii. Mówiąc bardziej obrazowo: żyjemy w okresie gigaflopsów czy teraflopsów. Wydaje się, że zwiększenie wydajności tysiąc razy, czyli przejście z gigaflopsów na eksaflopsy, jest dzisiaj niepoliczalne. Niewykluczone, że za jakiś czas będzie to policzalne w ciągu kilku minut. Do tego zmierzają dzisiaj biznes i środowisko naukowe. Pewne problemy, które trzeba rozwiązać na wiele różnych sposobów, nie mogą zajmować miesięcy, czy nawet lat. W eksaflopsach operuje ludzki mózg, więc zakłada się, że taka wydajność może przynieść niewyobrażalne dzisiaj rezultaty. My chcemy zwiększyć stukrotnie wydajność tego, czego potrzebujemy do sztucznej inteligencji, w ciągu najbliższych czterech lat. To nie jest czyste zwiększenie wydajności jednego procesora, lecz zwiększenie wydajności całej platformy”.

W niedalekiej przyszłości planujemy także spotkanie z ekipą naukowców z grupy DeepSense.ai, którzy szczegółowo wytłumaczą szereg skomplikowanych zagadnień dotyczących wykorzystania algorytmów sztucznej inteligencji w dzisiejszym świecie. Sami chyba jednak przyznacie, że maszyna ucząca się zasad gry na podstawie tylko tego, co widzi, już teraz robi spore wrażenie. Informacje przekazane przez Artura Długosza rozbudzają naszą wyobraźnię. Ciekawi jesteśmy Waszych opinii i oczekiwań, a także pytań, które chcielibyście zadać zespołowi DeepSense. Napiszcie o tym w komentarzach! 

Konkurs Palit Polska
Ocena artykułu:
Ocen: 1
Zaloguj się, by móc oceniać
Kubon16 (2017.10.13, 07:58)
Ocena: 1

0%
Tylko mi sie to wydaje durne?
PsyhoMir (2017.10.13, 09:21)
Ocena: 5

0%
Kubon16 @ 2017.10.13 07:58  Post: 1101201
Tylko mi sie to wydaje durne?

Pewnie nie ale co widzisz w tym durnego ?
lukevipno1 (2017.10.13, 10:37)
Ocena: 0

0%
'W przyszłym roku będziemy dostarczali na rynek normalne kości DRAM DDR4 wykorzystujące Optane, o wielkości od 128 GB. Będą dostępne tylko dla serwerów. Będą dwu, lub nawet trzykrotnie tańsze niż DRAM. Chodzi o to, że w serwerach wymagających wrzucenia dużych ilości danych, złożenie dzisiaj jednostki wyposażonej w 3TB pamięci kosztuje bardzo dużo'
A mainstrem to mają w du.... byle tylko lizać rowa korporacją (ich ku... stać wpiszą w koszty i po problemie)
mfuker (2017.10.13, 11:09)
Ocena: 3

0%
Pewne problemy, które trzeba rozwiązać na wiele różnych sposobów, nie mogą zajmować miesięcy, czy nawet lat. W eksaflopsach operuje ludzki mózg, więc zakłada się, że taka wydajność może przynieść niewyobrażalne dzisiaj rezultaty.

Czy pan Artur pomyślał, że już dzisiaj przy raczkującej technologi sztucznej inteligencji dokonuje się wielu odkryć, które to są celowo ukrywane lub blokowane przed ludźmi przez korporacje dysponującymi nierealnymi funduszami?
Kubon16 (2017.10.13, 14:19)
Ocena: -2

0%
PsyhoMir @ 2017.10.13 09:21  Post: 1101217
Kubon16 @ 2017.10.13 07:58  Post: 1101201
Tylko mi sie to wydaje durne?

Pewnie nie ale co widzisz w tym durnego ?

Właściwie większa część sztucznej inteligencji.
PsyhoMir (2017.10.13, 14:53)
Ocena: 6

0%
Kubon16 @ 2017.10.13 14:19  Post: 1101331
PsyhoMir @ 2017.10.13 09:21  Post: 1101217
(...)

Pewnie nie ale co widzisz w tym durnego ?

Właściwie większa część sztucznej inteligencji.

Uhm więc uważasz, że większa część sztucznej inteligencji jest durna ?
A mógłbyś uściślić ? SI jest durna czy idea SI jest durna, a może coś innego ?
lolotron (2017.10.13, 15:49)
Ocena: 7

0%
No i tak sobie flopsają od dłuższego czasu. Ale z szybkości obliczeń nie wynika jakość. Dawniej czytałem zapowiedzi że za 15 lat będzie sztuczna inteligencja, tylko te 15 lat ciągle się przesuwa i tak od lat 60-ych.
PsyhoMir (2017.10.13, 23:50)
Ocena: 1

0%
Kubon16 @ 2017.10.13 07:58  Post: 1101201
Tylko mi sie to wydaje durne?


@Kaban16
Czy ostatnia rozmowa przyniosła ci coś nowego ?
Edytowane przez autora (2017.10.13, 23:59)
dluugi (2017.10.14, 02:45)
Ocena: 1

0%
Do HAL-a 9000 jeszcze daleko....może i dobrze.....
Zaloguj się, by móc komentować
Artykuły spokrewnione
Facebook
Ostatnio komentowane