artykuły

Praktyczne zastosowania sztucznej inteligencji w komputerze osobistym

15
7 marca 2020, 14:01 Mateusz Brzostek

Skromne początki akceleracji SI

Użytkownik jakiegokolwiek oprogramowania ma niezwykle rzadko do czynienia z uczeniem sieci neuronowej, czyli kształtowaniem jakiegoś algorytmu na podstawie ogromnego zbioru danych. To, w czym dobre są ogromne procesory graficzne czy akceleratory pokroju Google TPU, Habana Gaudi czy Huawei Ascend 910 nie ma żadnego znaczenia dla konsumentów elektroniki użytkowej. Dla nas liczy się głównie wydajność w jednorazowych, krótkich i stosunkowo mało wymagających zadaniach związanych z wnioskowaniem. Tu rzadko liczy się przepustowość obliczeniowa, a często czas oczekiwania na wynik;  nie zawsze szersza maszyna obliczeniowa ma przewagę.

Zastosowania sieci neuronowych w osobistych urządzeniach elektronicznych podzielilibyśmy na trzy grupy:

  1. Eksperymenty, badania i tworzenie sieci neuronowych – tu zwykle przydają się ogromne GPU, bardzo dużo pamięci lub dostęp do zdalnej mocy obliczeniowej.
  2. Wnioskowanie przez lokalną sieć neuronową na podstawie zebranych lokalnie danych.
  3. Wnioskowanie przez działającą w ramach usługi internetowej sieć neuronową na podstawie danych zebranych przez tę usługę lub zebranych lokalnie i wysłanych do dostawcy tej usługi.

Druga grupa, którą przedstawiliśmy w tym artykule, to ciągle nieliczne zastosowania ograniczone głównie do obróbki multimediów. Efekty sprzętowej akceleracji są czasem imponujące (np. zaznaczanie przedmiotu zdjęcia w Photoshopie, w którym laptopowy Core i5-1035G1 dorównuje procesorowi desktopowemu!), czasem ciężkie do zauważenia, ale zwykle po prostu nie mają większego znaczenia. Zadania, które można w ten sposób przyspieszyć, powtarza się rzadko i zwykle są częścią długiego procesu twórczego, w którym zaoszczędzenie kilkunastu sekund nie jest powodem do nabycia tego czy innego sprzętu. Z drugiej strony usunięcie każdej drobnej irytacji podczas korzystania z laptopa oraz zaoszczędzenie każdej minuty czasu działania na baterii są mile widziane. Dlatego chcielibyśmy, żeby wszystkie przyszłe procesory miały te możliwości akceleracji, których wbudowanie nie kosztuje wiele (np. przetwarzanie wektorowe spakowanych liczb 8-bitowych).

Jednocześnie potrzebna jest jakaś innowacja w interfejsach użytkownika, reklamie czy instrukcjach obsługi programów. Sądzimy, że nawet mało zaawansowany użytkownik powinien móc łatwo ocenić, czy zadanie, które właśnie wykonuje na komputerze, należy do grupy 2 czy grupy 3. Wysyłanie danych zebranych lokalnie „do chmury” nie może być ukryte pod nie mówiącym nic hasłem „moc SI”. W zademonstrowanych programach są funkcje takie jak katalogowanie zdjęć wg przedstawionych na nich osób w pakiecie Adobe, które – choć mogłyby być realizowane wyłącznie lokalnie, bez internetu – wysyłają dane do serwerów producenta. Oczywiście licencja o tym wspomina, ale z pewnością niewielu zadowoli taka wymówka.

Naszym zdaniem reklamowanie komputerów jako „uczących się” oraz trzech zupełnie odrębnych funkcji (z tego jednej dostępnej na każdym współczesnym GPU) jako jednej „mocy SI” jest dużym nadużyciem marketingowym. Uczenie wymaga zmian i zapamiętywania. Wszystko, co się zmienia i zostaje zapamiętywane podczas użytkowania współczesnego laptopa, jest wyłącznie zasługą oprogramowania. Niektórym producentom – szczególnie wśród telefonów komórkowych i różnych smart-gadżetów – łatwo przychodzi mieszanie funkcji programowych, które często mogą działać również na sprzęcie konkurencji, albo reprezentują nie własność sprzętu, ale czasową licencję na używanie jakiejś usługi. Nie dajmy się na to nabierać: zaawansowany sprzęt zasługuje na docenienie, ale nie mylmy innowacji architekturalnych ze staranną optymalizacją oprogramowania.

 

Strona:
*Konto usunięte*2020.03.07, 21:25
-11#1
pierfsza
Edytowane przez autora (2020.03.08, 11:13)
1piotr13Zobacz profil
Poziom ostrzeżenia: 0%
1piotr132020.03.07, 21:38
-8#2
krysia1990xxx @ 2020.03.07 21:25  Post: 1236357
piersza

Nie dość, że jeden wyraz napisała, to jeszcze z błędem. Czym tu się chwalić 🤔
*Konto usunięte*2020.03.08, 11:12
-3#3
1piotr13 @ 2020.03.07 21:38  Post: 1236358
krysia1990xxx @ 2020.03.07 21:25  Post: 1236357
piersza

Nie dość, że jeden wyraz napisała, to jeszcze z błędem. Czym tu się chwalić 🤔

widzę, że mamy tutaj zazdrośnika xD cóż, może następnym razem Ci się uda być pierfszym...
Edytowane przez autora (2020.03.08, 11:13)
mjwhiteZobacz profil
Poziom ostrzeżenia: 0%
mjwhite2020.03.08, 13:16
-1#4
Bardzo ciekawy artykuł, brawo. Może wreszcie niektórzy zrozumieją że nie tylko punkciki w cinebenchu się liczą.
GrLTZobacz profil
Poziom ostrzeżenia: 0%
GrLT2020.03.08, 13:55
Słyszałem że AI miało pisać newsy na Pclabie, ale nie wyszło bo za bardzo się wyróżniała pisząc bez błędów :E
StjepanZobacz profil
Poziom ostrzeżenia: 0%
Stjepan2020.03.08, 22:34
-2#6
GrLT @ 2020.03.08 13:55  Post: 1236390
Słyszałem że AI miało pisać newsy na Pclabie, ale nie wyszło bo za bardzo się wyróżniała pisząc bez błędów :E

Gdyby było takie ładne jak Dahj/Soji z Picarda to tak.
pyniek1972Zobacz profil
Poziom ostrzeżenia: 0%
pyniek19722020.03.09, 04:44
AI dawno już pisze newsy na PCLabie patrząc na jakość tychże :)
KwantZobacz profil
Poziom ostrzeżenia: 0%
Kwant2020.03.09, 10:14
'Microsoft proponuje budować aplikacje w oparciu o API WindowsML.'

Hoho ho ;-) MS znowu przegapił trend i próbuje wskoczyć do uciekającego pociągu. Wszyscy używają googlowego TensorFlow ewentualnie facebookowego PyTorch.

Do TensorFlow google daje darmowe maszynki wirtualne (colab.research.google.com hostowanie w googlowej chmurze z potężnym GPU).

MS 'wynalazł' nowy framework, w praktyce Windows-only bo potrzebne VisualStudio i na dodatek preferowany C#. Przewiduję pełny sukces, na poziomie tego z WindowsPhone ;-)
doopanZobacz profil
Poziom ostrzeżenia: 0%
doopan2020.03.09, 11:58
Strasznie fajny artykul.
forumgoscZobacz profil
Poziom ostrzeżenia: 0%
forumgosc2020.03.09, 17:46
-1#10
jest tu gdzies na forum cos o tej nowej luce amd ? ciekawi mnie co tutaj o tym sadza
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.
4