Technologia

Co powinienem wiedzieć o Sztucznej Inteligencji - część 1

28 kwietnia 2020


Otwieram relację z pojedynku człowieka z maszyną podczas meczu Go pomiędzy Lee Sedol oraz AlphaGo (Google), który miał miejsce w 2016 roku. 

Sekcja komentarzy jest pusta.

Wyświetlenia sięgają maksymalnie 10 000. 

Można rzec, że nuda i nic nie wnoszące wydarzenie, które zostało puszczone mimochodem w mediach (o ile w ogóle). Przynajmniej u nas w Europie. Bowiem gdzieś tam, w Chinach, tego dnia miliony widzów oglądało z przejęciem jak sztuczna inteligencja wygrywa z człowiekiem w grę, którą rzekomo mógł pojąć tylko ludzki umysł. Oglądają z wypiekami jak na ich oczach rodzi się coś niezwykłego. Są świadkami pamiętnego wydarzenia. Wiedzą, że po cichu zacznie się kolejna rewolucja technologiczna.

A jakże - znowu będę się rozwodzić o Internecie Rzeczy i Chinach.  Tak już mam. Nic na to nie poradzę.

Tym razem jednak komentarz będzie bogatszy gdyż dodam do naszego równania sztuczną inteligencję - kolejny filar technologicznego świata jutra - przedstawioną właśnie z perspektywy chińskiego społeczeństwa. Niezwykle barwnej perspektywy pragnę dodać.

Zacytuję tu fragment raportu China AI Development Report 2018, który wyjaśni moją fascynację Chinami w kontekście AI:

Chiny są obecnie liderem w ilości publikacji dotyczących AI

Chiny mają więcej patentów dla AI niż USA i Japonia

Chińskie publikacje dotyczące AI wzrosły z 4,26% w 1997 r. do 27,68% w 2017 r


CHINY, A AI

Chińskie AI koncentruje i przoduje się na takich kategoriach jak rozpoznawaniu głosu, rozpoznawanie obrazów, robotyka i uczenie maszynowe.

Chiny zajmują drugie miejsce na świecie z liczebnością firm wykorzystujących AI

Widzisz między 2012, a 2017 chiński rząd wpompował ponad 4.5 miliarda dolarów w firmy i startupy zajmujące się sztuczną inteligencją.Politycy zrozumieli, że dane i przewaga informacyjno-technologiczna są potęgą w XXI wieku, a potencjał istniejący w możliwości  zastąpienia ludzi myślącymi maszynami jest niebywały. Zaktualizowano prawo, zaczęto promować AI niczym złotą kurę i Chiny oszalały na punkcie sztucznej inteligencji. Tyle w DUŻYM uproszczeniu.

W świecie post AlphaGo chińscy badaczem, studenci, naukowcy, inżynierowie masowo rzucili się na zasoby takich stron jak www.arxiv.org gdzie każdego dnia przeszukują, analizują i pochłaniają wszystko na swej drodze co nosi znamiona AI. Publikacje akademickie, raporty, badania - wszystko się nada pod warunkiem, że dowiem się więcej i będę mógł napisać własne AI. 


SKĄD TEN POŚPIECH?

Stąd, że jest o co walczyć! Czekają tysiące mini-przełomów, a wszystkie dotyczącą uczenia się maszyn. Tego jak rozumieją język naturalny. Jak planują, rozsądzają, uczą się. Do tego dochodzi inteligencja emocjonalna, samoświadomość, humor, empatia, miłość, rozumienie piękna, sensu życia i przeskoczenie z poziomu “suchej” korelacji danych i prognozowania na rzecz rzeczywistego myślenia. Każdy ambitny Chińczyk chce mieć wkład chocby w jedno z tych nowatorskich rozwiązań bo wierzy, że w ten sposób będzie mógł wyrwać się z marazmów codzienności i przeciętności. W ten sposób stanie się kimś unikalnym i niezwykłym. Kimś na miarę Jacka Ma (twórcy Alibaby).

Ma stał się bohaterem narodowym nowego rodzaju. Bohaterem ludzkim i “spokrewnionym”. Wydaje się być chłopcem z sąsiedztwa, który nie uczęszczał na elitarny uniwersytet, nigdy nie nauczył się programować, a swym uparciem doszedł do momentu gdy jest najbogatszym Chińczykiem na świecie. 

Czyż nie jest to wspaniała wizja?

Zresztą nawet jeśli nie stworzę firmy na miarę Alibaba lub Baidu to może moja sztuczna inteligencja będzie produktem, który sprzedam istniejącym firmom. Zdziwiłbyś się jak wiele bytów korzysta już teraz z AI, które doskonali się w meandrach nadinterpretacji po to by wspomagać decyzyjność. 

Weźmy dla przykładu aplikację WeChat - kolosa, z którego każdego dnia korzystają setki milionów aktywnych użytkowników - a który swe działanie opiera właśnie o AI.

Nieistotne dla ludzkiej percepcji detale stają się jego “pożywką”. Szybkość wpisywania daty urodzenia, poziom naładowania baterii telefonu, tempo przesuwania palcem po ekranie i dziesiątki innych parametrów zostają przetworzone i przeanalizowane by trafić wprost do serca firmy. Co jednak może mieć ze sobą wspólnego szybkość wysłania emoji i poziom naładowania baterii nie jest pytaniem, na które możemy odpowiedzieć w kategoriach prostej przyczyny i skutku. AI przekracza ograniczenia naszych umysłów i wyszukuje korelacje ukryte w morzu danych i właśnie dlatego jest tak kuszącym rozwiązaniem.


KRÓTKO O AI

Pod pojęciem AI i uczenia maszynowego zaszyte jest mnóstwo elementów i wątków, które czynią tę skomplikowaną układankę możliwą do złożenia.

Przetwarzanie języka naturalnego (NLP), rozpoznawanie wzorców zaszytych w obrazach, świadome wyodrębnianie danych, nauka wzmocnienia - terminologia jest bogata, a metod nauczania jest całe mnóstwo. A wszystko po to by sprzęty uczyły się, “dojrzewały” i ze zwykłych maszyn reaktywnych, przeobraziły się w maszyny ograniczone jedynie pamięcią (tzn. mające możliwość korzystania z przeszłych doświadczeń w celu podejmowania przyszłych decyzji). Potem będziemy mieli maszyny oparte o teorię umysłu (“wiem, że inni mają swoje osobiste przekonania, pragnienia i intencje, które wpływają na podejmowane przez nich decyzje”) i w końcu takie, które posiadają samoświadomość, poczucie jaźni i świadomość samego siebie.

Żeby jednak do tego doszło musimy przemóc się, ładować w maszyny tyle próbek danych ile tylko się da i liczyć, że przy odpowiedniej kombinacji wzorów matematycznych uda się osiągnąć satysfakcjonujące rezultaty.

Posłużę się teraz prostym przykładem. Weźmy np. naukę przez klasyfikację obrazu. Chcemy, żeby maszyna sama świadomie rozpoznawała to co widzi. Jak ją tego nauczymy?

Na pewno chcemy aby miała:

  • Zasób słownictwa by móc nazwać daną rzecz
  • Możliwość rozpoznawania czy dany obiekt jest na obrazie
  • Świadomość na jaki obszar (otoczenie) spogląda
  • Być w stanie odizolować każdy napotkany punkt przypisując go do odpowiedniej kategorii

Będziemy chcieli stopniowo uczyć ją:

  • Najpierw poprzez nadzorowane
  • Potem tak by uczyła się bez nadzoru
  • Potem jedynie sporadycznie nadzorując
  • I w końcu dokształcać ją przez wzmocnienie

Zacznijmy metodą małych kroczków. 


UCZYMY AI

Skoro chcemy “wskazać” maszynie co znajduje się w polu jej widzenia będziemy potrzebować binarnych etykiet. Co z tego, że kamera patrzy skoro nie wie na co. Potrzebujemy nauczyć ją paru odpowiednich fraz by powiększyć w ten sposób jej zakres wiedzy o świecie.

Trzeba “zaczytać” stosowną baza danych, która będzie posiadać odpowiednie zbiory i wskaże na tysiącach przykładów czym jest dany obiekt.

Na szczęście istnieją ludzie, którzy mają zbyt dużo wolnego czasu i oferują swoje zasoby do tego typu nauki:

  • MNIST - który zawiera zestaw szkoleniowy obejmujący 60 000 przykładów odręcznie rozpisanych liczb
  • Caltech 101 - zdjęcia obiektów należących do 101 kategorii, w których jest ~800 zdjęć na daną kategorię
  • Caltech 256 - 30 607 zdjęć obejmującym 257 kategorii obiektów
  • CIFAR-10 - Składający się z 60000 kolorowych obrazów w 10 klasach, z 6000 obrazów na klasę
  • CIFAR100 - zestaw danych podobny do CIFAR-10, tyle że ma 100 klas zawierających 600 obrazów każdy. Na klasę przypada 500 zdjęć szkoleniowych i 100 zdjęć testowych
  • ImageNet - który zrobił osobliwe odejście od przyrostowego wzrostu wielkości zbioru danych proponując utworzenie zestawu danych zawierającego 22 tys. kategorii, z których każda zawiera 500–1000 obrazów 
  • Caltech Pedestrians - zbiór danych dla pieszych Caltech składających się z około 10 godzin wideo 640 x 480 zarejestrowanego z pojazdu jadącego po mieście. Odnotowano około 250 000 klatek (w 137 segmentach o długości około minuty) z łączną liczbą 350 000 ramek ograniczających i 2300 niepowtarzalnych pieszych.

Takich katalogów do uczenia jest w sieci jeszcze mnóstwo chociaż sam wybór bywa kłopotliwym i bolesnym zadaniem. Kategorie muszą stanowić reprezentatywny zestaw, być odpowiednie dla praktycznych zastosowań i występować z odpowiednią częstotliwością. Nie mówiąc już o kłopotliwych kategoriach “rzeczy” (przedmioty namacalne) i “rzeczy” (strefy).

Załóżmy jednak, że znamy już słowa. Trzeba teraz pomóc maszynie rozpoznawać czy dana “rzecz” znajduje się w jej polu widzenia czy też nie. Zajmijmy się wykrywaniem obiektów. 

Ale o tym w drugiej części ;)

  • linkedin
  • twitter
  • facebook

Podziel się

Dołącz do dyskusji