Sztuczna inteligencja od kilku lat jest prawdziwą celebrytką wśród nowoczesnych technologii. Udane aplikacje pokazały, że opłaca się biznesowo. Rozbudziło to apetyt na znacznie więcej, a apetyt – jak wiadomo – otwiera portfele
Tylko na start-upy działające w tym obszarze globalnie wydano w 2018 r. prawie 10 mld dol. To niewiele mniej, niż wynosi cały roczny budżet naszego resortu obrony. Strumień pieniędzy płynie wartko, bo w walce o palmę rynkowego pierwszeństwa liczą się każde ręce na pokładzie, a tych w dziedzinie sztucznej inteligencji jest jak na lekarstwo. Do tego małe firmy muszą konkurować z gigantami z Doliny Krzemowej, którzy zasysają każdego specjalistę, oferując milionowe wynagrodzenia.
Łakomym okiem na AI (sztuczna inteligencja, z ang. artificial intelligence) patrzą również rządy; to dziedzina, w której nie można sobie pozwolić na zostanie w tyle, dlatego każde przyzwoite państwo stara się mieć wlasną strategię AI. Gorączka trwa i na razie nic nie zapowiada, żeby miała opaść. Z tego względu prezentujemy alfabet AI, szybką ściągawkę będącą doskonałym wstępem dla wszystkich, którzy chcą błyskawicznie podciągnąć swoją wiedzę w tej dziedzinie.

A – algorytmy

Reklama
„Zdania”, w które ułożony jest kod programistyczny. W zasadzie zestaw najprostszych instrukcji dla komputera, często sformułowanych pod postacią warunków („jeśli A, to B”). Składa się z nich każdy program komputerowy, także zaliczany do rodziny sztucznej inteligencji. I tak jak w języku te same informacje można przekazać dłuższymi lub krótszymi zdaniami, tak samo za pomocą różnych algorytmów te same działania zajmą więcej lub mniej czasu. Ta efektywność jest bardzo ważna, przekłada się bowiem na koszt zastosowań technik AI, jak również ich poręczność – co udowodnił w tym tygodniu Google, prezentując cyfrowego asystenta tak dobrego, że mieści się w telefonie – i nie potrzebuje do swojego działania chmury obliczeniowej, tak jak każdy dotychczasowy produkt tego typu. Będzie go można przetestować na Impact'19 w Krakowie.
Patrz też: biznes, rozpoznawanie mowy

B – biznes

Czy to się podoba, czy nie, ostateczna wyrocznia w kwestii tego, czy dana technologia się przyjmie. Dzisiaj firmy widzą możliwość uwzględnienia oprogramowania wykorzystującego metody sztucznej inteligencji we własnych procesach, ale nie zawsze tak było: brak jasnych aplikacji biznesowych doprowadził w drugiej połowie lat 70. i pod koniec lat 80. XX w. do „zim” – okresów nikłego zainteresowania SI i ograniczeń w finansowaniu badań nad nią. Różnica między tamtymi okresami a dzisiejszym boomem bierze się z dwóch rzeczy. Po pierwsze, obecne komputery są znacznie szybsze. Po drugie, wzrostowi mocy obliczeniowej towarzyszył gwałtowny rozwój technik AI, co zaowocowało idealną kombinacją dla zastosowań w biznesie.

C – chiński pokój

Eksperyment myślowy stworzony przez filozofa Johna Searla w 1980 r. dla poparcia tezy o tym, że maszyny nie potrafią myśleć. Wyobraźmy sobie komputer wyposażony w program do rozpoznawania chińskiego pisma. Przyjmuje on na wejściu zestaw znaków, a na wyjściu daje odpowiedź i jest w tym tak dobry, że osobom postronnym wydaje się, że mają do czynienia z prawdziwym Chińczykiem. Searle uważał, że gdyby człowiekowi wydrukować ten program, tak żeby mógł krok po kroku postępować zgodnie z jego instrukcjami, to zewnętrznemu obserwatorowi też wydawałoby się, że ma do czynienia z native speakerem – chociaż wykonujący program ni w ząb nie znałby chińskiego. Dla filozofa był to dowód na to, że maszyny nie potrafią myśleć, a rozumienie nie jest tym samym, co podążanie za zestawem instrukcji.
Patrz też: test Turinga, świadomość

D – dane

A właściwie mnóstwo, mnóstwo danych. Kiedy my wciąż myślimy w kategorii gigabajtów, do uczenia algorytmów sztucznej inteligencji potrzeba tera-, jeśli nie eksabajtów (czyli kolejno: milion i miliard razy więcej niż gigabajt) danych. Pracują one bowiem w ten sposób, że wnioskują o prawidłowym działaniu na podstawie instruktażowego zbioru danych. I o ile ten nie musi być zbyt duży w przypadku prostych zastosowań – np. odróżniania zgniłych jabłek od zdrowych, o tyle w bardziej skomplikowanych scenariuszach, jak autonomiczna jazda, wykształcenie maszynowej kompetencji, może wymagać informacji z dziesiątek, jeśli nie setek milionów przejechanych kilometrów. Dlatego postęp w różnych dziedzinach AI jest nierównomierny.
Patrz też: uczenie maszynowe, pojazdy autonomiczne, StarCraft

E – etyka

Opracowanie prawdziwej sztucznej inteligencji to nie tylko wyzwanie techniczne, a nawet cywilizacyjne, lecz także problem natury moralnej. Jak mamy traktować taką istotę? Jako równą nam, z pełną podmiotowością, a w związku z tym z takimi samymi prawami, czy na szczególnych warunkach? I w jaki sposób zabezpieczyć się przed tym, że zwróci się przeciwko nam? Swoją propozycję już w 1942 r. przedstawił pisarz Isaak Asimov w opowiadaniu „Gra w berka” (wydanym w 1950 r. w zbiorze „Ja, robot”): zestaw trzech praw, które powinny stać się integralnym elementem kodu każdego takiego programu (twórca pisał o robotach). Pierwsze głosi, że robot nie może skrzywdzić człowieka bądź pozostać bezczynnym w obliczu grożącej ludziom krzywdy. Zgodnie z drugim robot musi zawsze wykonywać polecenia ludzi, chyba że stałoby to w sprzeczności z prawem pierwszym. Trzecie wymaga, aby robot chronił także siebie, pod warunkiem wszakże, iż nie uchybiłoby to pierwszemu lub drugiemu prawu.
Patrz też: fantastyka naukowa

F – fantastyka naukowa

Kto mógłby być nieludzkim towarzyszem człowieka, jeśli nie elf, krasnolud, kosmita lub jakiś zwierzak? Oczywiście sztuczna inteligencja. Wyposażona w cyfrowe mózgi komitywa to żelazny punkt fantastyki naukowej, od inteligentnych robotów (C3PO i R2D2 z „Gwiezdnych wojen”, TARS z „Interstellar”) przez wypasionych cyfrowych asystentów (jak J.A.R.V.I.S. z „Iron Mana” czy komputery pokładowe w „Star Treku”), po obiekty westchnień (Samantha z „Niej”), kalkulujących na chłodno szaleńców (HAL 9000 z „Odysei kosmicznej 2001”), a nawet wrogów ludzkości (Architekt z „Matriksa” czy Skynet z „Terminatora”).

G – Go

Azjatycka gra planszowa, a zarazem jeden z najlepszych dowodów na postęp w dziedzinie sztucznej inteligencji. W 2017 r. opracowany przez naukowców z firmy DeepMind (którą wcześniej kupił Google) program AlphaGo wygrał w go z mistrzem świata w tej grze, Kie Je z Korei Południowej. Było to kolejne świadectwo postępu technologicznego: do zwycięstwa z Garijem Kasparowem w 1997 r. IBM musiał zbudować specjalny superkomputer, ale trzeba było jeszcze 20 lat, żeby maszyna pokonała ludzkiego mistrza w go. Zresztą większość ekspertów z dziedziny AI była zaskoczona osiągnięciem programu, przewidywała bowiem, że na sukces maszyny w go przyjdzie nam poczekać jeszcze z 10 lat.
Patrz też: StarCraft

H – Hawking, Stephen

Jeden z największych współczesnych fizyków pod koniec życia zabierał głos w wielu różnych kwestiach związanych z postępem technologii. O sztucznej inteligencji nie miał dobrego zdania; uważał ją za egzystencjalne zagrożenie dla ludzkości. Był przekonany, że kiedy tylko coś takiego zbudujemy, podejmie ona działania mające na celu zabezpieczenie swojego istnienia, nawet kosztem sprzeciwienia się nam. Problem, znany dotychczas ze świata fantastyki naukowej, nie jest wirtualny i mówi o nim otwarcie wiele bystrych głów, w tym Bill Gates i Elon Musk. Trwają również badania nad metodami, które nie dopuściłyby do tak katastrofalnego scenariusza.
Patrz też: etyka

I – inteligencja naturalna

Czyli nasza własna. Jej największą przewagą nad sztuczną – przynajmniej na tym etapie – jest to, że ten sam ludzki hardware i software można wykorzystać do wielu różnych zadań. Niestety, w świecie AI wygląda to zupełnie inaczej. Nawet jeśli AlphaStar, który w tym roku pokonał ludzkiego mistrza w jednej z popularnych gier komputerowych, to nie nadaje się do niczego więcej: nie zagra w szachy ani nawet w warcaby. Więcej, na razie nie jest w stanie grać na dowolnej planszy w grze, w którą wygrał. Ten problem w badaniach nad sztuczną inteligencją nazywa się „ogólną” lub „generalną” sztuczną inteligencją: najbardziej podobną do naszej, która byłaby w stanie bez dostosowań zająć się dowolnym problemem. Zarazem jest to ostateczny cel badań w tej dziedzinie.
Patrz też: StarCraft

J – julia

Jeden z języków programistycznych wykorzystywanych przy kodowaniu sztucznej inteligencji stworzony przez pracowników Massachusetts Institute of Technology i udostępniony na zasadzie otwartej licencji (czemu zawdzięcza swoją rosnącą popularność). Do budowy aplikacji AI wykorzystywanych jest wiele różnych języków, od bardziej egzotycznych, takich jak Haskell czy kolejne iteracje wymyślonego pod koniec lat 50. Lispa (są trudne do opanowania, a przez to specjaliści w nich są nieliczni), przez szerzej stosowane, jak Java czy liczący sobie już prawie 30 lat Python. Wybór właściwego języka przy programowaniu każdej aplikacji to fundamentalna kwestia: od niego zależy, w jaki sposób będą formułowane problemy i jak szybko rozwiązywane. Z tego względu np. niektóre języki nadają się doskonale do manipulacji dużą liczbą małych operacji (jak w bankowości, gdzie wciąż popularny jest sędziwy Fortran), a inne nie.
Patrz też: zatrudnienie

K – komputer ostateczny

W świecie książki Jacka Dukaja „Perfekcyjna niedoskonałość” najszybsza maszyna, jaką można zbudować, biorąc pod uwagę stałe fizyczne danego wszechświata. W obrębie tego uniwersum żaden komputer nie mógłby działać szybciej; byłoby to po prostu fizycznie niemożliwe. Koncept ten przypomina nam jednocześnie, rozwój jak wielu technologii zawieszony jest właśnie na możliwościach naszych procesorów. To postęp w tej dziedzinie umożliwił powstanie komputerów osobistych, bez niego nie byłaby również możliwa rewolucja smartfonów. AI nie jest wyjątkiem; trudno sobie wyobrazić, co moglibyśmy za jej pomocą osiągnąć – nawet z użyciem dzisiejszych technik programistycznych – gdybyśmy dysponowali znacznie szybszymi komputerami.
Patrz też: moc obliczeniowa

L – Leonhard, Gerd

Mieszkający w Szwajcarii futurysta niemieckiego pochodzenia, autor książki „Technologia versus ludzkość”, Leonhard, od dawna postuluje, abyśmy nie czekali, aż technologia nas zaskoczy i zawczasu przemyśleli zmiany, jakie ona ze sobą przyniesie, i się do nich przygotowali. Jego idée fixe to budowa za pomocą nowych osiągnięć technicznych takiej gospodarki (a przez to i społeczeństwa), która będzie służyć wszystkim. Z tego względu Leonhard uczula, abyśmy nie zagubili się w algorytmach, ale przeciwstawiali im „androrytmy” (ludzie algorytmy). Futurysty będzie można posłuchać podczas zbliżającego się kongresu Impact'19 w Krakowie w drugiej połowie maja.

M – McCarthy, John

Twórca pojęcia „sztuczna inteligencja” i jeden z pionierów tej dziedziny, obok Marvina Minsky’ego, Nathaniela Rochestera oraz Claude’a Shannona. Tych czterech naukowców było jednocześnie inicjatorami wydarzenia, któremu przypisuje się symboliczny początek badań nad AI jako odrębną dziedziną wiedzy – tzw. warsztatów w Dartmouth, ośmiotygodniowego spotkania w Dartmouth College, uniwersytecie mieszczącym się w stanie New Hampshire. Latem 1956 r. zjechało tam kilkunastu naukowców, którzy korzystając z przerwy w zajęciach, spotykali się na wydziale matematyki, aby przedyskutować zagadnienia związane z rodzącą się dziedziną. McCarthy przekonał wówczas uczestników konferencji, aby przyjęli dla niej nazwę sztucznej inteligencji.

N – nieuzasadniony optymizm

Pionierzy badań nad sztuczną inteligencją byli święcie przekonani, że rewolucja w tej dziedzinie czai się tuż za rogiem. Już dwa lata po konferencji w Dartmouth przewidywano, że komputer pokona mistrza szachowego w ciągu dekady (ostatecznie zajęło to prawie 40 lat), a pod koniec lat 60. Marvin Minsky przewidywał, że prawdziwą sztuczną inteligencję uda się zbudować w ciągu pokolenia. Dzisiaj już wiemy, że ten optymizm był mocno nieuzasadniony, o czym boleśnie przekonywali się sami badacze. Na przeszkodzie stanął głównie stopień komplikacji zadań i działań, które jako ludzie uznajemy za oczywiste, po przełożeniu ich na język algorytmów. W wielu przypadkach na drodze stanęły ograniczenia technologiczne. Warto o tej lekcji pamiętać, prognozując następną rewolucję technologiczną.
Patrz też: obliczeniowa, moc

O – obliczeniowa, moc

AI wybuchła w ciągu ostatnich kilku lat dzięki rozwojowi technik programistycznych zasilających tę dziedzinę, a także wzrostowi mocy obliczeniowej procesorów. Tak to już jednak jest w IT, że procesory ogólnego przeznaczenia – takie, jakie znajdziemy w naszych komputerach osobistych – nie są tak szybkie jak rozwiązania skrojone na miarę. W związku z tym widzimy wysyp rozwiązań stworzonych z myślą o przetwarzaniu wyłącznie algorytmów AI. Takie procesory własnego projektu w swoich centrach obliczeniowych w 2016 r. wprowadził Google (wykorzystują je programy firmy DeepMind); pod koniec roku do swojej oferty własny układ wprowadzi także Tesla (ten skierowany będzie oczywiście na autonomiczną jazdę). Gorący rynek zwietrzyli również producenci kart graficznych, których hardware doskonale nadaje się do wykonywania obliczeń związanych z AI.

P – pojazdy autonomiczne

Rozpoznawanie znaków drogowych? Obserwacja toru jazdy? Wykrywanie zagrożeń? Autonomiczna jazda brzmi jak zadanie w sam raz dla algorytmów AI. Po początkowej fali optymizmu i setkach milionów dolarów wydanych na przejęcia do luminarzy przemysłu motoryzacyjnego dociera jednak, że pełna autonomia wcale nie jest tak blisko, jak mogłoby się wydawać. John Krafcik, prezes należącego do Google’a Waymo, powiedział niedawno, że „autonomia jazdy zawsze będzie miała pewne ograniczenia”. Coraz więcej słyszy się więc o zastosowaniach cząstkowych, skierowanych do konkretnych branż i – co jeszcze ważniejsze – przeznaczonych wyłącznie dla konkretnych obszarów (np. fragmentów miasta). Przykładem również jest Waymo, które od 2017 r. testuje swoje pojazdy w tej samej części Phoenix w stanie Arizona.

R – rozpoznawanie mowy

Jedno z zastosowań dla oprogramowania wykorzystującego algorytmy AI, integralny element tzw. cyfrowych asystentów jak Siri firmy Apple czy Cortana Microsoftu. Komputery zaznajamiany z naszym językiem od dawna: nauczyliśmy je rozszyfrowywać nasze pismo, w związku z czym głos był kolejnym, logicznym etapem tej podróży. Rozpoznawanie głosu okazało się znacznie trudniejszym zadaniem, niż podejrzewano: język mówiony rządzi się swoimi prawami, w tym problemami z emisją głosu, wymową i zakłóceniami z otoczenia, nie wspominając już o zjawiskach naturalnych dla języka jak zanikanie głosek czy fakt, że każdy z nas ma inny głos. Do tego w mowie znacznie elastyczniej podchodzimy do kwestii składni. W efekcie cyfrowi asystenci działają, ale nie tak szybko i sprawnie, jak przyzwyczaiły nas do tego filmy fantastyczno-naukowe, a do tego polegają w swoim działaniu na chmurze obliczeniowej, czyli muszą być podłączeni do telefonu.

S – StarCraft

Niezwykle popularna gra komputerowa zaliczana do gatunku strategii czasu rzeczywistego, która stała się jednym z fundamentów e-sportu. Jednocześnie kolejny łakomy kąsek dla zajmujących się AI badaczy chcących zaprezentować możliwości tej technologii. StarCraft jest o wiele bardziej skomplikowany niż Go, mniej więcej o 100 rzędów wartości (nie 100 razy, tylko „1” ze stu zerami). Naukowcy z firmy DeepMind dostosowali do wymogów gry swoje oprogramowanie, które nazwali tym razem AlphaStar. Najpierw pokazali mu, jak grają najlepsi mistrzowie ludzcy, a następnie kazali grać samemu ze sobą. W ten sposób program nabył ekwiwalent 200 lat grania non-stop, co opłaciło się w tym roku, kiedy wynikiem 5:0 pokonał pierwszego ludzkiego mistrza. Ofiarą AI padł Grzegorz Komincz, 25-latek z Polski.
Patrz też: Go

Ś – świadomość

Właściwość ludzi, z którą związana jest umiejętność myślenia, rozumienia i odczuwania, a zarazem jedno z najpoważniejszych pytań w dziedzinie AI: czy będą ją posiadać również inteligentne maszyny? A jeśli tak, to jak to sprawdzić – i jakie to w związku z tym niesie dla nas konsekwencje? W literaturze fantastyczno-naukowej świadomość często jest własnością emergentną, to znaczy pojawiającą się spontanicznie po przekroczeniu pewnego progu: w przypadku Skynetu z filmu „Terminator” była to odpowiednia moc obliczeniowa. Niektórzy filozofowie są przekonani, że za kryterium świadomości nie wystarczy to, że program jest w stanie wykonywać pewne operacje w sensowny sposób. Patrz też: chiński pokój

T – test Turinga

Opracowany w 1950 r. przez brytyjskiego matematyka i filozofa sprawdzian umiejętności inteligentnego działania maszyny w stopniu nieodróżnialnym od ludzkiego. W teście bierze udział dwóch ludzi i jeden komputer. Wszyscy są od siebie oddzieleni i mogą się komunikować jedynie tekstowo. Jeden z ludzi jest oceniającym i wie, że naprzeciw siebie ma człowieka i maszynę, ale nie wie, które z nich jest którym. Jeśli podczas rozmowy nie będzie w stanie ich od siebie odróżnić, przyjmuje się, że maszyna zdała test. Turing zaproponował swój test, szukając odpowiedzi na pytanie, w jaki sposób można sprawdzić, czy maszyny myślą. Trzy dekady później związek myślenia i przetwarzania języka skrytykował filozof John Searle.
Patrz też: chiński pokój

U – uczenie maszynowe

Jedna z technik sztucznej inteligencji, która stara się naśladować proces uczenia się u ludzi. Generalnie polega na przedstawieniu programowi wystarczająco dużej ilości instruktażowych danych tak, aby ten na ich podstawie mógł przeprowadzać samodzielne wnioskowania. To właśnie dzieje się, kiedy w sieci chcemy znaleźć podobny obraz: program analizuje najważniejsze cechy, a potem stara się znaleźć inne pliki graficzne, które dysponują podobnymi. W ciągu ostatnich kilku lat dziedzina ta zanotowała poważny postęp dzięki technice zwanej „głębokim uczeniem”, której możliwości najszerzej rozpropagowali uczeni z brytyjskiej firmy DeepMind.
Patrz też: dane, Go, StarCraft

W – wyścig

Sztuczna inteligencja niesie ze sobą obietnice takich profitów gospodarczych, że stała się obiektem analiz rządowych, a międzynarodowa konkurencja w tej dziedzinie traktowana jest bardzo poważnie. Prym w tej dziedzinie dzięki silnemu biznesowi, wiodą oczywiście Amerykanie. SI znajdziemy także praktycznie w każdym strategicznym dokumencie rządowym Chin. W ogonie jak zwykle jest Europa, ale nie można powiedzieć, że na Starym Kontynencie brakuje świadomości. W 2017 r. grupa czołowych europejskich badaczy w dziedzinie AI wystosowała list otwarty, w którym wezwała do stworzenia topowej placówki badawczej poświęconej sztucznej inteligencji na wzór CERN-u (który zajmuje się badaniami nad fizyką cząstek). Uczeni skupieni w ELLIS (European Laboratory for Learning and Intelligent Systems; Europejskie Laboratorium na rzecz Uczenia się i Inteligentnych Systemów) ponowili swój apel w kwietniu tego roku po spotkaniu w Badenii-Wirtembergii. Nasz rząd swoją strategię AI przedstawi podczas Impactu'19 w Krakowie.

Z – zatrudnienie

Jeśli jest jedna rzecz, o którą nie muszą martwić się specjaliści od AI, to brak pracy. Jest ich niewielu, bo jeszcze do niedawna nie było to tak gorące pole badawcze jak teraz. Co więcej, nowych nie jest łatwo wykształcić, ponieważ ta gałąź programowania wymaga doskonałej znajomości matematyki. Biorąc pod uwagę, że wszystkie największe firmy technologiczne mają własne działy zajmujące się AI, panuje tutaj prawdziwy rynek pracy pracownika. Po drugiej stronie Atlantyku ludzie z niewielkim doświadczeniem mogą liczyć na pensje w wysokości 300–500 tys. dol. rocznie (1,15–1,92 mln zł) włącznie z dodatkami i opcjami na akcje. Podobnie jest w Europie: wydatki na wynagrodzenia w DeepMind, londyńskiej firmie AI wykupionej przez Google'a, wyniosły w 2016 r. 138 mln dol. Ponieważ pracuje tam 400 osób, średnio każda z nich zarabia 345 tys. dol. (1,32 mln zł).

>>> Czytaj także: Czy „Człowiek Plus” to utopia? Transhumanizm może być kolejnym etapem ewolucji