Mysl je slepenec improvizací

„Kdo to byl, ten Marvin Minsky?“ zeptali se mě, když jsem před týdnem psal pro Lidovky nekrolog velkého vědce a ruka se mi třásla odpovědností před tím úkolem. „Jeden ze zakladatelů umělé inteligence,“ řekl jsem. „No dobře, ale co konkrétního udělal? Co vynalezl, objevil, postavil?“ To není zrovna v tomhle případě jednoduchá otázka. Pokus o odpověď předkládám v tomto článku, kde dokonce není profesor Minsky ani hlavní postavou. Vysvětlit jeho dílo nutně znamená vysvětlit daleko víc. Ne celou problematiku AI, to ani náhodou! Ale kousek ano.

Jako mnoho jiných věcí, i umělá inteligence vznikla dřív, než se tak jmenovala. Za zlomový moment se pokládá rok 1943, kdy profesor Warren McCulloch se svým supertalentovaným studentem Walterem Pittsem na chicagské univerzitě navrhli matematický model nervové buňky — neuronu. Jsou na něm pozoruhodné tři věci. Za prvé, je tak jednoduchý, že když se s ním seznámíte poprvé, máte nevyhnutelně pocit, že vám něco podstatného uniká — tak prosté to přece nemůže být. Za druhé, vychází z dobových představ o fungování skutečného neuronu. Ty se sice časem zpřesnily, ale model nadále dobře koresponduje s novými poznatky, je tedy víceméně „biologický“. Za třetí, používá se dodnes, je stavebním prvkem i těch nejmodernějších neuronových sítí. Jediné, co na něm zastaralo, je název: v padesátých letech jej nazvali perceptron. Tohle slovo postupem času získalo špatnou pověst, o což se významně zasloužil právě Marvin Minsky (hle: první odpověď na otázku, co že to vlastně dokázal!), ale to předbíháme.

Perceptron

Perceptron (v pozdější modifikaci Franka Rosenblatta, která je dnes pokládána za standardní) se dá popsat jednoduchým schématem (viz obrázek). Vstupují do něj signály x a y. Každý z nich se před vstupem násobí číselnou konstantou – vahou (někdy se jí říká synaptická váha). Na našem obrázku tedy x násobíme vahou W1, y vahou W2. Signály vynásobené vahami se sečtou a porovnají s prahovou hodnotou b (anglicky buď threshold value, nebo bias value, oba termíny mají v téhle souvislosti stejný význam). Když je součet vážených signálů větší než b, perceptron sepne (biologové mají termín reaguje vzruchem, anglicky se používá sloveso fire). Když součet signálů nepřesáhne b, nestane se nic. Neurony fungují binárně; všechno nebo nic, jednička nebo nula, zapnuto nebo vypnuto.

K tomu je potřeba dodat už jen dvě věci. Výstup nemusí nebo může mít také váhu, výstupní hodnota se tedy může upravit na jiné číslo. A vstupů může být více než dva.

Perceptron [1]. Dejme tomu, že x = 2, y = 1, Wx = 2, Wy = –2 a b = 1. Vážený součet vstupů je x.Wx + y.Wy = 2.2 – 1.2 = 2. To je větší než jedna, takže perceptron v tomto případě sepne, na jeho výstupu bude jednička.

Jelikož má perceptron právě dvě možné výstupní hodnoty, můžeme ho chápat jako věc, která na nějakou otázku – formulovanou pomocí vstupů, vah a prahové hodnoty – odpovídá buď ano, nebo ne. Takové „věci“ se říká klasifikátor. Klasifikuje všechny možné kombinace vstupů do dvou skupin, rozděluje prostor na dvě oblasti.

Jak zařídíme, aby perceptron řešil nějakou praktickou úlohu? Jsou dvě možnosti, první triviální, druhá zajímavá. Triviální spočívá v tom, že úlohu vyřešíme sami, vypočítáme nebo úvahou určíme váhy signálů a na perceptronu je nastavíme. Dejme tomu, že signálem x je počet nohou zvířete, signálem y počet jeho křídel, práh b = 2 a chceme, aby perceptron uměl rozeznat kočku od slepice. Jednoduchou úvahou (anebo exaktním řešením dvou nerovnic) dojdeme k tomu, že Wx musí být větší než 0,5 a Wy musí být současně větší než 1 – Wx. Zadání tedy vyhovují například Wx = 2, Wy = –1. Anebo Wx = 0,6, Wx = 0,1. A nekonečně mnoho dalších kombinací.

Tento postup však není zajímavý, protože všechnu duševní práci musí udělat člověk sám a jsme tudíž omezeni jen na to, co analyticky vyřešit dovedeme. (V případě jediného perceptronu dovedeme, pravda, analyticky vyřešit všechno, neboť jde o tzv. lineární separaci. Složitější to začne být, když je perceptronů víc.) Existuje však druhá možnost: perceptron se může nastavit sám.

Učení

Přesněji řečeno, skoro sám. Kevin Warwick [1] uvádí následující příklad: chceme, aby perceptron realizoval logickou funkci AND. Ta má dva vstupy a jeden výstup. Všechny tři signály jsou binární, tedy nulajedničkové. Výstup je roven jedničce tehdy, když jsou oba vstupy rovny jedničce. Ve všech ostatních případech je na výstupu nula. Příklad je řešitelný podobnou úvahou jako problém kočka versus slepice, ale půjdeme na to jinak. Dejme tomu, že prahová hodnota b = 3 (ta bývá obvykle pevně dána a souvisí s přesností měření a věrohodností dat). Váhy budeme nastavovat metodou pokusu a omylu. Napřed nastavíme obě váhy rovny jedné. Když je pak na vstupu x = 1 a y = 1, bude na výstupu 2, což je méně než prahová hodnota. Perceptron nesepne, přestože by měl, nefunguje tedy správně. Odhad vah je třeba změnit. Na to se dá jít různými způsoby, jedním z nejjednodušších je ten, který ve svém příkladu uvádí Warwick: spočteme velikost chyby (na výstupu měly být nejméně 3, byly 2, chyba je tedy rovna jedné). Velikostí chyby vynásobíme hodnoty vstupů a výsledek přičteme k původní váze toho kterého vstupu, čímž dostaneme novou. Aplikací tohoto postupu získáme nové váhy 2 a 2, ty dají na výstupu čtyřku, což je více než 3. Pro danou kombinaci vstupních hodnot je to správný výsledek.

Tento postup se musí nyní zopakovat pro všechny myslitelné kombinace vstupních hodnot a upravovat váhy tak dlouho, dokud nedávají správné výsledky vždy, nebo aspoň skoro vždy. (Jsou na to četné triky.) Popsanému procesu se celkem nepřekvapivě říká učení, v tomto případě konkrétně učení s učitelem (supervised learning), protože k dispozici je vševědoucí osoba, která vždy ví, který výsledek je správný.

Nejde o jedinou možnou techniku, jak se stroj může učit, spíš o velmi primitivní příklad. A neuronové sítě (složené z prvků víceméně odpovídajících popsanému perceptronu) nejsou jedinou informační architekturou, která je schopna učit se – oblast strojového učení je dnes velmi široká. Jde ale o důraznou připomínku, že stroje nemusí mít své pracovní postupy předepsány jednou provždy, že nejsou omezeny na mechanické opakování. Své chování mohou měnit a rozvíjet na základě zkušeností. Často až k nepoznání. Kdo tohle nepřijme, nemůže nikdy pochopit umělou inteligenci.

Duch doby. Minsky poprvé

Marvin Minsky (1927-2016) se narodil v New Yorku. Jeho otec byl úspěšným lékařem, matka levicovou sionistickou aktivistkou. (Člověka napadne, že se spolu nenudili.) Po válce studoval matematiku na Harvardu a v Princetonu. Tam byl jeho kolegou v postgraduálním studiu John McCarthy. Právě ti dva si společně položili otázku, zda mohou stroje myslet.

 Jako dítě mě nesmírně přitahovalo zjišťovat, jak věci fungují, a rozebíral jsem veškeré dostupné přístroje. Vyrůstal jsem v New Yorku. Otec byl oftalmolog, oční chirurg, a náš dům byl stále plný zajímavých přátel a návštěvníků – vědců, umělců, hudebníků a spisovatelů. Četl jsem různé knihy, ale ty, které jsem miloval nejvíce, byly o matematice, chemii, fyzice a biologii. Nikdy mě příliš nelákalo mařit čas sportem, politikou, romány či tlacháním a většina mých přátel měla podobné zájmy. Především mě fascinovala díla prvních mistrů science fiction a četl jsem všechny knihy Julesa Verna, H. G. Wellse a Huga Gernsbacka. Později jsem objevil časopisy jako Astounding Science Fiction a hltal jsem díla průkopníků jako Isaac Asimov, Robert Heinlein, Lester del Rey, Arthur C. Clarke, Harry Harrison, Frederick Pohl, Theodore Sturgeon a také díla velkého nakladatele a spisovatele Johna Campbella. Nejprve mi tito myslitelé připadali jako mytičtí hrdinové srovnatelní s Galileem, Darwinem, Pasteurem a Freudem. Jisty rozdíl byl v tom, že byli stále naživu, v pozdějších letech jsem se s nimi setkal a stali se mými dobrými přáteli; tak tomu bylo i s jejich následovníky - Gregorym Bendfordem, Davidem Brinem a Vernorem Vingem, kteří jsou rovněž mými vědeckými kolegy. Jaká hluboká zkušenost spolupracovat s tak úžasnými fantasty!

Samozřejmě jsem četl také hodně technické literatury. Ovšem kromě science fiction mě četba jiných běžných knih příliš nebaví. Připadá mi, že jsou všechny konvenční a dokola se opakující. Podle mne jsou autoři science fiction nejdůležitějšími originálními mysliteli naší kultury, zatímco tradiční spisovatelé jako by „uvízli“; stále opisují tytéž zápletky a náměty, znovu zpracovávají myšlenky, které se objevily už v Sofoklovi či Aristofanovi, znovu přetřásají tytéž postřehy o lidských konfliktech, vztazích, milostných poblouzněních a zradách. Klasická literatura znovu a znovu přehrává tutéž starou písničku, zatímco autoři science fiction se snaží představit si, co by se stalo, kdyby naše technologie a společnost - a také naše mysl – hrály dohromady jinak.

Marvin Minsky: Chytré stroje. In: John Brockman: Třetí kultura, Academia Praha 2008, přeložili Anton Markoš a Ondřej Novák. Originální text vyšel v USA v roce 1995. (Z téhož textu jsou i všechny ostatní Minskyho citace v článku.)

 V padesátých letech se otázka myslících strojů v angloamerickém prostředí vysloveně vznášela ve vzduchu. Alan Turing formuloval Turingův test, podle nějž máme přiznat inteligenci takovému stroji, který dokáže v rozhovoru úspěšně předstírat, že je člověkem. Isaac Asimov – který byl nejen spisovatelem sci-fi, ale také člověkem se solidním vědeckým vzděláním – psal svou Nadaci a příběhy o robotech. Myslící stroje se zdály být na dosah nejen specialistům, ale i člověku z ulice, který si cestou na nadzemku kupoval ve stánku svůj ilustrovaný časopis.

Dnes se zdá být neuvěřitelně troufalé, že s tehdejší primitivní výpočetní technikou někdo pomýšlel na tak vysoký cíl. Jistý údiv nad vlastní smělostí lze vyčíst i ze vzpomínek tehdejších hlavních protagonistů. Vysvětlením patrně je duch doby. Na úsvitu padesátých let založil Norbert Wiener kybernetiku, první systematickou vědu o obecných problémech řízení systémů. Von Neumann s Morgensternem o několik let dříve vytvořili teorii her. B. F. Skinner a další radikální behavioristé aplikovali podobné principy na lidské chování.

Technický pokrok byl plně ztotožňován – možná naposledy v dějinách – se společenským prospěchem. Tvrdě se pracovalo na chystaných vesmírných letech. To vše platilo nejen na Západě: i naše Poručíme větru, dešti! a sovětské sny o obrácení toku sibiřských veletoků na jih řízenými jadernými výbuchy patří do stejného šuplíku. Někde pod tím už tikala časovaná bomba Věku Vodnáře, vietnamské války a roku 1968, ale vybuchnout ještě nějakou dobu neměla. Padesátá léta chodila v bílé košili, úhledně přistřižená, na nose měla tlusté brýle a v kapse logaritmické pravítko. Názor, že svět, život, ekonomie a společnost jsou plně popsatelné a tím pádem i řiditelné, v zásadě mechanistické, dosáhl dosavadního vrcholu. Od té doby to s ním jde trochu s kopce.

Matematický model neuronu sice vymysleli McCulloch a Pitts, ale právě Marvin Minsky spolu s Deanem Edmondsem byl první, kdo na jeho základě postavil a zprovoznil fyzické zařízení. Roku 1954 uvedl do chodu přístroj nazvaný SNARC (Stochastic Neural Analog Reinforcement Calculator), který dnes pokládáme za první neuronovou síť na světě. SNARC, tvořený čtyřmi sty elektronkami, dokázal simulovat průchod jednoduchým bludištěm. Opakováním se učil – podle principu popsaného výše — a posléze dosáhl při řešení bludišť schopností na úrovni laboratorní myši. Což vypadalo jako závratný úspěch.

Dartmouth

V 1956 se na Dartmouth College v New Hampshire sešla malá elitní konference, o níž se píše v každé učebnici computer science, ač se tam nevyřešilo nic převratného. Význam má ze tří důvodů. Za prvé, vznikl tam sám pojem umělá inteligence, ustavil se tedy nový vědní obor. Za druhé, seznam účastníků je v podstatě výčtem celé zakladatelské generace. Za třetí, zavládl tam duch nezřízeného optimismu, na jehož křídlech AI doletěla vysoko, převysoko. Na chvíli.

V Dartmouthu byli přítomni mimo jiné John McCarthy, Claude Shannon, Marvin Minsky, Herbert Simon, Allen Newell, Oliver Selfridge, Arthur Samuel a Nathaniel Rochester. Nejznámější jsou dnes Shannon a Simon, první jako tvůrce matematické teorie informace, druhý jako nositel Nobelovy ceny a za ekonomii a autor slavného výroku, že počítače jsou všude kromě statistik produktivity práce. McCarthy a Minsky poté založili pracoviště umělé inteligence na MIT, Simon a Newell na Carnegie Mellon University. Rochester se stal hlavním architektem počítačové řady IBM 700. Samuel roku 1959 napsal program, který se dovedl zkušeností zdokonalovat při hraní dámy – první toho druhu na světě. Dartmouthská konference bylo místo v času a prostoru, odkud se umělá inteligence začala šířit do světa.

Mimochodem, ten, kdo by si zasloužil být na takové zakladatelské konferenci asi ze všech nejvíc, tam nebyl, protože byl už dva roky mrtev: Alan Turing. Ne až tak nutně kvůli slavnému Turingovu testu. Ten byl a je spíš filozofickou hříčkou a společenskou hrou než vědeckým průlomem. Daleko důležitější je Turingův stroj, tedy ucelená matematická teorie počítače a spočitatelnosti. Ta sehrála velkou roli v té části umělé inteligence, která se od počátku zaměřila na tzv. řešení problémů (to je v tomto případě přesně definovaný technický termín). K tomu by měl Turing mnoho co říci, kdyby se druhé půlky padesátých let dožil. Spáchal sebevraždu v jednačtyřiceti, dodnes strašidelná připomínka netolerance a omezenosti mravních pokrytců.

Klasická AI

Další rozvoj neuronových sítí postupoval pomalu, zejména kvůli hardwarovým omezením, ať už vědci stavěli specializovaná zařízení jako Minsky, nebo psali programy simulující neuronovou síť na normálním počítači.

Hlavní směr výzkumu se proto začal otáčet jinam: k abstraktním symbolickým manipulacím. Převládl názor, že to, co je potřeba zvládnout především, je formalizace logiky. Jinými slovy, když dokáže program luštit hlavolamy, poradí si se vším ostatním snadno. Problémy umělé inteligence se tak začaly zvolna redukovat na automatizované dokazování matematických vět a jiné vysoce abstraktní problémy. Těmto systémům a tomuto směru výzkumu se říkalo říká řešení problémů (problém solving).

Důvodů takto úzkého zaměření bylo víc. Lze se obávat, že mezi nimi nechybělo i něco na způsob „podle sebe soudím tebe“ – mezi výzkumníky bylo nezdravě vysoké procento geeků, profesionálních luštitelů hádanek, kteří takové schopnosti víceméně ztotožňovali s inteligencí jako celkem.

Nejdůležitějším směrem v dalším výzkumu (šlo o pokusy stanovit pevné heuristické principy pro promyšlené sériové  řešení problémů) se vydali Allen Newell, J. C. Shaw a Herbert Simon. V roce 1956 vyvinuli systém, který dovedl potvrdit téměř všechny Russellovy a Whiteheadovy věty o oblasti logiky zvané „výroková logika“. Já sám jsem objevil malý soubor pravidel, která byla schopna dokázat mnohé Eukleidovy věty. Ve stejném období můj kamarád z vysokoškolských studii, John McCarthy, pokročil v hledání logických formulací pro různé pojmy běžného usuzování. (Minsky) 

Především však šlo o úlohy, kde se dal čekat rychlý postup vpřed. Předpovědi byly velmi optimistické. Simon s Newellem roku 1958 napsali, že do deseti let: bude počítač mistrem světa v šachu (splnilo se roku 1997); objeví a dokáže významný matematický teorém (částečně se splnilo roku 1976, nejde však o objev teorému, jen o jeho důkaz, navíc způsobem, který matematici nedovedou nezávisle ověřit a jsou z něj pramálo nadšeni); že bude skládat hodnotnou hudbu (nesplněno); a že většina psychologických teorií bude mít formu počítačových programů (nesplněno). Právě ta poslední předpověď je pro tehdejší dobu velmi typická. Za samozřejmý cíl umělé inteligence se považovalo modelování lidského myšlení, jeho replikace. A základem veškerého myšlení se zdál být logický úsudek.

Symbolický směr v AI měl k dispozici velice solidní teoretický základ, který před válkou vybudovali Alan Turing a Alonzo Church. Na Churchův tzv. lambda kalkul navázaly funkcionální programovací jazyky, jak klasický Lisp (který vytvořil John McCarthy roku 1958), tak ty nejmodernější – Erlang a Haskell. Matematická abstrakce Turingova stroje pak dala vzniknout počítači jako takovému a má stěžejní místo v teorii programování a algoritmů. Zdálo se být přirozené pokračovat v tak dobře započaté cestě.

Velmi brzy se projevil nedostatkem, který zpočátku nikdo nepokládal za závažný – spíše za žádoucí nasměrování dalšího úsilí. Samy symbolické manipulace a logické operace totiž nemohly stačit k řešení žádného praktického problému. Aby AI systémy mohly mít vztah k reálnému světu, třeba velmi zjednodušenému, potřebovaly disponovat znalostmi, fakty. Tak vznikly první expertní systémy.

Expertní systém lze bez velkého zjednodušení popsat jako soubor pravidel zapsaných ve formě „jestliže něco, pak něco“ (implikací) plus soubor metapravidel určujících, jak s těmito popisnými pravidly zacházet (například když se dvě ocitnou v konfliktu). Tedy například

IF černý kouř z výfuku THEN příliš bohatá směs

IF (bílý kouř z výfuku AND po chvíli zmizí) THEN kondenzovaná voda ve výfuku

Dejte takových pravidel dohromady pár tisíc a máte kompletní diagnostiku auta odpovídající znalostem a zkušenostem dobrého mechanika. (Právě diagnostika, ať lékařská, nebo technických závad, byla a je tradičním polem nasazení expertních systémů. Experta nemusíte mít vždy po ruce, jeho služby mohou být drahé a kvalifikovaný úsudek mu zabere hodně času. Počítač tohle všechno eliminuje.) Velkou výhodou je to, že expertní systémy vyhovují pro popis úloh z reálného světa, lze na nich demonstrovat užitečnost AI (a rozdíl od „řešení problémů“). Dají se vylepšovat, dá se do nich zahrnout fuzzy logika umožňující zpracovat neurčité informace („trochu“, „hodně“, „občas“…)

Sigmund Freud už před sto lety kladl důraz na důležitost „negativní zkušenosti" - vědět, co nemám dělat – a tuto stránku počítačoví odborníci a programátoři naprosto ignorují. Freud hovořil o cenzorech vědomí a dalších mechanismech, které nám zabraňují dělat věci, jimž jsme se naučili vyhýbat. Domnívám se, že takové systémy se vyvinuly v našem mozku a že typické mozkové centrum je od narození vybaveno několika odlišnými mechanismy učení, z nichž některé akumulují negativní vědomosti. Tudíž jedna část akumuluje znalost, kdy určitou metodu aktivovat, další se učí konstruovat „potlačovatele“ či „cenzory“, jež mohou jejímu užití bránit, a další se učí, co dělat, když mezi dvěma nebo více metodami dojde ke konfliktu. (Minsky)

Hlavní potíže s expertními systémy jsou dvě a druhá z nich byla v padesátých a šedesátých letech kritická. První a přetrvávající spočívá v tom, že je obtížné a drahé shromáždit a verifikovat výchozí databázi znalostí. S tím se ale dá žít, protože jde o jednorázovou činnost. Druhý problém souvisí s výkonem počítačů. Čím je databáze obsáhlejší, tím více kombinací pravidel připadá v úvahu. Procházet celý strom možností nejde, protože narazíme na tzv. kombinatorickou explozi (viz dále). Kvalita expertního systému pak stojí a padá s tím, jak dobré zjednodušující triky vymyslíme: kterých cest se zbavit, čím se nezabývat, co zjednodušit. Pochopitelně za cenu rizika, že se dopustíme vážných chyb. V zásadě jde o to, jak modelovat intuici. Člověk také neprochází všechny možnosti, když uvažuje o problému; naprostou většinu z nich předem, nevědomky a velmi rychle eliminuje jako nesmysly. Tohle se při projektování AI ukázalo jako naprosto zásadní a velmi obtížný problém.

Krize

Na konci šedesátých let bylo otrháno ze stromu AI veškeré nízko visící ovoce. A nikde žádný žebřík: buď chyběla teorie, anebo výpočetní výkon potřebný k realizaci toho, co se teoreticky vymyslet dalo. Veřejnost, politici a finančníci ztráceli trpělivost. Inteligentní roboti pobíhali v každé sci-fi povídce, Asimovovy tři zákony robotiky znal každý kluk, z dialogů Dave Bowmana s počítačem HAL 9000 ve filmu 2001: A Space Odyssey mrazilo v zádech – a realita nikde.

Marvin Minsky se Seymourem Papertem roku 1969 v knize Perceptrons ukázali definitivní meze možností tehdejších neuronových sítí. V podstatě řekli, že práce, které se po patnáct let věnovali jedni z nejbystřejších lidí světa – včetně nich dvou – vede nevyhnutelně do slepé uličky, protože neuronové sítě nedovedou nic významného (to byla tehdy víceméně pravda) a nikdy to umět nebudou (to pravda nebyla, podařilo se najít odlišné přístupy, dnes patří neuronové sítě k nejúspěšnějším oblastem AI).

Tu knihu jim mnozí kolegové dlouho vyčítali. Ale jedna kniha krizi nedělá. Obor byl v hlubokých potížích z více důvodů a většina z nich byla naprosto objektivní.

První a základní: chyběl výpočetní výkon. Podle Mooreova zákona se zdvojnásobí výkon základních polovodičových prvků jednou za osmnáct měsíců. Od roku 1970 nás tedy dnes dělí třicet zdvojnásobení. Naše dnešní počítače jsou miliardkrát výkonnější než tehdejší.

Za druhé, hodně praktických problémů v AI vedlo k algoritmům exponenciální složitosti neboli k tzv. kombinatorické explozi. V případě metod, jejichž výpočetní čas roste s objemem dat exponenciálně, je už vlastně jedno, jestli máme pomalý nebo rychlý počítač, po několika krocích přestanou stačit oba dva i všechny další, které ještě nebyly vymyšleny. Problémy exponenciální složitosti řešit v praxi neumíme, i když principiálně mohou být jednoduché. Exponenciální nebo faktoriálovou složitost v běžných úlohách řešených počítačem zas tak často nepotkáme, když jde však o AI, je naopak víceméně typická.

Za třetí, ukázalo se, jak nesmírně obtížné je najít vhodnou vnitřní strojovou reprezentaci údajů o reálném světě – znalostí, faktů – aby se s nimi dalo pracovat, vybudovat nad nimi jakousi „aritmetiku“, která by umožnila jednoduše odvodit, že když v noci pršelo, budou ráno ulice mokré apod. Symbolické manipulace šly vědcům (a programům napsaným v jazyce LISP) dobře, ale chyběly jim prakticky použitelné datové struktury. Jinými slovy: expertní systémy se dobře osvědčily tam, kde šlo o velmi úzký výsek reality, třeba při vyhodnocování spektrografie nebo v diagnostice některých konkrétních typů nádorů. V obecných úlohách, kde kontextem je celý reálný svět, však jsou k ničemu. Expertní systém neuměl (a v podstatě stále neumí) zařídit, aby se robot bezchybně, účelně a rychle pohyboval po budově, jejíž detailní plán nemá předem k dispozici.

Kromě toho vyšlo najevo, že pro účely praktických úloh AI, zejména takových, které zahrnují roboty pohybující se v prostředí, nestačí aparát běžné formální logiky. To je hodně technická otázka, souvisí s tím, že vztah mezi příčinou a následkem se ve složitém prostředí nedá formalizovat jednoduchými prostředky. Ve výrokové logice (prvního řádu, abychom byli přesní) se nemůže stát, že nová informace zneplatní implikaci. Když A ⊨ B, pak také (A ⋀ C) ⊨ B pro jakékoli výroky A, B, C. Matematicky je pravda, že když jednou platí „jestliže strčím do míče, pak se míč pohne“, pak musí platit „jestliže strčím do míče A zároveň se stane cokoli jiného, pak se míč pohne“. Jenže v realitě to pravda není – i malé dítě vymyslí protipříklady. (Míč někdo přidrží.) Potíž je v tom, že robotovi nikdy nepopsujeme celou realitu, ale jen relevantní část (technický termín je frame). Když do situace zasáhne něco, co do popsané části světa nepatří (a to nemůžeme vyloučit, má-li AI skutečně zacházet s realitou), pak použitá logika selže. Přidání dalšího pravidla řeší konkrétní situaci, ale principiální problém zůstává. Odpovědí jsou „jiné logiky“ a obtížné implementace.

Došli jsme k názoru, že aby takový systém byl důmyslnější a spolehlivější - jinými slovy mnohem realističtější –, potřebujeme pochopit, jak to lidská mysl dělá, že se jen málokdy zasekne. Jaké jsou rozdíly mezi lidským myšlením a tím, co dělají dnešní počítače? Nejvíc mě zaráží rozdíl, jak je typicky počítačový program nadobro paralyzován jakoukoli chybičkou, zatímco člověk při nezdaru dokáže najít jinou cestu postupu. Jen málokdy býváme závislí jen na jediné metodě. Obvykle známe několik odlišných způsobů, Jak něco udělat, takže když jeden z nich neuspěje, vždy máme v záloze další. Například své přátele nerozpoznáváme jenom podle tváře, ale také podle hlasu, postoje, chůze či barvy vlasů. Když máme po ruce všechny tyto rozdíly, málokdy potřebujeme zdokonalovat tyto metody na sto procent. Místo toho se učíme rozpoznávat situace, v nichž každá metoda funguje obvykle, a také ty, kdy nejspíš fungovat nebude. A pokud selžou všechny, hledáme zcela nový přístup. (Minsky)

Žádný z těchto problémů nebyl sám o sobě zničující, ale jejich kombinace ve spojení s frustrací z nenaplněných předpovědí působila jako mocná brzda. Nastala „AI zima“, jak se tomu říkalo. Vyschly vládní dotace na výzkum. Umělá inteligence se ocitla na vedlejší koleji. Vývoj v technologickém světě na dlouhou dobu zamířil jinam, k osobním počítačům a internetu. Namísto ústředních mozků lidstva a všemocných robotů se soustředil na praktické pomůcky pro běžnou práci – a později na komerční využití.

Filozofové

Nedá se říci, že se v sedmdesátých a osmdesátých letech vývoj AI úplně zastavil. Spíš prostě přestalo jít o módní obor: málo grantů, málo profesur, velmi málo komerčních aplikací. Nekoukala z toho ani sláva, ani peníze. Hlavní slovo na nějakou dobu překvapivě převzali filozofové jako John Searle a Jerry Fodor, kteří svými úvahami všeobecnou depresi ještě prohloubili.

Searle je autorem známého rozlišení mezi tzv. slabou a silnou umělou inteligencí. Pokud stroje (nebo programy) jednají tak, že se navenek jeví jako inteligentní, jde o slabou AI. Abychom mohli mluvit o silné AI, musí se shodovat s člověkem nejen vnější podoba a výsledky procesů myšlení, ale také jejich vnitřní mechanismus. Počítač by měl co nejvěrněji napodobit všechny aspekty činnosti lidského mozku.

Poté, co Searle takto rozlišil dva typy AI, navrhl elegantní myšlenkový pokus, tzv. podobenství o čínském pokoji, jímž chtěl ukázat nemožnost silné AI. Máme místnost - „čínský pokoj“, do níž lidé škvírou ve dveřích vkládají dotazy psané čínsky. Osoba v pokoji neumí čínsky ani slovo, ale má k dispozici slovníky a psaná pravidla, pomoci nichž vždy dokáže z jednoho řetězce znaků – z otázky – odvodit druhý řetězec – odpověď – zapsat ji na papír a podat ven. Z hlediska vnějšího pozorovatele se čínský pokoj chová jako inteligentní mluvčí čínštiny. Z hlediska vnitřní struktury není v pokoji nic, co by čínsky umělo. Manipulace se symboly, dovozuje Searle, nemá nic společného s porozuměním, vědomím a myšlením. Tudíž silná AI neexistuje.

Searlovo rozlišení slabé a silné AI mělo velký vliv. Dodnes se uvádí ve standardních učebnicích. Když se nad ním člověk zamyslí, může si však koneckonců říci: no a co? Searle má samozřejmě pravdu v tom, že dnes neumíme postavit stroj věrně napodobující lidský mozek – už jen z toho důvodu, že mechanismu činnosti mozku v dostatečné míře nerozumíme. Je klidně možné, že to nebudeme umět nikdy. Nijak nám to však nebrání stavět stroje, které jsou funkčně inteligentní. Ostatně není jasné, jak by se měla shoda s fungováním mozku posuzovat. Když někdo/něco není člověk, pak se nedá očekávat, že to bude přemýšlet stejně jako člověk! Nerozumíme tomu, jak uvažuje pes. V podstatě nerozumíme ani tomu, jak uvažuje jiný člověk! Není pak absurdní chtít nějako shodu – ostatně špatně specifikovatelnou – po počítači?

Kevin Warwick [1] kritizuje Searlovu dichotomii jako zbytečně antropomorfní a navrhuje namísto silné a slabé AI odlišnou koncepci – racionální umělou inteligenci. „Racionální AI znamená, že jakýkoli artefakt, splňující její obecnou definici, může uvažovat a chovat se inteligentně svým vlastním způsobem. Není podstatné, zda přitom bude či nebude vykazovat inteligenci, vědomí, myšlení atd. ve smyslu podobném člověku. Pojmy slabá a silná AI mohou mít smysl jen v omezeném kontextu porovnání s lidskou formou inteligence.“ Což je definice, která bere v úvahu jak AI, tak případné mimozemšťany.

Moderní AI

Práci v AI oživili lidé, kteří byli zaměření praktičtěji než zakladatelská generace. Zajímali se o dílčí praktická řešení a většinou rezignovali na vývoj univerzálního AI systému, tedy myslícího stroje.

Obnovil se zájem o neuronové sítě (a obecněji o strojové učení), a to hlavně díky výkonnějším počítačům a objevu nových algoritmů. Pomocí neuronových sítí se dnes řeší mnoho úloh spojených s rozpoznáváním vzorů, což má význam v investičním bankovnictví, při schvalování úvěrů, při detekci bankovních podvodů, analýze zákaznických dat apod. Vesměs jde o aplikace, kde se investice do výzkumu rychle vracejí, což samozřejmě prospívá AI jako celku.

Dnešní neuronové síti jí tisíc nebo sto tisíc vstupních kombinací (vzorů, obrazů; pattern recognition) a řeknete, jak je má vyhodnotit. Pak ji necháte být a ona bude vyhodnocovat sama. Včetně takových kombinací, s nimiž se nikdy nesetkala, ale nějak se podobají těm známým. Občas se splete; když ji na chybu upozorníte, zmoudří o tuto zkušenost. Neuronové sítě se dnes běžně používají třeba při rozpoznávání hlasu a porozumění mluvené řeči, anebo při rozpoznávání vizuální informace. V tom druhém případě to je dokonce nápodobou biologické reality.

K práci lidského mozku dnes zaujímá AI pragmatický přístup – ve smyslu Warwickovy koncepce racionální inteligence. Kde se z jeho fungování může poučit, udělá to. Kde je to obtížné nebo je známa jednodušší zkratka, tam se vědci nápodobou nezatěžují.

Zásadní inspiraci přinesla robotika. Autonomní roboti potřebují především orientaci v prostředí, tedy něco, v čem počítače tradičně nejsou příliš dobré. Kromě velké výzvy šlo také o velký přínos – ne nadarmo už od samých začátků AI někteří vědci upozorňovali, že inteligencí lidského nemůže disponovat mozek bez těla, bez smyslů, bez rukou a nohou, bez praktických úkolů k řešení.

Dnes to paradoxně vypadá, že umělé inteligence je kolem nás méně, než kolik jí skutečně je, protože mnohé její výsledky se rutinně používají a říká se jim už dávno jinak. Velká část metod z oblasti dolování dat (data mining) má původ v umělé inteligenci. Oblast genetických algoritmů a autonomních softwarových agentů se také už často neztotožňuje s AI, přestože tam rozhodně patří. Robotika je samostatným oborem s mnoha podobory. A zatím vůbec nejúspěšnější komerční aplikací AI jsou počítačové hry, v nichž umělá inteligence odpovídá za chování všech ne-hráčských postav a entit. 

Lidský mozek. Minsky podruhé

Marvin Minsky se moderním trendům v AI příliš nevěnoval. Víc ho zajímal obecnější výzkum inteligence, kde se ještě víc soustředil na paralelu mezi lidským a strojovým myšlením. Začal se pohybovat na pomezí psychologie a filozofie, přičemž paradoxně vytýkal některým svým žákům, že se nepraktické filozofii věnují příliš. Filozofování bylo povoleno, jen když se jím zabýval on sám a když se mu tak neříkalo. V těchto diskusích vlastně vznikalo to, čemu se dnes říká kognitivní věda – interdisciplinární výzkum mysli a myšlení.


By The original uploader was Sethwoodworth at English Wikipedia, taken by Bcjordan - Transferred from en.wikipedia to Commons by Mardetanha using CommonsHelper., CC BY 3.0

Minsky celý život zastával názor, že mezi fungováním stroje a lidského mozku není velký principiální rozdíl, že neuron je jednoduchý přepínač, subsystémy mozku fungují víceméně nezávisle na sobě a to, čemu říkáme mysl, je jejich volnou federací.

Funkce mozku nespočívají takto jednoduše na jakémsi malém souboru principů. Naopak, spočívají ve stovkách, možná tisících principů. Jinými slovy, každá část mozku je tím, co technici nazývají slepencem improvizací - tedy řešením určitého problému pomocí provizorně postaveného mechanismu, který vzniká přidáváním dalších a dalších částí, kdykoli je to potřeba; bez nějakého obecného, celkového plánu. Výsledkem je, že lidská mysl - tedy to, co mozek dělá - by měla byt považována za slepenec improvizací. Důkaz pro toto tvrzení je zcela jasný: Pokud se podíváte na rejstřík kterékoli velké učebnice neurologie, uvidíte, že lidsky mozek má stovky součástí - tedy dceřiných počítačů -, které dělají různé věci. Proč náš mozek potřebuje tolik součástí? Je jasné, že kdyby naše mysl byla založena jen na několika základních principech, nic tak složitého bychom nepotřebovali.

Odpovědí je, že náš mozek se nevyvíjel v souladu s několika přesně definovanými pravidly a požadavky. Místo toho se vyvíjel oportunisticky, vybíráním mutací, které byly ve prospěch našeho přežití v podmínkách a mantinelech mnoha odlišných prostředí během nejméně půl miliardy let. Co přesně všechny ty součásti dělají? To teprve začínáme zjišťovat. Jsem přesvědčen, že se musíme ještě mnohému učit. Až s tím budeme hotovi, zjistíme, že mnohé mentální orgány se vyvinuly jen proto, aby korigovaly nedostatky starých - nedostatky, které se začaly projevovat, až když jsme se stali mnohem chytřejšími. Pro evoluci je typické, že když se vytvoří mnoho nových struktur, bývá příliš pozdě vrátit se a učinit rozsáhlejší změny v starších systémech, na nichž jsme závislí. (Minsky) 

Nebyl přitom tak nepraktický, jak ho většinou viděli. V rámci svých výletů do jiných vědeckých oblastí například postavil a nechal si patentoval první tzv. konfokální mikroskop (který pak mimochodem dotáhl do použitelné podoby československý vědec Mojmír Petráň v rámci výzkumu hodného Nobelovy ceny, ale to je úplně jiná pohádka). Minsky s Papertem také vytvořili programovací jazyk pro děti Logo používaný dodnes – u nás jsou známy jeho klony Karel a Baltík, je také součástí stavebnice Lego Mindstorms slavné dánské firmy.

Od perceptronu to je docela dlouhé a pěkné putování. Bylo na něm nepředstavitelné množství odboček a slepých uliček. Marvin Minsky mnohé z nich prošel – víc, než většina jiných – a vrátil se z nich k poučení ostatních. Netřeba ho kvůli tomu litovat. Bavilo ho to nesmírně. Možná to hlavní, co po něm zbylo: jasně ukázal, že snadná a přímá cesta k myslícím strojům neexistuje.

::

V textu jsou na několika místech použity části nekrologu Marvina Minskyho, který jsem napsal pro Lidové noviny; vyšel tam 30. 1. 2016.

[1] Kevin Warwick: Artifical Intelligence, The Basics. Routlege, New York, 2012.

[2] Keith Frankish, W. M. Ramsey (Eds.): The Cambridge Handbook of Artificial Intelligence. Cambridge University Press 2014.

 
 
© 067, s.r.o.
Děkujeme všem platícím čtenářům! Umožňují nám a našim autorům vytvářet 067 tak, jak dovedeme nejlépe.