Co vlastně umělá inteligence dnes umí
Co vlastně umělá inteligence dnes umí
Anonim

Upozornění na spoiler: Do povstání strojů zbývá ještě hodně času.

Co vlastně umělá inteligence dnes umí
Co vlastně umělá inteligence dnes umí

Když Elon Musk představuje humanoidního robota Tesla Bota, zdá se, že nová vědecká revoluce je hned za rohem. Ještě trochu – a umělá inteligence (AI) předčí člověka a v práci nás nahradí stroje. Profesoři Gary Marcus a Ernest Davis, oba renomovaní odborníci na umělou inteligenci, jsou však žádáni, aby s podobnými závěry nespěchali.

V Artificial Intelligence Reboot výzkumníci vysvětlují, proč má moderní technologie k ideálu daleko. Se svolením vydavatelství "Alpina PRO" Lifehacker zveřejňuje úryvek z první kapitoly.

V tomto bodě existuje obrovská propast – skutečná propast – mezi našimi ambicemi a realitou umělé inteligence. Tato propast vznikla kvůli nevyřešenosti tří konkrétních problémů, z nichž každý je třeba poctivě řešit.

První z nich je to, čemu říkáme důvěřivost, která je založena na skutečnosti, že my lidé jsme se ve skutečnosti nenaučili rozlišovat mezi lidmi a stroji, a proto je snadné nás oklamat. Inteligenci připisujeme počítačům, protože jsme se sami vyvinuli a žili mezi lidmi, kteří do značné míry zakládají své jednání na abstrakcích, jako jsou nápady, přesvědčení a touhy. Chování strojů je často povrchně podobné chování lidí, takže strojům rychle přiřadíme stejný typ základních mechanismů, i když je stroje nemají.

Nemůžeme si pomoci, ale myslíme na stroje v kognitivních pojmech („Můj počítač si myslí, že jsem smazal svůj soubor“), bez ohledu na to, jak jednoduchá pravidla, která stroje skutečně dodržují. Ale závěry, které se při aplikaci na lidi ospravedlňují, mohou být při aplikaci na programy umělé inteligence zcela mylné. V souladu se základním principem sociální psychologie to nazýváme základní chybou platnosti.

K jednomu z prvních případů této chyby došlo v polovině 60. let, kdy chatbot jménem Eliza přesvědčil některé lidi, že skutečně rozumí věcem, které mu říkají. Eliza ve skutečnosti jen pochytila klíčová slova, zopakovala poslední věc, kterou jí dotyčný řekl, a v bezvýchodné situaci se uchýlila ke standardním konverzačním trikům typu „Pověz mi o svém dětství“. Kdybyste zmínil svou matku, zeptala by se vás na vaši rodinu, ačkoliv netušila, co rodina vlastně je a proč je pro lidi důležitá. Byl to jen soubor triků, nikoli ukázka skutečné inteligence.

Navzdory tomu, že Eliza lidem vůbec nerozuměla, mnoho uživatelů se dialogy s ní nechalo zmást. Někteří trávili hodiny psaním frází na klávesnici, mluvili tímto způsobem s Elizou, ale špatně si vykládali triky chatbotů, zaměňovali papouškovu řeč za užitečnou, upřímnou radu nebo sympatie.

Joseph Weisenbaum Stvořitel Elizy.

Lidé, kteří dobře věděli, že mluví se strojem, na tuto skutečnost brzy zapomněli, stejně jako milovníci divadla na chvíli odloží nedůvěru a zapomenou, že čin, jehož jsou svědky, nemá právo být nazýván skutečným.

Elizini partneři často požadovali povolení k soukromé konverzaci se systémem a po konverzaci přes všechna moje vysvětlení trvali na tom, že jim stroj skutečně rozuměl.

V ostatních případech může být chyba při posuzování pravosti fatální v doslovném smyslu slova. V roce 2016 se jeden majitel automatizovaného vozu Tesla natolik spoléhal na zdánlivou bezpečnost režimu autopilota, že se (podle vyprávění) zcela ponořil do sledování filmů o Harrym Potterovi a nechal auto, aby vše dělalo samo.

Všechno šlo dobře – až se to v určité chvíli zhoršilo. Poté, co auto ujelo stovky nebo dokonce tisíce mil bez nehody, narazilo (v každém slova smyslu) do nečekané překážky: dálnici přejel bílý kamion a Tesla se řítila přímo pod přívěs a na místě zabila majitele vozu.. (Zdálo se, že vůz několikrát varoval řidiče, aby převzal řízení, ale řidič se zdál být příliš uvolněný na to, aby rychle zareagoval.)

Morálka tohoto příběhu je jasná: to, že se zařízení může na okamžik či dva (a třeba i šest měsíců) zdát „chytré“, vůbec neznamená, že tomu tak skutečně je nebo že se dokáže vyrovnat se všemi okolnostmi, za kterých člověk by reagoval adekvátně.

Druhý problém nazýváme iluze rychlého pokroku: zaměňování pokroku v umělé inteligenci spojeného s řešením snadných problémů za pokrok spojený s řešením skutečně obtížných problémů. To se například stalo se systémem IBM Watson: jeho pokrok ve hře Jeopardy! vypadalo velmi slibně, ale ve skutečnosti se ukázalo, že systém je mnohem dál od porozumění lidské řeči, než vývojáři předpokládali.

Je možné, že program AlphaGo od DeepMind půjde stejnou cestou. Hra go je stejně jako šachy idealizovanou informační hrou, kde oba hráči mohou kdykoli vidět celou šachovnici a vypočítat důsledky tahů hrubou silou.

Ve většině případů v reálném životě nikdo nic neví s naprostou jistotou; naše údaje jsou často neúplné nebo zkreslené.

I v těch nejjednodušších případech existuje spousta nejistot. Když se rozhodujeme, zda jít k lékaři pěšky nebo metrem (jelikož je den zataženo), nevíme přesně, jak dlouho bude čekat na soupravu metra, zda vlak neuvízne na silnici, zda nacpeme se do kočáru jako sledi v sudu nebo zmokneme venku v dešti, netroufáme si jet metrem, a jak na naše zpoždění zareaguje doktor.

Vždy pracujeme s informacemi, které máme. Když si systém DeepMind AlphaGo milionkrát hraje sám se sebou, s nejistotou se nikdy nevypořádal, prostě neví, co je to za nedostatek informací nebo jejich neúplnost a nekonzistentnost, nemluvě o složitosti lidské interakce.

Je tu ještě jeden parametr, díky kterému se myšlenkové hry velmi liší od skutečného světa, a to opět souvisí s daty. I složité hry (pokud jsou pravidla dostatečně přísná) se dají modelovat téměř dokonale, takže systémy umělé inteligence, které je hrají, mohou snadno nasbírat obrovské množství dat, která potřebují k trénování. V případě Go tedy může stroj simulovat hru s lidmi tím, že hraje sám proti sobě; i když systém potřebuje terabajty dat, vytvoří si je sám.

Programátoři tak mohou získat zcela čistá simulační data s malými nebo žádnými náklady. Naopak v reálném světě dokonale čistá data neexistují, nelze je simulovat (protože pravidla hry se neustále mění) a o to obtížnější je nasbírat mnoho gigabajtů relevantních dat zkušebním způsobem. a chyba.

Ve skutečnosti máme jen několik pokusů otestovat různé strategie.

Nejsme schopni např. 10milionkrát opakovat návštěvu lékaře a před každou návštěvou postupně upravovat parametry rozhodování, abychom dramaticky zlepšili naše chování při volbě dopravy.

Pokud chtějí programátoři vycvičit robota, aby pomáhal starším lidem (řekněme pomáhat ukládat nemocné lidi do postele), každý kousek dat bude stát za skutečné peníze a skutečný lidský čas; neexistuje způsob, jak shromáždit všechna požadovaná data pomocí simulačních her. Ani figuríny pro nárazové zkoušky nemohou nahradit skutečné lidi.

Je třeba sbírat data o skutečných starších lidech s různými charakteristikami senilních pohybů, o různých typech postelí, různých typech pyžam, různých typech domů a zde se nelze mýlit, protože shodit člověka i na vzdálenost několika centimetry od postele by byla katastrofa. V tomto případě je ve hře určitý pokrok (zatím nejzákladnější), kterého bylo v této oblasti dosaženo pomocí metod úzké umělé inteligence. Byly vyvinuty počítačové systémy, které hrají téměř na úrovni nejlepších lidských hráčů ve videohrách Dota 2 a Starcraft 2, kde je účastníkům v daný okamžik ukázána pouze část herního světa, a tak každý hráč čelí problém nedostatku informací - to se Clausewitzovou lehkou rukou nazývá "mlha neznáma." Vyvinuté systémy však stále zůstávají velmi úzce zaměřené a v provozu nestabilní. Například program AlphaStar, který hraje ve Starcraft 2, se naučil pouze jednu konkrétní rasu od široké škály postav a téměř žádný z těchto vývojů nelze hrát jako jakákoli jiná rasa. A samozřejmě není důvod se domnívat, že metody používané v těchto programech jsou vhodné pro úspěšná zobecnění v mnohem složitějších situacích reálného života. skutečné životy. Jak IBM zjistila ne jednou, ale již dvakrát (nejprve v šachu a poté v Jeopardy!), Úspěch v problémech z uzavřeného světa vůbec nezaručuje úspěch v otevřeném světě.

Třetím kruhem popsané propasti je přecenění spolehlivosti. Znovu a znovu vidíme, že jakmile lidé s pomocí umělé inteligence najdou řešení nějakého problému, které může nějakou dobu fungovat bez poruch, automaticky předpokládají, že s revizí (a s trochu větším množstvím dat) vše bude fungovat spolehlivě.čas. Ale nemusí tomu tak být.

Bereme opět auta bez řidičů. Je poměrně snadné vytvořit demo autonomního vozidla, které správně pojede po jasně vyznačeném pruhu na klidné silnici; lidé to však dokázali již více než století. Je však mnohem obtížnější přimět tyto systémy, aby fungovaly za obtížných nebo neočekávaných okolností.

Jak nám v e-mailu řekla Missy Cummingsová, ředitelka Humans and Autonomy Laboratory na Duke University (a bývalá stíhací pilotka amerického námořnictva), otázkou není, kolik kilometrů může auto bez řidiče ujet bez nehody, ale v jakém rozsahu. kterým se tyto vozy dokážou přizpůsobit měnícím se situacím. Podle její Missy Cummings pošlete e-mail autorům 22. září 2018., moderní poloautonomní vozidla "obvykle fungují pouze ve velmi úzkém rozsahu podmínek, které neříkají nic o tom, jak mohou fungovat za méně než ideálních podmínek."

Vypadat naprosto spolehlivě na milionech testovacích mil ve Phoenixu neznamená, že bude dobrý výkon během monzunu v Bombaji.

Tento zásadní rozdíl mezi tím, jak se autonomní vozidla chovají v ideálních podmínkách (jako jsou slunečné dny na příměstských víceproudých silnicích) a tím, co mohou dělat v extrémních podmínkách, se může snadno stát věcí úspěchu a neúspěchu celého odvětví.

S tak malým důrazem na autonomní řízení v extrémních podmínkách a s tím, že současná metodika se nevyvinula směrem k zajištění správného fungování autopilota v podmínkách, které se teprve začínají považovat za reálné, může být brzy jasné, že miliardy dolarů byly vynaloženy na metody stavby samořídících vozů, které jednoduše nedokážou zajistit spolehlivost řízení jako u lidí. Je možné, že k dosažení úrovně technické jistoty, kterou potřebujeme, jsou zapotřebí přístupy, které se zásadně liší od těch současných.

A auta jsou jen jedním příkladem z mnoha podobných. V moderním výzkumu umělé inteligence byla její spolehlivost globálně podceňována. Je to částečně proto, že většina současného vývoje v této oblasti zahrnuje problémy, které jsou vysoce odolné vůči chybám, jako je doporučování reklamy nebo propagace nových produktů.

Pokud vám totiž doporučíme pět druhů produktů a budete mít rádi jen tři z nich, nestane se nic špatného. Ale v řadě kritických aplikací umělé inteligence pro budoucnost, včetně aut bez řidiče, péče o seniory a plánování zdravotní péče, bude spolehlivost jako u lidí zásadní.

Nikdo si nekoupí domácího robota, který bezpečně přenese vašeho starého dědečka do postele jen čtyřikrát z pěti.

I v těch úkolech, kde by se moderní umělá inteligence měla teoreticky jevit v co nejlepším světle, pravidelně dochází k vážným selháním, někdy vypadajícím velmi vtipně. Typický příklad: počítače se v zásadě už docela dobře naučily, jak rozpoznat, co je (nebo se děje) na tom či onom obrázku.

Někdy tyto algoritmy fungují skvěle, ale často vytvářejí naprosto neuvěřitelné chyby. Pokud ukážete obrázek automatizovanému systému, který generuje popisky k fotografiím každodenních scén, často dostanete odpověď, která je nápadně podobná tomu, co by napsal člověk; například pro scénu níže, kde skupina lidí hraje frisbee, vysoce propagovaný systém generování titulků od Googlu tomu dává ten správný název.

Obr 1.1. Skupina mladých lidí hrajících frisbee (pravděpodobný titulek k fotografii, automaticky generovaný AI)
Obr 1.1. Skupina mladých lidí hrajících frisbee (pravděpodobný titulek k fotografii, automaticky generovaný AI)

O pět minut později ale od stejného systému snadno dostanete naprosto absurdní odpověď, jako se to stalo například u této dopravní značky, na kterou někdo nalepil samolepky: počítač s názvem Tvůrci systému nevysvětlil, proč k této chybě došlo, ale takové případy nejsou ojedinělé. Můžeme předpokládat, že systém v tomto konkrétním případě klasifikoval (snad co do barvy a textury) fotografii jako podobnou ostatním obrázkům (ze kterých se to naučil) označeným jako „lednička plná jídla a nápojů“. Počítač přirozeně nepochopil (což člověk mohl snadno pochopit), že takový nápis by se hodil pouze v případě velké obdélníkové kovové krabice s různými (a dokonce ne všemi) předměty uvnitř. tato scéna je "lednička se spoustou jídla a pití."

Rýže. 1.2. Chladnička plná jídla a nápojů (zcela nevěrohodný nadpis, vytvořený stejným systémem jako výše)
Rýže. 1.2. Chladnička plná jídla a nápojů (zcela nevěrohodný nadpis, vytvořený stejným systémem jako výše)

Stejně tak auta bez řidiče často správně identifikují, co „vidí“, ale někdy se zdá, že přehlížejí samozřejmost, jako v případě Tesly, která pravidelně narážela do zaparkovaných hasičských vozů nebo sanitek na autopilota. Slepá místa, jako jsou tyto, mohou být ještě nebezpečnější, pokud se nacházejí v systémech, které řídí elektrické sítě nebo jsou zodpovědné za monitorování veřejného zdraví.

K překlenutí propasti mezi ambicemi a realitou umělé inteligence potřebujeme tři věci: jasné povědomí o hodnotách, které jsou v této hře v sázce, jasné pochopení toho, proč moderní systémy umělé inteligence neplní své funkce dostatečně spolehlivě a, konečně nová strategie rozvoje strojového myšlení.

Vzhledem k tomu, že sázky na umělou inteligenci jsou opravdu vysoké, pokud jde o pracovní místa, bezpečnost a strukturu společnosti, existuje naléhavá potřeba, abychom my všichni – profesionálové v oblasti umělé inteligence, příbuzné profese, běžní občané a politici – porozuměli skutečnému stavu věcí. v této oblasti s cílem naučit se kriticky posuzovat úroveň a povahu rozvoje dnešní umělé inteligence.

Stejně jako je důležité, aby občané zajímající se o zprávy a statistiky pochopili, jak snadné je uvést lidi v omyl slovy a čísly, tak i zde je stále významnější aspekt porozumění, abychom mohli přijít na to, kde je umělá inteligence.jen reklama, ale kde je to skutečné; co teď umí a co neumí a možná se nenaučí.

Nejdůležitější je si uvědomit, že umělá inteligence není magie, ale jen soubor technik a algoritmů, z nichž každý má své silné a slabé stránky, pro některé úkoly je vhodný a pro jiné nevhodný. Jedním z hlavních důvodů, proč jsme se rozhodli napsat tuto knihu, je to, že mnoho z toho, co čteme o umělé inteligenci, nám připadá jako absolutní fantazie, vyrůstající z nepodložené důvěry v téměř magickou sílu umělé inteligence.

Mezitím tato fikce nemá nic společného s moderními technologickými schopnostmi. Bohužel diskuze o AI mezi širokou veřejností byla a je silně ovlivněna spekulacemi a nadsázkou: většina lidí ani netuší, jak těžké je vytvořit univerzální umělou inteligenci.

Pojďme si ujasnit další diskusi. Přestože objasnění reálií spojených s AI od nás bude vyžadovat vážnou kritiku, my sami v žádném případě nejsme odpůrci umělé inteligence, tuto stránku technologického pokroku máme opravdu rádi. Významnou část života jsme prožili jako profesionálové v tomto oboru a chceme, aby se co nejrychleji rozvíjel.

Americký filozof Hubert Dreyfus kdysi napsal knihu o tom, jakých výšin podle jeho názoru umělá inteligence nikdy nemůže dosáhnout. O tom tato kniha není. Částečně se zaměřuje na to, co umělá inteligence v současnosti neumí a proč je důležité tomu porozumět, ale podstatná část se zabývá tím, co by se dalo udělat pro zlepšení počítačového myšlení a jeho rozšíření do oblastí, kde má nyní potíže dělat jako první.

Nechceme, aby umělá inteligence zmizela; chceme, aby se zlepšil, navíc radikálně, abychom s ním mohli skutečně počítat a řešit s jeho pomocí mnohé problémy lidstva. Máme spoustu výtek k současnému stavu umělé inteligence, ale naše kritika je projevem lásky k vědě, kterou děláme, nikoli výzvou k tomu, abychom se vzdali a všeho nechali.

Stručně řečeno, věříme, že umělá inteligence může skutečně vážně změnit náš svět; ale také věříme, že mnohé ze základních předpokladů o umělé inteligenci se musí změnit, než budeme moci mluvit o skutečném pokroku. Námi navrhovaný „reset“umělé inteligence není vůbec důvodem k ukončení výzkumu (i když někteří mohou naši knihu chápat přesně v tomto duchu), ale spíše diagnózou: kde jsme teď uvízli a jak se z toho dostaneme? dnešní situaci.

Věříme, že nejlepším způsobem, jak se posunout vpřed, může být podívat se dovnitř, čelit struktuře naší vlastní mysli.

Skutečně inteligentní stroje nemusí být přesné repliky lidí, ale každý, kdo se na umělou inteligenci podívá upřímně, uvidí, že se od lidí má stále co učit, zejména od malých dětí, které jsou v mnoha ohledech mnohem lepší než stroje v jejich schopnost absorbovat a chápat nové koncepty.

Lékařští vědci často charakterizují počítače jako „nadlidské“(tak či onak) systémy, ale lidský mozek je stále mnohem lepší než jeho křemíkové protějšky přinejmenším v pěti aspektech: dokážeme rozumět jazyku, rozumíme světu, dokážeme flexibilně přizpůsobit se novým okolnostem, můžeme se rychle učit nové věci (i bez velkého množství dat) a dokážeme uvažovat tváří v tvář neúplným a dokonce protichůdným informacím. Na všech těchto frontách jsou moderní systémy umělé inteligence beznadějně za lidmi.

Restart umělé inteligence
Restart umělé inteligence

Umělá inteligence: Reboot bude zajímat lidi, kteří chtějí porozumět moderním technologiím a pochopit, jak a kdy může nová generace umělé inteligence zlepšit naše životy.

Doporučuje: