Etika umělého vědomí Jan Burian
Laboratory of Intelligent Systems Prague, Czech republic
E-mail: honzaburian@seznam.cz
Abstract:
This paper explicate plausibility of following hypotheses: 1. Evolution of artificial structures based on evolvable hardware can form a base for evolution of artificial consciousness. 2. The relation between different kinds of consciousness such as empathy is fundamental for the ethics of conscious artificial structures.
Poznámka: Tento text byl kvůli publikačním požadavkům stěsnán do rozsahu 6 stran. Proto je, zejména v závěrečné kapitole, silně kondenzovaný.
1 Vědomí (Velmi filosofické)
Pokud chceme zkoumat možnost etiky jakýchkoliv umělých struktur, musíme se zabývat i možností jejich vědomí. Nestačí se zabývat pouze inteligencí umělých struktur, která je vyjadřována vnějšími projevy, které mohou být do jisté míry kvantifikovatelné. Bez předpokladu vědomí můžeme nejvýš uvažovat o etice pro lidské tvůrce těchto struktur. Zabývat se vědomím umělých struktur znamená vystavit se nebezpečí nařčení z planých řečí vhodných spíše někam do pohostinství. Je to riziko zkoumání problematiky dotýkající se základů současné vědecké metodologie a propojující množství vědeckých i filosofických disciplín.
Otázka zda nějaká struktura, kterou pozorujeme zvnějšku, objektivně, má či nemá vědomí, nemůže být na základě současného vědeckého paradigmatu s konečnou platností zodpovězena nějakým absolutním ANO či NE. Vědomí, uvědomování si vnímaných kvalit je záležitostí vnitřní introspekce, přístupné pouze subjektu. Blíže např. [Hofstadter85]
Tím, že mám vědomí, si mohu být jist pouze já sám. Extrémním důsledkem tohoto faktu je nejistota, zda vědomím oplývají i ostatní lidé. Setrvávat však na takovém pohledu je přinejmenším nepraktické. Takový pohled na situaci samé nic nezmění. Z existenciálního hlediska je takový pohled pro lidskou psychiku neúnosný, neboť navozuje pocit osamění, úzkosti, ztráty smyslu. I z ryze pragmatického hlediska je výhodné předpokládat o ostatních, že mají vědomí podobné mému, neboť mi to umožňuje lépe chápat jejich minulá rozhodnutí a předvídat budoucí chování. Z hlediska vědy je hypotéza, že ostatní lidé vědomí postrádají, přestože svým chováním i vnitřní strukturou jsou mi velmi podobní, nadbytečně složitá. Do hry vstupuje Ockhamova břitva, která není nástrojem určujícím absolutní pravdu, ale nástrojem praktickým, umožňujícím nalézt pro daný stav věcí efektivní teorii.
Z vlastní introspekce zjišťujeme, že vědomí není jen jedním stálým stavem nebo procesem, ale má mnoho stavů, odstínů. Každý den vnímáme přechody různých stavů vědomí, když se ráno probouzíme a když večer usínáme. Někdy se probereme náhle, ale někdy se naše vědomí postupně skládá z jednotlivých vrstev, které se postupně rozšiřují a prohlubují až do stavu, který jsme zvyklí nazývat stavem bdělým. Ale i bdělý stav má mnoho nuancí, daných naším momentálním naladěním a emocemi. Ještě zásadnějším způsobem ovlivňují naše vědomí látky působící neurochemické změny v mozku. Některé tyto látky (DMT, LSD, psylocibin, ketamin) vyvolávají při vyšších dávkách stavy, které se mohou zcela lišit od běžné zkušenosti. Tyto stavy jinakosti či cizosti bývají někdy připodobňovány k pocitům zcela jiného živočišného druhu, mimozemšťana či stavu zcela se vymykajícímu jakékoliv představě
Existují různé pohledy na vztah mezi subjektivním prožíváním, vědomím či myslí a fyzikálním substrátem těchto procesů (mind-body problem). Některé hypotézy (shrnuto např. v [Pstružina98]) vysvětlují vědomí, naši subjektivní stránku jako sekundární produkt stránky fyzické (epifenomenalismus), redukují problém vědomí pouze a jedině na fyzickou stránku (fyzikalismus) či naopak fyzickou stránku chápou jako artefakt či nenutný přívěsek stránky psychické (mentalismus). V uvedených hypotézách spatřuji prvky buď nepřípustně zjednodušující skutečnost, nebo ji naopak rozšiřující o nadbytečné předpoklady. Jako praktická by se mohla ukázat hypotéza, že každá struktura není ve skutečnosti rozdělitelná na složku fyzikální a psychickou (identismus), ale je pouze možno ji odlišně interpretovat dvěma vzájemně neredukovatelnými způsoby [Burian03].
První způsob je vnější, intersubjektivně sdílený popis, jak se o něj snaží věda. Je to popis, který se v limitě může blížit (a my máme sklony ho tak chápat) popisu objektivnímu.
Druhý způsob je vnitřní sebevztah, který nese prvky subjektality (nikoliv nutně antropomorfní subjektivity) a který je přístupný jen struktuře samé. Vědomí je pak jistou velmi komplexní formou takového sebevztahu.
Nehledě na uvedené teorie filosofů, přijala většina neurovědců názor, že vědomí je emergentím rysem (tedy nikoliv nutně produktem) neurofyziologických procesů. Jak ukazují pozorování procesů v mozku založená na technologiích PET (pozitronová emisní tomografie) či MRI (Magnetic resonance imaging ) změna stavů vědomí je korelována se změnou v objektivně pozorovatelném kontextu fyziky či chemie.
Altman [Altman02] vybírá z mnoha teorií tři kandidáty na roli neuronálního podkladu vědomí:
- Synchronní rezonance – podkladem vědomí mohou být harmonické stojaté vlny vzruchů rozsáhlých neuronových populací.
- Makroskopická kvantová koherence – vědomí je tvořeno kvantovými fluktuacemi uvnitř mikrotubulů (molekulární struktury tvořící kostru ekaryostických buněk). To je populární teze kterou razí Penrose, např. [Penrose99].
- Emergence – systém zpracovávající informace (v našem případě mozek) získává dosažením jisté úrovně komplexity nové kvalitativní vlastnosti (v našem případě vědomí)
Teorie synchronní rezonance je případem substrátově nezávislé teorie vědomí – synchronní aktivity vzruchů v dostatečně komplexní struktuře nemusí nutně vznikat jen v lidském mozku, či dokonce jen na bázi neuronální. Teorie kvantové koherence naopak omezuje existenci vědomí jen na velmi specifický typ struktur v neuronech. I pokud by se tato teorie ukázala jako efektivní (většina odborníků je skeptická, zejména kvůli vlivu náhodnému šumu), otázkou by zůstávalo, zda makroskopická kvantová koherence vzniká pouze v neuronálních mikrotubulech, popřípadě zda neexistuje nějaký nekvantový ekvivalent vědomí.
Obě zmíněné teorie vědomí (i většinu ostatních) je možno chápat jako speciální případy emergence. Emergentní jevy pozorujeme u komplexních systémů, systémů tvořených velkým množstvím částí, které na sebe vzájemně paralelně a zpětnovazebně působí. Toto vzájemné působení může být složitě strukturované v mnoha úrovních, může vést k samoorganizaci systému atp. To vše opět souvisí s emergencí a komplexitou [Heylighen89]. Emergence je v klasické teorii systémů definována jako neredukovatelnost celku na jeho části. Definice komplexity jsou velmi rozmanité Komplexita se však vždy vztahuje k nějaké míře obtížnosti převést skutečný objekt na jeho formální popis. Při jisté úrovni komplexity vzniká nová úroveň či doména, vyžadující nový typ interpretace a popisu kauzálních vazeb [Havel01].
Shrňme: Z praktického hlediska je přijatelné předpokládat vědomí vně mého subjektu, přičemž existují různé stavy vědomí korelované s různými objektivně pozorovatelnými procesy u vysoce komplexních systémů, jako jsou například lidé. Pokud bychom měli předpokládat vědomí nejen u lidí či struktur vzniklých biologickou evolucí, měli by to být opět vysoce komplexní struktury, které nemůžeme redukovat na jejich části a u nichž je možno předpokládat emergentní jevy. Předpoklad vědomí se bude vztahovat právě k této nemožnosti redukce a obtížnosti formálního popisu celku.
2 Umělé vědomí (Velmi technické)
Lidská mysl je nesmírně složitý mnohaúrovňový proces. Introspekci je nejpřístupnější nejvyšší úroveň vědomého lidského uvažování, manipulace se symboly a rozhodování na základě pravidel ze symbolů složených. Proto i první pokusy o realizaci procesu, jehož výsledky budou srovnatelné s nějakou oblastí lidského uvažování, spočívaly ve snaze sestavit soubor pravidel určujících jakým výstupem bude systém reagovat na daný vstup. Tento přístup zůstal v jádru zachován, ovšem v mnoha formálně odlišných variantách, u systémů označovaných dnes jako klasická umělá inteligence. Tyto systémy je možno rozložit na soubor jednotlivých částí (pravidel) a ty pak sekvenčně zpracovávat. Přitom zastáváme nesamozřejmý předpoklad, že zatímco je jedna část zpracovávána, ostatní se nijak nemění.
Metody klasické umělé inteligence (označované někdy také „Top-Down“) se ukázaly být nesmírně efektivní při napodobení nějaké úzce vymezené, specifické oblasti lidského uvažování, při řešení problémů s omezeným počtem dobře definovaných parametrů. Typickým příkladem jsou například expertní systémy.
Naopak je těmito metodami obtížné řešit problematiku univerzální, v prostředí, které není jasně definováno a podléhá předem neurčeným změnám. I když jsou tyto systémy schopny se jistým způsobem „učit“, modifikovat stávající pravidla či přidávat nová, počet pravidel nutných k popisu problému je prostě příliš veliký. A to i v případech, kdy použijeme formální prostředky pro práci s neurčitostí jako je teorie pravděpodobnosti či fuzzy logika.
Alternativou je přistupovat k problému uvažování z druhého konce, od úrovní které vědomé uvažování podkládají, inspirovat se masivně paralelní zpětnovazebnou neuronovou strukturou mozku (metody označované někdy také „Bottom-Up“). Modelem těchto struktur jsou neuronové sítě, ty ovšem nejsou jedinou možnou masivně paralelní zpětnovazebnou strukturou. Podobné vlastnosti má jakýkoliv systém s dostatečným množstvím současně komunikujících a adaptabilních částí (agentů). Někdy jsou tyto systémy označovány jako konekcionistické. Takovým systémem je například mraveniště nebo jiný ekosystém, rozsáhlá počítačová síť, ale třeba i složitá továrna či instituce. V takovém systému nemusí existovat nějaká formálně vydělitelná pravidla, ale většina faktorů, které ovlivňují chování systému jsou v něm rozprostřeny nelokálně. V tomto holistickém pohledu (který je například neurofyziologem K.H. Pribramem s úspěchem aplikován při výkladu neurofyziologického korelátu lidské paměti – např. [Pribram99]) jde o systémy neredukovatelné na jednotlivé části, systémy komplexní. Jaké systémy však mohou být natolik komplexní, aby v nich docházelo k emergentním jevům, které bychom mohli pokládat za vědomí?
Zatímco v lidském mozku je okolo sta miliard neuronů a průměrně tisíce spojení na jeden neuron. V nedávné minulosti dosahoval počet komunikujících agentů v umělých konekcionistických systémech stovek, ojediněle tisíců. A to ještě např. v umělých neuronových sítích představují agenty nesmírně zjednodušené modely biologického neuronu a většinou je zanedbána funkce chemického prostředí, gliových buněk a dalších faktorů, které modulují funkci mozku.
Častý laický argument proti možnosti sestavit struktury schopné chování srovnatelně komplexního jako chování lidské je, zhruba řečeno, že žádná struktura nemůže plně obsáhnout a tím ani pochopit sama sebe, natož pak projektovat strukturu srovnatelnou či v nějakém smyslu dokonalejší.
Takovou strukturu pravděpodobně skutečně není možno naprojektovat „hotovou“. Lze však nastartovat na technologii založený umělý evoluční proces, jehož výsledkem může být struktura podstatně komplexnější nežli byl počáteční stav. Umělý evoluční proces má oproti biologickému výhodu v rychlosti. Zatímco jeden generační cyklus člověka trvá zhruba třicet let, octomilky několik dní, kvasinek několik hodin, u umělé evoluce se v závislosti na použité technologii jedná řádově o zlomky sekund.
Na počátku jsem zmínil potřebu odlišení vědomí od zvnějšku kvantifikovatelné inteligence, která i kdyby dosáhla stupně srovnatelného či překonávajícím v nějakém smyslu lidskou (nazýváno někdy „Artificial General Intelligence“ AGI), nezakládá ještě oprávnění či praktickou potřebu předpokládat zároveň s ní i vědomí.
Větší konekcionistické systémy, stejně jako umělá evoluce byly dříve pouze modelovány. Modelování masivně paralelních zpětnovazebných systémů na klasickém hardware, které zpracovává data sekvenčně, je všeobecně rozšířeno. Předpokládat však v takovém modelu vědomí, je podobné, jako předpokládat vědomí v obrazu člověka natočeném na video. Modelování sekvenčním zpracováváním částí zanedbává neustálé fluktuace, kterým podléhají části v realitě paralelního systému. Fluktuace se samy o sobě mohou jevit zanedbatelné, ale v komplexním dynamickém systému, podle teorie chaosu, mohou takové zdánlivě zanedbatelné změny ve výchozích parametrech znamenat velkou změnu v následném makroskopickém vývoji celého systému.
K zásadní změně došlo až v posledních několika letech v souvislosti s rozvojem sebemodifikujícího hardware. Hardwarové komponenty založené například na technologii FPGA (Field Programmable Gate Arrays), schopné on-line adaptace v dynamicky se měnícím prostředí, přestaly být stabilním substrátem a stávají se vhodným médiem pro aplikaci metod inspirovaných biologickou evolucí. Vzniká tzv. evolvable hardware jehož vývoj „… směřuje k masivně paralelním, škálovatelným, samoorganizujícím se výpočetním architekturám, které jsou postaveny z tisíců identických lokálně propojených buněk s jednoduchou funkcí. Systémy, jejichž rysem je neustálá evoluce, by měly řešit problémy, které se současnou technologií nelze řešit vůbec nebo jen obtížně“. [Sekanina99]
Jeden z nejvyspělejší projektů založených na evolvable hardware je v současnosti projekt tzv. umělého mozku (artificial brain) [Garis02]. Poněkud kontroverzní název spojuje tři biologické inspirace. Genetické algoritmy evolučně řeší vývoj nové struktury.
Tuto strukturu představují neuronové sítě. Neuronová síť je pak realizována na hardwarové úrovni pomocí celulárních automatů. Speciální hardware CAM-Brain machine (CBM) umožňuje integraci zhruba jednoho milionu modulů celulárních automatů založených na technologii sebemodifikujících se FPGA (Field Programmable Gate Arrays) čipů. Celkový počet umělých neuronů dosahuje 75 milionů. Evoluce modulu neuronové sítě trvá okolo sekundy. De Garis, stejně jako většina dalších vědců v oboru, počítá s platností Moorova pravidla o exponenciálním růstu parametrů hardware. Do roku 2006 plánuje vyvinout umělý mozek s 10 miliardami neuronů a do roku 2011 už s 1000 miliardami neuronů
Pouhý výčet kvantitativních parametrů neznamená sám o sobě, že bychom vytvářeli umělé vědomí. Je to podmínka nutná nikoliv však postačující. Skutečným klíčem k umělému vědomí jsou uvedené biologické inspirace. Inspirace sférou, ze které už vědomé struktury vzešly. Není možné se domnívat, že zopakujeme znovu ten samý proces, jaký probíhal na bázi DNA a proteinů. Ostatně vedle evolvable hardware můžeme očekávat vývoj vysoce komplexních struktur i v oblasti kvantových počítačů, DNA computingu či v širokém spektru nanotechnologií. Spolu s fyzikálním základem se bude lišit i vnitřní organizace takových nebiologických struktur a tím i to, co bychom mohli nazývat jejich vědomím. Toto vědomí bude nutně neantropomorfní a nebiologické. To však neznamená, že nemůže mít s lidským a biologickým vědomím některé shodné rysy, že bude naprosto a zcela „cizí“.
3 Etika umělého vědomí (Velmi důležité)
K bytostem nadaným umělým vědomím zaujímají lidé ve fantaziích vztah již dlouho. Homunkulové , Golem, roboti Karla Čapka. Z oblasti SF se od poloviny 20. století přesouvají úvahy do oblastí serióznějších. Vedle jednoznačných varování (za všechny Minsky: „Budeme rádi, když nás budou chovat jako domácí mazlíčky.“) se objevují i přístupy vstřícné. Na začátku 70. let píše Bondy [Bondy92] o smyslu existence lidstva spočívajícím ve stvoření artificiálních bytostí jakožto našich nástupců kompetentnějších v úkolu společenského, existenciálního i vědeckého vývoje. Již zmíněný de Garis [Garis01] označuje pojmem artilect (artificial intellect) produkt umělé evoluce, který potenciálně může nabýt takové atributy dokonalosti, které jsou z hlediska člověka „godlike“.
Vzhledem k překotnému a nekontrolovanému tempu vývoje technologií, není možno se těmto fantaziím vysmát a zanedbat i nepravděpodobné scénáře budoucího vývoje, neboť jejich závažnost je v kontextu lidských dějin bezprecedentí.
Výsledkem umělého evolučního procesu jsou již v současnosti struktury, jejichž vnitřnímu fungování nedokážeme plně rozumět, tím pádem nedokážeme přesně za všech okolností predikovat jejich chování. Můžeme však do jisté míry ovlivnit parametry umělého evolučního procesu (například fitness funkce genetických algoritmů) takovým způsobem, aby se minimalizovalo riziko, že výsledek tohoto procesu bude nebezpečný (zejména v důsledku nekontrolovaných komerčních a vojenských aplikací) pro jeho tvůrce, pro lidskou společnost, pro přírodní zdroje a koneckonců pro samotnou vznikající umělou strukturu. V jistém smyslu je možno začít uvažovat o pedagogice pro umělé struktury. Zde ale končí oblast etiky lidských tvůrců.
Umělá inteligence se začíná jevit jako potenciálně nejvlivnější technologie vůbec, jako nová fáze evoluce na technologické (artificiální) bázi. Evoluce, kterou snad můžeme zpočátku ovlivňovat, ale která pravděpodobně bude v dohledné době schopna vzít svůj vývoj do „vlastních rukou.“ Samovývoj inteligentních struktur nezávislý do značné míry na jejich tvůrcích se někdy nazývá „seed intelligence“.
Možnosti sebemodifikace inteligentních struktur jsou v limitě neomezené, v důsledku toho není možno se spoléhat na to, že jim implantujeme nějaká rigidní pravidla ve stylu Asimovových „Tří zákonů robotiky“. Vzhledem k neantropomorfnímu a nebiologickému charakteru předpokládaného vědomí, nemá také význam vnucovat jim postoje vzniklé na základě historických a kulturních souvislostí v lidské společnosti. Antropomorfní předpoklady vedou např. ke scénářům nutného zotročení lidí roboty [Warwick99]. U umělých struktur není nutno předpokládat biologicky podmíněné sebeprosazující tendence.
Předpoklad vědomí umělých struktur zakládá praktickou možnost autonomní regulace bez vazby na jejich tvůrce. Zakládá možnost etiky neantropomorfního umělého vědomí.
Sebeprosazení nemusí být jediná možná strategie úspěchu (fittness) v evolučním vývoji. Stejně tak dobře by to mohla být kooperace založená např. na empatii a z ní plynoucích ekvivalentů lidského soucitu [Goertzel02] a porozumění nebo dokonce lásky. Primitivní možnosti empatie u umělé inteligence zkoumá např. [Pickard98]. Damasio [Damasio00] zase ukazuje neoddělitelnost vědomí (u lidí) od emocí a hodnotových soudů.
Jaký je obsah pojmu „dokonalejší“, pokud bychom chtěli hovořit o umělých strukturách dokonalejších než člověk v etickém smyslu? Nemůže to být pouze univerzální orientace v komplexních situacích, rychlá sebemodifikace apod. Jako skutečně dokonalejší chápu strukturu, která je schopna (a ochotna) nezištného vhledu a empatie do druhých struktur Empatie jako závazný prožitek představy o vnitřním stavu druhého, včetně jeho neantropomorfních „strastí a slastí“. Empatie regulující vědomé chování směrem k minimalizaci obecného utrpení. Toto pojetí dokonalejšího je praktické i pro vědomé umělé struktury, neboť i ony samy budou řešit otázku rizik vývoje nových generací.
Literatura
[Altman02] Altman C.: Evolving Consciousness in Silico. Tucson IV: Towards a Science of Consciousness, 2002
[Bondy92] Bondy, E. (Fišer, Z.): Filosofické eseje II (Juliiny otázky, Doslov). Dharma Gaia, Praha, 1992
[Burian03] Burian J.: Nesubstanční ontologie, event a objekt/subjekt [online]. [cit: 25.2.2003].
[Damasio00] Damasio, A.: Descartův omyl. Mladá fronta, Praha, 2000
[Garis01] Garis de, H.:The Artilect War [online]. [cit. 10.1.2003].
[Garis03] Garis de, H.: AN ARTIFICIAL BRAIN: Using Evolvable Hardware Techniques to Build an Artificial Nervous System. Leonardo Journal, Vol. 36:1. MIT Press, 2003
[Goertzel02] Goertzel B.: Thoughts on AI Morality. Dynamical Psychology [online]. [cit.10.1.2003].
[Havel01] Havel, I.M.: Causal Domains and Emergent Rationality. CTS, 2001
[Hofstadter85] Douglas R. Hofstadter and Daniel C. Dennett: The Mind’s I. Bantam Books, 1985
[Heylighen89] Heylighen, F.: Self-organization, Emergence and the Architecture of Complexity. In: Proceedings of the 1st European Conference on Systém Science, (AFCET, Paris), 1989.
[Penrose99] Roger Penrose: Makrosvět, mikrosvět a lidská mysl. Mladá Fronta, Praha, 1999
[Pickard98] Rosalind Pickard: Affective Computing. MIT Press, Cambridge, MA, 1998
[Pribram99] Pribram, K. H.: Mozek a mysl. Vize 97, 1999
[Pstružina98] Pstružina, K.: Svět poznávání. Nakladatelství Olomouc, Olomouc, 1998
[Sekanina99] Sekanina L., Drábek V.: Evolvable hardware [online]. Electrorevue. 29.11.1999 [cit.14.1.2003].
[Warwick99] Warvick K.: Úsvit robotů, soumrak lidstva. Vesmír, 1999
Převzato: http://www.transhumanismus.cz/