Rozvoj technológií prináša nové výzvy aj v uplatňovaní etických princípov. Všeobecne platné etické princípy nie je možné jednoducho aplikovať na situácie súvisiace s robotmi a autonómnymi zariadeniami. Roboetika sa zaoberá uplatňovaním etických princípov pri vývoji robotov a všeobecne pri vývoji umelých inteligentných systémov.
Dnešné roboty sú vybavené pokročilými mechatronickými systémami, zložitými senzormi a predovšetkým sofistikovaným softvérom. Roboty nám pomáhajú v mnohých oblastiach – medicína, priemyselná výroba, záchranárske práce a pod. Okrem toho slúžia aj na zábavu a potešenie. Cieľom výskumníkov v robotike je zvyšovať autonómnosť robotov, pretože sa tým zvyšujú možnosti ich použitia v reálnom svete. Nejde len o autonómne vozidlá, vzdušné či podvodné roboty, ale aj o množstvo servisných robotov. Výskumníci v oblasti robotiky musia prijať morálnu zodpovednosť za výsledky svojej práce a už pri vývoji systémov s umelou inteligenciou zabezpečiť, aby ich konanie a správanie bolo v súlade s etickými princípmi.
Podľa štatistík ľudia v Európe akceptujú využívanie robotov v nebezpečnom prostredí, prípadne v prostredí, do ktorého sa ľudia nemôžu dostať, napríklad pri výskume vesmíru, výrobe v zdraviu ohrozujúcom prostredí, vyhľadávacích a záchranných operáciách, na vojenské a bezpečnostné účely. Na druhej strane je rozšírený názor, že roboty by sa nemali využívať – dokonca ich využitie by sa malo zakázať – pri starostlivosti o deti, starších a hendikepovaných ľudí. Je však dôležité, aby ľudia akceptovali prítomnosť robotov, aby sa ich nebáli, aby dokázali využiť ich potenciál na zlepšenie života a prostredia, v ktorom žijú. Dôležitou úlohou výskumníkov, vývojárov, konštruktérov, ale predovšetkým programátorov je preto už dopredu zvažovať potenciálne riziká a vyvíjať roboty, ktoré budú pre ľudí prijateľné a budú k nim priateľské. Povedané aj inak – roboty, ktoré budú morálne.
Ako vyvíjať morálneho robota?
Predpokladajme, že robot je vybavený dostatočnou umelou inteligenciou a schopnosťou učiť sa. Ak chceme robota učiť, čo je a čo nie je správne, potrebujeme nájsť vhodný formalizovaný zápis morálneho správania. Táto úloha nie je jednoduchá a samotní robotici ani vedci z oblasti umelej inteligencie ju nedokážu vyriešiť. Morálne hodnoty sú totiž rôzne pre rôzne typy ľudí. Súvisia s kultúrnym a spoločenským zázemím, s politickým a náboženským prostredím, s rodinnými a spoločenskými zvyklosťami. Rovnako sa líši aj dôležitosť, akú jednotlivci prikladajú dodržiavaniu daných noriem. Kým pre určitých ľudí a pre určité krajiny je napríklad úplne neprijateľné, aby sa na pláži opaľovali nahí ľudia, pre iných ide o prirodzené správanie a nepredpokladajú, že by sa ním mohli kohokoľvek dotknúť.
Americkí výskumníci Bertram Malle a Matthias Scheutz pracujú so svojimi tímami na vytvorení akéhosi základného slovníka morálky. Vychádzajú z toho, že pre určitú konkrétnu situáciu je možné vytvoriť všeobecne akceptovateľnú množinu etických princípov a noriem. Tieto normy je možné ohodnotiť z hľadiska ich dôležitosti pri rozhodovaní o tom, čo je správne a morálne. Predpokladajú, že keby získali takýto popis dostatočného množstva situácií, vedeli by vytvoriť sémantickú sieť morálnych princípov naviazaných na konkrétny kontext (krajina, doba, situácia). Takáto sieť by sa dala vložiť do robota a slúžila by na podporu jeho rozhodovania v danom kontexte morálne.
V súčasnosti však ešte nie sme tak ďaleko a vedci sa zaoberajú jednoduchšími problémami, ktoré im pomôžu overiť koncept, ako posilniť autonómne rozhodovanie robotov a súčasne zachovať ich správanie bezpečné a morálne. Experimentuje sa napríklad s uplatňovaním klasických zákonov robotiky, ako ich formuloval Isaac Asimov.
Pokračovanie článku si môžete prečítať v časopise Quark 10/2016.Časopis Quark si môžete objednať tu alebo na adrese: predplatne@quark.sk
Ing. Ivana Budinská, PhD.
Ústav informatiky SAV