EU razmatra uvođenje pravnog statusa “elektronička osoba”

EU razmatra uvođenje pravnog statusa “elektronička osoba”

(Ilustracija: Boris Jagačić)

Raspravljat će se i o uvođenju univerzalnog osnovnog prihoda kao strategije za rješavanje moguće masovne nezaposlenosti koja bi mogla proizaći iz robotike koja zamjenjuje sve veći dio radne snage

Odbor za pravna pitanja u Europskom parlamentu zaprimio je nacrt izvješća u kojem se predlaže da roboti budu opremljeni s prekidačem za isključivanje (kill switch) kako bi se zadržao nadzor u potencijalno opasnim situacijama u području razvoja autonomnih robota koji sami uče.

Izvještaj koji je nedavno odobrio Odbor za pravna pitanja sadrži niz prijedloga za rješavanje mogućih pravnih i etičkih pitanja koja bi mogla nastati kroz razvoj autonomne umjetne inteligencije. Među njima se ističe uspostava Europske agencije za robotiku i umjetnu inteligenciju, ali i poziv na raspravu o uvođenju univerzalnog osnovnog prihoda kao strategije za rješavanje moguće masovne nezaposlenosti koja bi mogla proizaći iz robotike koja zamjenjuje sve veći dio radne snage.

Tri zakona robotike

Govoreći o robotskim imitacijama ljudi spominje se i roman Frankenstein autorice Mary Sheley, a naknadno se predlaže kako bi se roboti trebali konstruirati primjenjujući tri zakona robotike kako je to sugerirao ZF pisac Isaac Asimov:

  Robot ne smije naškoditi čovjeku ili svojom pasivnošću dopustiti da se čovjeku naškodi.

  Robot mora slušati ljudske naredbe, osim kad su one u suprotnosti s prvim zakonom.

  Robot treba štititi svoj integritet, osim kad je to u suprotnosti s prvim ili drugim zakonom.

Raspravlja se i o pitanjima identifikacije zakonske odgovornosti u vezi s mogućim štetnim djelovanjem robota. Kako roboti razvijaju kognitivne sposobnosti, koje im uz sposobnost učenja iz iskustva omogućava donošenje neovisnih odluka, pitanje oko pravne odgovornosti zahtjeva hitan odgovor. U izvješću se otvara pitanje odgovornosti samog robota za njegove postupke, ali i okolnostima kada bi odgovornost padala na proizvođača, vlasnika ili korisnika robota.

Zanimljivo je da se predlaže proporcionalna ljestvica odgovornosti. Što su robotova sposobnost učenja i autonimija veći, to bi manja trebala biti odgovornost ostalih aktera, a što je duže trajala robotova »edukacija« tim bi veća trebala biti odgovornost njegova »učitelja«.

Jedan od prijedloga je i da se za robote uvede polica obaveznog osiguranja, slično kao i za automobile, kako bi se osiguralo pokriće za eventualne štete koje bi počinili roboti.

Izvještaj ide toliko daleko da otvara pitanje treba li se uvesti pravni pojam »elektronička osoba« koji bi, slično kao što je slučaj s fizičkom i pravnom osobom (tvrtkom) nosio određena zakonska prava. Spomenimo, međutim da se oko ideje o davanju bilo kakvih zakonskih prava robotima već godinama vode uzavrele rasprave.

Problematična provedba

Situaciju će dodatno zakomplicirati balansiranje između ideje da se robotima dodijeli nekakav oblik zakonskih prava zajedno s prijedlogom obavezne ugradnje sklopke uza gašenje (kill switcha) što otvara problematične proturječnosti.

Ideja o takvoj sklopki nije nova. Znanstvenici tvrtke DeepMind u vlasništvu Googlea lani su predložili uvođenje »velikog crvenog gumba« kojim bi se umjetnu inteligenciju moglo zaustaviti u provođenju, odnosno nastavku nekih štetnih aktivnosti. To bi moglo biti teško provedivo u praksi sa strojevima koji imaju uče sami. Uostalom, umjetna inteligencija može naučiti prepoznati radnje koje pokušava izvesti ljudski kontrolor te takve radnje može preduhitriti (pokušati izbjeći) ili, u najgorem slučaju, naučiti kako onemogućiti svoj »veliki crveni gumb«.

Istraživači iz DeepMind-a predložili su da se se u svakog robota s prekidačem ugradi program s oblikom selektivne amnezije koja će dovesti do toga da robot »zaboravi« da je ikada bio prekinut ili sputan.

Ironično, »veliki crveni gumb« stvara preduvjete da se pravna odgovornost prebaci na vlasnika robota koji bi bio odgovoran zbog nemara jer nije prekinuo eventualno štetno djelovanje robota i aktivirao prekidač.

Kristalno je jasno da su pitanja otvorena u ovom izvještaju EU-a prava noćna mora »što ako« situacija i sivih zona, ali svakako su one s kojima se vlade i regulatorna moraju uhvatiti u koštac prije ili kasnije. Europska komisije će o prijedlozima raspravljati i glasati u veljači, a usvojene odluke u konačnici mogu biti okvir zakonskih rješenja kojima bi se regulirala predstojeća istraživanja na području umjetne inteligencije.

Pripremio: Boris Jagačić

(Izvor: Europski parlament / New Atlas)