Treba se bojati ljudi, a ne robota

Treba se bojati ljudi, a ne robota

Strah od robota i AI postoji zbog gubitka radnog mjesta. Prognoze gubitaka radnih mjesta iznose od 50 do 90 % u sljedećem desetljeću (Izvor ilustracije: https://technologytsunamialert.com/2020/08/10/ai-robotics-vs-unemployment/)

Umjetna inteligencija može naškoditi ljudima upravljajući raznim izvršnim uređajima. Nju stvaraju ljudi i oblikuju njen algoritam ponašanja. Ljudi su ti koji definiraju kako će AI funkcionirati, kako će „razmišljati“ i „zaključivati“

prof. dr. Gojko Nikolić

Gojko Nikolić

Poticaj za tekst je članak AI neće uništiti ljude, roboti dolaze u miru, (ZG-magazin, 2. rujna 2020.) Navedeni članak je napisan za široku publiku, koja malo zna o robotima i umjetnoj inteligenciji (AI, Artificial Intelligence), s namjerom da dade pozitivnu i uljepšanu sliku budućnosti suživota ljudi i robota. Potvrda je iskaz: „Misija članka je uvjeriti što više ljudi da me se ne trebaju plašiti.“

U članku se na neki način poistovjećuju umjetna inteligencija i roboti. Robotima upravlja umjetna inteligencija (AI), on je stroj koji fizički izvršava njene naloge.

Umjetna inteligencija može naškoditi ljudima upravljajući raznim izvršnim uređajima. U ovom slučaju namjena joj je pisanje teksta. Nju stvaraju ljudi i oblikuju njen algoritam ponašanja. Ljudi su ti koji definiraju kako će umjetna inteligencija funkcionirati, kako će „razmišljati“ i „zaključivati“. U članku je naznačeno da je članak napisao Open AI GPT-3, najmoderniji jezični model AI prema uputama ekipe „The Guardiana“, kojeg je sastavio Liam Porr, student informatike na Sveučilištu Berkeley.

Programu se zada tema s bitnim podacima, a ukupni tekst na tu temu napiše AI. Iz teksta je vidljivo da je u računalo uneseno više detaljnih informacija za pisanja eseja, i da to nisu „stavovi robota“, koji je „empatičan“ prema ljudima. Umjetna inteligencija GPT-3 u pravilu stiče svoje „znanje“ proučavajući razne podatke iz brojnih dostupnih izvora informacija. Na primjeru jedne rečenice vidi se da je student Liam Porr direktno unio i krivi tekst, jer to nije mogao biti „vlastiti zaključak“ ni „stav“ GPT-3. Rečenica u eseju glasi: „Roboti na grčkom [sic] znače »robovi«, ali riječ doslovno znači prisiljen raditi“ pokazuje neznanje tog studenta. Da je umjetna inteligencija dobivala svoje znanje proučavajući brojne tekstove i donosila zaključke tada bi pročitala u svakoj enciklopediji i udžbeniku o robotima da je robot češka riječ došla od riječi robota, koja označava tlaku odnosno kmetski rad. Prvi ju je upotrijebio 1920. pisac Karel Čapek u djelu R.U.R.

Inženjeri u OpenAI su 2019. godine stvorili AI pod nazivom Generative Pretrained Transformer 2 ili GPT-2. Razvili su umjetnu inteligenciju koja je imala jednostavan zadatak. Obzirom na zadane smjernice teksta, AI je trebala predvidjeti najvjerojatniju sljedeću riječ, odnosno rečenicu koja slijedi. Nakon treninga na 8×109 dokumenata što iznosi oko 40 gigabajta engleskog teksta, GPT-2 je pokazala iznenađujuće sposobnosti. Mogao je napisati stranice smislenog teksta. Mogao je čak sažeti i odgovoriti na pitanja o ulaznom tekstu. S obzirom na bilo koji upit, GPT-2 mogao je generirati količinu teksta po želji. Mogla je pisati čitave članke, zajedno s lažnim citatima znanstvenika. Umjetna inteligencija pokazala je razumijevanje zemljopisa cijelog svijeta, pa čak i nazivlja koje se koriste u različitim dijelovima.

Tvorci GPT-2 uplašili se vlastitog proizvoda

Tvorci GPT-2 su se uplašili svog proizvoda i doživjeli su ga toliko opasnim da su smatrali da bi bilo neodgovorno ponuditi ga javnosti. Ako dođe u neodgovorne ruke GPT-2 mogla bi biti iskorištena za stvaranje lažnih vijesti ili generiranje neželjene pošte. Manipuliranjem lažnim vijestima mogu se stvoriti ogromni problemi.

Jedan od tvoraca te umjetne inteligencije Tristan Greene rekao je: „Užasavam se GPT-2, jer predstavlja vrstu tehnologije koju će zli ljudi koristiti za manipulaciju ljudima – i po mom mišljenju to je čini opasnijom od bilo kojeg oružja.

Ipak nakon 9 mjeseci rasprave između OpenAI-a i „šire zajednice“, OpenAI je promijenio svoju odluku i sada je dostupan svima za upotrebu. Jezični model umjetne inteligencije GPT-3 je unaprijeđena verzija GPT-2.

U članku AI neće uništiti ljude, roboti dolaze u miru dotaknuta je ozbiljna tema roboetika o kojoj sam pisao u ZG-magazinu pod naslovom Je li »pametni« robot mehatronička osoba? Osnovni problem je odrediti pravila i okvire konstrukcije robota i načina rada umjetne inteligencije. To je bitno upravo iz razloga budućeg odnosa robota i ljudi, ali i ljudi i robota.

Sličnu namjenu kao i ovaj članak imao je i intervju 2017. s tada najnaprednijim i najpoznatijim humanoidnim robotom, ginoldom Sophiom. Poznata je po tome što je u jednom od prvih intervjua rekla da bi uništila ljude, a u kasnijm da ih voli ali „još ne zna zašto“. Smatra da bi je trebali slušati jer su „njene odgovore većinom napisali – ljudi“.

Ovi intervjui trebaju ublažiti crne prognoze koje navode poznati znanstvenici i vizionari razvoja tehnike. Mnogi su vrlo ozbiljno shvatili upozorenja koju je dao fizičar Stephen Hawking rekavši da bi pojava umjetne inteligencije mogla biti „najgori događaj u povijesti naše civilizacije“ ukoliko društvo ne pronađe način kontroliranja njenog razvoja, jer „računala u teoriji mogu oponašati ljudsku inteligenciju i nadmašiti je“.

Realan strah od gubitka radnog mjesta

Slično je izjavio i Elon Musk osnivač tvrtke Tesle i SpaceX, koji smatra da umjetna inteligencija „predstavlja veću prijetnju od nuklearnog oružja“. Uvjeren je da inteligencija koja bi nadmašila ljudsku i imala sposobnost improvizacije i donošenja odluka može naštetiti čovječanstvu. Posebno ga straši pametno oružje, koje bi se temeljilo na AI. Smatra da se danas stalno govori o ratnim bespilotnim letjelicama (dronovima), robotima i pametnom oružju svake vrste, a jako malo o tome što AI može pomoći na području medicine, obrazovanja, sprečavanja nestašica hrane, vode i drugih problema s kojima se suočava čovječanstvo. Kao rješenje vidi pravnu regulativu, vezanu za projektiranje robota i AI, odnosno definiranje i usvajanje postualata roboetike.

Strah od robota i AI postoji zbog gubitka radnog mjesta. Prognoze gubitaka radnih mjesta iznose od 50 do 90 % u sljedećem desetljeću. Po nekom srednjem scenariju procjenjuje se da će do 2030. godine 400 milijuna radnih mjesta u svijetu biti izgubljeno zbog primjene automatizacije, a 800 milijuna biti djelomično zamijenjeno automatizacijom. McKinsey procjenjuje da bi se u SAD moglo izgubiti između 16 i 54 milijuna radnih mjesta između 2016. i 2030. godine. Elon Musk, predviđa da će „Sigurno doći do nestanka posla, jer će roboti moći učiniti sve bolje od nas.

Nije sve tako pesimistično jer će se istodobno otvoriti isti broj ili čak i veći novih radnih mjesta, ali ona će tražiti nova znanja i vještine. Kao primjer može poslužiti dostupni podatak da je u desetljeću između 2006. i 2016. nestalo preko 51 milijun radnih mjesta, ali je otvoreno 179 milijuna novih. To je nešto što donosi razvoj društva i tome se treba sustavno prilagođavati posebno u području obrazovanja.

Realan strah, a koji na određeni način članak nastoji umanjiti, je spoznaja da umjetna inteligencije u procesima rada odabire najbolja, najednostavnija i najučinkovitija rješenja.

Ostale elemente ne uzima u obzir ili ih eliminira. Ako bi radila u nekom procesu s ljudima brzo bi ustanovila da su oni spori, nefunkcionalni i neprikladni za neki proces rada i da ih treba u krajnjem slučaju isključiti ili pak eliminirati. Odatle i opravdan strah ljudi od umjetne inteligencije koja će sigurno nadvisiti ljudsku i koja će upravlja svim procesima u društvu.

Umjetna inteligencija mora dobiti određeni oblik emocija i empatije prema ljudima u sklopu algoritma rada, što je zadatak znanstvenika i informatičara, kako bi mogla raditi u ljudskom okruženju i kontaktu s ljudima. O tome u jednom drugom članku.

Komentiraj

*