Stroka o UI: Vprašanje vloge UI v varnostnem in obrambnem sektorju čez prizmo etičnih dilem

0

Avtonomna orožja, ki vsebujejo sisteme umetne inteligence (UI) so bila v preteklosti predvsem predmet špekulacij in znanstvene fantastike, z napredki v računalniškem vidu, robotiki in integraciji UI z drugimi tehnologijami pa so dokončno prišla v polje uresničljivega. Strokovnjaki ob tem opozarjajo na etične dileme in pozivajo k regulaciji.

Tehnologija za razpoznavo obrazov, ki temelji na UI, je danes tako rekoč že nekaj vsakdanjega. Po trditvah stroke bo to kmalu veljalo tudi za tehnologijo načrtovanja in sledenja poti, ki omogoča avtonomna vozila. Tehnoloških ovir za razvoj avtonomnih orožij praktično več ni se strinjata Ivan Bratko in Danijel Skočaj, oba s Fakultete za računalništvo in informatiko (FRI) Univerze v Ljubljani, kjer tudi poučujeta.

Ključno je naučiti stroj, da razume kar vidi

Kot je razložil Skočaj, je računalniški vid eno ključnih področij, ki poleg številnih drugih aplikacij omogoča tudi razvoj avtonomnih orožij in videonadzornih sistemov. Računalniški vid je terminološko definiran kot področje računalništva, ki se ukvarja z algoritmi za analizo in interpretacijo slikovnih podatkov, na primer slike, videa ali oblaka 3D točk.

Metodološko se večina problemov računalniškega vida rešuje s strojnim učenjem, v zadnjem desetletju predvsem z globokim učenjem. To pomeni, da se stroj uči tako, da mu podamo veliko množico učnih slik in mu za vsako sliko povemo kaj je na njej, je pojasnil Skočaj. “Stroj se iz tega nauči razumeti kaj je na podobnih slikah in aplikacija tega je seveda zelo široka.”

Primer uporabe, s katerim se ukvarjajo v okviru Laboratorija za umetne vizualne spoznavne sisteme, ki ga vodi Skočaj, je denimo avtomatizacija nadzora kvalitete proizvodnje z detekcijo napak na površinah izdelkov in samovozeča plovila z detekcijo ovir na morski gladini. V laboratoriju so razvili tudi sistem za napovedovanje višine gladine morja na osnovi meteoroloških podatkov ali vremenske napovedi, ki je po besedah Skočaja natančnejši in pol milijonkrat hitrejši od obstoječih fizikalnih modelov.

Univerzalna metodologija omogoča reševanje širokega nabora problemov

Lepota problemov, vezanih na računalniški vid z globokim učenjem je po mnenju Skočaja ta, da se jih rešuje na zelo podoben način. “Primerna arhitektura modela ni ista za vsak problem, metodologija v ozadju pa je univerzalna, kot tudi postopek reševanja teh problemov.” To pomeni, da lahko z enako metodologijo globokega učenja, kot jo uporabljajo denimo za detekcijo ovir na morski gladini, model naučijo razpoznavati tudi človeška čustva z namenom uporabe v videonadzornih sistemih.

Uporaba sistemov za množično razpoznavo obrazov in čustev je sicer zaradi varovanja zasebnosti v Evropski Uniji zelo omejena, kar pa ne ustavlja razvoja takšnih sistemov v drugih državah, denimo na Kitajskem.

Tudi na širšem področju obrambne in vojaške industrije so potencialni primeri uporabe računalniškega vida in UI po Skočajevem mnenju številni, še posebej so pomembni v povezavi z učinkovitostjo in hitrostjo obdelave podatkov. “Sistem UI lahko veliko hitreje in natančneje detektira nekatere stvari kot človek, recimo razpozna jato dronov, ji sledi in po navodilih tudi ukrepa. Poleg tega lahko sistem UI procesira ogromno količino podatkov. Če vzamemo denimo satelitske slike, človeški analitiki ne morejo tako hitro pregledati tisoče slik in v njih zaznati sprememb kot sistemi, ki to delajo avtomatsko,” je dejal Skočaj.

Etične dileme in vprašanje regulacije v senci potencialne nove oboroževalne tekme

Z uporabo UI na različnih področij pa so povezane tudi nevarnosti in etične dileme – od zasebnosti podatkov do vprašanja človekovih pravic. Največ etičnih dilem in pomislekov pa gotovo sproža vprašanje integriranja UI v oborožene sisteme.

Kot je dejal Ivan Bratko, je ta izziv stroka prvič pomembno naslovila leta 2015, ko so ugotovili, da je tehnologija dovolj razvita za učinkovito uporabo v vojaške namene. Takrat je bilo na mednarodni konferenci IJCAI, enem najbolj vplivnih strokovnih srečan na področju UI, napisano odprto pismo s pozivom k prepovedi napadalnih avtonomnih orožij brez človeškega nadzora in preprečitvi še ene potencialne oboroževalne tekme. Med 20 tisoč podpisniki so bili tudi številni odmevni znanstveniki kot na primer Stephen Hawking, Kathryn McElroy, Stuart Russel, Demis Hassabis in Steve Wozniak.

Takrat je bilo v znanstvenih krogih razširjeno razumevanje, da je avtonomno orožje v primerjavi s konvencionalnim, še posebej pa jedrskim, bolj dostopno in cenejše, kar predstavlja veliko tveganje tako za zlorabo tega orožja s strani terorističnih organizacij kot tudi za možnost širitve vojn med državami, je pojasnil Bratko.

Eden glavnih razlogov za odprto pismo pa je bil po besedah Bratka etični vidik. “Avtonomna orožja imajo po definiciji to lastnost, da sama izberejo tarčo in se odločijo za napad in pri tej odločitvi seveda lahko naredijo napako – denimo namesto načrtovanih tarč lahko pobijejo otroke in v tem primeru so si nekateri obetali, da ker je stroj sprejel to odločitev, pravzaprav nihče ni kriv, nihče nima odgovornosti, za razliko od običajnih odločitev v vojskovanju.”

Diskusije o prepovedi napadalnih avtonomnih orožij so bile po besedah Bratka nekaj časa zelo žive, vendar so okoli leta 2020 precej potihnile. “Takrat je očitno prišlo do hudega odpora vojaško najmočnejših držav, ki so si od razvoja avtonomnih orožij obetale vojaško prednost. In te države so uspele mednarodne diskusije na to temo speljati na stranski tir.”

Bratko ob tem poudarja, da je proces regulacije, tako kot na številnih drugih poljih UI, ujet v dilemo med družbeno odgovornimi omejitvami in ohranjanju gospodarske oziroma v tem primeru vojaške konkurenčnosti. Oblikovanje konkretnih mednarodnih dogovorov in vgrajevanje varoval mora navkljub vse hitrejšem razvoju po mnenju Bratka ostati globalna prioriteta.

Napišite komentar

Vaš e-poštni naslov ne bo objavljen