Umetna inteligenca je danes v modi. V priljubljenih medijih se zdi, da običajni kibernetski sistemi skoraj minejo, saj se pisci osredotočajo na umetno inteligenco in pričarajo podobe vsega, od resničnih robotov Terminatorja do bolj benignih spremljevalcev. V obveščevalnih krogih kitajska uporaba televizije zaprtega kroga, tehnologije za prepoznavanje obrazov in drugih sistemov za spremljanje nakazuje prihod Big Brotherja – če ne čisto leta 1984, pa šele približno štirideset let pozneje. V Pentagonu se legije častnikov in analitikov pogovarjajo o dirki umetne inteligence s Kitajsko, pogosto s slutnimi opomini, da si Združene države ne morejo privoščiti, da bi bile druge v razredu na tem nastajajočem področju tehnologije. V političnih krogih se ljudje sprašujejo o etiki AI – na primer, ali lahko robotom res prenesemo možnost uporabe smrtonosne sile proti ameriškim sovražnikom, ne glede na to, kako slabi so. Novo poročilo odbora za obrambne inovacije določa široka načela za prihodnjo etiko umetne inteligence, vendar le na splošno, ki pušča še veliko dela.
posmrtna maska škotske kraljice Marije
Kaj vse to v resnici pomeni in ali je umetna inteligenca verjetno vse, kar je nastalo? Mislimo, da je odgovor zapleten in da je treba na to temo vreti zmerno dozo hladne vode. Dejansko bo za razvoj mnogih sistemov umetne inteligence, ki so danes predvideni, potrebna desetletja. Poleg tega se AI pogosto zamenjuje s stvarmi, ki ni. Natančnost koncepta bo bistvenega pomena, če želimo imeti inteligentne razprave o tem, kako v prihodnjih letih raziskati, razviti in regulirati AI.
Sistemi umetne inteligence so v bistvu računalniki, ki se lahko naučijo delati stvari s postopkom poskusov in napak z nekim mehanizmom, ki jim pove, kdaj imajo prav in kdaj se motijo – na primer izbiranje raket na fotografijah ali ljudi v množici, kot pri Pentagonovega projekta Maven – in nato uporabili tisto, kar so se naučili, za diagnosticiranje prihodnjih podatkov. Z drugimi besedami, z AI programsko opremo dejansko zgradi sam stroj. Širok računalniški pristop za določeno težavo vnaprej določijo resnični staromodni ljudje, dejanski algoritem pa ustvari računalnik s postopkom poskusov in napak, ko zaužije in obdeluje ogromne količine podatkov. Miselni proces stroja res ni tako prefinjen. Bolj kot inteligenco razvija umetne instinkte – preučuje ogromne količine neobdelanih podatkov in ugotavlja, kako prepoznati mačko na fotografiji ali raketni lansir na natrpani avtocesti, namesto da bi se globoko zamislil (vsaj v bližnji prihodnosti).
Ta definicija nam omogoča hitro prepoznavanje nekaterih vrst računalniških sistemov, ki v resnici niso AI. Morda so pomembni, impresivni in ključni za borca, vendar niso umetna inteligenca, ker ne ustvarjajo lastnih algoritmov iz podatkov in več ponovitev. Drugače rečeno, strojno učenje ni vključeno. Kot poudarja naš kolega Tom Stefanick, obstaja temeljna razlika med naprednimi algoritmi, ki obstajajo že desetletja (čeprav se nenehno izboljšujejo, saj so računalniki hitrejši), in umetno inteligenco. Obstaja tudi razlika med avtonomnim orožnim sistemom in robotiko, usmerjeno v umetno inteligenco.
Na primer, računalniki, ki vodijo križarsko raketo ali dron, ne prikazujejo AI. Sledijo dodelanemu, a vnaprej določenemu scenariju, pri čemer uporabljajo senzorje za sprejemanje podatkov in jih nato prenesejo v računalnike, ki nato s programsko opremo (ki so jo ljudje razvili vnaprej) določijo pravi naslednji korak in pravo mesto za detonacijo katerega koli orožja. To je avtonomija. To ni AI.
Zakaj je to pomembno? Prvič, zaradi tega bi morali manj zadihati glede umetne inteligence in jo videti kot en element v širši računalniški revoluciji, ki se je začela v drugi polovici dvajsetega stoletja in se je okrepila v tem stoletju. Prav tako bi nam moral pomagati videti, kaj je lahko ali pa ne realno in zaželeno urediti na področju prihodnjega vojskovanja.
Nekdanji podpredsednik Združenega poveljstva generalštabov general Paul Selva je pred kratkim trdil, da bi Združene države lahko bile približno desetletje oddaljene od zmogljivosti za izgradnjo avtonomnega robota, ki bi lahko odločal, kdaj ustreliti in koga ubiti – čeprav zatrdil je tudi, da Združene države dejansko nimajo načrtov za izgradnjo takšnega bitja. Če pa razmišljate drugače, imamo na nek način že eno generacijo avtonomne ubijalske stroje. Ta križarska raketa, o kateri smo razpravljali zgoraj, je bila nameščena od sedemdesetih let prejšnjega stoletja. Ima navodila, naj leti po določeni poti in nato detonira svojo bojno glavo brez človeka v zanki. In do devetdesetih let prejšnjega stoletja smo znali izdelati stvari, kot je skeet podstrelivo, ki bi lahko klatilo po bojišču in iskalo tople predmete, kot so tanki – s programsko opremo za odločanje, kdaj jih nato uničiti. Tako se je ubijalni stroj dejansko že odločal sam.
elizabeth i in marija škotska kraljica
Tudi če terminator generala Selve ne bo zgrajen, bo robotika v nekaterih primerih verjetno dobila večjo pristojnost za odločanje, kdaj uporabiti silo, saj smo ta prag dejansko že prestopili. Ta zelo težka tema zahteva skrben etični in pravni nadzor, vsekakor pa so povezana tveganja resna. Vendar pa bo hitrost, s katero se morajo izvajati vojaške operacije, ustvarila spodbude, da v mnogih taktičnih okoljih ne bo oseba v zanki odločanja. Ne glede na to, kar bi si imele Združene države raje, bi se o omejitvah avtomatizirane uporabe nasilne sile prav tako zdelo relativno težko pogajati (četudi zaželeno), glede na verjetno nasprotovanje Rusije in morda drugih držav ter velike težave s preverjanjem.
Na primer, majhni roboti, ki lahko delujejo kot roji na kopnem, v zraku ali v vodi, imajo lahko določeno svobodo pri odločitvi, kdaj bodo izvajali svoje smrtonosne sposobnosti. S komunikacijo med seboj in obdelavo informacij o sovražniku v realnem času bi lahko skoncentrirali napade tam, kjer je obramba najšibkejša, v obliki boja, ki ju John Allen in Amir Husain zaradi svoje hitrosti in intenzivnosti imenujeta hipervojna. Druge vrste rojev bi lahko napadle parkirana letala; celo majhen eksploziv, natančno detoniran, bi lahko onesposobil krila ali motorje ali povzročil sekundarne in veliko večje eksplozije. Številne države bodo imele zmogljivosti za takšne stvari v prihodnjih dvajsetih letih. Tudi če se ZDA poskušajo izogniti uporabi takih rojev v smrtonosne in ofenzivne namene, se lahko odločijo, da jih bodo uporabile kot obrambne ščite (morda proti severnokorejskemu topniškemu napadu na Seul) ali kot pripomoček za motenje, ki spremlja prodirajoča letala. Z UAV, ki lahko letijo deset ur in sto kilometrov, ki zdaj stanejo le več sto tisoč dolarjev, in kvadrokopterji z dosegom kilometra več ali manj, ki stanejo več ali manj sto dolarjev, so trendne linije jasne – in cenovna dostopnost uporabe številnih droni na organiziran način je očitno.
Kjer je ureditev možna in etično prepričljiva, omejuje geografski in časovni prostor, kjer lahko orožje, ki ga poganja umetna inteligenca ali drugi zapleteni algoritmi, uporabi smrtonosno silo. Na primer, zgoraj navedeni roji so lahko omogočeni le v bližini ladje ali na nebu v bližini DMZ v Koreji ali na majhni razdalji od vojaškega letališča. Morda bi bilo pametno tudi prepovedati, da stroji odločajo, kdaj bodo ubijali ljudi. Morda bi bilo mamljivo uporabiti tehnologijo za prepoznavanje obrazov pri prihodnjih robotih, da bi lovili naslednjega bin Ladna, Bagdadija ali Soleimanija v velikem mestu na Bližnjem vzhodu. Toda možnost za napake, vdore in številne druge okvare je morda prevelika, da bi dovolili takšne stvari. Verjetno je smiselno tudi prepovedati uporabo umetne inteligence za napad na infrastrukturo za jedrsko poveljevanje in nadzor velike jedrske sile. Takšni poskusi bi lahko povzročili njihovo uporabo ali izgubili strah v prihodnji krizi in s tem povečali tveganje jedrske vojne.
Smo v zgodnjih dneh AI. Ne moremo še začeti predvidevati, kam gre in kaj lahko omogoči čez deset, dvajset ali trideset let. Lahko pa se bolj potrudimo, da razumemo, kaj pravzaprav je – in tudi dobro premislimo, kako postaviti etične meje pri njegovem prihodnjem razvoju in uporabi. Prihodnost vojskovanja, v dobrem ali slabem, je dobesedno ogrožena.