Aseiden automatisointia on sinänsä tehty jo pitkään, mutta useimmat niistä reagoivat hollantilaisen Frank Slijperin mukaan staattisina ulkoa tulevaan uhkaan kuten ohjukseen tai lentokoneeseen. Teknologian kehitys on kuitenkin tekemässä aseista itsenäisempiä. Sotilasdroonit ovat olleet kauko-ohjattuja, mutta ne ovat saamassa kyvyn valita maalinsa itse.
Erityisen huolestuttavana Slijper pitää nimellä loitering munition (”vaaniva ase”) tunnettua asetta, joka on kuin puoliksi lennokki ja puoliksi ohjus. Se liitelee kohdealueen yllä, tunnistaa kohteita ja iskee sitten.
Hakkeroinnin uhka kasvaa autonomisia aseita käytettäessä.
– Autonomisia aseita ovat ”tavanomaisten epäiltyjen” kuten Yhdysvaltain ja Israelin ohella kehittäneet muutkin. Esimerkiksi turkkilainen STM-yhtiö on kehittänyt hyvin pitkälle autonomisen lennokin, joka valitsee kohteen hahmontunnistuksen avulla. Joukko niitä voi operoida parvena yhdessä.
Turkki ilmoitti syksyllä sijoittavansa 30 tällaista droonia Syyrian rajalle.
Vielä pitemmälle mennään, jos ase perustuu kasvontunnistukseen. Irlantilaisen Laura Nolanin mukaan Yhdysvaltain tuorein arvio on, etteivät koneet ole vielä tarpeeksi hyviä tähän, vaan tarvitaan ihminen tekemään päätös.
– Kasvontunnistuksen käyttäminen asejärjestelmässä voi aiheuttaa hyvin traagisia seurauksia. Esimerkillä lentokentällä kasvontunnistusta on helpompi käyttää, kun henkilön täytyy pysähtyä, katsoa tiettyyn suuntaan ja odottaa, että hänet on tunnistettu. Kriisialueella tunnistuksen kohteet eivät tee yhteistyötä. Tarkkuus on paljon, paljon pienempi.
’Nolan ja Slijper toimivat molemmat aktiivisesti autonomisten aseiden sääntelyä vaativissa järjestöissä. Kansainvälinen Campaign to Stop Killer Robots kokoaa yhteen lukuisia kansalaisjärjestöjä. Mukana ovat muun muassa Amnesty ja Human Rights Watch.
Suuri eettinen ongelma
Nolan sanoo, että on helppo saada autonomiset aseet ampumaan ihmisiä, mutta on eri asia saada ne toimimaan kansainvälisen oikeuden mukaisesti.
– Tositilanteessa aseet joutuvat toimimaan monimutkaisessa ympäristössä. On erilaisia sääoloja ja maastonmuotoja, alueen ihmisten erilaisia kulttuurisia tapoja. Autonominen ase voi sekoittaa jäniksiä ampuvan pojan tai ilmaan ampuvat häävieraat sotilaisiin. Sen pitää tehdä ratkaisunsa nopeasti.
Nolanin mielestä keskeinen ongelma syntyy siitä, jos päätös ihmishengen viemisestä annetaan koneelle, joka ei ymmärrä ihmiselämän arvoa.
– Tällaisten päätösten pitäisi olla ihmisen käsissä. Autonominen ase on vain laskukone ilman kulttuurista ymmärrystä.
– Jo lennokkisodankäynti vei fyysisen etäisyyden tappajan ja tapettavan välillä suuremmaksi. Se on tehnyt seuraavan askeleen hyväksytymmäksi. Kun ei enää tarvita ihmistä analysoimaan tiedustelutietoja eikä tekemään laukaisupäätöstä, tulee tekoon moraalinen etäisyys.
Nolanin mukaan on suuri eettinen ongelma siirtää sodankäynnin rutiinitehtävät koneille. Se vähentää pidäkkeitä olla sotimatta. Ei tarvitse muuta kuin käyttää rahaa ja valmistaa koneita.
Frank Slijper toteaa, ettei autonomisiin aseisiin tarvita suurta sotateollisuutta. Niitä tekevät isotkin yhtiöt, mutta niitä tehdään myös esimerkiksi Arabiemiraateissa, Pakistanissa, Turkissa ja Intiassa. Tällaisten aseiden leviämisen myötä laskee kynnys käyttää niitä ja on helpompi aloittaa konflikti.
Nolanin mukaan tavalliset ”kaupan hyllyltä” saatavat osat riittävät, autonomisuus tulee aseissa käytettävistä tietokoneohjelmista.
”Autonominen ase on vain laskukone ilman kulttuurista ymmärrystä.”
– Ainoa syy tarvita autonomisia aseita on reagoiminen ihmisen toimintaan. Emme ole maailmassa, jossa autonomiset aseet taistelisivat toisiaan vastaan. Jos on ennalta tunnettu kohde, sinne voidaan ampua ohjus, siihen ei tarvita autonomisia aseita.
Nolan sanoo, että tulemme näkemään aseita, jotka voivat visuaalisen tunnistuksen sijasta määritellä kohteensa vaikkapa puhelinten SIM-korttien tunnistamisen perusteella.
Hakkeroinnin uhka
Laura Nolan työskenteli aiemmin Googlen tietokoneinsinöörinä Irlannissa. Hän oli vuonna 2018 yksi kolmesta tuhannesta Googlen työntekijästä, jotka vaativat irtautumista Maven-projektista eli yhteistyöstä Yhdysvaltain puolustusministeriön kanssa lennokkien tiedustelukuvan automaattiseksi analysoimiseksi. Myöhemmin Nolan erosi protestiksi Googlesta.
Lopulta Google päätti hylätä jatkosopimuksen projektista.
– Monimutkaisissa järjestelmissä turvallisuus tulee ihmisistä. Vain ihmiset kykenevät ymmärtämään tilanteet ja tekemään harkittuja ratkaisuja. Koneet ovat vain toimijoita, ne on ohjelmoitu. Ihmisen pitää voida puuttua peliin ja saada kone peruuttamaan, sanoo Nolan.
Nolan uskoo, että hakkeroinnin uhka kasvaa autonomisia aseita käytettäessä. Tarkkailemassa ei ole ihmistä, joka voisi huomata hakkeroinnin. Autonominen ase saattaa toimia kokonaan viestintäyhteyden ulkopuolella.
Nolan ei myöskään usko, että autonomisia aseita voitaisiin testata kaikkia mahdollisia tilanteita varten.
– Ei ole vastuullista ottaa niitä käyttöön, sillä niiden toimintaa ei voi ennakoida kaikissa tilanteissa. Teknologia ei ratkaise perusongelmaa, vaan se palautuu ihmisen kykyyn tehdä päätöksiä.
Jo tietoisuus automaattisesta valvonta- ja iskukyvystä tuhoaa yhteisöllisyyttä, kun ihmiset eivät uskalla kokoontua yhteen.
Ei ole säännelty
Tällä hetkellä autonomisten aseiden kehittämistä ja käyttöä ei säännellä millään tavalla. Vuodesta 2014 lähtien ne ovat olleet mukana Genevessä käytävissä tavanomaisia aseita koskevissa neuvotteluissa (CCW). Frank Slijperin mukaan nyt ollaan tienhaarassa.
– Toisaalta nyt on paljon enemmän ymmärrystä ongelmasta ja monet maat katsovat, että tarvitaan jonkinlaista sääntelyä. Mutta toisaalta on ryhmä teollisesti edistyneitä valtioita – kuten Yhdysvallat, Venäjä, Israel, Australia ja Britannia – jotka yrittävät tehdä niin vähän kuin mahdollista. CCW:ssä päätökset tehdään yksimielisesti, joten yksikin maa pystyy torppaamaan edistymisen.
– Jossain vaiheessa rajoitusten vaatijoiden eteen tulee kysymys siitä, onko tämä oikea tie vai pitääkö hakea toisia reittejä joko YK-järjestelmän sisällä tai sen ulkopuolella, niin kuin maamiinojen kanssa tehtiin, Slijper pohtii.
Hän kertoo, että autonomisten aseiden vaaroista varoittavat ovat kysyneet myös yhtiöiltä, miten ne suhtautuvat kehitykseen.
– Mihin vedätte rajan? Mikä on mielestänne hyväksyttävää? Oletteko puhuneet työntekijöidenne kanssa?
Suomen hallitusohjelmassa on esitetty tavoitteeksi edistää autonomisten aseiden globaalia sääntelyä.
Kiinan kasvontunnistus
Slijperin mukaan Kiina on tietyssä mielessä erityistapaus. Se on turvallisuusneuvoston pysyvistä jäsenistä osoittanut eniten yhteistyöhalua. Kiina sanoo haluavansa sopimuksen, mutta siihen pitäisi kuitenkin sisältyä mahdollisuus tehdä tutkimus- ja kehitystyötä.
– Kysymys liittyy suurelta osin kilpajuoksuun Kiinan ja Yhdysvaltain välillä: kumpikin pyrkii sotilaalliseen, taloudelliseen ja teknologiseen johtajuuteen. Kiinassa on nyt valtavia yhtiöitä, joista ei vielä kymmenen vuotta sitten tiedetty mitään, ja ne käyttävät esimerkiksi kasvontunnistusta.
Autonominen ase voi tulkita jäniksiä ampuvan pojan sotilaaksi.Hakkeroinnin uhka kasvaa autonomisia aseita käytettäessä.
Slijper toteaa, että esimerkiksi Alibaba-yhtiö saa Kiinan hallituksen tietokannoista lähes puolentoista miljardin kiinalaisen kasvot kehitystyönsä tueksi. Tämä on etu amerikkalaisiin yhtiöihin nähden, joilla ei ole samanlaista määrää.
Laura Nolan huomauttaa, että koska kasvot ovat kiinalaisia, niistä ei ole paljon hyötyä muiden etnisten ryhmien tunnistamisessa. Slijper toteaa kuitenkin, että hänen tietääkseen Kiina on tehnyt sopimukset Zimbabwen ja Ugandan kanssa, ja lisäksi Kiina varmasti kuvaa maahan saapuvat länsimaalaiset.
Vielä jokin aika sitten robottiaseisiin kriittisesti suhtautuvat pitivät tavoitteena sitä, että niistä saataisiin sopimus aikaan vuonna 2021. Nyt Frank Slijper myöntää, että ensi vuonna ei saada sopimusta.
– Mutta tämä on nähty ennenkin. Yhdessä yössä ei saatu aikaan sopimusta kemiallisista aseista, ei rypäleammuksista eikä maamiinoista, mutta lopulta ne tehtiin.
Haastattelu tehtiin ennen koronakriisistä johtuvia matkustusrajoituksia.