Laura Nolan omtales som en av Googles tidligere fremste dataingeniører i Irland, og ekspert innen stabilitet i systemer og infrastruktur. Via Google ble hun i 2017 involvert i et prosjekt kalt Project Maven.

Prosjektet var et samarbeid med det amerikanske forsvarsdepartementet, og oppgaven var å utvikle kunstig intelligent teknologi som kunne tolke informasjonen i videobilder fra droner.

Å spole seg gjennom timesvis med droneopptak for å vurdere innholdet og eventuelt definere mål, krever både mye tid og mange mennesker. Nolan og teamet skulle utvikle kunstig intelligens som var i stand til å skille og gjenkjenne mennesker og objekter svært mye raskere.

Les også: Kinas supersoniske våpen omtales som «en flygende dødsdom»

Project Maven er et pilotprosjekt igangsatt av Pentagon våren 2017.

Ifølge generalløytnant Jack Shanahan i Det amerikanske luftforsvaret er prosjektet designet for være «det pilotprosjektet, den stifinneren, den gnisten som nører flammen kunstig intelligens skal bli i hele Forsvarsdepartementet».

Sjefen for Luftvåpenet understreket senere at systemene skulle fungere i samarbeid med mennesker.

Men for Nolan var det noe som ikke stemte. Hun kjente på en «stadig sterkere etisk bekymring», og valgte å si opp jobben i Google, skriver britiske The Guardian.

– Det var min jobb å sikre at systemene og infrastrukturen vår var oppe og gikk. Selv om jeg ikke utviklet bildegjenkjenningen direkte, innså jeg at jeg likevel var en del av «drapskjeden» – at dette til sist ville føre til at flere mennesker ble et mål og drept i amerikanske militæroperasjoner i steder som Afghanistan, sier Nolan til avisen.

Les også: Airbus har avslørt framtidens kampfly

Nå tar Laura Nolan til orde for å forby autonome våpen – såkalte «drapsroboter» – som ikke blir kontrollert av mennesker. I verste fall, hevder Nolan, kan slike våpen starte en krig ved et uhell eller forårsake ekstreme grusomheter.

Utvikleren mener autonome våpen må forbys på lik linje med kjemisk krigføring.

– Det er fare for ulykker i enorm skala fordi disse tingene kan begynne å oppføre seg på en måte som ikke er tilsiktet. Det er derfor alle avanserte våpensystemer bør være underlagt betydelig menneskelig kontroll, ellers er de altfor farlige og uforutsigbare, sier Nolan til avisen.

Hun mener det er umulig å forutsi alle situasjoner en slik drapsmaskin kan havne i, og at en maskin vil mangle evne til å utvise skjønn bruke «sunn fornuft».

FREMTIDEN: Videoen nedenfor viser hvordan små droner som slippes ut av jagerfly kan danne en potensielt svært effektiv dronesverm:

Ifølge kampanjen «Stopp drapsroboter», som Laura Nolan deltar i, ønsker 28 land, 110 ikke-statlige organisasjoner, 4500 eksperter på kunstig intelligens, EU-parlamentet og over 60 prosent av befolkningen et forbud mot autonome våpen.

De peker på i hovedsak seks problemer, deriblant at USA, Kina, Russland, Storbritannia alle er i gang med utviklingen av slike system og at det kan bli lettere å gå til krig når mennesker byttes ut med maskiner. Videre frykter de at slike roboter også kan bli brukt til å patruljere grenser og i politiarbeid.

Les også: Kunstig superintelligens – vår redning eller undergang?

Kan få alvorlige følger for mennesker

Nolan er i et celebert selskap når det gjelder bekymring for hva kunstig intelligens kan føre til. Både Tesla- og SpaceX-gründer Elon Musk og avdøde fysiker Stephen Hawkings har tegnet mildt sagt ubehagelige scenarier dersom kunstig intelligente maskiner utvikler såkalt superintelligens og begynner å anse mennesker som en fiende.

Stephen Hawking døde i mars 2018. I et intervju med den britiske utgaven av magasinet Wired kort tid før han døde kom han med en direkte skremmende advarsel.

Hawkings skrekkscenario var en kunstig, superintelligent livsform i stand til å spre seg som virus.

– Jeg frykter at kunstig intelligens kan erstatte mennesker helt, sa han.

– Hvis folk designer datavirus, kommer noen til å designe kunstig intelligens som forbedrer og kopierer seg selv. Dette vil være en ny form for liv som utkonkurrerer mennesker, uttalte Hawking.

Les også: Supervåpen skulle legge New York i ruiner

Elon Musk har tatt til orde mot kunstig intelligens en rekke ganger, og frykter at teknologien kan få alvorlige følger for oss mennesker. I verste fall tror han kampen om kunstig intelligens kan lede til tredje verdenskrig.

– Kampen for å lede innen kunstig intelligens, er etter min mening den mest sannsynlig årsaken til tredje verdenskrig, skrev Elon Musk på Twitter.

Uttalelsen kom i kjølvannet av en tale Russlands president Vladimir Putin holdt for studenter i byen Jaroslavl i september 2017.

I talen hevdet den russiske presidenten at den nasjonen som blir ledende innen kunstig intelligens kan få herredømme over verden.

– Kunstig intelligens er framtiden, ikke bare for Russland, men for menneskeheten. Det har kolossale muligheter, men også farer som er vanskelige å forutsi. Den som blir ledende på dette området, vil styre verden, sa Putin, ifølge Russia Today.

Les også: USA mistet topphemmelig fly i Iran. Nå bygger Russland denne kampdronen

Ikke bare dommedag

Langt fra alle maler et like svart bilde av en framtid med kunstig intelligent teknologi.

Facebooks Mark Zuckerberg og Microsoft-gründer Bill Gates er blant dem som tror denne formen for teknologi kan være til stor hjelp for mennesker og i stand til å forandre samfunn på en positiv måte.

Forskning tyder på at maskiner er langt bedre enn mennesker til å gjenkjenne mønstre.

Ett artig eksempel er sjakkspill, men for mange kan egenskapen potensielt redde liv. Maskiner har vist seg gode til å analysere svært sammensatte mønstre også – og har gitt korrekte kreftdiagnoser der leger ikke oppdaget tegnene.

Innen medisin ser en for seg at mennesker vil ha stor nytte av kunstig intelligens. De største bekymringene kommer i sammenheng med våpenutviklingen.

Sammen med 115 teknologiledere har Musk oppfordret FN til å utvikle reguleringer for hvordan kunstig intelligente våpen skal utvikles og et forbud mot autonome våpen.

Gruppen frykter teknologien vil være ensbetydende med en «tredje revolusjon innen krigføring». Utviklingen av krutt var den første revolusjonen, atomvåpen den andre.

Les også: Sukhoi Su-57 er Russlands 5. generasjons kampfly – det har et alvorlig problem

Tror ikke på Terminator-roboter

Anders Kofod-Petersen er visedirektør ved Alexandra Instituttet og professor i kunstig intelligens ved Norges Teknisk-Naturvitenskapelige Universitet (NTNU).

Han forteller til Nettavisen at han ikke har tror på skrekkscenarier hvor Terminator-liknende roboter går til krig mot menneskeheten. Han understreker at kunstig intelligens også kan være helt fantastisk.

I våpenindustrien er han imidlertid svært skeptisk til kunstig intelligens. En selvkjørende bil er for eksempel noe veldig fint. Men med en kanon på taket har du plutselig noe veldig ille.

– Vi må gjøre vårt ytterste for å hindre kunstig intelligens i våpenindustrien. Vi bør absolutt være redd for at kunstig intelligens kan så oss ihjel, sier Kofod-Petersen til Nettavisen.

Han sier at med autonome våpen forsvinner en av de viktigste bremsene for krig vi har.

– Det som stopper en krig i dag, og som er den viktigste motivasjonen for å unngå konflikt, er at våre egne barn blir drept. Når våpnene blir autonome, dør ikke våre barn lenger, og det er mye lettere å starte konflikter.

Les også: USS Pennsylvania kan utslette hele kontinent

Kampen mot autonome våpen har pågått i flere år allerede. Anders Kofod-Petersen registrerer at situasjonen i dag er både bedre og verre enn i 2017.

– Det har blitt bedre på den måten at det er en voksende bevissthet rundt dette problemet, både blant eksperter og befolkningen. På den andre siden ser vi at slike våpen blir brukt i stadig større grad.

– Så det er både bedre og dårligere.

Les også: Fiendens verste mareritt

– Kan blir helt akterutseilt

Morten Hansbø er forsker ved Forvarets forskningsinstitutt med robotikk og kunstig intelligens som spesialfelt.

På instituttets nettsider argumenterer Hansbø for at robotkrigen kommer enten vi vil eller ei, og frykter at Forsvaret kan bli helt akterutseilt om vi ikke blir med i våpenkappløpet.

– Flere av våre potensielle og nåværende motstandere har en offensiv holdning til ny teknologi. De bryr seg lite om regulering, lovverk eller skikk og bruk. Vi står potensielt overfor en «Do it yourself war» eller «Maker Warfare», der det er vanskelig å vite hva vi vil møte, sier han.

– Dersom vi selv ikke evner å være ledende innen bruk av roboter, vil robotisering av stridsfeltet garantert forverre situasjonen for våre egne styrker, sier han i et intervju med Vi Menn.

Forskeren sier at robotisering sparer kostnader og vil gi bedre kampkraft med mindre budsjetter. Han påpeker at en høyteknologisk land som Norge kan hevde seg på dette området.

– På sikt bør vi ta i bruk autonome våpen og «kamp-roboter», innenfor strenge rammer. Noe annet ville være etisk uforsvarlig. Robotteknologi og kunstig intelligens gir store muligheter for en liten høyteknologisk nasjon som Norge, sier Hansbø.

Anders Kofod-Petersen sier han forstår argumentasjonen til Hansbø, og peker på at Kongsberg Gruppen allerede utvikler noen av verdens mest avanserte og autonome våpen gjennom sine missiler.

Han spør seg samtidig hvilken samfunnsverdi det ligger i å «være med på festen».

– En må spørre seg som hvilken samfunnsverdi en vil ha, og noen ganger trumfer samfunnsverdien pragmatismen. Vil man virkelig være med på utviklingen, så burde man fokusere på hvordan man beskytter seg mot autonome våpen, sier Kofod-Petersen.