
M氓 krigsrobotter selv beslutte at dr忙be?
Lektor Anne Gerdes forsker i de etiske v忙rdier, som vi bygger ind i it-systemer. Det er v忙rdier, der kan f氓 stor indflydelse p氓 fremtidens krige.
Hvad forsker du i?
- Jeg forsker i it-etik, og et af mine aktuelle fokuspunkter er d酶delige autonome v氓bensystemer.聽 Der bliver i dag brugt rigtig mange forskningsmidler p氓 krigsrobotter, blandt andet i USA, og der er verden over interesse for v氓bensystemer, hvor ansvaret for liv og d酶d i stigende grad uddelegeres til en maskine. Men det er en afg酶rende etisk gr忙nse, om det er et menneske eller en maskine, der afg酶r, om et menneske skal dr忙bes eller ej.
Indtil videre tr忙ffer ingen krigsrobotter afg酶relser om liv og d酶d p氓 egen h氓nd, men vi er bet忙nkeligt t忙t p氓. For eksempel har den amerikanske fl氓de et forsvarssystem, Phalanx, der selv kan opdage fjendtlige missiler, vurdere trusselsniveauet og eliminere de fjendtlige missiler.
Hvad taler for krigsrobotter?
- Fortalerne for krigsrobotter mener, at det vil v忙re etisk uforsvarligt ikke at g氓 skridtet videre og udvikle robotter, der f氓r magt til selv at dr忙be fjender. De mener, at robotter 鈥 hvis de er programmeret rigtigt -聽 vil v忙re bedre til at f酶lge krigens regler end mennesker, som m氓ske lader sig rive med af deres f酶lelser eller kan v忙re s氓 udmattede og uligev忙gtige, at de g氓r amok.
En robot vil s氓ledes aldrig beg氓 krigsforbrydelser, f.eks. voldt忙gt eller andre affektstyrede overgreb p氓 civile.
Hvad taler imod krigsrobotter?
- Der vil altid v忙re noget, som vi ikke kan tage h酶jde for, n氓r vi programmerer robotter, og da en robot hverken har intuition, situationsfornemmelse eller medmenneskelighed, kan der opst氓 situationer, hvor det g氓r grueligt galt, f.eks. at robotten i en given krigssituation ikke vil v忙re i stand til at skelne venner fra fjender eller civile fra soldater og derfor 氓bner ild mod de forkerte.
Men det handler ikke kun om, at en robot kan fejle, for det kan mennesker jo ogs氓. Det handler om, at vi som mennesker skal tage ansvaret for de handlinger, der beg氓s i krigssituationer.
Hvis vi giver robotter magt til selv at afg酶re, om et menneske skal dr忙bes eller ej, sker der en dehumanisering. Det vil聽 ogs氓 p氓virke v忙rdigheden i krigshandlingen. I dag kan vi 鈥 if酶lge internationale love om krigsf酶relse 鈥 straffe krigsforbrydere og p氓 den m氓de give ofrene聽 oprejsning. Men tanken om at stille en maskine for en krigsdomstol er absurd og bl.a. derfor kan ansvaret heller ikke uddelegeres til en maskine.聽 At placere ansvaret hos producenten eller en overordnet milit忙r person er heller ikke en gangbar l酶sning.
Robert E. Lee, der var general i den amerikanske borgerkrig, har skrevet, at det er godt, at krig er s氓 forf忙rdelig, for ellers ville vi blive alt for begejstrede for krig. Et land, der g氓r i krig, er i dag bevidst om, at det risikerer store tab af menneskeliv, og derfor betragtes krig som sidste udvej i en konflikt.
Men hvis聽 landet f氓r mulighed for at anvende autonome robotv氓ben, som kan minimere risikoen for, at landets egne soldater involveres i krigshandlinger, kan man frygte, at det bliver lettere for magthavere at argumentere for krig. Autonome v氓ben kan s氓ledes 酶ge det globale konfliktniveau.
En robot kan muligvis programmeres med krigens love, men dens virkelighed er nuller og ettaller. En robot er ikke d酶delig og den har ikke moral eller foruds忙tninger for at forst氓 menneskelige v忙rdier. Derfor skal autonome v氓bensystemer ikke tildeles magt over menneskeliv.
Hvad kan din forsknings bruges til?
- Det er vigtigt, at vi har en debat om de etiske v忙rdier i de it-systemer, der er under udvikling, hvad enten det drejer sig om v氓bensystemer eller overv氓gningssystemer, hvor vi skal balancere mellem samfundets sikkerhed og den enkelte borgers privatliv.
Vi skal s酶rge for, at udvikling ikke kun handler om de teknologiske muligheder, men ogs氓 om hvordan etiske v忙rdier h氓ndteres i de forskellige it-systemer, og hvordan vi 酶nsker de skal h氓ndteres. Maskiner er uden begreb om v忙rdighed og forst氓else for menneskelige v忙rdier, og derfor skal vi sikre os, at maskiner, der bruges til krigsf酶relse, ikke kan handle helt p氓 egen h氓nd.
Autonome robotv氓ben er blevet et emne med stor international bev氓genhed, og der er kr忙fter i gang for at f氓 en international traktat, som forbyder udvikling og brug krigsrobotter, der opererer p氓 egen h氓nd. FN har taget emnet op til afklaring, og desuden har Canadas f酶rende milit忙re robotproducent taget skarpt afstand fra udvikling af 鈥漝r忙berrobotter鈥 og opfordret til et forbud p氓 internationalt niveau.
Hvordan formidler du din forskning?
- Jeg deltager i internationale konferencer og netv忙rk, hvor vi diskuterer og kvalificerer de etiske aspekter, men jeg betragter det ogs氓 som min opgave at bidrage til samfundsdebatten ved at udpege og diskutere de etiske problemstillinger inden for it-udviklingen, som vi b酶r have holdninger til.
Jeg er ikke maskinstormer og ser rigtig mange potentialer ogs氓 i krigszoner, hvor robotter kan redde s氓rede og fjerne vejsidebomber. Men vi skal altid huske, at vi ikke kan fral忙gge os det menneskelige ansvar.
Af Bente Dalgaard, bda@sdu.dk