Al meer dan tien jaar worstelen militaire experts, advocaten en ethici met de vraag hoe dodelijke autonome wapensystemen, soms ook wel killer-robots genoemd, onder controle kunnen worden gehouden. Eén antwoord was om menselijk toezicht te houden – om ervoor te zorgen dat een mens altijd elke beslissing om dodelijk geweld te gebruiken goedkeurde. Dat nachtmerrie-achtige visioen van oorlog met mensen die ogenschijnlijk de controle hebben, maar geen echt begrip hebben van hun daden, waarbij ze 'op de automatische piloot' doden, lijkt in Gaza werkelijkheid te zijn geworden.
In 2021 publiceerde het hoofd van de Israëlische inlichtingendienst
een boek over het ontwerpen van een speciale machine die een oplossing
zou kunnen bieden voor wat hij omschreef als een menselijk knelpunt
voor het lokaliseren en goedkeuren van doelen in een oorlogsituatie.
Uit een recent onderzoek blijkt dat het Israëlische leger een op
kunstmatige intelligentie gebaseerd programma heeft ontwikkeld dat
precies dàt doet.
Er is een uitgebreid onderzoeksrapport (link
hier) verschenen waarin het gebruik van A.I. bij
bombardementen op Gaza wordt beschreven, waardoor het menselijke
oordeel vrijwel wordt geëlimineerd over wanneer en of het bombarderen
van een structuur om een vermoedelijke Hamas-agent te doden
gerechtvaardigd is, waardoor de nieuwe oorlog mechanisch, meedogenloos
en onmenselijk wordt uitgevoerd, zelfs volgens de maatstaven van
eerdere oorlogvoering.
Degenen die tot nu toe hebben verdedigd wat zij ‘Israël’ noemen,
kunnen nu mogelijk eervol terugdeinzen als ze zich realiseren dat dit
niet het ‘Israël’ is dat ze ooit kenden, maar eerder een Israël dat is
uitgebreid en ingehaald door een niet-aanwezig geweten. AI-technologie
kent veel programma's, met duivelse, zelfs sarcastische namen, zoals:
'Where's daddy?' of ‘The
Gospel.’ En niet te vergeten de belangrijkste,
genaamd: ‘Lavender.’
Volgens zes Israëlische inlichtingenofficieren met ervaring uit de
eerste hand is de Lavender kunstmatige intelligentie (A.I). De machine
bepaalde wie er moest worden gedood en de uitkomsten werden met
militaire discipline gehoorzaamd. Tijdens de eerste weken van de 'oorlog
tegen Hamas' wees het Lavender-systeem ongeveer 37.000 Palestijnen aan
als doelwit en voerde luchtaanvallen uit op hun huizen. Ondanks dat
men wist dat het systeem ongeveer 10% van de tijd fouten
maakt, vond men het niet nodig om de gegevens van de machine te
controleren. Net als elk ander AI-systeem is Lavender duidelijk
onvolmaakt, maar de context is belangrijk. Als ChatGPT 10% van de tijd
hallucineert, vinden we dat misschien oké. Maar als van een
A.I.-systeem 10% van de tijd het doelwit moord op onschuldige burgers
is, zouden de meeste mensen dat waarschijnlijk als een onaanvaardbaar
niveau van schade beschouwen.
Deze technologische sprong in de afgrond maakt ‘oorlogvoering’ koud,
mechanisch en orgiastisch. Het menselijke element wordt verwijderd,
samen met het schuldige geweten dat normaal gesproken zou weigeren.
“Alles was statistisch, alles was netjes, het was erg droog.” Het
vertegenwoordigt een bedreiging voor de mensheid die zo diep en groot
is dat het bijna onvoorstelbaar is, en overstijgt de ‘gevoelens’ van
vóór 7 oktober over het Israëlisch-Palestijnse conflict.
Het Israëlische leger viel de beoogde personen systematisch 's nachts
aan, in hun huizen, terwijl hun hele familie aanwezig was. Een
geautomatiseerd systeem dat bekend staat als "Where's daddy?" werd
gebruikt om de beoogde personen te volgen en bomaanslagen uit te
voeren toen ze de woningen van hun familie binnengingen. Het voor de
hand liggende resultaat was dat duizenden vrouwen en kinderen werden
weggevaagd door Israëlische luchtaanvallen. Volgens deze Israëlische
inlichtingenofficieren bombardeerde de IDF hen als eerste optie in
huizen. En bij verschillende gelegenheden werden hele gezinnen
vermoord terwijl het eigenlijke doelwit zich niet binnen bevond. In
één geval werden vier gebouwen vernietigd, samen met iedereen die erin
zat, omdat zich in één ervan een enkel doelwit bevond.
Als het om doelen ging die door het A.I. Lavendelsysteem als 'low
level' werden gekwalificeerd, werden goedkopere bommen gebruikt die
hele gebouwen verwoestten, waarbij vooral burgers en hele gezinnen
omkwamen. Dit werd gedaan omdat de IDF geen dure bommen wilde
verspillen aan mensen die zij als onbelangrijk beschouwden.
Er werd besloten dat voor elke Hamas-strijder op laag niveau die door
Lavender werd gemarkeerd, het toegestaan was om vijftien tot twintig
burgers te doden. En als het doelwit een hoge Hamas-functionaris was,
waren meer dan honderd burgerslachtoffers acceptabel.
De meeste van deze A.I. doelen werden vóór de oorlog nooit gevolgd. De
Lavender-software analyseerde informatie verzameld over de 2,3 miljoen
inwoners van de Gazastrook via een systeem van massasurveillance,
beoordeelde de waarschijnlijkheid dat elke persoon een militant was en
gaf een beoordeling van 1 tot 100. Als de beoordeling hoog genoeg was,
dan werden samen zij met hun hele familie vermoord. Lavendel markeerde
individuen met patronen die vergelijkbaar waren met die van Hamas.
Inclusief politie, burgerbescherming, familieleden en bewoners met
vergelijkbare namen en bijnamen.
En hoewel veel mensen beweren dat Israël de VS de baas is, zei
president Joe Biden dat Israël de Amerikaanse belangen dient:
“Er is geen verontschuldiging nodig. Geen enkele. Het is de beste
investering van 3 miljard dollar die we hebben gedaan. Als er geen
Israël was geweest, zouden de Verenigde Staten van Amerika een Israël
moeten uitvinden om haar belangen in de regio te beschermen."