Israelische Armee lässt Angriffsziele von Künstlicher Intelligenz bestimmen
Geheimdienstoffiziere: KI-System „Lavender“ soll potentielle Hamas-Kämpfer identifizieren / Große Zahl ziviler Opfer durch hohe Fehlerquote und Angriffe auf Wohnhäuser / Armee dementiert, räumt aber Nutzung von KI-Systemen ein
(Diese Meldung ist eine Übernahme von multipolar)
Die israelische Armee hat laut der Recherche eines investigativen Journalisten verschiedene Systeme Künstlicher Intelligenz (KI) eingesetzt, um vermeintliche Hamas-Kämpfer im Gazastreifen zu identifizieren und zu lokalisieren. Bis zu 37.000 Zielpersonen seien auf diese Weise ermittelt und teilweise innerhalb weniger Minuten bombardiert worden, heißt es in dem Bericht des israelischen Journalisten und Filmemachers Yuval Abraham. Die mutmaßlichen Hamas-Mitglieder seien dabei vornehmlich und absichtlich zu dem Zeitpunkt bombardiert worden, als sie sich zu Hause bei ihren Familien aufhielten.
Abrahams Bericht stützt sich auf die Aussagen von sechs israelischen Geheimdienstoffizieren, die direkt an dem Einsatz von KI zur Generierung von Angriffszielen beteiligt waren. Den anonym bleibenden Quellen zufolge seien zivile „Kollateralschäden“ bei früheren militärischen Interventionen nur bei Angriffen auf hochrangige militärische Befehlshaber der Hamas in Kauf genommen worden, um den im Humanitären Völkerrecht verankerten Grundsatz der Verhältnismäßigkeit zu wahren. Nach dem Terrorangriff der Hamas im Oktober 2023 seien jedoch alle Aktivisten des militärischen Flügels der Hamas von der israelischen Armee als „menschliche Ziele“ ausgewiesen worden.
Um diese zu identifizieren, sei ein KI-System namens „Lavender“ zum Einsatz gekommen, das ein Profil fast aller 2,3 Millionen Einwohner des Gazastreifens auf Basis der Massenüberwachung von sozialen Netzwerken und Telefondaten erstellte. Wessen Profil den Charakteristiken eines bestätigten Hamas-Kämpfers ähnelte, sei von der Software als menschliches Ziel ermittelt worden – ungeachtet dessen, dass bei anfänglichen Überprüfungen eine Fehlerquote von zehn Prozent festgestellt worden ist. Für die Freigabe durch einen Geheimdienstoffizier sei in der Folge im Schnitt nur 20 Sekunden Zeit geblieben. Laut der zitierten Geheimdienstoffiziere habe sich die israelische Armee vor allem in den ersten Wochen des Krieges im Oktober 2023 bei der Zielauswahl „fast ausschließlich“ auf das System „Lavender“ verlassen.
Mithilfe weiterer KI-Syteme sei die Bewegung der Ziele überwacht worden. Die Bombardierung aus der Luft sei vornehmlich dann von den Geheimdienstoffizieren beauftragt worden, wenn eine Zielperson ihr Privathaus betreten hatte. Bei der Bombardierung niederrangiger Hamas-Kämpfer seien hauptsächlich ungelenkte Freifallbomben zum Einsatz gekommen, die auch umliegende Häuser treffen konnten. Eine Anzahl von 15 bis 20 getöteter Zivilisten je Ziel sei von der Armee genehmigt worden. Bei einem Angriff auf hochrangige Ziele seien sogar mehrere hundert getötete Zivilisten in Kauf genommen worden.
Dieses Vorgehen könnte eine plausible Erklärung für die hohe Zahl getöteter Zivilisten und die weitestgehende Zerstörung der Wohnhäuser im derzeitigen Gaza-Krieg sein. Laut des aktuellen Berichts der UN-Organisation UNRWA sind 70 Prozent der knapp 33.000 seit dem 7. Oktober 2023 im Gazastreifen getöteten Palästinenser Frauen und Kinder. Gemäß den Informationen einer unabhängigen Untersuchung sind 74 Prozent der Gebäude in Gaza-Stadt beschädigt oder zerstört (Stand 21. März 2024).
Die US-Tageszeitung Washington Post bezeichnet die Enthüllungen als „Einblick in die furchterregende Welt der militärischen KI“. In einer Erwiderung auf Abrahams Bericht erklärte die israelische Armee, sie hätte kein KI-System eingesetzt, das Terroristen identifiziert. Allerdings bestätigte der Leiter der verantwortlichen Geheimdiensteinheit selbst, dass derartige KI-Systeme bereits 2021 im Gazastreifen eingesetzt wurden. Abraham weist darauf hin, dass die KI-basierte Kriegsführung es Menschen ermöglichen würde, sich der Verantwortung zu entziehen.