Targeted killing with AI – a position paper

Our befriended organisation FifF (Forum Computer Scientists for Peace and Social Responsibility) drafted together with AK gegen bewaffnete Drohnen and Informationsstelle Militarisierung a position paper in which they warn against lowering the inhibition threshold through the use of AI. In particular, Lavender and similar programmes should be classified as war crimes, according to a joint press release:

29.4.2024 – Expert:innen im Bereich unbemenschter Systeme fordern, die Praxis des „Targeted Killing“ mit unterstützenden KI-Systemen als Kriegsverbrechen einzustufen. Die derzeitige Nutzung von intelligenten Systemen und Mensch-Maschine-Schnittstellen in geheimdienstlichen und militärischen Sicherheitsapparaten muss gestoppt werden.

Aktuelle Berichte über den Einsatz von KI und intelligenten Waffensystemen in der derzeitigen militärischen Eskalation in Nahost haben verschiedene Expert:innen im Bereich von Informatik und unbemenschten Waffensystemen herausgefordert, sich mit dem aktuellen Missbrauch komplexer informationsverarbeitender Systeme (KI) bei militärischer Gewaltanwendung auseinanderzusetzen.

Sie stellen nun ein Positionspapier vor, das der Aufklärung der Öffentlichkeit und als Grundlage für weitere Diskussionen und politische Forderungen dienen soll.

Die technisch erzeugte Dehumanisierung in derzeit geführten Kriegen und Konflikten weltweit muss gestoppt werden. Ein Schutz der Zivilbevölkerung kann durch die sinkende Hemmschwelle beim Einsatz komplexer informationsverarbeitender Systeme immer weniger gewährleistet werden“, sagt Christian Heck vom Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) e. V.

Aus ihren Recherchen schließen die Expert:innen, dass eine klare Trennung von menschlicher und maschineller Handlungs- und Entscheidungsmacht schon heute in den häufigsten Fällen nicht mehr zu setzen sei. Sie beobachten, dass Kontrollmechanismen für informationstechnische Dual Use Güter und für halbautonome und autonome Waffensysteme immer schwieriger umzusetzen sind.

Kritik üben sie auch an den derzeitigen Regulierungsbestrebungen. „Wir sehen in den derzeitigen europäischen Regulierungsversuchen bei Forschung, Design und Gebrauch von KI-Technologien eine Leerstelle im militärischen und sicherheitsbehördlichen Gebrauch. Weder der AI-Act noch der aktuelle Entwurf für die KI-Konvention bieten hierfür Schutz- und Rechtsrahmen. Im Gegenteil: Sie sehen mehrere Klauseln für breite Ausnahmen bei der Entwicklung und Anwendung im Bereich der ‘nationalen Sicherheit’ vor“, so Rainer Rehak, Ko-Vorsitz des FIfF.

See the position paper here (in German).

Comments:0

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.