Innovative militärische Hochtechnologie - brauchen wir
eine neue Kriegführungsethik?

Ursula Werther-Pietsch


Aktuelle Arbeiten des US-Verteidigungsministeriums zielen auf Interoperabilität und Interchangeability, nichthackbare Quantenradars und Human-Machine-Teaming ab. Diese Aktivitäten - mit 12,5 Mrd. USD aus dem Budget 2017 dotiert - stehen unter dem Druck ihrer rechtlichen und politischen Legitimierung, des wirtschaftlichen und rüstungspolitischen Wettlaufs und nicht zuletzt feindlicher Spionage - eine „dritte Revolution“ im Rüstungsbereich hat begonnen. Ein ausgewählter Kreis völkerrechtlicher Forscherinnen und Forscher beschäftigt sich mit Cybersecurity in angewandten Feldern wie der militärischen Abwehr von Cyberangriffen auf kritische Infrastruktur, deren Krisenfestigkeit bei weitem noch nicht sichergestellt ist und deren Verletzlichkeit durch eine mehr als nur „schemenhafte“ normative Absicherung im Cyberraum als nicht gelöst gilt. Die vielfältigen, zu erforschenden Zusammenhänge wie die Balance zwischen Innovation und gesellschaftlichen Interessen machen eine interdisziplinäre Herangehensweise notwendig. Da schadet es auch nicht, wenn eine Definition, Aussage oder das normative fine-tuning anfänglich einmal unschärfer ausfällt als im juristischen Fachjargon gewohnt. Nur so kann eine Annäherung stattfinden - mit Mut und Offenheit. Es wird mit diesem Artikel der Versuch unternommen, einige völkerrechtliche Überlegungen zu Robotik und Cybersicherheit beizusteuern. Dabei sei vorausgeschickt, dass juristische und ethische Lösungen oft anders aussehen als militärisch-wirtschaftliche. Ein umfassendes Einsatz- und Entwicklungsverbot für Cyberoperationen scheint weder sinnvoll noch wünschenswert. Drohnen lassen sich schon aus ihrer weltweiten Verbreitung nicht mehr aus dem Verkehr ziehen. Es lässt sich jedoch in einer dynamischen Fortentwicklung eine Verschiebung der Skala der Grundsätze der Verhältnismäßigkeit und Begrenztheit der Wirkung im humanitären Recht vornehmen und so Inspiration zu einer libertären Vorstellung bei ergänzenden Rechtsmaterien einholen. Im Sinn einer ethischen Reinterpretation sollten existierende Normen wie die im internationalen Umwelt- und Technikrecht anerkannten Sorgfalts- und Rücksichtnahmepflichten, z.B. Duty to prevent cyber attacks, Verhaltensmaximen zur Minimierung des Risikos schädlicher Cyberoperationen mit erga omnes wirkenden Verpflichtungen zu Gefahrenabwehrmaßnahmen nicht betroffener Staaten sowie gemeinsame Informationspflichten, Konsultationen, Risikoabschätzung oder Rechtshilfe eine verhandelbare Masse ergeben. Künstliche Intelligenz stellt dabei das Sonderproblem dar. Nicht nur werden menschengeführte Waffen und damit zusammenhängende gesetzliche Bestimmungen außer Kraft gesetzt, auch geht die autonome Entwicklungsfähigkeit - wie im Fall der Krebserkennung und Diagnostik durch innovative, der menschlichen Erkenntnisfähigkeit verborgen bleibende Datenverknüpfungen - über die bisherigen Tatbestände hinaus. Das gegenwärtige Rechtsinstrumentarium erscheint damit knapp ausreichend. Neue Bestimmungen könnten natürlich viel zielgerichteter formuliert werden. Ob Künstliche Intelligenz tatsächlich zur Gänze unter bestehendes Recht subsumiert werden kann und/oder eine analoge Anwendung in Frage kommt, werden technische Entwicklungen zeigen. Human-Machine-Teaming, Identifikation, Zuordnung, Kampf gegen Terrorismus, Eindämmung asymmetrischer Kriegführung im Cyberspace soll dabei die Forderung nach globalen Gemeingütern wie nachhaltigem und garantiertem Zugang zur Hohen See und zum Weltall, Frieden oder Datensammlung im öffentlichen Interesse mit „an Sicherheit grenzender Wahrscheinlichkeit“ nicht außer Kraft setzen.