Version: 3
restore


Das Ende der Friktionen? - Big Data-Analysen in militärischen Entscheidungsprozessen

Florian Fleischmann/André Röhl

 

 

Die Notwendigkeit, Entscheidungen in einem durch Komplexität, Ungewissheit und Unbestimmtheit geprägten Umfeld treffen zu müssen, ist seit jeher ein Merkmal militärischer beziehungsweise sicherheitspolitischer Entscheidungsprozesse. Symbolisiert wird dies durch den Begriff „Friktionen“, mit dem Carl von Clausewitz die Eigenheiten des Krieges beschrieb: „Friktion ist der einzige Begriff, welcher dem ziemlich allgemein entspricht, was den wirklichen Krieg von dem auf dem Papier unterscheidet. Das Bataillon bleibt immer aus einer Anzahl Menschen zusammengesetzt, von denen, wenn der Zufall es will, der unbedeutendste im Stande ist, einen Aufenthalt oder sonst eine Unregelmäßigkeit zu bewirken. Diese entsetzliche Friktion, die sich nicht wie in der Mechanik auf wenige Punkte konzentrieren läßt, ist deswegen überall im Kontakt mit dem Zufall, und bringt dann Erscheinungen hervor, die sich gar nicht berechnen lassen, eben weil sie zum großen Theil dem Zufall angehören.“ 1)

Verstärkt werden diese Friktionen durch das ebenfalls durch Clausewitz postulierte „Primat der Politik“, wodurch sich der Raum für entscheidungsbedingende Einflüsse und damit für Komplexität, Ungewissheit und Unbestimmtheit erweitert. Der Umgang mit Friktionen ist daher auch für politisch-strategische Entscheidungsprozesse von Bedeutung.

Herausforderungen komplexer Entscheidungssituationen und das Big Data-Versprechen

An dieser Zustandsbeschreibung hat sich bis zum Beginn des 21. Jahrhunderts grundsätzlich nicht viel geändert. Es wird allerdings darauf hingewiesen, dass die stetig voranschreitende technische Entwicklung und die Multipolarität des globalen Staatensystems einschließlich der verringerten Einflussmöglichkeiten von Nationalstaaten bei wachsendem Einfluss nicht-staatlicher Akteure die Herausforderungen für politisch-strategische Entscheidungsprozesse verstärkt hätten. Gleichzeitig seien insbesondere strategische Entscheidungen für den militärischen Bereich aufgrund der Kapitalintensität und Lebensdauer von militärischem Großgerät auf einen langen Planungszeitraum ausgerichtet, wodurch die Unsicherheitsfaktoren ebenfalls verstärkt würden.2)

Aus Sicht der Systemtheorie besteht die Schwierigkeit in komplexen Entscheidungssituationen darin, dass weder die Personen, die eine Entscheidung treffen, noch die sie im Entscheidungsprozess unterstützende Organisation in der Lage sind, die tatsächliche Vielfalt an objektiv vorhandenen Informationen zu erfassen und zu verarbeiten. Die Folge seien ein organisationsspezifisches reduziertes Abbild der Umwelt sowie bestimmte Muster, die in Entscheidungsprozessen zur Vereinfachung der Entscheidungsfindung dienen. Bereits der Begriff der Entscheidung im Sinne einer Auswahl zwischen mehreren Alternativen deute bereits auf eine Reduzierung durch Festlegung der Alternativen hin. Entscheidungen fänden daher ausschließlich in Realitätsausschnitten statt, die ihrerseits wiederum durch eine Vielzahl von Merkmalen gekennzeichnet seien. Komplexe Entscheidungssituationen seien daher durch den Umfang der zu betrachtenden Variablen, ihre Vernetzung, ihre Intransparenz und ihre Dynamik gekennzeichnet. Ein guter Entscheidungsprozess bestehe deshalb darin, die erfassten Merkmale systematisch zu analysieren und die Reichweite der eigenen Erkenntnis kritisch zu hinterfragen.3)

Konkret könnte dies durch Anwendung des Modells der Stationen des Planens und Handelns4) erfolgen. Systematisch werden dabei die Phasen

- Zielausarbeitung,

- Modellbildung und Informationssammlung,

- Prognose und Exploration,

- Planung von Aktionen, Entscheidung und Durchführung der Aktionen,

- Effektkontrolle und Revision von Handlungsstrategien

miteinander verknüpft.

Auffällig an diesem Modell ist zum einen seine Ähnlichkeit mit dem in den Streitkräften der NATO üblichen Führungsprozess. Zum anderen wird deutlich, dass es sich dabei zwar um eine bewusste Abgrenzung eines Realitätsausschnittes und eine systematische Analyse der innewohnenden Variablen handelt, aber gleichwohl eben nur um einen Ausschnitt und einen auf Annahmen beruhenden Analyseprozess. Daran ändern grundlegend auch methodische Ergänzungen nichts, wie sie beispielsweise die Szenariotechnik beinhaltet. Entscheidungsprozesse werden dadurch zwar weiter systematisiert und besser auf die ihnen innewohnenden Herausforderungen ausgerichtet. Sie basieren aber weiterhin auf Modellen und Bewertungen, in die nur eine begrenzte Anzahl von Informationen einfließt.5)

Doch sind methodische Verfeinerungen oder die Herausbildung eines Kompetenzprofils „operativer Intelligenz“6) die einzig verbleibende Möglichkeit, Entscheidungsprozesse zu verbessern?

Tatsächlich hat sich in den letzten Jahren unter der Bezeichnung „Big Data“ eine neue Form der technischen, aber auch methodischen Verarbeitung von Daten entwickelt, die großen Einfluss auf Entscheidungsprozesse nehmen kann. Der Begriff Big Data bezeichnet dabei zunächst nur die Verarbeitungskapazität für große Datenmengen. Indirekt ist damit aber auch verbunden, dass binnen weniger Jahre der Großteil aller dokumentierten Daten auch in digitalisierte Formate übertragen wurde und es heute kaum noch dokumentierte Informationen gibt, die nicht digitalisiert sind. Gleichzeitig ist der Umfang der vorhandenen Daten durch neue technische Möglichkeiten zur Datenerfassung rapide angestiegen. Jenseits dieser quantitativen Aspekte wurden aber auch Verfahren entwickelt, diese großen Datenmengen systematisch zu analysieren - was u.a. die Verknüpfung unterschiedlicher Datenformate voraussetzt. Der sich daraus ergebende Effekt wird von Big Data-Enthusiasten mit „Approaching ‚n=all‘“7) oder „From causation to correlation“8) beschrieben. Damit beschreiben sie die Umkehrung klassischer Problemlösungsansätze. Erkenntnisgewinn folgt nicht mehr der Überprüfung einer erarbeiteten modellhaften These, die Aussagen zu Wechselbeziehungen zwischen Variablen trifft. Big Data biete vielmehr die Möglichkeit, durch Auswertung aller verfügbaren Daten bei gleichzeitigem Verzicht auf Modelle oder Stichproben genaue Prognosen über zukünftige Entwicklungen zu erstellen. Diese Prognosen würden dann alle Daten und ihre Wechselbeziehungen berücksichtigen, auch jene, die in Modellen oder Stichproben nicht erfasst worden wären. Die Güte einer Prognose ergebe sich daher künftig nicht mehr aus der Qualität der bewusst zugrunde gelegten Daten, sondern aus der bloßen Gesamtzahl der einbezogenen Daten.9)

Es stellt sich daher die Frage, wie Big Data zielgerichtet auch in militärischen und politisch-strategischen Entscheidungsprozessen eingesetzt werden kann und ob das Diktum der Friktionen damit sein Ende findet. Zur Beantwortung dieser Fragen werden im Folgenden der Stand der Nutzung im militärischen Kontext skizziert, allgemeine Funktionsweisen und Voraussetzungen dargestellt und konkrete denkbare Nutzungsmöglichkeiten beispielhaft aufgezeigt.

 

Big Data im militärischen Kontext am Beispiel der US-Streitkräfte

Zahlreiche Streitkräfte befassen sich aktuell mit dem Einsatz von Big Data-Technologien. Eine sehr hohe Anzahl von Initiativen geht dabei von den US-Streitkräften aus. Dies ist nicht zuletzt auf die Förderung von entsprechenden Forschungsprogrammen im Rahmen der „Big Data Research und Development Initiative“ von 2012 zurückzuführen, für die das Defense Department ausgewählt wurde.10) Gleichzeitig führen der Umfang der US-Streitkräfte und der technologische Reifegrad der eingesetzten Sensorik jeglicher Art dazu, dass große Mengen von Daten verarbeitet werden müssen. So wird geschätzt, dass allein die Air Force täglich 1.600 Stunden Videomaterial erzeugt.11) Es kann daher davon ausgegangen werden, dass die US-Streitkräfte führend bei der Konzeptionierung von militärischen Big Data-Lösungen sind. Im Folgenden wird daher ein grober Überblick über die entsprechenden Initiativen gegeben.

Die Gesamtheit der laufenden und durchgeführten Big Data-Projekte der US-Streitkräfte lässt sich grob vier Kategorien zuordnen, die sich entsprechend ihrer Zielsetzung wiederum in „Durchführung von Big Data-Analysen“ und „Ermöglichung von Big Data-Analysen“ aufteilen lassen:12)

- Durchführung von Big Data-Analysen:

Autonome Datenverarbeitung,

Erstellung von Entscheidungsvorlagen.

- Ermöglichung von Big Data-Analysen:

Schnittstelle Mensch-Maschine,

Schaffung von Infrastruktur & Kontinuitätsmanagement.

Dabei handelt es sich vielfach um reine Forschungsprojekte, in denen Nutzungsmöglichkeiten von Big Data im militärischen Kontext entwickelt und getestet werden.

Zur Kategorie Autonome Datenverarbeitung können Projekte gezählt werden, in denen automatisiert Trends analysiert und ihre Entwicklung gegen Soll-Vorgaben geprüft wird. Erst bei Vorliegen einer Abweichung ist ein Eingreifen erforderlich. Es findet damit eine automatisierte Auswahl von Informationen statt. Dies umfasst beispielsweise Projekte zum Data Mining, bei denen die Inhalte sozialer Netzwerke auf Hinweise zu terroristischen Aktivitäten analysiert oder Inhalte wissenschaftlicher Publikationen miteinander verknüpft werden. Weitere Projekte umfassen die ständige Analyse des eigenen IT-Netzwerkes, um Ressourcen besser auszunutzen, die Auswertung von Videoaufnahmen, das Monitoring von Logistikprozessen oder Instandhaltungsbedarfen oder die Suche nach internen Verstößen gegen Geheimhaltungsregeln.13)

Darüber hinaus gibt es auch Forschungsprojekte zur Prognose von medizinischen Interventionserfordernissen oder möglichen Verhaltensauffälligkeiten. Hierbei werden Personal- und Gesundheitsdaten mit entsprechenden Ereignisdokumentationen verbunden. Eine besondere Anwendungsmöglichkeit wird in der Prävention von Selbstmorden gesehen.14)

In die Kategorie Erstellung von Entscheidungsvorlagen fallen u.a. Projekte, die ein umfassendes und detailliertes übergreifendes Echtzeit-Lagebild ermöglichen sollen. Des Weiteren können hierzu auch Projekte gezählt werden, die auf eine Auswertung von Netzwerkstrukturen gegnerischer Kräfte durch Analyse von Organisations-, Beziehungs- und Kontaktinformationen ausgerichtet sind. Ebenfalls einen Anwendungsfall für Big Data stellen Szenario-Simulationen dar, mit denen die Auswirkungen konkreten Handelns prognostiziert werden.15)

Die Kategorie Schnittstelle Mensch-Maschine umfasst beispielsweise Projekte zur stärkeren Einbindung der taktischen Ebene in Analyseprozesse, wobei gleichzeitig auch die ständige Verfügbarkeit von aktuellen Daten unter Einsatzbedingungen sichergestellt werden muss, oder zur Virtualisierung von Informationen, um das einheitliche Verständnis zu fördern. Ebenso soll untersucht werden, wie das Wissensmanagement in den Streitkräften besser organisiert und Wissen dem jeweiligen Anwender individualisiert und auf seine konkreten Bedürfnisse zugeschnitten bereitgestellt werden kann.16)

Ergänzt werden diese drei „inhaltlichen“ Kategorien durch die Notwendigkeit, die infrastrukturellen und prozessualen Voraussetzungen für Big Data zu schaffen und aufrechtzuerhalten.17) Der entsprechende Reifegrad wird durchaus kritisch betrachtet: „That means the military is drowning in data, and the tide is unlikely to turn any time soon.“18)

Auch im Rahmen der NATO werden die mit Big Data verbundenen Themenfelder betrachtet. Die multinational zusammengesetzte Studiengruppe „Collection and Management of Data for Analysis Support to Operation“ befasst sich seit 2015 in einem zweijährigen Projekt mit der Einbindung von Big Data zur Unterstützung von Einsatzstäben. Dabei sollen insbesondere Konzepte der Wirtschaft auf ihre Übertragbarkeit in den sicherheitspolitischen Kontext geprüft werden.19)

 

Informationen in Erkenntnisse verwandeln

Was ist Big Data genau? Big Data bedeutet zunächst einmal nichts anderes, als dass Informationen zu praktisch allen Bereichen des Lebens in digitaler Form fortlaufend erfasst und zu unterschiedlichsten Zwecken gespeichert und verfügbar gemacht werden können. Dabei hat das Volumen der weltweit gesammelten Daten während der vergangenen Jahre exponentiell zugenommen, ohne dass ein Ende der gewaltigen Zuwachsraten absehbar wäre. Die Einbeziehung von immer mehr Datenquellen und die Erhebung immer neuer Parameter werden nach Schätzungen von Branchenkennern dazu führen, dass sich der Bestand an digitalen Daten in Zukunft ebenfalls alle zwei Jahre verdoppeln wird.20)

Makro- und mikro-ökonomische Daten aus beliebigen Regionen weltweit, Informationen zum Verbraucherverhalten, über Rohstoffressourcen, Bevölkerungsentwicklung, Finanzmärkte und Bildungsstand: Was auch immer erforderlich ist, um auf analytischer Basis präzise Vorhersagen zu beinahe beliebigen Entwicklungen treffen zu können, liegt in Gestalt digitaler Daten bereits vor. Zugleich werden Wirtschaft, Gesellschaft und Politik angesichts der gewaltigen Datenflut zusehends überfordert. Viele Unternehmen betrachten Big Data gegenwärtig denn auch v.a. unter dem Gesichtspunkt der damit verbundenen, stetig steigenden Kosten, die in Zusammenhang mit der zur Speicherung der Informationen erforderlichen Hardware aufkommen. Das in den Daten enthaltene, wertsteigernde Wissen wird dabei in vielen Fällen weder erkannt noch konkret genutzt.

Während einerseits alle nur denkbaren Informationen vorhanden sind, liegt die Herausforderung andererseits darin, die für einen konkreten Anwendungsfall erforderlichen Einzelinformationen zu definieren, zu strukturieren und mit Hilfe von Analysewerkzeugen so aufzubereiten, dass sich aus den Ergebnissen konkrete Handlungsempfehlungen ergeben. Bestenfalls erfolgt dieser Prozess am Ende automatisiert: Aus den fortlaufend aktualisierten Datenbeständen werden immer wieder aktualisierte Handlungsempfehlungen generiert, sodass der Anwender die operativen Erfordernisse entsprechend anpassen kann. Das gilt für den Einkauf von Rohstoffen mit Blick auf prognostizierte Absatzzahlen ebenso wie für künftige Personalbedarfe, wenn sich das Verbraucherverhalten erkennbar ändert und damit auch die Personalzahlen oder Mitarbeiterqualifikationen entsprechend angepasst werden müssen. Während der Ölpreis seit einiger Zeit immer neue Tiefststände erreicht und dem Überangebot am Markt keine adäquate Nachfrage gegenübersteht, stellt Big Data in diesem Sinne ein Überangebot an Informationen dar, für das die Nachfrage überhaupt erst einmal geweckt werden muss. Daten sind der nötige Treibstoff, um den „Motor“ der Datenanalyse anzutreiben und Fortschritte erzielen zu können, und „Information ist das Öl des 21. Jahrhunderts“.21)

Gewusst wie, sorgen Big Data-Analysen automatisch dafür, dass Ersatzteillager zu jedem Zeitpunkt bedarfsgerecht bestückt sind; dass eine Stellenausschreibung exakt diejenigen Kompetenzen umfasst, die ein Mitarbeiter oder eine Mitarbeiterin den prognostizierten Marktanforderungen entsprechend besitzen muss; oder dass der Personalbestand an einem bestimmten Standort frühzeitig und in geeigneter Weise aufgebaut wird, sobald sich aufgrund der absehbaren Veränderung von Rahmenbedingungen die Notwendigkeit höherer Kapazitäten ergibt. Dabei eröffnet Big Data durch die Möglichkeit zur Verknüpfung von Informationen aus unterschiedlichsten Quellen zugleich völlig neue Dimensionen zur Beantwortung nahezu beliebiger Fragestellungen. Interne Mitarbeiterdaten können mit Finanz- und Produktionsdaten verbunden und um externe, makro-ökonomische Faktoren, wie die Veränderung von Arbeitsmärkten, demografische Entwicklungen oder die aktuelle Wettbewerbssituation ergänzt und zusammenhängend analysiert werden. Auf der strategischen Ebene können Unternehmen auf diese Weise langfristige Veränderungen im direkten Umfeld erkennen und sich entsprechend darauf vorbereiten. Big Data-Analysen bedeuten, eine Organisation welcher Art auch immer nicht isoliert zu betrachten und zu steuern, sondern die Organisation im Kontext der Gesamtwirtschaft und der Gesellschaft zu verstehen und an den jeweiligen Rahmenbedingungen auszurichten.

Big Data-Analysen liefern den Entscheidern keine „nackten Zahlen“, sondern aus den Daten und Informationen abgeleitete Erkenntnisse, die unmittelbar in nachvollziehbare Handlungen umgesetzt werden können. Die potenziellen Profiteure von Big Data-Analysen stehen indes zumeist erst ganz am Anfang ihrer Möglichkeiten. Nach einer Untersuchung der Beratungsgesellschaft KPMG erkennen Unternehmen etwa in Deutschland zwar die wachsende Bedeutung von Big Data, es fehlt aber an den nötigen Strategien zur Umsetzung: „Während fast zwei Drittel der Unternehmen erwarten, dass der Stellenwert von Big Data in ihrem Unternehmen in den kommenden drei Jahren an Bedeutung gewinnen wird, verfügen weniger als ein Drittel über eine Strategie zur Umsetzung konkreter Big Data-Maßnahmen.“22) Dabei setzen die Anwender laut KPMG im Moment vorwiegend noch auf „Bordmittel“: „Deutsche Unternehmen analysieren zurzeit in erster Linie intern vorliegende Unternehmens- und Kundendaten und verwenden dabei vorrangig individuelle Ad-hoc-Analysen mit einfachen IT-Tools. Fortgeschrittene Analysen von Daten unterschiedlicher Herkunft und Struktur - insbesondere präskriptive Analysen - werden bis dato eher selten genutzt, obwohl diese die höchste Zufriedenheit hinsichtlich der gewonnenen Erkenntnisse erzeugen.“23) Noch werden Big Data-Analysen in erster Linie betrieben, um Kundendaten auszuwerten und Vertriebswege bzw. Marketingmethoden zu optimieren. Was die tatsächlichen Potenziale von Big Data angeht, stellt das aber allenfalls die sprichwörtliche Spitze des Eisbergs dar.

Prinzipiell haben sich in der Praxis allgemein bisher folgende Möglichkeiten herauskristallisiert, um Big Data-Analysen zu betreiben:

- Deskriptive Auswertungen:

Deskriptive Auswertungen erklären beispielsweise Veränderungen des Personalbestandes im Zeitverlauf. Auf dieser Basis können historische Trends und - durch Verknüpfung von Planzahlen - Abweichungen bei dem Aufbau der Personalstruktur erkannt werden.

- Statistische Analysen:

Statistische Analysen unterstützen dabei, Einflussgrößen auf Ereignisse wie z.B. Personalschwund oder Gesundheitsrisiken zu identifizieren. Hierzu werden Methoden wie Cluster- bzw. Regressionsanalysen verwendet.

- Optimierungen:

Optimierungsalgorithmen dienen dazu, optimale Parameter zur Steuerung von - meist komplexen - Systemen zu identifizieren. So kann im Bereich der Personalentwicklung das Zusammenspiel von Marktveränderungen und Kapazitätenmanagement hinsichtlich zu erwartender Vakanzen optimiert werden.

- Simulationen und Projektionen:

Simulationen ermöglichen beispielsweise Vorhersagen über die Entwicklung des Personalbestandes unter detaillierter Berücksichtigung von Parametergrößen wie Schwund, Einstellungen und Entwicklungsmodellen. Mit diesen Informationen können zukünftige Vakanzen eindeutig identifiziert werden. Hierfür kommen Methoden wie beispielsweise neuronale Netze oder maschinelles Lernen zum Einsatz.

- Szenario-Techniken:

Sobald Planungsunsicherheiten existieren, eignen sich Szenario-Techniken, um zu erwartende, aber auch hypothetische Situationen zu formulieren und dabei den Einfluss z.B. auf den Ressourceneinsatz zu simulieren.

Um Big Data-Analysen überhaupt betreiben und nutzbare Erkenntnisse gewinnen zu können, braucht es aber zunächst ein geeignetes Datenmanagement. Daten liegen häufig in verschiedenen Informationssystemen vor (z.B. SAP etc.) und können bisher nur voneinander getrennt analysiert werden. Das Ziel des Datenmanagements besteht darin, alle für die jeweilige Fragestellung relevanten Informationen auf eine einzige Quelle zu konzentrieren bzw. in einem übergreifenden Datenwürfel zu sammeln. Im Wesentlichen wird dieses Ziel über drei Schritte erreicht:

- Konsolidierung der aus unterschiedlichen Quellen stammenden Daten, qualitative Überprüfung und Optimierung der Informationsgehalte;

- Ergänzung um externe Faktoren (z.B. makro-/mikro-ökonomische Daten);

- Nutzung der Daten entlang definierter Parameter für Simulationen o.Ä. (Abb.1).

 

Ein konkretes, „klassisches“ Anwendungsbeispiel für Big Data-Analysen bildet der Transformationsprozess im Automotive-Sektor mit den damit verbundenen Auswirkungen auf die strategische Personalplanung.24) Ausgehend von disruptiven technischen Entwicklungen, die das künftige Marktumfeld bestimmen (Elektromobilität, Autonomes Fahren, Digitalisierung) wird zunächst das künftige Geschäftsumfeld definiert, woraus sich Faktoren zur Sicherstellung der Wettbewerbsfähigkeit der Marktakteure ergeben:

- kreative, innovative Lösungen zur Wettbewerbsdifferenzierung,

- Aufbau und Management neuer Kooperationen,

- gezielte Fokussierung auf und Investition in künftig relevante Schwerpunktfelder,

- Entwicklung und Betrieb von neuen Geschäftsmodellen.

Weiter sind dabei die Globalisierung und die Verschiebung gesellschaftlicher Trends und die mit alledem verbundenen Auswirkungen auf die Personalarbeit zu berücksichtigen. Aus der Verknüpfung der für jede Fragestellung relevanten Informationen per Big Data-Analysen lassen sich im Ergebnis sodann konkrete Handlungsempfehlungen ableiten, wie zum Beispiel:

- neue Fähigkeiten, die im Unternehmen aufgebaut werden müssen;

- Umfang der Transformationskosten, um eine nachhaltig digitale Unternehmensarchitektur aufzubauen;

- konkrete Instrumente und Personalmaßnahmen zur systematischen Entwicklung der Belegschaft.

Mittlerweile stehen am Markt leistungsfähige Plattformen zum Datenmanagement bereit, die speziell auf Big Data-Analysen ausgerichtet sind und mit vergleichsweise geringem Aufwand in jeder Organisation implementiert werden können. Über leistungsfähige Cloud-Anbieter können die mit der Datenspeicherung verbundenen Kosten darüber hinaus signifikant reduziert werden, sodass sich der Anwender voll und ganz darauf konzentrieren kann, nutzbringende Erkenntnisse zu gewinnen, statt kontinuierlich wachsende Informationsbestände nur in technischer Hinsicht zu verwalten.

 

Nutzungsmöglichkeiten im Personalmanagement der Bundeswehr

„Nicht Schiffe, sondern Menschen kämpfen“25) - diese Erkenntnis behält grundsätzlich auch im 21. Jahrhundert ihre Gültigkeit und ist dabei auch auf andere Teilstreitkräfte übertragbar. Einem Wandel unterliegt allerdings das Verhältnis zwischen Technologie und Soldaten, sowohl hinsichtlich der benötigten Anzahl von Soldaten als auch hinsichtlich ihrer benötigten Kompetenzen. Das gesamte sozio-technische System Streitkräfte schließlich muss den Anforderungen entsprechen, die sicherheitspolitisch formuliert werden.

Personalmanagement für Streitkräfte muss sich daher an politischen, gesellschaftlichen und technologischen Rahmenbedingungen orientieren. Gleichzeitig bietet ein Verständnis der vorhandenen Ressourcen und Kompetenzen die Voraussetzung für die Abwägung sicherheitspolitischer Optionen und deren zielgerichtete Umsetzung.

Entscheidungen sowohl im Rahmen als auch auf Grundlage der Ergebnisse des Personalmanagements weisen dabei die typischen Merkmale26) einer komplexen Handlungssituation auf. Sie sind gekennzeichnet durch Komplexität der Einflussfaktoren, die dynamische Veränderung der Faktoren und durch Intransparenz bezüglich des tatsächlichen Umfanges, der Wechselbeziehungen oder der Nachhaltigkeit der Einflussfaktoren. Zugleich ist der Personalbereich ein Themenfeld, an dem die Möglichkeiten von Big Data anschaulich dargestellt werden können.

Das Personalmanagement der Bundeswehr hat die Aufgabe, Einsatzbereitschaft und personelle Durchhaltefähigkeit auch in sich verändernden Einsatzperspektiven zu gewährleisten. Ziel ist die „zeitgerechte Bereitstellung von qualifiziertem und motiviertem Personal“27) für aktuelle und künftige Einsätze. Dabei bestand in den letzten Jahren die besondere Herausforderung neben neuen Einsatzverpflichtungen in der Anpassung an verringerte Personal- und veränderte Organisationsstrukturen, während sich gleichzeitig vor dem Hintergrund der Aussetzung der Wehrpflicht und der demographischen Entwicklung der Wettstreit mit anderen Arbeitgebern um neue Bewerber verstärkte. Zur Steigerung der Attraktivität und zur Deckung kurzfristiger Vakanzen wurden zahlreiche Einschränkungen hinsichtlich Verpflichtungsdauer, Altersgrenzen, Reservedienstleistungen o.Ä. aufgehoben, wodurch zugleich die Planbarkeit der Personalverfügbarkeit erschwert wurde. Personalbindungszuschläge28) für bestimmte Verwendungen zeigen auf, dass es „Vakanzencluster“ gibt, die durch spezifische fachliche Merkmale als auch laufbahnspezifische Merkmale gekennzeichnet sind. Diese Vakanzencluster erfordern spezifische Maßnahmen des Personalmanagements und haben gleichzeitig unterschiedliche Auswirkungen auf die Einsatzbereitschaft. (Abb. 2)

 

 

Des Weiteren kann davon ausgegangen werden, dass die Umsetzung von personalpolitischen Maßnahmen wie der EU-Arbeitszeitrichtlinie oder neuen Teilzeitkonzepten nicht nur zu neuen Vakanzen, sondern auch zu einer zusätzlichen Erschwerung der Planbarkeit von personellen Ressourcen führen wird. Dabei haben Einsatzverpflichtungen, Umstrukturierungen und nicht ausreichendes Bewerberaufkommen die Einsatzbereitschaft schon deutlich eingeschränkt.29)

In seinem Jahresbericht 2015 fordert der Wehrbeauftragte des Deutschen Bundestages: „Zur Bewältigung der Aufgaben müssen in den Mangelbereichen ausreichend Dienstposten ausgeplant und auch besetzt sein. Andernfalls können Einsatzverpflichtungen und einsatzgleiche Verpflichtungen nur in dem Rahmen übernommen werden, den das vorhandene Personal zulässt. Die zurzeit vorgesehene, aber aktuell nicht erreichte Personalstärke von 185.000 aktiven Soldatinnen und Soldaten muss angesichts aktueller und zukünftiger Aufgaben nicht nur erreicht und gehalten werden, vielmehr sollte geprüft werden, ob die Veranschlagungsstärke der Bundeswehr noch angemessen ist.“30) Die daraufhin erfolgte Ankündigung der Bundesregierung, ein Investitionspaket von 130 Milliarden Euro zu planen,31) kann aber nur umgesetzt werden, wenn neben einer Aufgabenkritik auch die Ausgangslage und mögliche Entwicklungsszenarien einbezogen werden.

Traditionelle Instrumente des Personalmanagements geraten dabei an ihre Leistungsgrenze, etwa hinsichtlich der Aussagekraft zu den konkreten aktuellen und künftigen Personalbedarfen der Bundeswehr. Daraus könnten sowohl Einschränkungen der Befähigung, Beratungsleistungen gegenüber der politischen Führung wahrzunehmen, als auch im Hinblick auf die Konzeptionierung der künftigen Personalauswahl und -entwicklung entstehen.

Im Folgenden wird beispielhaft skizziert, wie mit Hilfe eines Big Data-Ansatzes die Prognosefähigkeit im Personalmanagement erhöht werden könnte. Ziele sind dabei entsprechend der Kategorie Erstellung von Entscheidungsvorlagen ein umfassendes und detailliertes Lagebild und die Möglichkeit, die Auswirkungen bestimmter Handlungsoptionen innerhalb der Wechselbeziehung Einsatzaufgaben und personelle Ressourcen realitätsnah zu simulieren.

In der Vergangenheit war es aufgrund der hohen Komplexität kaum bzw. nur begrenzt möglich, die Auswirkungen von Umfeldveränderungen auf das Personal und die daraus abgeleiteten, konkret nötigen Handlungen zu identifizieren, die durch Eintritt unterschiedlicher Zukunftsszenarien entstehen können. Es konnten meist nur Schätzungen getroffen werden, in deren Rahmen etwa die Planung generischer Laufbahnen und Fähigkeiten von einzelnen Personen berücksichtigt wurden. Die Anwendung von Big Data-Technologien hingegen ermöglicht es, jeden einzelnen Soldaten bei der Analyse und Planung von Szenarien durch eine systematische Kombination von Methoden effektiv zu integrieren und differenziert zu behandeln. Um diese Problemstellung zu lösen, stehen drei Kernfragestellungen im Vordergrund:

- Welche Auswirkungen auf den Personalbedarf und die daraus abgeleiteten Fähigkeiten haben unterschiedliche Szenarien bzw. welche Szenarien sind mit der derzeitigen Personalstruktur möglich?

- Wie wird sich der Personalbestand entwickeln? Welchen Einfluss haben Schwund, Entwicklungen und Einstellungen auf die unterschiedlichen Laufbahnen, Dienstgradgruppen und Verwendungen/Spezialisierungen und was passiert, wenn einer oder mehrere dieser Parameter in der Zukunft angepasst werden?

- Welche Vakanzen gibt es in Zukunft, wie können diese besetzt werden und welche konkreten Personalinstrumente sind hierzu nötig?

Um diese Fragestellungen zu beantworten, könnte unter Verwendung von Big Data-Technologien auf einen kybernetischen Ansatz zurückgegriffen werden. Dabei stellen die Technologien Informationen bereit, die anschließend sowohl den politischen als auch militärischen Verantwortlichen als Entscheidungsgrundlage dienen können.

Im Rahmen einer Analyse können historische Ereignisse wie Schwund, Einstellungen sowie Entwicklungen innerhalb von Laufbahnen und Verwendungen analysiert werden. Dabei können Instrumente wie das Internal-Development-Modell, kurz IDM, als Ausgangslage verwendet werden. Dieses würde zunächst auf einem aggregierten Level interne Bewegungen des Personals sowie die Interaktion mit dem externen Arbeitsmarkt sichtbar machen. Daraus ergibt sich ein wertvoller Einblick in die organisatorischen und operativen Strukturen sowie eine Ausgangsbasis für tiefer greifende Analysen.

Bezogen auf die Bundeswehr könnten im IDM für einen bestimmten Zeitraum für eine bestimmte Verwendung die Anzahl der Beförderungen bzw. der Übergang in höhere Besoldungsgruppen verknüpft werden mit der Anzahl der Soldaten, die die Streitkräfte verlassen haben bzw. der Anzahl der Soldaten, die in eine andere Verwendung gewechselt sind. So genannte „Bottlenecks“ in der Karriereplanung könnten ebenso wie Bedarfe für Quereinsteiger oder Wechsel in andere Verwendungen analysiert und visualisiert werden. (Abb. 3)

 

 

Komplexe statistische Methoden helfen im Anschluss dabei, die Einflussgrößen und Treiber hinter den Personalbewegungen zu identifizieren. Dadurch können Gründe für Schwund oder Engpässe bei der Personalbeschaffung unter Einbeziehung von makro-ökonomischen Daten zur Entwicklung von Arbeitsmarkt, Wirtschaft, Demographie etc. erfolgten strategischen Entscheidungen der Organisationsentwicklung oder sonstigen Wechselbeziehungen erkannt und für die Parametrisierung der Simulation als Eingangsgröße verwendet werden.

Das zentrale strategische Instrument bilden die Bestimmung des Personalbedarfs und die daraus mit Hilfe von Szenariotechniken abgeleiteten Fähigkeiten. Das Ziel ist es, realistische und hypothetische Szenarien über interne und externe Umfeldentwicklungen aufzustellen und daraus mit Hilfe von Simulationen den zukünftigen Personalbedarf abzuleiten. Auf diese Weise soll sichergestellt werden, dass auch unter einem extremen oder unwahrscheinlichen Verlauf der Zukunft die Leistungsfähigkeit erhalten bleibt. Gleichzeitig ergibt sich, welche Anstrengungen unternommen werden müssen, damit dieser Zustand kostengünstig und ressourcenoptimiert eingeleitet werden kann. Big Data ermöglicht es dabei, dass diese Übersetzung der Szenarien in Personalbedarfe effizient durch einen hohen Automatisierungsgrad sowie mit einem hohen Detaillierungsgrad erfolgen kann. Dabei kann jeder einzelne Soldat mit seinen Fähigkeiten und seiner Laufbahn berücksichtigt werden, sodass im Nachgang konkrete und passgenaue Maßnahmen zur Personalentwicklung und -rekrutierung abgeleitet werden können.

 

 

 

 

 

 

 

 

Der Trichter (Abb. 4) veranschaulicht die unterschiedlichen Personalbedarfe, die durch den Eintritt verschiedener Szenarien entstehen können. Dabei kommt ein Instrument zum Einsatz, das durch die Kombination verschiedener Technologien die Szenarien in den Personalbedarf übersetzt.32) Zur Bestimmung des Bedarfs werden folgende Schritte angewendet:

- Parameterbestimmung:

Hier werden Einflussgrößen/Deskriptoren ermittelt, die einen Einfluss auf künftige Szenarien haben. Dabei können Faktoren aus unterschiedlichen Feldern wie nationale und internationale Gesetzgebung (wie z.B. die EU-Arbeitszeitrichtlinie), Veränderungen der Sicherheitslage, demographische Entwicklungen sowie politische Entscheidungen zu neuen Einsätzen oder Kontingentobergrenzen berücksichtigt werden. Diese Daten müssen wie beschrieben zunächst konsolidiert sowie durch weitere externe und öffentliche Daten angereichert werden, bevor die eigentliche Nutzung erfolgen kann.

- Festlegung von Szenarien (Best-, Assumed, Worst-Case) & Simulation:

Diese Faktoren und Ereignisse werden anschließend kombiniert, sodass sich verschiedene Szenarien daraus ergeben. Normalerweise wird ein Trendszenario aufgestellt, das den aus jetziger Sicht wahrscheinlichen bzw. angenommenen Verlauf darstellt. Daneben werden auch Extremszenarien definiert, die zwar aus heutiger Sicht eine geringere Eintrittswahrscheinlichkeit besitzen, jedoch nicht ausgeschlossen werden können.

- Analyse des Veränderungsbedarfs & Ableitung von Handlungsempfehlungen:

Jedes Szenario führt zu unterschiedlichen Personalbedarfen. Die errechneten Personalstrukturen und benötigten Kompetenzen können sich in den Szenarien sehr stark unterscheiden. Unterschiedliche Sollstrukturen erfordern eine gewisse Flexibilität, sodass eine kontinuierliche Leistungsfähigkeit der Streitkräfte, auch unter sich extrem verändernden Rahmenbedingungen, erhalten bleibt. Entscheidend ist, dass die Lücken, die sich aus den verschiedenen Szenarien ergeben, identifiziert und visualisiert werden können. Außerdem können geeignete Maßnahmen zur Schließung dieser Lücken abgeleitet werden. Vor der Implementierung werden die Auswirkungen der Maßnahmen noch einmal simuliert und die Kosten für die Umsetzung ermittelt.

Kurz gefasst könnten die dynamischen Wechselbeziehungen und die sich aus Veränderungen einzelner Parameter ergebenden langfristigen Auswirkungen systematisch und verzuglos analysiert und visualisiert werden. Dabei werden nicht nur interne, sondern auch externe Daten zu politischen, gesellschaftlichen oder wirtschaftlichen Entwicklungen einbezogen. Im Ergebnis wäre es beispielsweise möglich, die Auswirkungen eines Einsatzes auf zu definierende Faktoren wie Einsatzbelastung, vorhandene militärische Fähigkeiten oder Durchhaltefähigkeit in verschiedenen Szenarien in Echtzeit zu vergleichen. (Abb. 5)

 

 

Neben der eigentlichen Szenariosimulation kann das Verfahren auch dazu genutzt werden, aktuelle und künftige Fähigkeiten detailliert abzubilden. Das Verfahren ist dabei beliebig erweiterbar und kann etwa auch um die Komponente Material und Ausrüstung sowie die damit verbundenen Kosten oder die Frage der Flexibilität von bestimmten Verwendungen für neue Aufgaben erweitert werden. Im Ergebnis lägen belastbare Analysen vor, die als Vorlage für weitergehende Entscheidungen dienen können. Zugleich können die Auswirkungen dieser Entscheidungen ebenfalls in Echtzeit simuliert und dabei auch die Wechselwirkungen mit eventuell vernachlässigten gesellschaftlichen oder demographischen Einflussfaktoren konkret geprüft werden. Speziell für die Frage der perspektivischen Personalauswahl und -entwicklung könnte beispielsweise die Entwicklung des Bildungssektors mit einem sich wandelnden Angebot an Bildungsangeboten und Bildungseinrichtungen interessant sein. (Abb. 6)

 

 

 

 

 

 

 

 

 

 

Fazit: Allheilmittel Big Data?

Wie im Anwendungsbeispiel dargestellt, besitzen Big Data-Analysen das Potenzial, qualifizierte Antworten auf nahezu jede beliebige Fragestellung zu liefern. Dies funktioniert allerdings nur, wenn auch die richtigen Fragen gestellt werden:

- Welches Ziel soll in welchem Kontext wann erreicht werden?

- Welche Rahmenbedingungen/Parameter (intern und extern) beeinflussen die Erreichbarkeit dieses Ziels?

- Welche Informationen werden benötigt, um mit der Zielsetzung verbundene Entwicklungen prognostizieren bzw. modellieren zu können?

- Wo befinden sich die Informationen?

- In welcher Form (strukturiert, unstrukturiert, semi-strukturiert) liegen die benötigten Daten vor?

Traditionell genutzte Business Intelligence-Software kann die mit Big Data-Analysen verbundenen Anforderungen nur sehr begrenzt erfüllen. Meist ist die Funktionalität solcher Programme darauf fokussiert, gespeicherte Daten zu durchsuchen, zu analysieren und zu visualisieren. Daraus ergeben sich dann zwar aufbereitete Zahlen - aber kaum tiefgehende Erkenntnisse.

Generell gibt es zwei Möglichkeiten, Big Data zu nutzen. So kann die erforderliche Struktur (Technik, Algorithmen und Analyse-Kompetenzen) komplett intern aufgebaut werden, oder eine Organisation greift über so genannte Shared Services auf das Know-how externer Anbieter zurück. In beiden Fällen müssen grundsätzlich zwei Anforderungen erfüllt sein:

- Einhaltung aller relevanten Vorschriften zum Datenschutz und zur Datensicherheit;

- geeignete Mitarbeiter-Qualifikationen/Analyse-Fähigkeiten zur Interpretation von Daten (Mathematiker, Datenbankspezialisten etc.).

Auf der technischen Seite wächst die Zahl der Anbieter, die Big Data-Analysen als Shared Service bereitstellen. Das bedeutet:

- Die erforderliche Technik/Software ist webbasiert, der Anwender muss keine Investitionen in Hardware bzw. Instandhaltung vornehmen.

- Ausgehend von den Fragestellungen des Kunden erstellt der Anbieter präzise Analysen und Visualisierungen auf Basis der erforderlichen Datenquellen.

- Der Anwender kann sich auf Lösungen konzentrieren, statt viel Aufwand mit der Beschaffung und Aufbereitung der erforderlichen Daten betreiben zu müssen.

Dabei muss ein mehrstufiges Sicherungssystem das Einhalten von Geheimhaltung und Datenschutz sicherstellen. Zum einen sollte die Analyse der Daten immer innerhalb der eigenen IT-Infrastruktur erfolgen. Dies ist grundsätzlich auch bei der Anwendung von Shared Service-Lösungen möglich. Die Auslagerung von Daten in die Cloud ist aufgrund der Übertragung und Speicherung der Daten dagegen eher kritisch zu betrachten. Neben der Entfernung von persönlichen Attributen, wie z.B. dem tagesgenauen Geburtsdatum, oder mehrfacher Verschlüsselung der Daten und Zugangsrestriktionen muss auch sichergestellt werden, dass Rückschlüsse auf Personen vermieden werden. Dabei kann beispielsweise ein Trustkey eingesetzt werden, der die Personalnummern verschlüsselt, sodass nur die Instanz, die Kenntnis über den Schlüssel hat, die tatsächliche Personalnummer einsehen kann.

Alles in allem bleibt die Big Data-Technologie ein Instrument, das trotz Automatisierungen und Verknüpfungen einen Entscheidungsprozess nur unterstützen, nicht ihn ersetzen kann. „Friktionen“ werden dadurch nicht abgeschafft, aber doch zumindest deutlich verringert. Methodische Verfahren zur Szenariotechnik werden in ihrer Aussagekraft nachhaltig gestärkt. Der auch bereits bei Clausewitz niedergelegte Grundsatz, Entscheidungsprozesse durch eine Kombination aus „operativer Intelligenz“ und rationaler Methodik auszugestalten, bleibt jedoch nach wie vor maßgeblich.33)

 


ANMERKUNGEN:

1) Carl von Clausewitz: Vom Kriege. Erster Teil, 4. Auflage. Berlin 1880, S.79f.

2) Bernhard Richter: „Denken in Szenarien“ als Methode innovativer strategischer Planung (Teil 1). In: Österreichische Militärische Zeitschrift 4/2013-Online, S.2, http://www.bundesheer.at/pdf_pool/omz/oemz2013_04.pdf, abgerufen am 25.1.2016.

3) Vgl. Niklas Luhmann: Organisation und Entscheidung. 2. Auflage. Wiesbaden 2006, S.123-131; Winfried Hacker & Rüdiger von der Weth: Denken - Entscheiden - Handeln. In: Petra Badke-Schaub, Gesine Hofinger & Kristina Lauche (Hrsg.): Human Factors. 2. Auflage. Berlin 2012, S.89-98.; Dietrich Dörner: Die Logik des Misslingens. 9. Auflage. Hamburg 2010, S.58-66.

4) Vgl. Dörner, a.a.O., S.67-73.

5) Vgl. Richter, a.a.O., S.3-5.

6) Dietrich Dörner: Diagnostik der operativen Intelligenz. Bamberg 1986, S.8.

7) Kenneth Cukier & Viktor Mayer-Schoenberger: The Rise of Big Data. In: Foreign Affairs, Vol. 92, No. 3, 2013, S.30.

8) Ebenda. S.31.

9) Vgl. Kenneth Cukier & Viktor Mayer-Schoenberger, a.a.O., S.28-34; Oliver Bendel: Big Data. In: Springer Gabler Verlag (Hrsg.): Gabler Wirtschaftslexikon, http://wirtschaftslexikon.gabler.de/Archiv/-2046774198/big-data-v3.html., abgerufen am 25.1.2016.

10) Vgl. o.V.: OBAMA ADMINISTRATION UNVEILS „BIG DATA“ INITIATIVE - ANNOUNCES $200 MILLION IN NEW R&D INVESTMENTS. https://www.whitehouse.gov/sites/default/files/microsites/ostp/big_data_press_release.pdf, abgerufen am 26.1.2016.

11) Vgl. Ted Girard: Big data and virtualization - a formidable defense. http://defensesystems.com/articles/2015/03/05/comment-defense-big-data-and-virualization.aspx, abgerufen am 25.1.2016.

12) Vgl. Courtney E. Howard: Dealing with Big Data. In: Military & Aerospace Electronics, 12/2012, S.18-19.

13) Vgl. Kevin McCaney: DOD wants a „Big Mechanism“ for mining research data. https://defensesystems.com/articles/2014/02/04/big-mechanism-mining-big-data.aspx, abgerufen am 25.1.2016.; Autorenteam DEFENSE SYSTEMS: Army wants to mine social media in Europe. https://defensesystems.com/articles/2014/02/13/army-european-command-social-media-mining.aspx, abgerufen am 25.1.2016.; Joey Cheng: Air Force wants a better way to map and analyze its networks. https://defensesystems.com/articles/2014/09/15/air-force-mama-network-mapping-analysis.aspx, abgerufen am 25.1.2016.; Terry Costlow: How big data is paying off for DOD. https://defensesystems.com/articles/2014/10/24/feature-big-data-for-defense.aspx, abgerufen am 26.1.2016; Kimberly Johnson: Getting a handle on big data. https://defensesystems.com/articles/2013/09/23/big-data.aspx, abgerufen am 26.1.2016.

14) Vgl. Loryana L. Vie; Lawrence M. Scheier; Paul B. Lester; Tiffany E. Ho; Darwin R. Labarthe & Martin Seligman: The U.S. Army Person-Event Data Environment: A Military-Civilian Big Data Enterprise, Lincoln 2015, S.1-15.; Autorenteam PR NEWSWIRE: Patterns and Predictions Leads Technology Initiative to Identify Risk Factors Underlying Military Suicide Crisis Using Predictive Analytics. http://www.prnewswire.com/news-releases/patterns-and-predictions-leads-technology-initiative-to-identify-risk-factors-underlying-military-suicide-crisis-using-predictive-analytics-214732391.html, abgerufen am 25.1.2016.; Alexander Sehmer: US military exploring „big data“ to prevent violent crimes by soldiers before they happen. http://www.independent.co.uk/news/world/americas/us-military-exploring-big-data-to-prevent-violent-crimes-by-soldiers-before-they-happen-a6691036.html, abgerufen am 25.1.2016.

15) Vgl. Terry Costlow: How big data is paying off for DOD. https://defensesystems.com/articles/2014/10/24/feature-big-data-for-defense.aspx, abgerufen am 26.1.2016; Kevin McCaney: Navy’s tactical cloud would see all in expeditionary warfare. https://defensesystems.com/articles/2014/08/28/onr-tactical-cloud-expeditionary-warfare.aspx; abgerufen am 26.1.2016; George Leopold: Ex-Israeli security chief: Big data key to anti-terrorist fight. https://defensesystems.com/articles/2015/01/09/israel-shin-bet-big-data-terrorists.aspx, abgerufen am 26.1.2016; Collin Wood: Counter Insurgency-Software Goes Stateside. http://www.govtech.com/public-safety/Counterinsurgency-Software-Goes-Stateside.html, abgerufen am 26.1.2016.

16) Vgl. Kimberly Johnson: Getting a handle on big data. https://defensesystems.com/articles/2013/09/23/big-data.aspx, abgerufen am 26.1.2016; Kevin McCaney: Air Force wants to meld humans and machines for ISR analysis. https://defensesystems.com/articles/2015/08/18/air-force-human-machine-isr-analysis.aspx, abgerufen am 26.01.2016; ders.: Navy invites wargamers to help put ist big data in play. https://defensesystems.com/articles/2015/03/30/navy-wargamers-big-data-dilemma.aspx, abgerufen am 26.1.2016; ders.: Navy wants to take big data into battle. https://defensesystems.com/articles/2014/06/24/navy-onr-big-data-ecosystem.aspx, abgerufen am 25.1.2016; Ted Girard: Big data and virtualization - a formidable defense. https://defensesystems.com/articles/2015/03/05/comment-defense-big-data-and-virualization.aspx, abgerufen am 26.1.2016; Greg Gardner: Enabling battlefield big data „on the move“. https://defensesystems.com/articles/2014/03/13/commentary-gardner-battlefield-big-data.aspx, abgerufen am 26.1.2016.

17) Vgl. Johnson: Getting a handle on big data. a.a.O.; George Leopold: Survey: IT hurdles hinder big data adoption. https://defensesystems.com/articles/2015/10/09/big-data-survey-unisys.aspx, abgerufen am 26.1.2016.

18) Johnson: Getting a handle on big data. a.a.O.

20) Vgl. o.V.: The Digital Universe of Opportunities: Rich Data and the Increasing Value of the Internet of Things. http://germany.emc.com/leadership/digital-universe/2014iview/executive-summary.htm, abgerufen am 26.1.2016.

21) Uwe Götze: Szenario-Technik in der strategischen Unternehmensplanung, 2. Auflage, Wiesbaden 1993,S.13.

22) Stefan Krammer: How to analyze and compare scenarios?, Hamburg 2013, S.9.,22.

23) Ebenda, S.22.

24) Vgl. Christian Vetter & Daniel Niederberger: Impact des Automotive Transformationsprozesses auf die strategische HR-Planung. http://www.hrforecast.de/images/magazine-automotive.pdf, abgerufen am 30.1.2016.

25) Friedrich Ruge: Ausbildung zum Seeoffizier. In: Marine-Rundschau, 37/1932, S.101.

26) Vgl. Dörner, a.a.O., S.58-64.

27) BMVg: Konzept für die Personalentwicklung in der Bundeswehr. Berlin 2013, S.4.

28) Vgl. Deutscher Bundestag: Art. 2 Nr. 2 Gesetz zur Steigerung der Attraktivität des Dienstes in der Bundeswehr. In: Bundesgesetzblatt 2015, Teil I, Nr. 19, Bonn 2015, S.706.

29) „Die personelle Einsatzbereitschaft der Bundeswehr ist ebenso zu hinterfragen wie die materielle. Die dienstlichen Belastungen innerhalb der Bundeswehr sind ungleich verteilt.“ Deutscher Bundestag: Unterrichtung durch den Wehrbeauftragten - Jahresbericht 2015, http://dip21.bundestag.de/dip21/btd/18/072/1807250.pdf, abgerufen am 26.1.2016, S.14.

30) Deutscher Bundestag: Unterrichtung durch den Wehrbeauftragten - Jahresbericht 2015, a.a.O.

31) Vgl. Maurizio Gambarini: Von der Leyen will 130 Milliarden Euro investieren. http://www.zeit.de/politik/deutschland/2016-01/bundeswehr-ausruestung-material-andrewuestner-

ursula-von-der-leyen, abgerufen am 28.1.2016.

32) z.B. HRThinkbox©, entwickelt von peopleForecast GmbH.

33) Vgl. Carl von Clausewitz: Vom Kriege. Dritter Teil, 4. Auflage. Berlin 1880, S.77-80.; Klaus Jürgen Gantzel: Der unerhörte Clausewitz, Arbeitspapier Nr. 5/2001, Universität Hamburg - IPW, Research Unit of Wars, Armament and Development, S.2.