
Wie die Foresight-Community um den richtigen KI-Einsatz ringt
- André Winzer
Zwei Tage KI-Debatte am Planungsamt der Bundeswehr
Die Advanced Foresight Group war mit Niels Jansen (Ellery Studio) sowie Lucas Buchauer und André Winzer (Schaltzeit) vor Ort.
Zwischen Effizienz und Tiefe
Der rote Faden über beide Tage: Alle sehen Effizienzpotenziale durch KI in bestimmten Phasen von Foresight-Prozessen – aber fast alle benennen gleichzeitig Einbußen bei Qualität und analytischer Tiefe. Ein Stimmungsbild zu Beginn zeigte: Komplette Verweigerung oder absolute Euphorie waren kaum vertreten, die Bandbreite der Perspektiven reichte von pragmatischem Optimismus bis zu vorsichtiger Zurückhaltung. Diese gemeinsame Offenheit bildete eine produktive Grundlage.
Dr. Olaf Theiler rahmte die Veranstaltung mit einer einprägsamen Analogie: eine KI, die menschliche Fähigkeiten übersteigt, als die „vierte große Enttäuschung der Menschheit“ – nach dem heliozentrischen Weltbild, der Evolutionstheorie und der psychologischen Erkenntnis, dass der Mensch nicht Herr im eigenen Hause ist. Die „viereinhalbte“ Enttäuschung, so Theiler augenzwinkernd, könnte die Erkenntnis sein, dass die KI dann doch nicht so überlegen ist, wie wir es uns vorgestellt haben.
Die Panels: Trendanalyse, Szenarien, Kommunikation
Tag 1 – „Anwendung von KI in der Trendanalyse“ mit Gürcan Doguc (Berater Forschungsförderung/KI), Dr. Marcus John (Fraunhofer FKIE), Thomas Kolonko (4strat GmbH) und Leon Rasztar (Fraunhofer IAO). In der Diskussion kristallisierten sich drei Nutzungsebenen heraus, die sich durch die gesamte Veranstaltung zogen: der einfache Chat-Dialog mit Sprachmodellen; die Einbindung von KI als bewusster Sparringspartner – die in der Folge oft zitierte „fünfte Person am Tisch“; und agentische Systeme, bei denen mehrere KI-Agenten eigenständig ganze Prozessketten abbilden.
Tag 2 – „Szenariokonstruktion mit Hilfe von KI“ mit Prof. Dr. René Bantes (Fraunhofer FKIE), Lucas Buchauer (Schaltzeit GmbH) und Dr. Christian Grünwald (PD – Berater der öffentlichen Hand). Carolin Kahlisch (IZT) konnte krankheitsbedingt leider nicht teilnehmen. Hier wurde konkret verhandelt, wo KI im Szenarioprozess unterstützen kann – und wo sie die analytische und explorative Qualität gefährdet, wenn Szenarien zu schnell und zu glatt produziert werden.
Tag 2 – „Wie verändert KI die Kommunikation von Foresight-Ergebnissen?“ mit Prof. Dr. Laura Bechthold (Bayerisches Foresight-Institut, TH Ingolstadt), Prof. Dr. Kerstin Cuhls (Fraunhofer ISI) und Niels Jansen (Ellery Studio). Das Panel widmete sich der Frage, wie KI neue Formate ermöglicht – von interaktiven Visualisierungen bis zu KI-generierten Zukunftsfilmen – und gleichzeitig die Gefahr birgt, dass Vermittlung wichtiger erscheint als Substanz.
Impulsvortrag: Mando Gloger – „Mensch-Maschine“
Den Abschluss des ersten Tages bildete Mando Gloger (BwConsulting GmbH) mit einem Vortrag, der von der „Stochastic Parrots“-Debatte – der grundlegenden Kritik, dass große Sprachmodelle Sprache statistisch reproduzieren, ohne sie zu verstehen – bis zu Zukunftserzählungen der „Future of War“ reichte. Kernfrage: Wie integriert man KI in die Lehre und Praxis Strategischer Vorausschau, ohne die Verantwortungsübernahme durch den Menschen zu untergraben?
Ergebnisse der Gruppenarbeit
Die Teilnehmenden bearbeiteten in beiden Tagen insgesamt sechs Leitfragen in Kleingruppen. Hier die verdichteten Ergebnisse:
Werden Zukunftsanalyst:innen durch KI ersetzt?
Das Fazit war so knapp wie treffend: JEIN. Ähnlich wie Roboter in der Industrie die sogenannten „3 Ds“ (Dirty, Dull, Dangerous) übernehmen, adressiert KI in Foresight-Prozessen vor allem den Bereich „Dull“: Sie entlastet uns bei monotonen und zeitintensiven Aufgaben wie Datenanalyse, Visualisierung und Zusammenfassungen. Auf der anderen Seite bleiben menschliche Erfahrung, Kontextualisierung und Plausibilitätsprüfung durch kritische Reflexion von zugrundeliegenden Annahmen und Werten unverzichtbar. Die eigentliche Sorge war nicht die Ablösung des Menschen durch KI-Systeme, sondern die Gefahr der inhaltlichen Verflachung: „Szenarioplanung kann viel leichter mit KI gemacht werden, ist aber auch nur halb so spannend.“ Auch bei der Frage nach KI-generierten Visualisierungen wurde das zweischneidige Schwert von KI debattiert. Fördern schnell generierte Bilder die Vorstellungskraft oder reproduzieren sie nur längst überholte Bilder von Zukunft?
Wie sorgen wir für Sicherheit beim KI-Einsatz in sensiblen Bereichen?
Die Gruppe arbeitete mit einer klaren Challenge-Solution-Struktur. Auf der Challenge-Seite: Vertrauen in LLMs (wie werden sie trainiert?), Trennung öffentlicher und als Verschlusssache eingestufter (VS) Daten, Datenhoheit, Social Engineering. Auf der Lösungsseite: End-to-End-Transparenz im gesamten Foresight-Prozess, On-Premise- und Open-Source-Modelle, klare Nachverfolgbarkeit von KI-Ergebnissen (Methodik, Modelle, Quellen) und Kompetenzaufbau. Ein pragmatischer Rat: „Verstecke die Informationen durch Rauschen und gezielte Ablenkungsmanöver – make noise, make noise!“
Wie wirkt sich der Einsatz von KI auf Qualität und Güte von Foresight-Ergebnissen aus?
Diese Gruppe ging der Frage nach, wie Qualität gesichert werden kann, wenn KI zunehmend in Foresight-Prozesse einzieht. Ein zentraler Ausgangspunkt: Es braucht klare Vorgaben, was Qualität überhaupt bedeutet – bevor KI zum Einsatz kommt. Menschliche Beurteilungskompetenz darf nicht aufgegeben werden, der Mensch bleibt „Human in the Loop“. Die Gruppe forderte konsequente Offenlegung von Tools, Datenquellen und Kontributoren, einen expliziten Ausweis KI-generierter Inhalte sowie den Einbau von Feedbackloops und kontinuierlichem Qualitätsmanagement – nach jedem Prozessschritt eine Schleife. Auf der praktischen Seite wurden Benchmark-Datensätze zum Testen und Validieren von KI-Ergebnissen, standardisierte Use-Case-Sheets zur Dokumentation und geeignete Metriken für Trustworthiness-Assessments vorgeschlagen. Hybride Ansätze – KI als Unterstützung, aber der Mensch entscheidet – waren Konsens. Eine Grundsatzfrage blieb offen: Wie verhält sich KI zur wissenschaftlichen Nachprüfbarkeit und Reproduzierbarkeit? Und: Das Prinzip Zukunftsbild – als gegenwärtige Zukunftsvorstellung – darf darüber nicht vergessen werden.
Welche Kompetenzen brauchen Forscher:innen beim Einsatz von KI?
Die Gruppe erarbeitete eine Kompetenzlandkarte um drei Cluster: Kritisches Denken (Plausibilitätskontrolle, Analysekompetenz, KI-Ethik und Bias-Bewusstsein), Datenkompetenz (Data Quality, Metadaten-Management, Prompting als Kernkompetenz) und Ergebnisvermittlung (KI-Ergebnisse kommunizieren und einordnen können). Übergreifend: Kreativität, Experimentierfreude und strategische Führung. Eine offene Frage blieb: Braucht es dafür eine Person oder ein ganzes Team?
Welche Folgen hat KI für die Produkte der Strategischen Vorausschau?
Gleich vier Gruppen bearbeiteten diese Frage am zweiten Tag parallel – ein Zeichen dafür, wie zentral sie für die Teilnehmenden war. Auf der Chancenseite wurden eine größere Produktvielfalt (Podcasts, Videos, 3D-Immersion, Szenario-Plattformen), schnellere Lieferzeiten, Mehrsprachigkeit, non-lineares Storytelling und neue Möglichkeiten, Foresight in Organisationen zu verankern, genannt. Dem gegenüber standen auf der Risikoseite: die Verschiebung „von Foresight zu Prognose“ – wenn KI die Illusion erzeugt, alle Zukünfte seien berechenbar. Foresight-Ergebnisse drohen außerdem zu standardisierten Produkten zu werden, das Vertrauen in Outputs sinkt, und die Black-Box-Problematik bleibt ungelöst. Die hohen Erwartungen an schnelle Ergebnisse erhöhen den Druck auf menschliche Zukunftsanalyst:innen. Als zentrale Forderungen wurden die Einhaltung und Betonung von Qualitätsstandards und eine klare Grenzziehung zwischen Mensch und Maschine formuliert. Uneinigkeit bestand hingegen bei der Frage, ob es sich beim Einsatz von KI-Anwendungen in der Kommunikation um Mode oder Methode handelt.
Was bleibt: Vier Beobachtungen
Verantwortungsdiffusion: Wenn KI Entscheidungsgrundlagen liefert, nimmt die Verantwortungsübernahme durch Menschen ab. Dr. Theiler benannte das als eines der zentralen Risiken. Wer trägt die Verantwortung für eine strategische Fehleinschätzung, die auf KI-gestützten Analysen basiert?
KI als Burnout-Motor: Die Erwartung, mit KI schneller und mehr zu produzieren, führt zu einer Beschleunigungsspirale mit realer Burnout-Gefahr für Foresight-Personal. Die Technologie soll entlasten, erzeugt aber oft zusätzlichen Ergebnisdruck.
Von Foresight zu Prognose: Vielleicht die unbequemste Erkenntnis: KI verleitet dazu, die explorative Offenheit von Foresight zugunsten vermeintlich präziser Vorhersagen aufzugeben. Mehr Varianten, schneller produziert – und die wachsende Illusion, alle Zukünfte „durchgerechnet“ zu haben.
Gütekriterien werden wichtiger, nicht überflüssig: Zukunftsbilder sind konstruierte Repräsentationen von gegenwärtigen Zukunftsvorstellungen, keine Abbilder einer kommenden Realität. KI kann die Illusion sicherer Vorhersagen verstärken, wenn dieser Konstruktionscharakter nicht mitgedacht wird. Wer KI in Foresight einsetzt, braucht nicht weniger, sondern mehr methodische Reflexion – über Quellenauswahl, Modellgrenzen und die eigene Rolle bei der Interpretation.
Ausblick
Der Workshop hat gezeigt, dass die Foresight-Community in Deutschland den KI-Diskurs ernsthaft und differenziert führt. Die Frage ist längst nicht mehr ob, sondern wie – und wo bewusst darauf verzichtet werden sollte. Besonders wertvoll war der Austausch zwischen Praktiker:innen aus sehr unterschiedlichen institutionellen Kontexten: Bundeswehr, Auswärtiges Amt, BMZ, Umweltbundesamt, BND, Forschungsinstitute, Beratungshäuser.
Wir danken André Uhl, Dr. Annika Vergin, Dr. Olaf Theiler und dem Team des Referats Zukunftsanalyse für die hervorragende Organisation und den offenen Rahmen.
Kommentar
André Winzer (Schaltzeit)
„Lasst uns Zukunftskompetenzen ausbilden“
Klar ist: KI ist ein Beschleuniger. Aber Geschwindigkeit allein ist kein Qualitätsmerkmal. Im Sinne von Explainable AI müssen wir so weit wie möglich verstehen, was in der Black Box passiert – wie Ergebnisse berechnet werden, auf welchen Daten sie basieren und wo ihre Grenzen liegen. KI darf niemals dazu führen, dass wir Verantwortung vermeiden. Im Gegenteil: Sie kann helfen, Entscheidungen robuster zu machen – etwa durch Red-Teaming-Ansätze, bei denen KI gezielt die Gegenposition einnimmt und Annahmen herausfordert.
Gleichzeitig steigen die Erwartungen an die Kommunikation strategischer Vorausschau rasant. Comics, 3D-generierte Szenarien mit der Unreal Engine, Zukunftsfilme via Sora – die Möglichkeiten sind enorm. Aber genau darin liegt auch eine Gefahr: Wenn viele Formate und adaptive Möglichkeiten existieren, kann das sowohl zu Macht als auch zu Ohnmacht führen. Inhaltlich kann vieles aufgeblasen werden. Umso wichtiger werden die Daten dahinter und die Offenheit über Entstehungsprozesse.
Deshalb brauchen wir strategische Zukunftskompetenz – und wir müssen sie lehren. Da schließen wir uns Mando Gloger an: Stochastic Parrots helfen niemandem. Es geht nicht darum, dass KI Slop multipliziert – massenhaft erzeugte Niedrigqualität –, sondern dass wir ihn erkennen und vermeiden. Wir brauchen KI-freie Zonen, in denen eigenständiges Denken Raum hat. Wir brauchen partizipative Vorausschau, die Meinungspluralismus einfordert – gern auch mit synthetisierten Personas, aber mit Bewusstsein für die ethischen Implikationen. „We don’t want to kill people based upon metadata.“
Denn KI ist ein Game Changer – aber nur, wenn wir die Spielregeln mitbestimmen. Ohne Autonomie bei KI und LLMs entstehen Abhängigkeiten, die strategisch gefährlich sind. Europa muss bei der Qualität eigener Sprachmodelle aufholen. Und wo Modelle anderer Anbieter eingesetzt werden, müssen sie in eigenen Umgebungen betrieben werden – ohne die Möglichkeit, nach Hause zu telefonieren. Digitale Souveränität ist kein Luxus, sondern Voraussetzung für glaubwürdige strategische Vorausschau.
Lasst uns gezielt Zukunftskompetenzen ausbilden und dabei immer die Gefahren im Blick haben! Beeindruckende Zukunftsbilder entstehen wenn Sie gut konstruiert sind und KI in Prozessen bewusst eingesetzt wird.

