Startseite Wenn KI die Spannung auflöst, bevor das Denken beginnt

Wenn KI die Spannung auflöst, bevor das Denken beginnt

Wenn KI die Spannung auflöst, bevor das Denken beginnt

In den ersten beiden Beiträgen dieser Serie ging es um ein handwerkliches Problem: Warum KI bei strategischen Optionen ohne Rahmen enttäuscht – und was Kontext und Methode daran ändern. Wer Entwicklungsdimensionen und das Adjacency-Prinzip konsequent einsetzt, bekommt Ergebnisse, die sich einordnen, bewerten und weiterentwickeln lassen.

Aber es gibt eine zweite Ebene. Sie ist subtiler und tritt auch dann auf, wenn die Vorbereitung gut war.

Die Spannung, die verschwindet

Ein Führungsteam sitzt zusammen. Vor ihm liegt eine offene strategische Frage – unbequem, noch nicht durchgearbeitet, mit unterschiedlichen Meinungen im Raum. Jemand gibt die Frage in ein KI-System ein. Wenige Sekunden später liegt eine strukturierte, gut formulierte Antwort auf dem Tisch.

Die Spannung ist weg.

Und genau dort beginnt das eigentliche Problem.

Strategische Auseinandersetzung lebt von produktiver Spannung. Nicht von Konflikt um seiner selbst willen, sondern von der Reibung, die entsteht, wenn unterschiedliche Erfahrungen, Einschätzungen und Risikobereitschaften aufeinandertreffen. Diese Reibung ist keine Ineffizienz. Sie ist der Denkprozess selbst. Aus ihr entstehen Fragen, die präziser sind als die ursprüngliche Frage. Einschätzungen, die sich gegenseitig schärfen. Entscheidungen, die getragen werden, weil sie gemeinsam durchdacht wurden.

KI kann diese Spannung nicht erzeugen. Aber sie kann sie auflösen, bevor sie ihre Wirkung entfaltet hat.

Warum plausible Antworten gefährlich sein können

Das geschieht nicht durch schlechte Antworten. Es geschieht durch plausible Antworten zum falschen Zeitpunkt.

Ein Sprachmodell ist auf Mustererkennung in grossen Textmengen trainiert. Es liefert Antworten, die in der Sprache der jeweiligen Branche formuliert sind, Struktur und Kohärenz ausstrahlen und vertraut klingen – weil sie aus der Vergangenheit des Feldes destilliert sind. Die Antwort klingt richtig, weil sie bekannt klingt.

Strategische Fragen, die wirklich relevant sind, haben aber keine Vergangenheit, aus der sich die Antwort ableiten liesse. Sie sind spezifisch für dieses Unternehmen, diesen Markt, dieses Team, diesen Moment. KI kann dazu Hypothesen liefern, Strukturen vorschlagen, Varianten sichtbar machen. Aber sie kann die Frage nicht beantworten. Wer das vergisst, delegiert kein Werkzeug – sondern ein Urteil.

KI als Spiegel – und die Resonanz dahinter

Hier liegt der entscheidende Unterschied zwischen zwei Arten, wie KI in der Strategiearbeit wirken kann.

Als Spiegel macht KI sichtbar, was bereits im System vorhanden ist. Unklare Annahmen führen zu unscharfen Outputs. Widersprüchliche Zielsetzungen erzeugen widersprüchliche Vorschläge. Das ist wertvoll – ein Führungsteam erkennt schneller, wo die eigene Analyse noch nicht präzise genug ist.

Resonanz entsteht eine Stufe weiter. Nicht wenn KI eine Antwort zurückgibt, sondern wenn der KI-Output das Team dazu bringt, die eigene Frage neu zu stellen. Wenn eine generierte Option als unbefriedigend erkannt wird – und das Team beginnt zu verstehen, warum sie unbefriedigend ist. Wenn eine verdichtete Analyse einer Beobachtung aus der Praxis widerspricht und dieses Spannungsverhältnis zum Ausgangspunkt einer echten Diskussion wird.

Resonanz setzt voraus, dass KI-Output als Hypothese behandelt wird – nicht als Ergebnis.

Eine Frage des Prozessdesigns

Das ist nicht nur eine Frage der Haltung. Es ist eine Frage des Prozessdesigns.

In einem gut geführten Strategieprozess ist die Sequenz entscheidend. KI arbeitet in der Vorbereitung, in der Verdichtung, in der Dokumentation. Im Workshop selbst – wenn das Führungsteam strategische Fragen durcharbeitet, Optionen bewertet und Stossrichtungen entwickelt – ist die primäre Aufgabe nicht Informationsverarbeitung. Es ist Urteilsbildung. Und Urteilsbildung braucht die Reibung, die entsteht, wenn Menschen mit unterschiedlichen Erfahrungen gemeinsam denken.

Das bedeutet nicht, dass KI im Workshop keinen Platz hat. Sie kann Zwischenstände verdichten, Varianten durchspielen, Formulierungen schärfen. Aber sie sollte nicht das erste Wort haben, wenn eine offene Frage auf dem Tisch liegt. Wer KI zu früh einsetzt, riskiert, dass das Team eine Antwort bewertet, statt eine Frage zu durchdenken.

Was daraus folgt

Ein lernendes strategisches System entsteht nicht dadurch, dass KI besser wird. Es entsteht dadurch, dass das Unternehmen besser wird: in der Formulierung seiner Fragen, in der Qualität seiner Annahmen, in der Konsistenz zwischen strategischer Richtung und operativem Handeln.

Strategie beginnt mit der Fähigkeit eines Unternehmens, sich selbst zuzuhören. KI kann dieses Zuhören unterstützen – in der Vorbereitung, in der Strukturierung, in der Nachbereitung. Sie kann es nicht ersetzen. Und sie darf es nicht abkürzen.

Die drei Beiträge dieser Serie beschreiben zwei Ebenen, auf denen KI in der Strategiearbeit scheitert – und zwei Bedingungen, unter denen sie tatsächlich nützt. Die erste Ebene ist handwerklich: Kontext und Methode. Die zweite ist prozessual: der richtige Zeitpunkt und die Bereitschaft, KI-Output als Hypothese zu behandeln, nicht als Antwort.

Beides zusammen ist noch keine Garantie für gute Strategie. Aber es ist die Voraussetzung dafür, dass KI überhaupt einen Beitrag dazu leisten kann.

Mehr in unserem aktuellen Buch «Strategieentwicklung mit KI»

Verwandte Ressourcen