Kurze, dichte Argumentationen zu den drängenden Fragen an der Schnittstelle von KI, Komplexität und Führung. 8–15 Seiten. Öffentlich. Kostenlos.
Das Eröffnungsstatement des Ateliers
Organisationen investieren in Compliance-Dokumentation — und vernachlässigen dabei vollständig die eigentliche Herausforderung: semantische Inkohärenz.
Warum das Enterprise-Modell nicht skaliert
Mittelständische Unternehmen sind mit demselben Regulierungsrahmen konfrontiert wie Konzerne — aber mit einem Bruchteil der Ressourcen.
Die systemische Dimension von AI Governance
Strukturaufstellungen machen sichtbar, warum Governance-Initiativen scheitern. Das Immunsystem der Organisation — implizite Loyalitäten, Machtstrukturen, Deutungshoheiten — reagiert auf Veränderung.
Accountability in KI-unterstützten Systemen
KI-Systeme verringern kognitive Last — aber sie verlagern auch Verantwortung. Wer ist accountable, wenn ein Algorithmus eine Empfehlung gibt und ein Mensch ihr folgt?
Bedeutungslücken zwischen Ebenen
Zwischen Vorstandsetage und operativer Umsetzung entstehen Bedeutungslücken, die keine Präsentation schließt. Das Wort „Innovation" bedeutet auf F1-Ebene etwas anderes als auf Teamleitungsebene.
Was Beratungen wissen und nicht sagen
Frameworks, die ohne Verständnis der systemischen Dimension implementiert werden, erzeugen Compliance-Theater.
Imago-Zellen in Organisationen
In der Biologie tragen Imago-Zellen die Zukunftsform des Schmetterlings bereits in der Raupe. Jede Organisation trägt bereits Menschen in sich, die eine andere Zukunft denken.
Über die zwei Dimensionen organisationaler Komplexität
Die Dichotomie „einfach vs. komplex" greift nicht. Organisationen bewegen sich entlang zwei unabhängiger Dimensionen: Relationiertheit und Direktheit.
Warum Unkindness Lernprozesse blockiert
Kindness wird in der Führungsliteratur entweder ignoriert oder mit Harmonie-Wunsch verwechselt. Kindness bedeutet: Klarheit, Respekt, Direktheit ohne Grausamkeit.
Die große These — für Keynotes und Kongresseröffnungen
Die entscheidende Führungsaufgabe der nächsten Dekade ist nicht die Implementierung von KI. Es ist die Schaffung von Bedeutungsstrukturen, in denen KI überhaupt wirksam werden kann.
Regulatorischer Druck als strategische Chance
Regulierung wird reflexartig als Bremse betrachtet. Dabei zeigt die Geschichte, dass regulatorischer Druck Innovationsschübe auslöst — wenn Organisationen aktiv gestalten statt reagieren.
Über die menschliche Dimension der Automatisierung
Agentic AI — Systeme, die autonom Aufgaben planen und ausführen — ist keine Zukunftsmusik mehr. Die Fragen, die sie aufwirft, sind weniger technisch als menschlich.
Über die Verantwortung der obersten Führungsebene
Der EU AI Act legt Verantwortung auf Boardebene. Aber welche Art von Kompetenz braucht ein Aufsichtsrat wirklich — technische Kenntnisse oder strategisches Urteilsvermögen?
Die psychologische Dimension der AI Adoption
Adoption scheitert selten an technischer Kompetenz. Sie scheitert an Vertrauen — oder dessen Abwesenheit. Aber Vertrauen in Maschinen funktioniert anders als Vertrauen in Menschen. Was wissen wir darüber, wie es entsteht und wie es zerbricht?
Über Navigationsinstrumente für eine unlesbare Zukunft
Die klassische Strategieplanung wurde für eine Welt entwickelt, in der Unsicherheit kalkulierbar war. KI, geopolitische Verwerfungen und Klimawandel machen diese Welt kleiner. Was kommt danach?
Die Gerechtigkeitsdimension der AI Governance
Algorithmen sind nie neutral — sie reproduzieren die Annahmen und Ungleichheiten der Daten, mit denen sie trainiert wurden, und der Menschen, die sie entwickeln. AI Governance, die das ignoriert, löst nur die Hälfte des Problems.
Peter Senge 30 Jahre später: Was hat sich verändert?
Das Konzept der lernenden Organisation wurde in den 1990ern entwickelt — vor dem Internet, vor Cloud, vor KI. Heute haben Organisationen theoretisch mehr Lernkapazität denn je. Und trotzdem scheitern Transformationsprojekte am selben Punkt wie früher.
Über eine neue Generation von Führungskompetenzen
Die nächste Generation von Führungskräften wird in einer Welt sozialisiert, in der KI selbstverständlich ist. Welche Kompetenzen, welche Haltungen, welche blinden Flecken bringt sie mit — und was muss heute in Führungsentwicklung verankert werden?
Über den kulturellen Kitt in Zeiten des Wandels
Veränderungsmüdigkeit ist real — und sie entsteht nicht, weil Wandel zu schnell ist. Sie entsteht, weil der Sinn des Wandels nicht vermittelt wird. Wer zu viel transformiert und zu wenig erklärt, verliert das Committment seiner Menschen.
Über Abhängigkeiten, die niemand sehen will
Der Begriff „digitale Souveränität" wird inflationär verwendet — in der Politik, in der Unternehmenskommunikation, in Strategiepapieren. Aber was bedeutet er konkret für eine Organisation? Wo beginnt Abhängigkeit? Wo endet Handlungsfähigkeit?
Diese zehn Themen sind bewusst unbequemer formuliert, explorativ angelegt und teilweise noch ohne fertige Antwort. Hier arbeitet das Atelier an der eigenen Weiterentwicklung.
Über Machtkonzentration in der Ära der Basismodelle
Wenige Unternehmen kontrollieren die Rechenkapazität, die Trainingsdaten und die Basismodelle, auf denen die meisten KI-Systeme weltweit aufbauen. Das ist keine technische Tatsache — es ist eine Machtstruktur, die in Governance-Debatten fast vollständig fehlt.
Über semantische Hegemonie in der Technologiepolitik
„Intelligenz", „Autonomie", „Verantwortung", „Risiko" — diese Begriffe klingen neutral, sind es aber nicht. Wer sie definiert, setzt die Grenzen des Denkbaren. In der KI-Debatte sind es fast ausschließlich Tech-Unternehmen und angloamerikanische Policy-Institute, die die Sprache prägen.
Über die psychologischen Kosten des Wandels
Transformation wird als organisationale Aufgabe diskutiert. Die psychologische Dimension — was permanenter Wandel, permanente Unsicherheit und permanente Entwertung von Erfahrung mit Menschen macht — kommt in fast keiner Governance-Debatte vor.
Über kollektive Schuld und Verantwortungsdiffusion
Wenn ein KI-System Schaden anrichtet, wer ist verantwortlich? Das Unternehmen? Die Führungskraft? Die Entwicklerin? Die Trainingsdaten? Die Frage ist nicht nur juristisch — sie ist philosophisch. Und die Antwort verändert, wie wir Governance denken müssen.
Jenseits von Redundanz und Backup-Systemen
Resilienz wird meist als technische Eigenschaft verstanden: Ausfallsicherheit, Redundanz, Recovery. Aber organisationale Resilienz ist die Fähigkeit, die eigene Identität unter Druck zu erhalten. In einer Welt, in der KI Kernprozesse übernimmt, wird diese Frage existenziell.
Über Episteme, Filter und die Bedingungen des gemeinsamen Denkens
Demokratie funktioniert nur, wenn eine gemeinsame epistemische Basis existiert. Personalisierte KI-Systeme fragmentieren diesen Raum. Was das für Organisationen und ihre gesellschaftliche Einbettung bedeutet, ist noch kaum gedacht.
Über Zeitkompetenz als Führungsqualität der Zukunft
KI beschleunigt Entscheidungszyklen. Organisationen, die nicht gegensteuern, verlieren die Fähigkeit zur Reflexion — und damit zur echten Steuerung. Das Paradox: Je schneller Systeme werden, desto wichtiger wird die bewusste Verlangsamung an den richtigen Punkten.
Über die materielle Basis der digitalen Transformation
KI-Systeme sind nicht immateriell. Sie verbrauchen Rechenenergie, Wasser für Kühlsysteme und seltene Erden für Hardware. Diese Kosten werden in Governance-Frameworks systematisch ausgeblendet. Eine vollständige Governance muss sie einschließen.
Über Urheberschaft, Originalität und den Wert des Gemachten
Generative KI verändert den Begriff der Urheberschaft fundamental. Was bedeutet „original" noch, wenn ein Modell auf dem gesamten menschlichen Kulturschaffen trainiert wurde? Und was bedeutet das für Organisationen, die auf kreative Leistung angewiesen sind?
Die anthropologische Dimension der KI-Revolution
Menschen haben sich immer über ihre Fähigkeiten definiert — über Werkzeuggebrauch, Sprache, Vernunft. KI stellt diese Definitionen in Frage, eine nach der anderen. Was das mit dem Selbstbild von Führungskräften, von Organisationen, von Gesellschaften macht, ist die tiefste Frage hinter allen anderen.