Kernthemen — Aus der Gründungsarbeit von Imago
01
VeröffentlichtAI GovernanceSemantik

„Semantische Inkohärenz ist das größte ungelöste Problem in der KI-Governance."

Das Eröffnungsstatement des Ateliers

Organisationen investieren in Compliance-Dokumentation — und vernachlässigen dabei vollständig die eigentliche Herausforderung: semantische Inkohärenz.

TheseDas ist kein Kommunikationsproblem. Das ist ein Systemversagen — und es steht in keinem Compliance-Framework.
02
VeröffentlichtMittelstandAI Governance

„KI-Governance für den Mittelstand braucht keinen adaptierten Konzernansatz — sie braucht einen eigenen."

Warum das Enterprise-Modell nicht skaliert

Mittelständische Unternehmen sind mit demselben Regulierungsrahmen konfrontiert wie Konzerne — aber mit einem Bruchteil der Ressourcen.

TheseWer AI Governance für den Mittelstand mit konzernerprobten Frameworks angeht, löst das Problem nicht — er vergrößert es.
03
VeröffentlichtSystemaufstellungGovernance

„Warum Governance-Initiativen scheitern, obwohl alle offiziell dafür sind."

Die systemische Dimension von AI Governance

Strukturaufstellungen machen sichtbar, warum Governance-Initiativen scheitern. Das Immunsystem der Organisation — implizite Loyalitäten, Machtstrukturen, Deutungshoheiten — reagiert auf Veränderung.

TheseAI Governance ist kein Architekturproblem. Es ist ein Systemproblem.
04
VeröffentlichtVerantwortungAccountability

„Wer ist verantwortlich, wenn ein Algorithmus entscheidet?"

Accountability in KI-unterstützten Systemen

KI-Systeme verringern kognitive Last — aber sie verlagern auch Verantwortung. Wer ist accountable, wenn ein Algorithmus eine Empfehlung gibt und ein Mensch ihr folgt?

TheseWenn Entscheidungsverantwortung unklar ist, wird sie systematisch vermieden — auch bei KI-unterstützten Systemen.
05
VeröffentlichtStrategieSemantik

„Semantische Divergenz ist der häufigste Grund, warum Strategien scheitern."

Bedeutungslücken zwischen Ebenen

Zwischen Vorstandsetage und operativer Umsetzung entstehen Bedeutungslücken, die keine Präsentation schließt. Das Wort „Innovation" bedeutet auf F1-Ebene etwas anderes als auf Teamleitungsebene.

TheseSemantische Divergenz ist der häufigste Grund dafür, dass Strategien nicht umgesetzt werden — und er wird systematisch übersehen.
06
VeröffentlichtCompliance-TheaterGovernance

„Externe Governance-Frameworks erzeugen Compliance-Theater — nach außen dokumentiert, nach innen wirkungslos."

Was Beratungen wissen und nicht sagen

Frameworks, die ohne Verständnis der systemischen Dimension implementiert werden, erzeugen Compliance-Theater.

TheseUnd die Beratungen, die sie verkaufen, wissen das.
07
VeröffentlichtTransformationImago-Prinzip

„Transformation gelingt nicht durch externe Impulse — sondern wenn die richtigen Menschen sichtbar werden."

Imago-Zellen in Organisationen

In der Biologie tragen Imago-Zellen die Zukunftsform des Schmetterlings bereits in der Raupe. Jede Organisation trägt bereits Menschen in sich, die eine andere Zukunft denken.

TheseTransformation gelingt nicht durch externe Impulse, sondern wenn diese Menschen sichtbar werden, sich verbinden und kritische Masse erreichen.
08
VeröffentlichtKomplexitätFührung

„Ein neues Navigationsmodell für Führungsentscheidungen in komplexen Organisationen."

Über die zwei Dimensionen organisationaler Komplexität

Die Dichotomie „einfach vs. komplex" greift nicht. Organisationen bewegen sich entlang zwei unabhängiger Dimensionen: Relationiertheit und Direktheit.

TheseBisherige Komplexitätsmodelle — Cynefin und andere — sind zu grob für präzise Führungsentscheidungen.
09
VeröffentlichtFührungskulturKindness

„Kindness in der KI-Transformation ist keine weiche Tugend — sie ist eine Führungsvoraussetzung."

Warum Unkindness Lernprozesse blockiert

Kindness wird in der Führungsliteratur entweder ignoriert oder mit Harmonie-Wunsch verwechselt. Kindness bedeutet: Klarheit, Respekt, Direktheit ohne Grausamkeit.

TheseUnkindness ist besonders in KI-Transformationen toxisch — weil Angst Lernprozesse blockiert, die Transformation braucht.
10
VeröffentlichtBedeutungsarchitekturFührung 2030+

„Bedeutungsarchitektur als Führungsaufgabe der nächsten Dekade."

Die große These — für Keynotes und Kongresseröffnungen

Die entscheidende Führungsaufgabe der nächsten Dekade ist nicht die Implementierung von KI. Es ist die Schaffung von Bedeutungsstrukturen, in denen KI überhaupt wirksam werden kann.

TheseWer Algorithmen in semantisch inkohärente Organisationen einbettet, automatisiert Fehler — schneller und in größerem Maßstab als je zuvor.

Öffnungsthemen — Ko-Autorinnen und neue Stimmen
11
VeröffentlichtRegulierungVersicherung

„Regulierung als Innovationsmotor — was die Versicherungsbranche von Basel III lernen kann."

Regulatorischer Druck als strategische Chance

Regulierung wird reflexartig als Bremse betrachtet. Dabei zeigt die Geschichte, dass regulatorischer Druck Innovationsschübe auslöst — wenn Organisationen aktiv gestalten statt reagieren.

TheseWer AI Governance als Compliance-Aufgabe begreift, verliert. Wer sie als Differenzierungschance begreift, gewinnt.
12
VeröffentlichtV1 + V2HRAgentic AI

„Was passiert mit der Arbeit, wenn Agenten Aufgaben übernehmen?"

Über die menschliche Dimension der Automatisierung

Agentic AI — Systeme, die autonom Aufgaben planen und ausführen — ist keine Zukunftsmusik mehr. Die Fragen, die sie aufwirft, sind weniger technisch als menschlich.

TheseDie gefährlichste Reaktion auf Agentic AI ist weder Euphorie noch Panik — sondern Verdrängen.
13
VeröffentlichtBoardAufsichtsrat

„Kann ein Aufsichtsrat KI verstehen — und muss er das überhaupt?"

Über die Verantwortung der obersten Führungsebene

Der EU AI Act legt Verantwortung auf Boardebene. Aber welche Art von Kompetenz braucht ein Aufsichtsrat wirklich — technische Kenntnisse oder strategisches Urteilsvermögen?

TheseAufsichtsräte brauchen kein Datenwissen. Sie brauchen die Fähigkeit, die richtigen Fragen zu stellen — und unbequeme Antworten auszuhalten.
14
Draft-ZirkelKo-Autorin gesuchtPsychologieVertrauen

„Vertrauen in KI-Systeme: Was es braucht — und was es kostet."

Die psychologische Dimension der AI Adoption

Adoption scheitert selten an technischer Kompetenz. Sie scheitert an Vertrauen — oder dessen Abwesenheit. Aber Vertrauen in Maschinen funktioniert anders als Vertrauen in Menschen. Was wissen wir darüber, wie es entsteht und wie es zerbricht?

TheseWer Vertrauen in KI durch Erklärbarkeit allein herstellen will, hat das Problem nicht verstanden.
In Vorbereitung
15
Lab SessionStrategieUnsicherheit

„Strategiearbeit unter radikaler Unsicherheit — warum klassisches Szenariodenken nicht mehr ausreicht."

Über Navigationsinstrumente für eine unlesbare Zukunft

Die klassische Strategieplanung wurde für eine Welt entwickelt, in der Unsicherheit kalkulierbar war. KI, geopolitische Verwerfungen und Klimawandel machen diese Welt kleiner. Was kommt danach?

TheseGute Strategie heute bedeutet nicht, die Zukunft vorherzusagen — sondern robuste Orientierung für eine Welt zu entwickeln, die sie nicht tut.
In Vorbereitung
16
Offener KreisKo-Autorin gesuchtDiversityBias

„Wessen Werte kodiert die KI? Über strukturellen Bias in algorithmischen Systemen."

Die Gerechtigkeitsdimension der AI Governance

Algorithmen sind nie neutral — sie reproduzieren die Annahmen und Ungleichheiten der Daten, mit denen sie trainiert wurden, und der Menschen, die sie entwickeln. AI Governance, die das ignoriert, löst nur die Hälfte des Problems.

TheseBias ist kein Bug im System. Er ist ein Feature unserer Gesellschaft — und muss deshalb auf Gesellschaftsebene adressiert werden, nicht nur auf Algorithmenebene.
In Vorbereitung
17
Lab SessionLernenOrganisation

„Die lernende Organisation — Mythos oder machbar?"

Peter Senge 30 Jahre später: Was hat sich verändert?

Das Konzept der lernenden Organisation wurde in den 1990ern entwickelt — vor dem Internet, vor Cloud, vor KI. Heute haben Organisationen theoretisch mehr Lernkapazität denn je. Und trotzdem scheitern Transformationsprojekte am selben Punkt wie früher.

TheseOrganisationales Lernen ist kein Wissens-, sondern ein Bedeutungsproblem. Wissen ist vorhanden. Was fehlt, ist geteilte Deutung.
In Vorbereitung
18
VeröffentlichtDraft-ZirkelNachfolgeKI-Kompetenz

„Die KI-native Führungskraft — wer ist das, und gibt es sie schon?"

Über eine neue Generation von Führungskompetenzen

Die nächste Generation von Führungskräften wird in einer Welt sozialisiert, in der KI selbstverständlich ist. Welche Kompetenzen, welche Haltungen, welche blinden Flecken bringt sie mit — und was muss heute in Führungsentwicklung verankert werden?

TheseKI-Kompetenz wird zur Führungsvoraussetzung. Aber nicht die, die heute vermittelt wird.
19
Offener KreisSinnPurposeKultur

„Sinnarbeit in der digitalen Transformation — was Organisationen wirklich zusammenhält."

Über den kulturellen Kitt in Zeiten des Wandels

Veränderungsmüdigkeit ist real — und sie entsteht nicht, weil Wandel zu schnell ist. Sie entsteht, weil der Sinn des Wandels nicht vermittelt wird. Wer zu viel transformiert und zu wenig erklärt, verliert das Committment seiner Menschen.

TheseDie unterschätzte Führungsaufgabe in der digitalen Transformation ist nicht Change Management. Es ist Sinnstiftung.
In Vorbereitung
20
Lab SessionKo-Autorin gesuchtInfrastrukturSouveränität

„Digitale Souveränität als Führungsfrage — was bedeutet sie konkret?"

Über Abhängigkeiten, die niemand sehen will

Der Begriff „digitale Souveränität" wird inflationär verwendet — in der Politik, in der Unternehmenskommunikation, in Strategiepapieren. Aber was bedeutet er konkret für eine Organisation? Wo beginnt Abhängigkeit? Wo endet Handlungsfähigkeit?

TheseDigitale Souveränität ist keine technische Frage. Sie ist eine Führungs- und Wertentscheidung — und sie muss auf Boardebene getroffen werden.
In Vorbereitung

Grenzthemen — Die Grenzen des bisher Gedachten

Diese zehn Themen sind bewusst unbequemer formuliert, explorativ angelegt und teilweise noch ohne fertige Antwort. Hier arbeitet das Atelier an der eigenen Weiterentwicklung.

21
GrenzthemaLab SessionMachtPlattformen

„Wer kontrolliert die KI-Infrastruktur — und warum ist das eine politische Frage?"

Über Machtkonzentration in der Ära der Basismodelle

Wenige Unternehmen kontrollieren die Rechenkapazität, die Trainingsdaten und die Basismodelle, auf denen die meisten KI-Systeme weltweit aufbauen. Das ist keine technische Tatsache — es ist eine Machtstruktur, die in Governance-Debatten fast vollständig fehlt.

TheseAI Governance ohne Infrastrukturpolitik ist Fensterputzen am brennenden Haus.
In Vorbereitung
22
GrenzthemaDraft-ZirkelSpracheMacht

„Wer die Sprache kontrolliert, kontrolliert die Realität — über Framing in der KI-Debatte."

Über semantische Hegemonie in der Technologiepolitik

„Intelligenz", „Autonomie", „Verantwortung", „Risiko" — diese Begriffe klingen neutral, sind es aber nicht. Wer sie definiert, setzt die Grenzen des Denkbaren. In der KI-Debatte sind es fast ausschließlich Tech-Unternehmen und angloamerikanische Policy-Institute, die die Sprache prägen.

TheseDie wichtigste Intervention im KI-Diskurs ist keine technische. Es ist eine sprachliche.
23
GrenzthemaOffener KreisPsycheFührung

„Was macht permanente Disruption mit der menschlichen Psyche — und was bedeutet das für Führung?"

Über die psychologischen Kosten des Wandels

Transformation wird als organisationale Aufgabe diskutiert. Die psychologische Dimension — was permanenter Wandel, permanente Unsicherheit und permanente Entwertung von Erfahrung mit Menschen macht — kommt in fast keiner Governance-Debatte vor.

TheseBurn-out in Transformationsprojekten ist kein individuelles Versagen. Es ist ein strukturelles Signal — und Führung ist dafür verantwortlich.
In Vorbereitung
24
GrenzthemaLab SessionPhilosophieEthik

„Haben Organisationen moralische Verantwortung — oder nur ihre Mitglieder?"

Über kollektive Schuld und Verantwortungsdiffusion

Wenn ein KI-System Schaden anrichtet, wer ist verantwortlich? Das Unternehmen? Die Führungskraft? Die Entwicklerin? Die Trainingsdaten? Die Frage ist nicht nur juristisch — sie ist philosophisch. Und die Antwort verändert, wie wir Governance denken müssen.

TheseVerantwortungsdiffusion ist das größte ungelöste Problem der AI Governance — und niemand redet darüber.
In Vorbereitung
25
GrenzthemaDraft-ZirkelKo-Autorin gesuchtResilienz

„Organisationale Resilienz im Zeitalter von KI — was das überhaupt bedeutet."

Jenseits von Redundanz und Backup-Systemen

Resilienz wird meist als technische Eigenschaft verstanden: Ausfallsicherheit, Redundanz, Recovery. Aber organisationale Resilienz ist die Fähigkeit, die eigene Identität unter Druck zu erhalten. In einer Welt, in der KI Kernprozesse übernimmt, wird diese Frage existenziell.

TheseOrganisationen, die nicht wissen, wer sie sind wenn ihre KI ausfällt, haben ihre Identität bereits verloren.
In Vorbereitung
26
GrenzthemaLab SessionDemokratieÖffentlichkeit

„Was passiert mit demokratischer Öffentlichkeit, wenn KI die Informationsräume formt?"

Über Episteme, Filter und die Bedingungen des gemeinsamen Denkens

Demokratie funktioniert nur, wenn eine gemeinsame epistemische Basis existiert. Personalisierte KI-Systeme fragmentieren diesen Raum. Was das für Organisationen und ihre gesellschaftliche Einbettung bedeutet, ist noch kaum gedacht.

TheseAI Governance ist keine Unternehmensfrage. Sie ist eine demokratiepolitische Frage, die in Vorstandsetagen behandelt wird.
In Vorbereitung
27
GrenzthemaOffener KreisZeitFührung

„Das Tempo-Problem: Warum schnelle Entscheidungen langsames Denken brauchen."

Über Zeitkompetenz als Führungsqualität der Zukunft

KI beschleunigt Entscheidungszyklen. Organisationen, die nicht gegensteuern, verlieren die Fähigkeit zur Reflexion — und damit zur echten Steuerung. Das Paradox: Je schneller Systeme werden, desto wichtiger wird die bewusste Verlangsamung an den richtigen Punkten.

TheseDie Führungskompetenz der Zukunft ist nicht Schnelligkeit. Es ist die Kunst, zu wissen, wann man langsamer werden muss.
In Vorbereitung
28
GrenzthemaLab SessionKo-Autorin gesuchtNachhaltigkeit

„Der ökologische Fußabdruck der KI — das blinde Fleck in der Governance-Debatte."

Über die materielle Basis der digitalen Transformation

KI-Systeme sind nicht immateriell. Sie verbrauchen Rechenenergie, Wasser für Kühlsysteme und seltene Erden für Hardware. Diese Kosten werden in Governance-Frameworks systematisch ausgeblendet. Eine vollständige Governance muss sie einschließen.

TheseEine KI, die den Planeten beschleunigt zerstört, ist keine intelligente KI — unabhängig davon, wie gut sie optimiert.
In Vorbereitung
29
GrenzthemaDraft-ZirkelKreativitätUrheberschaft

„Was bleibt von menschlicher Kreativität, wenn Maschinen produzieren?"

Über Urheberschaft, Originalität und den Wert des Gemachten

Generative KI verändert den Begriff der Urheberschaft fundamental. Was bedeutet „original" noch, wenn ein Modell auf dem gesamten menschlichen Kulturschaffen trainiert wurde? Und was bedeutet das für Organisationen, die auf kreative Leistung angewiesen sind?

TheseKreativität war nie das Erzeugen von Neuem aus dem Nichts. Aber KI verändert, was wir meinen, wenn wir das sagen — und das ist eine tiefgreifende kulturelle Verschiebung.
In Vorbereitung
30
GrenzthemaOffener KreisZukunftAnthropologie

„Was ist der Mensch, wenn Maschinen klüger werden? Über das Selbstbild einer Spezies in Transition."

Die anthropologische Dimension der KI-Revolution

Menschen haben sich immer über ihre Fähigkeiten definiert — über Werkzeuggebrauch, Sprache, Vernunft. KI stellt diese Definitionen in Frage, eine nach der anderen. Was das mit dem Selbstbild von Führungskräften, von Organisationen, von Gesellschaften macht, ist die tiefste Frage hinter allen anderen.

TheseDie eigentliche Governance-Frage ist keine technische und keine juristische. Sie ist: Was wollen wir als Menschen bleiben — und was sind wir bereit zu geben?
← Startseite