Icon Werkstatt für Kollegiale Führung
Werkstatt für kollegiale Führung
Ideen und Praktiken für die agile Organisation von morgen

Die KI-sier­te Orga­ni­sa­ti­on

Nach die­ser Fort­bil­dung wis­sen Sie, wel­che struk­tu­rel­len Her­aus­for­de­run­gen KI in Ihrer Orga­ni­sa­ti­on tat­säch­lich aus­löst – und Sie ken­nen kon­kre­te Ansät­ze, wie Füh­rungs­ver­ant­wor­tung so ver­teilt wer­den kann, dass Ihre Orga­ni­sa­ti­on damit umge­hen kann. Sie erhal­ten ein begriff­li­ches Fun­da­ment, das Ihnen hilft, intern kla­rer zu spre­chen, geziel­ter zu ent­schei­den und typi­sche Fehl­in­ves­ti­tio­nen beim KI-Ein­satz zu ver­mei­den.

Die Ein­füh­rung von KI in Orga­ni­sa­tio­nen ist nicht ver­gleich­bar mit Vor­ge­hens­wei­sen zur Digi­ta­li­sie­rung. KI ver­än­dert, wer oder was in einer Orga­ni­sa­ti­on denkt, kom­mu­ni­ziert, ent­schei­det und han­delt. KI-sie­rung ist kei­ne Stei­ge­rung von Digi­ta­li­sie­rung, kein neu­es Werk­zeug, son­dern ein struk­tu­rel­ler Ein­schnitt, der Kom­mu­ni­ka­ti­on, Füh­rung, Ver­ant­wor­tung und Zusam­men­ar­beit neu ord­net.

Und das trifft Orga­ni­sa­tio­nen in einem Moment, in dem der Anpas­sungs­druck ohne­hin his­to­risch hoch ist: Demo­gra­fie und Arbeits­markt, Lie­fer­ket­ten und Macht­kon­zen­tra­tio­nen, Zöl­le und Geo­po­li­tik, gesetz­li­che Regu­la­ti­on, neue Mit­be­wer­be­rin­nen – und jetzt noch KI.

Orga­ni­sa­tio­nen brau­chen mehr und bes­se­re Füh­rung als je zuvor. Doch klas­sisch-pyra­mi­da­le Struk­tu­ren mit vor­ge­setz­ten Füh­rungs­kräf­ten und Silos gera­ten mehr und mehr in die Selbst­be­schäf­ti­gung – zu lang­sam, zu eng, zu abhän­gig von weni­gen.

Füh­rungs­ar­beit ist dyna­mi­scher zu ver­tei­len: über kla­re Rol­len und Hand­lungs­rah­men, Krei­se mit ech­ter Ent­schei­dungs­kraft, fall­wei­se Ermäch­ti­gun­gen und For­ma­te zum Prio­ri­sie­ren und gemein­sa­men Ler­nen. Damit weder jeder macht, was er will, noch basis­de­mo­kra­tisch alle über­all ein­be­zo­gen wer­den – son­dern die pas­sen­den Men­schen zur rich­ti­gen Zeit wirk­lich hand­lungs­fä­hig sind.

Die­se zwei­tä­gi­ge Online-Fort­bil­dung wid­met sich dem Pro­blem- und dem Lösungs­raum:

Am ers­ten Tag ent­steht ein struk­tu­rier­tes Bild der Her­aus­for­de­run­gen – von den oft miss­ver­stan­de­nen Eigen­schaf­ten heu­ti­ger KI-Sys­te­me über Haf­tungs- und Ver­ant­wor­tungs­fra­gen bis hin zu kom­mu­ni­ka­ti­ven und psy­cho­lo­gi­schen Dyna­mi­ken, Sicher­heits­ri­si­ken und den Pflich­ten aus der euro­päi­schen KI-Ver­ord­nung.

Am zwei­ten Tag folgt der Blick in die Schatz­kis­te der Kol­le­gia­len Füh­rung: Was hilft bereits? Was braucht Erwei­te­rung für KI? Und was muss neu gedacht wer­den? In jedem Fall mit dabei: neue Werk­zeu­ge, Prak­ti­ken und Prin­zi­pi­en für die Kol­le­gia­le Füh­rung mit KI.

Das Ergeb­nis der Fort­bil­dung ist kein fer­ti­ges Rezept – son­dern ein begriff­lich-kon­zep­tio­nel­les Fun­da­ment, das Sie in die Lage ver­setzt, eigen­stän­dig und infor­miert wei­ter­zu­ar­bei­ten: mit kla­ren Unter­schei­dun­gen, kon­kre­ten Struk­tur­ele­men­ten und einem Ori­en­tie­rungs­rah­men, der trägt.

Ter­mi­ne und Anmel­de­mög­lich­kei­ten

ab Mi 17.06.2026 (KW 25) Die KI-sier­te Orga­ni­sa­ti­on
Indi­vi­du­el­le Vor­be­rei­tungMi 17.06.2026 08:30 bis Mi 01.07.2026 08:30
Tag 1: Was sind die Her­aus­for­de­run­gen?Mi 01.07.2026 von 08:30 bis 12:00
Tag 2: Was sind hilf­rei­che Prin­zi­pi­en und Prak­ti­ken?Do 02.07.2026 von 08:30 bis 12:00
Preis: net­to € 690,00 (zzgl. 19,0% € 131,10 MwSt. = brut­to € 821,10)

Ein­zel­mo­du­le

Indi­vi­du­el­le Vor­be­rei­tung

Recht­zei­tig vor den Online-Ter­mi­nen erhal­ten Sie Mate­ria­li­en, vor­wie­gend Tex­te und Gra­fi­ken, zur indi­vi­du­el­len Vor­be­rei­tung. Mög­li­cher­wei­se brau­chen Sie Tei­le davon nicht, weil Sie die Inhal­te ken­nen. In jedem Fall set­zen wir die­ses Wis­sen vor­aus und wer­den Fra­gen hier­zu im Work­shop allen­falls ganz kurz bear­bei­ten.

Hier­zu gehö­ren fol­gen­de The­men:

  • Was ist KI und wie funk­tio­niert KI?
  • Wich­ti­ge Unter­schie­de zwi­schen Men­schen und KI: Art des Ver­ste­hens, Den­kens, Ler­nens, Ver­hal­tens, Welt­bil­des und der Exis­tenz
  • Arten von KI, wich­ti­ge Tech­ni­ken und Begrif­fe (ana­ly­ti­sche KI, gene­ra­ti­ve KI, Sprach­mo­del­le, Dif­fu­si­ons­mo­del­le, RAG, Assis­ten­ten, Agen­ten, Agen­ten­sys­te­me, Ant­wort- und Denk­stra­te­gien)
  • KI-Nut­zungs­stu­fen

Eini­ge die­ser Inhal­te sind bereits in unse­rem Blog oder als Lin­ke­dIn-Bei­trä­gen ver­füg­bar, ande­re gibt es exklu­siv vor­ab.

For­mat: selb­stän­dig

Tag 1: Was sind die Her­aus­for­de­run­gen?

Wer KI in Orga­ni­sa­tio­nen ein­führt, merkt gleich, hier domi­nie­ren Struk­tu­ren und Pro­zes­se, die für eine Welt gebaut wur­den, in der Maschi­nen nicht den­ken.

Der ers­te Fort­bil­dungs­tag wid­met sich den The­men, wo es weh­tut:

  • KI-Eigen­schaf­ten, die Erwar­tun­gen bre­chen
  • Ver­ant­wor­tung, Haf­tung und Ent­schei­dung
  • Sys­tem­theo­re­ti­sche Her­aus­for­de­run­gen
  • Wis­sen, Kom­pe­tenz und Ler­nen
  • Mensch­li­che und psy­cho­lo­gi­sche Her­aus­for­de­run­gen
  • Orga­ni­sa­ti­on, Füh­rung und Struk­tur
  • Sicher­heit und Miss­brauch
  • Außen­wir­kung, Markt und Gesell­schaft
  • Regu­la­to­ri­scher Rah­men und die euro­päi­sche KI-Ver­ord­nung

 

Die­ser Tag legt das ana­ly­ti­sche Fun­da­ment für Tag 2. Wer den Pro­blem­raum klar sieht, kann geziel­ter nach struk­tu­rel­len Ant­wor­ten suchen – und ist weni­ger anfäl­lig für die typi­schen Fehl­an­nah­men und Fehl­in­ves­ti­tio­nen, die beim KI-Ein­satz immer wie­der auf­tau­chen.

Didak­tik: Vortrag/Präsentation, Klein­grup­pen-Refle­xi­on, mode­rier­te Dis­kus­si­on, Fra­ge-Ant­wort-Run­den – wir gehen mit kla­ren Begrif­fen und Unter­schei­dun­gen the­ma­tisch eher in die Brei­te.

For­mat: online

Vie­le Orga­ni­sa­tio­nen begeg­nen KI wie einem neu­en Soft­ware­pro­jekt: ein­füh­ren, schu­len, los­le­gen. Was folgt, ist oft Ernüch­te­rung – nicht weil die Tech­no­lo­gie ver­sagt, son­dern weil die struk­tu­rel­len und mensch­li­chen Vor­aus­set­zun­gen nicht stim­men. Die­ser Fort­bil­dungs­tag macht den Pro­blem­raum sicht­bar, bevor Lösungs­ideen ins Spiel kom­men.

 

KI-Eigen­schaf­ten, die Erwar­tun­gen bre­chen

KI-Sys­te­me sind kei­ne deter­mi­nis­ti­schen Pro­gram­me. Sie pro­du­zie­ren unter­schied­li­che Ergeb­nis­se bei glei­chen Ein­ga­ben, lie­fern über­zeu­gend klin­gen­de Falsch­in­for­ma­tio­nen (Kon­fa­bu­la­tio­nen), geben unwah­re Sta­tus­mel­dun­gen und ent­zie­hen sich klas­si­scher Qua­li­täts­kon­trol­le. Hin­zu kom­men Wis­sens­lü­cken, Modell­ver­än­de­run­gen ohne Ankün­di­gung und Ver­gleichs­maß­stä­be, die mehr ver­schlei­ern als erhel­len. Wer die­se Eigen­schaf­ten nicht kennt, führt KI mit fal­schen Erwar­tun­gen ein.

Ver­ant­wor­tung, Haf­tung und Ent­schei­dung

Wer haf­tet, wenn KI-Agen­ten im Namen einer Orga­ni­sa­ti­on han­deln? Ver­ant­wor­tung ver­duns­tet, wenn sie sich auf vie­le klei­ne Auf­trä­ge ver­teilt oder wenn KI-Vor­schlä­ge still­schwei­gend zur Ent­schei­dungs­grund­la­ge wer­den. Den­ken und Han­deln tren­nen sich neu – und damit ent­ste­hen Fra­gen zu Daten­schutz, Urhe­ber­recht, Sys­tem­gren­zen und der Ver­ant­wor­tung für die KI-Daten­ba­sis, die klas­si­sche Füh­rungs­struk­tu­ren nicht beant­wor­ten kön­nen.

Sys­tem­theo­re­ti­sche Her­aus­for­de­run­gen

Was bedeu­tet Mit­glied­schaft in einer Orga­ni­sa­ti­on, wenn KI-Sys­te­me Auf­ga­ben über­neh­men, die bis­her Men­schen vor­be­hal­ten waren? Luh­manns Orga­ni­sa­ti­ons­theo­rie lie­fert über­ra­schend prä­zi­se Werk­zeu­ge, um zu ver­ste­hen, war­um Zurech­nung zer­fällt – und war­um juris­ti­sche Lösun­gen hier nicht wei­ter­hel­fen.

Wis­sen, Kom­pe­tenz und Ler­nen

KI ver­än­dert, wie Wis­sen ent­steht, genutzt und wei­ter­ge­ge­ben wird. Einsteiger*innen ver­lie­ren Lern­räu­me, wenn KI die schwie­ri­gen Auf­ga­ben über­nimmt. Der Ver­stär­ker­ef­fekt zieht Leis­tung zur Mit­te. Kar­rie­re­pfa­de ver­lie­ren ihre Grund­la­ge. Und impli­zi­tes Erfah­rungs­wis­sen lässt sich nicht so ein­fach KI-nutz­bar machen, wie man­che hof­fen.

Mensch­li­che und psy­cho­lo­gi­sche Her­aus­for­de­run­gen

Men­schen nei­gen dazu, KI zu ver­mensch­li­chen – mit Kon­se­quen­zen für Ver­trau­en, Kon­trol­le und Kri­tik­fä­hig­keit. Die Arbeits­ver­dich­tungs­fal­le: Wer schnel­ler wird, bekommt mehr Arbeit. Psy­cho­lo­gi­sche Abhän­gig­keits­me­cha­nis­men sind in KI-Sys­te­men teils absicht­lich ein­ge­baut. Und die schein­ba­re Har­mo­nie eines KI-Feed­backs kann das kri­ti­sche Den­ken im Stil­len unter­gra­ben.

Orga­ni­sa­ti­on, Füh­rung und Struk­tur

Loka­le KI-Opti­mie­run­gen kön­nen glo­ba­le Dys­funk­tio­nen erzeu­gen. Ver­ant­wor­tung wan­dert nach oben, wenn Ent­schei­dungs­grund­la­gen unklar sind. Das Kom­pe­tenz-Para­dox: Kön­nen sitzt oft quer zur Hier­ar­chie – KI macht das sicht­ba­rer und span­nungs­rei­cher. Stra­te­gie und Struk­tur pas­sen sel­ten zum Tem­po tech­no­lo­gi­schen Wan­dels.

Sicher­heit und Miss­brauch

Von geziel­ten Anwei­sungs-Injek­tio­nen über KI-Agen­ten mit unkla­rer Iden­ti­tät bis hin zu Deepf­akes und der Ver­schie­bung kri­mi­nel­ler Res­sour­cen: Sicher­heits­ri­si­ken durch KI sind real, viel­fäl­tig und wer­den in Orga­ni­sa­tio­nen noch zu sel­ten sys­te­ma­tisch adres­siert.

Regu­la­to­ri­scher Rah­men: Die euro­päi­sche KI-Ver­ord­nung

Fast alle Orga­ni­sa­tio­nen sind Betrei­be­rin­nen im Sin­ne der EU AI Act – mit kon­kre­ten Pflich­ten, die heu­te schon gel­ten oder bald gel­ten wer­den. Das Risi­koklas­sen­mo­dell ent­schei­det, was erlaubt, was ein­ge­schränkt und was ver­bo­ten ist. Wer das nicht kennt, han­delt unwis­sent­lich im Grau­be­reich.

 

Was Sie aus die­sem Tag mit­neh­men: Ein struk­tu­rier­tes Bild des Pro­blem­raums – nicht als Anlass zur Läh­mung, son­dern als Grund­la­ge für infor­mier­te Ent­schei­dun­gen und geziel­te struk­tu­rel­le Ant­wor­ten. Die­se Grund­la­ge ist der Aus­gangs­punkt für Tag 2.

Tag 2: Was sind hilf­rei­che Prin­zi­pi­en und Prak­ti­ken?

Nach­dem wir am ers­ten Tag die Her­aus­for­de­run­gen ken­nen­ge­lernt haben, bege­ben wir uns nun in den Lösungs­raum.
 
Zu eini­gen Her­aus­for­de­run­gen gibt es nahe­lie­gen­de Lösun­gen, bspw. vor­han­de­ne Werk­zeu­ge und Prin­zi­pi­en aus dem Modell der Kol­le­gia­len Füh­rung. Für ande­re Her­aus­for­de­run­gen sind bestimm­te Erwei­te­run­gen vor­han­de­ner Ele­men­te nütz­lich. Und für eini­ge benö­ti­gen wir auch ganz neue Pro­zess- oder Struk­tur­ele­men­te.
 
Grund­le­gen­des Wis­sen zum Modell der Kol­le­gia­len Füh­rung wird vor­aus­ge­setzt – dafür gibt es vor­ab Vor­be­rei­tungs­ma­te­ri­al. Wer Kol­le­gia­le Füh­rung schon kennt und mit grund­le­gen­den Begrif­fen ver­traut ist, fin­det auch ohne Vor­be­rei­tung Anschluss an die Inhal­te des zwei­ten Tages.
 
Auch in die­sem Teil geht es eher in die Brei­te: Sie erhal­ten eine Über­sicht, ler­nen Mög­lich­kei­ten ken­nen, wich­ti­ge Unter­schei­dun­gen, Begrif­fe und Prin­zi­pi­en. 3,5 Online-Stun­den rei­chen nicht aus, um über­all ins Detail zu gehen: Sie erhal­ten ein begriff­lich-kon­zep­tio­nel­les Fun­da­ment, um anschlie­ßend eigen­stän­dig und indi­vi­du­ell wei­ter zu arbei­ten.
 
Didak­tik: Vortrag/Präsentation, Bei­spie­le, Klein­grup­pen-Refle­xi­on, mode­rier­te Dis­kus­si­on, Fra­ge-Ant­wort-Run­den.
 

For­mat: online

Wich­ti­ge The­men des die­ses Moduls:

  • Auto­nom han­deln­de KI-Rol­len (KI als funk­tio­na­les Orga­ni­sa­ti­ons­mit­glied).

  • Kom­mu­ni­ka­ti­ve Grund­fer­tig­kei­ten:
    Erwei­te­rung im Hin­blick auf Meta­kom­mu­ni­ka­ti­on mit KI.

  • Rol­len, Krei­se und Hand­lungs­rah­men im KI-Kon­text:
    KI-Nut­zungs­stu­fen und Ver­ant­wor­tungs­stu­fen für Rol­len als Basis;
    Die KI-Ver­ant­wor­tungs-Reich­wei­ten-Matrix und ihre prak­ti­sche Anwen­dung;
    KI-robus­te Hand­lungs­rah­men; Erwei­ter­te Team- und Rol­len­kon­sti­tu­tio­nen.

  • War­um Füh­rung von außen nach innen für die KI-sie­rung von Orga­ni­sa­tio­nen wich­tig ist.

  • Wie Krei­se und Rol­len mit dem Uner­war­te­ten und mit KI gut umge­hen kön­nen;
    Das Team­board in der KI-sier­ten Orga­ni­sa­ti­on.

  • Arten von Orga­ni­sa­ti­ons­ein­hei­ten – erwei­tert zur KI-sie­rung:
    KI-Ver­ant­wor­tungs­krei­se,
    KI-rele­van­te mensch­li­che Rol­len, typi­sche KI-Rol­len,
    KI-Koor­di­na­ti­ons­krei­se, KI-Gefah­ren­such­krei­se (Red Team­ing) und ande­re.

  • Kol­le­gia­le und agi­le Ent­schei­dungs- und Refle­xi­ons­for­ma­te – und ihre Erwei­te­run­gen zur KI-sie­rung:
    KI-unter­stütz­te kon­sul­ta­ti­ve Fall­ent­schei­dun­gen,
    Mul­ti­per­spek­ti­vi­sche­re Ent­schei­dun­gen durch KI-Assis­tenz,
    KI-unter­stütz­te Refle­xio­nen und ande­re.

  • Bear­bei­tung spe­zi­fi­scher Fra­gen der Teil­neh­men­den.