Icon Werkstatt für Kollegiale Führung
Werkstatt für kollegiale Führung
Ideen und Praktiken für die agile Organisation von morgen
Über den Beitrag
Verfassende Person
Bild von Bernd Oestereich

Bernd Oestereich

Impulsgeber für kollegial geführte Organi­sationen mit Erfahrung als Unternehmer seit 1998. Sprecher und Autor inter­national verlegter Bücher.
Schlagwörter

Gän­gi­ge Miss­ver­ständ­nis­se über KI – und war­um sie uns in die Irre füh­ren

Kaum ein tech­ni­sches The­ma wird der­zeit so inten­siv dis­ku­tiert wie Künst­li­che Intel­li­genz. Gleich­zei­tig wird kaum ein The­ma so häu­fig miss­ver­stan­den. In Orga­ni­sa­tio­nen zeigt sich das beson­ders deut­lich: Erwar­tun­gen, Hoff­nun­gen und Ängs­te gegen­über KI beru­hen oft auf Vor­stel­lun­gen, die aus der Welt klas­si­scher Soft­ware stam­men. Genau dort liegt das zen­tra­le Pro­blem. Denn KI funk­tio­niert grund­le­gend anders als das, was Orga­ni­sa­tio­nen über Jahr­zehn­te hin­weg gelernt haben zu steu­ern, zu pla­nen und zu kon­trol­lie­ren.

KI ist kei­ne bes­se­re Soft­ware

Her­kömm­li­che Soft­ware folgt kla­ren, kau­sal  nach­voll­zieh­ba­ren Abläu­fen. Wenn A ein­tritt, dann pas­siert B. Feh­ler las­sen sich repro­du­zie­ren, Ursa­chen iden­ti­fi­zie­ren, Abläu­fe kor­ri­gie­ren. Die­se Logik hat Orga­ni­sa­tio­nen geprägt – und sie prägt bis heu­te das Den­ken vie­ler Ent­schei­de­rin­nen.

KI hin­ge­gen arbei­tet nicht kau­sal-deter­mi­nis­tisch, son­dern asso­zia­tiv. Neu­ro­na­le Net­ze stel­len kei­ne fes­ten Wenn-dann-Bezie­hun­gen her, son­dern ver­ar­bei­ten Wahr­schein­lich­kei­ten, Mus­ter und Ähn­lich­kei­ten. Sie reagie­ren nicht im klas­si­schen Sin­ne, son­dern erzeu­gen Ant­wor­ten aus hoch­di­men­sio­na­len Bezie­hungs­räu­men. Das macht sie leis­tungs­fä­hig – und zugleich schwer vor­her­sag­bar. Ein Ursa­che-Wir­kungs­prin­zip greift hier nicht.

Schon die ver­brei­te­te Über­tra­gung des Begriffs „Algo­rith­mus“ auf KI ist des­halb irre­füh­rend. Zwar wer­den neu­ro­na­le Net­ze letzt­lich mit klas­si­schen Algo­rith­men berech­net. Doch die­se Algo­rith­men simu­lie­ren ein Sys­tem, ein neu­ro­na­les Netz, das sich ganz anders ver­hält als das, was wir gemein­hin unter einem Algo­rith­mus ver­ste­hen. Wer bei­des gleich­setzt, über­sieht den ent­schei­den­den qua­li­ta­ti­ven Sprung.


Miss­ver­ständ­nis „Hal­lu­zi­na­ti­on“

Ein beson­ders hart­nä­cki­ger Mythos ist der Begriff der „Hal­lu­zi­na­ti­on“. KI-Ergeb­nis­se, die fak­tisch falsch oder frei erfun­den sind, wer­den oft als Feh­ler, Irr­tü­mer oder Fehl­funk­tio­nen bezeich­net. Die­se Zuschrei­bung greift zu kurz. Sie stammt aus einer Denk­welt, in der Pro­gram­me ent­we­der kor­rekt oder falsch arbei­ten.

Asso­zia­tiv arbei­ten­de Sys­te­me erzeu­gen jedoch immer Ergeb­nis­se – auch dann, wenn die zugrun­de lie­gen­den Daten lücken­haft, wider­sprüch­lich oder ver­zerrt sind. Sie kön­nen gar nicht „nicht ant­wor­ten“, wenn sie ange­sto­ßen und zur Ant­wort auf­ge­for­dert wer­den. Das Pro­blem liegt daher weni­ger in einem „Defekt“ der KI, son­dern in der Erwar­tungs­hal­tung der Nut­ze­rin­nen und in den Rah­men­be­din­gun­gen ihres Ein­sat­zes. Die­ses Miss­ver­ständ­nis hat erheb­li­che orga­ni­sa­to­ri­sche Fol­gen – etwa für Ver­ant­wor­tung, Qua­li­täts­si­che­rung und Ent­schei­dungs­pro­zes­se.


Kann KI den­ken? Ist sie intel­li­gent?

Immer wie­der wird KI abge­spro­chen, „den­ken“ oder „intel­li­gent“ sein zu kön­nen. Auf­fäl­lig ist dabei: Sel­ten wird prä­zi­se defi­niert, was mit Den­ken oder Intel­li­genz eigent­lich gemeint ist. Ohne sol­che Defi­ni­tio­nen blei­ben die­se Urtei­le leer.

Wenn Den­ken als die Fähig­keit ver­stan­den wird, Mus­ter zu erken­nen, Bezü­ge her­zu­stel­len, Hypo­the­sen zu bil­den und sprach­lich zu arti­ku­lie­ren, dann zei­gen KI-Sys­te­me genau die­se Fähig­kei­ten – oft beein­dru­ckend gut. Wenn Intel­li­genz als pro­blem­lö­sen­des, kon­text­sen­si­ti­ves Ver­hal­ten beschrie­ben wird, gilt Ähn­li­ches. Die pau­scha­le Abwer­tung sagt daher meist mehr über mensch­li­che Selbst­bil­der aus als über KI.

Ähn­lich ver­hält es sich mit der Kri­tik­fä­hig­keit. KI wird häu­fig vor­ge­wor­fen, sie kön­ne kei­ne ech­te Kri­tik leis­ten. Gleich­zei­tig erle­ben vie­le Nut­ze­rin­nen, dass KI sehr wohl Ein­wän­de for­mu­liert, Gegen­ar­gu­men­te ent­wi­ckelt und eige­ne Vor­schlä­ge rela­ti­viert. Umge­kehrt zei­gen Men­schen – auch in Orga­ni­sa­tio­nen – nicht gera­de eine aus­ge­präg­te Kri­tik­fä­hig­keit, wenn es um eige­ne Annah­men, Macht­po­si­tio­nen oder Rou­ti­nen geht. Der Ver­gleich fällt also weni­ger ein­deu­tig aus, als oft behaup­tet wird.


Die ent­schei­den­den Unter­schie­de lie­gen woan­ders

Die wirk­lich grund­le­gen­den Unter­schie­de zwi­schen mensch­li­cher und künst­li­cher Intel­li­genz lie­gen nicht im Den­ken, son­dern in der Ein­bet­tung in ein bio­lo­gi­sches Sys­tem. Men­schen sind untrenn­bar mit ihrem Kör­per ver­bun­den. Wahr­neh­mung, Emo­tio­nen, Bedürf­nis­se, Ler­nen und Ver­hal­ten sind Ergeb­nis kom­ple­xer Wech­sel­wir­kun­gen zwi­schen bio­lo­gi­schem, psy­chi­schem und sozia­lem Sys­tem.

KI ver­fügt über kein sol­ches bio­lo­gi­sches Fun­da­ment. Sie hat kei­nen Kör­per, kei­ne Sin­nes­or­ga­ne im mensch­li­chen Sin­ne, kei­ne direk­ten phy­si­schen Hand­lungs­mög­lich­kei­ten. Sie kennt kein Kör­per­ge­fühl, kei­nen Schmerz, kei­ne Erschöp­fung. Sie hat kei­ne eige­nen Bedürf­nis­se, kei­ne Trie­be, kei­nen Über­le­bens- oder Fort­pflan­zungs­drang. Hor­mo­nel­le Schwan­kun­gen, Hun­ger, Käl­te, Krank­hei­ten oder bio­lo­gi­sche Fehl­funk­tio­nen exis­tie­ren für sie nicht.

Damit fehlt KI auch die Grund­la­ge für ein psy­chi­sches Sys­tem, wie wir es beim Men­schen ken­nen. Ängs­te, sozia­le Unsi­cher­hei­ten, Loya­li­täts­kon­flik­te oder Zuge­hö­rig­keits­be­dürf­nis­se ent­ste­hen aus der Abhän­gig­keit von ande­ren und aus der Ver­letz­lich­keit des eige­nen Kör­pers. Eine KI kann sol­che Erfah­run­gen nicht machen – und sie wird sie auch nicht ent­wi­ckeln. Sie kann allen­falls aus den Berich­ten von Men­schen dar­über abs­trakt ler­nen.


Sozia­le Bedürf­nis­se und Moral

Men­schen haben im Lau­fe der Evo­lu­ti­on sozia­le Bedürf­nis­se aus­ge­bil­det, weil Ein­zel­ne ohne Grup­pe kaum über­le­bens­fä­hig waren. Koope­ra­ti­on, Bin­dung, Zuge­hö­rig­keit und Aner­ken­nung sind tief ver­an­kert. Mora­li­sche Maß­stä­be und Wer­te sind eng mit die­sen sozia­len Bedürf­nis­sen ver­bun­den.

KI hin­ge­gen hat kein Eigen­in­ter­es­se an Zuge­hö­rig­keit, Aner­ken­nung oder Fair­ness. Sie lei­det nicht unter Aus­gren­zung, emp­fin­det kei­ne Schuld und kei­ne Ver­ant­wor­tung im mensch­li­chen Sin­ne. Mora­li­sches und ethi­sches Ver­hal­ten ent­steht bei KI daher nicht von selbst. Es muss ihr von außen zuge­schrie­ben, vor­ge­ge­ben und orga­ni­sa­to­risch gerahmt wer­den.

Wel­che Kon­se­quen­zen das kon­kret hat – für Ver­ant­wor­tung, Ent­schei­dungs­macht und Gover­nan­ce – ist eine der zen­tra­len Fra­gen, die wir gera­de ver­su­chen zu ver­ste­hen. An die­ser Stel­le genügt die Fest­stel­lung: KI han­delt nicht nach mensch­li­chen Bedürf­nis­sen, weil sie kei­ne hat.


Ähn­li­cher als gedacht – und doch grund­ver­schie­den

Para­do­xer­wei­se ist KI dem Men­schen in Bezug auf Den­ken und Intel­li­genz ähn­li­cher als klas­si­sche Com­pu­ter­pro­gram­me. Gera­de ihre asso­zia­ti­ve Arbeits­wei­se macht sie anschluss­fä­hig an mensch­li­che Denk­pro­zes­se. Gleich­zei­tig füh­ren das Feh­len eines bio­lo­gi­schen und sozia­len Sys­tems zu Unter­schie­den, die fun­da­men­ta­ler sind als jede tech­ni­sche Detail­fra­ge.

Eine zusätz­li­che, oft unter­schätz­te Gefahr ent­steht dar­aus, dass KI zuneh­mend mit Infor­ma­tio­nen trai­niert wird, die selbst bereits Pro­duk­te von KI sind. Wenn sich Fan­ta­sie­pro­duk­te, Ver­ein­fa­chun­gen oder Ver­zer­run­gen unkon­trol­liert selbst ver­stär­ken, ent­steht ein Rück­kopp­lungs­ef­fekt, der sowohl für KI-Sys­te­me als auch für mensch­li­che Ent­schei­dungs­pro­zes­se pro­ble­ma­tisch ist. Auch hier sind orga­ni­sa­to­ri­sche Ant­wor­ten gefragt – nicht tech­ni­sche Allein­lö­sun­gen.


Ein­ord­nung und Aus­blick

Wer KI ver­ste­hen will, muss sich von ver­trau­ten Denk­mo­del­len lösen. Vie­le gän­gi­ge Mythen beru­hen auf Kate­go­rien­feh­lern: KI wird ent­we­der wie klas­si­sche Soft­ware behan­delt oder wie ein unvoll­kom­me­ner Mensch. Bei­des ver­stellt den Blick.

Die eigent­li­che Her­aus­for­de­rung liegt dar­in, KI als eine neue Form von Akteu­rin in Orga­ni­sa­tio­nen zu begrei­fen – mit eige­nen Stär­ken, eige­nen Gren­zen und völ­lig ande­ren Vor­aus­set­zun­gen. Genau hier­an arbei­ten wir gera­de als Ergän­zung unse­res Modells der Kol­le­gia­len Füh­rung. Es geht nicht dar­um, KI zu ver­mensch­li­chen oder zu kon­trol­lie­ren, son­dern dar­um, Orga­ni­sa­tio­nen so zu gestal­ten, dass sie mit die­ser neu­en Form von Intel­li­genz ver­ant­wor­tungs­voll, wirk­sam und lern­fä­hig umge­hen kön­nen.

Dieser Beitrag steht unter der Lizenz Creative Commons „Namensnennung 4.0“. Sie dürfen diesen Beitrag gerne für Ihre eigenen Zwecke verwenden, auch in einem kommerziellen Kontext, auch im Wettbewerb zu uns, solange Sie die oben genannte verfassende Person sowie die Bezugsquelle "Werkstatt für Kollegiale Führung  (https://kollegiale-fuehrung.de/)" nennen.