Icon Werkstatt für Kollegiale Führung
Werkstatt für kollegiale Führung
Ideen und Praktiken für die agile Organisation von morgen
Über den Beitrag
Verfassende Person
Bild von Bernd Oestereich

Bernd Oestereich

Impulsgeber für kollegial geführte Organi­sationen mit Erfahrung als Unternehmer seit 1998. Sprecher und Autor inter­national verlegter Bücher.
Schlagwörter

Arten von KI – eine kom­pak­te Unter­schei­dung

Es gibt ver­schie­de­ne Arten von KI (ana­ly­ti­sche, gene­ra­ti­ve, agen­ti­sche), Sprach- und Dif­fus­si­ons­mo­del­le als Archi­tek­tu­ren, spe­zi­fi­sche Ant­wort­stra­te­gien und noch ein paar wei­te­re wich­ti­ge Begrif­fe und Unter­schei­dun­gen, die im fol­gen­den Text kurz erläu­tert wer­den.

Nichts Spek­ta­ku­lä­res, nur ein paar begriff­li­che Abgren­zun­gen.

Ana­ly­ti­sche KI: Erken­nen und Vor­her­sa­gen

Ana­ly­ti­sche KI lernt Mus­ter aus gro­ßen Daten­men­gen und wen­det sie auf neue Ein­ga­ben an – sie erfin­det dabei nichts. Im Kern beant­wor­tet sie zwei Fra­gen: Was ist das? (Klas­si­fi­ka­ti­on) oder Was wird wahr­schein­lich pas­sie­ren? (Vor­her­sa­ge).

Spam-Fil­ter, Betrugs­er­ken­nung, Qua­li­täts­kon­trol­le per Bil­der­ken­nung, Umsatz­pro­gno­sen – das alles ist ana­ly­ti­sche KI. Sie ist in vie­len Orga­ni­sa­tio­nen längst All­tag, wird aber oft nicht als KI wahr­ge­nom­men.

Gene­ra­ti­ve KI: Erzeu­gen statt Erken­nen

Gene­ra­ti­ve KI erzeugt neue Inhal­te – Tex­te, Bil­der, Töne, Code. Jede Aus­ga­be wird neu gene­riert, sie sind nur bedingt iden­tisch repro­du­zier­bar. Das unter­schei­det sie grund­le­gend von der ana­ly­ti­schen KI.

Die zwei wich­tigs­ten Unter­for­men: Gro­ße Sprach­mo­del­le und Dif­fu­si­ons­mo­del­le.

Gro­ße Sprach­mo­del­le (LLM)

Gro­ße Sprach­mo­del­le (LLM) sind hoch­kom­ple­xe Mus­ter-Erken­nungs- und Mus­ter-Erzeu­gungs­sys­tem, für die zwei zeit­lich ent­kop­pel­te Vor­gän­ge rele­vant sind:

  • Das Trai­ning eines LLM ist ein ein­ma­li­ger, extrem auf­wän­di­ger Pro­zess: Das Modell liest (ver­ein­facht gesagt) einen Groß­teil des öffent­lich ver­füg­ba­ren Inter­nets, digi­ta­li­sier­ter Bücher und wei­te­rer Text­quel­len und jus­tiert dabei Mil­li­ar­den inter­ner Para­me­ter in einem künst­li­chen neu­ro­na­len Netz so lan­ge, bis es zuver­läs­sig plau­si­ble Fort­set­zun­gen zu belie­bi­gen Text­ein­ga­ben erzeu­gen kann. Danach ist das Modell ein­ge­fro­ren – es lernt im Betrieb nicht wei­ter dazu.
  • Was dann im Chat pas­siert, nennt sich Infe­renz: Das Modell berech­net auf Basis des bis­he­ri­gen Gesprächs­ver­laufs (des soge­nann­ten Kon­text­fens­ters) Wort für Wort, was als nächs­tes am wahr­schein­lichs­ten passt – und fügt dabei Über­ra­schend-Tref­fen­des, gele­gent­lich aber auch sou­ve­rän Fal­sches ein. Ein LLM kon­fa­bu­liert (dazu ver­brei­te­ter Begriff: hal­lu­zi­niert) – es erfin­det, wenn es nicht weiß, statt zu sagen, dass es nicht weiß. Das ist kei­ne Fehl­funk­ti­on, son­dern eine struk­tu­rel­le Eigen­schaft.

Dif­fu­si­ons­mo­del­le

Dif­fu­si­ons­mo­del­le sind die Grund­la­ge der meis­ten Bild­ge­ne­rie­rungs­werk­zeu­ge (Mid­jour­ney, Sta­ble Dif­fu­si­on, DALL·E, FLUX). Das Prin­zip: Ein Bild wird schritt­wei­se in Rau­schen auf­ge­löst (unscharf gemacht) – und das Modell lernt, die­sen Pro­zess umzu­keh­ren. Dif­fu­si­ons­mo­del­le ver­ste­hen nicht, was eine Kat­ze ist; sie haben gelernt, wie Kat­zen-Pixel in Bezug zu ande­ren Pixeln ste­hen. Stär­ke: Erzeu­gung. Nicht: Ver­ste­hen.

 

RAG – wenn das LLM aktu­el­le Quel­len nutzt

Ein LLM kennt zunächst nur, was es beim Trai­ning gese­hen hat – danach ist sein Wis­sen ein­ge­fro­ren. RAG (Retrie­val-Aug­men­ted Gene­ra­ti­on, auf Deutsch: wis­sens­an­ge­rei­cher­te Gene­rie­rung) löst das, indem das Modell zum Abfra­ge­zeit­punkt auf benut­zer­de­fi­nier­te Quel­len zugreift (fir­men­in­ter­ne Doku­men­te, Daten­ban­ken, ein Intra­net), dar­aus abfra­ge­spe­zi­fisch eine Art Spick­zet­tel anfer­tigt und die­sen der eigent­li­chen Anfra­ge mit­gibt.

RAG läuft in zwei Pha­sen ab:

  • Pha­se 1 – Vor­be­rei­tung (Inde­xie­rung): Die Doku­men­te der Wis­sens­ba­sis wer­den in klei­ne Blö­cke (Chunks) zer­legt und in nume­ri­sche Vek­to­ren (Embed­dings) umge­wan­delt. Die­se Vek­to­ren wer­den in einer spe­zi­el­len Daten­bank gespei­chert, die schnel­le Ähn­lich­keits­su­chen ermög­licht (Vek­tor­da­ten­bank).
  • Pha­se 2 – Abruf und Ant­wort (zur Lauf­zeit): Stellt eine Nut­ze­rin eine Fra­ge, wird die­se eben­falls in einen Vek­tor umge­wan­delt und mit den gespei­cher­ten Vek­to­ren ver­gli­chen. Die ähn­lichs­ten Abschnit­te wer­den als Kon­text an das LLM über­ge­ben – zusam­men mit der eigent­li­chen Fra­ge. Das LLM ant­wor­tet dann auf Basis bei­der Quel­len: sei­nem Trai­nings­wis­sen und den kon­text­be­zo­ge­nen gefun­de­nen Inhal­ten.

RAG ist kei­ne eige­ne KI-Archi­tek­tur, son­dern eine Erwei­te­rungs­tech­nik. In Pro­duk­ten heißt das oft „Eige­ne Doku­men­te hoch­la­den“ oder „KI auf euren Daten“. Wich­tig für Daten­schutz und Infor­ma­ti­ons­si­cher­heit: Die eige­nen Inhal­te flie­ßen (je nach Anbie­ter und Ein­stel­lun­gen) nicht auto­ma­tisch in frem­de Trai­nings­da­ten ein.

KI-Assis­tent, KI-Agent, Mul­ti­agen­ten­sys­tem – drei ver­schie­de­ne Din­ge

Die­se drei Begrif­fe wer­den im All­tag durch­ein­an­der­ge­wor­fen. Eine ein­fa­che Abgren­zung:

  • Ein KI-Assis­tent reagiert. Er ist in eine Benut­zer­ober­flä­che ein­ge­bet­tet, durch einen Hin­ter­grund­prompt auf eine Rol­le kon­fi­gu­riert und ant­wor­tet auf Ein­ga­ben – aber er war­tet, bis jemand etwas fragt. Nor­ma­le KI-Chats sind KI-Assis­ten­ten.
  • Ein KI-Agent han­delt. Er hat nicht nur Sprach­fä­hig­keit, son­dern auch Hand­lungs­fä­hig­keit: Er kann Werk­zeu­ge nut­zen (Web­su­che, E‑Mail, Code-Aus­füh­rung, Daten­bank­zu­griff), Zwi­schen­er­geb­nis­se bewer­ten und mehr­stu­fi­ge Auf­ga­ben selbst­stän­dig abar­bei­ten – ohne für jeden Schritt eine mensch­li­che Ein­ga­be zu brau­chen. Wer einem Agen­ten eine Auf­ga­be über­gibt, über­gibt auch Ent­schei­dungs­spiel­raum. Ein klar defi­nier­ter Hand­lungs­rah­men ist des­halb kei­ne tech­ni­sche Neben­sa­che, son­dern eine Füh­rungs­auf­ga­be.
  • Ein Mul­ti­agen­ten­sys­tem besteht aus meh­re­ren spe­zia­li­sier­ten KI-Agen­ten, die arbeits­tei­lig zusam­men­wir­ken. Ein koor­di­nie­ren­der Agent (Orchestra­tor) zer­legt die Gesamt­auf­ga­be, ver­teilt Teil­auf­ga­ben an Unter­agen­ten und führt Ergeb­nis­se zusam­men. Die Agen­ten kön­nen par­al­lel arbei­ten, sich gegen­sei­tig rück­kop­peln und Ergeb­nis­se ande­rer prü­fen. Leis­tungs­fä­hig bei kom­ple­xen, mehr­stu­fi­gen Pro­zes­sen – und ent­spre­chend anspruchs­voll in Gestal­tung und Betrieb. Feh­ler frü­her Agen­ten pflan­zen sich durch das Sys­tem fort; Kon­troll­punk­te mit mensch­li­cher Prü­fung sind pro­fes­sio­nel­le Pra­xis.

Wei­te­re Begrif­fe

  • Prompt: Ein Prompt ist (ursprüng­lich) das Signal eines IT-Sys­tems, dass es zu einer Text­ein­ga­be bereit ist. Ein Prompt ist die Auf­for­de­rung des Sys­tems an die Benut­ze­rin, etwas ein­zu­ge­ben, bei­spiels­wei­se eine Anwei­sung. Wenn im Zusam­men­hang mit KI von Prompts oder vom promp­ten gespro­chen wird, dann ist damit jedoch (fälsch­li­cher­wei­se, aber mitt­ler­wei­le üblich) der Ein­ga­be­text und die Ein­ga­be der Benut­ze­rin gemeint. Promp­ten meint nun also: ein KI-Modell gezielt mit einer Ein­ga­be anspre­chen.
  • Kon­text­fens­ter: Die Men­ge an Text (Ein­ga­be + bis­he­ri­ger Gesprächs­ver­lauf), die ein LLM in einem Durch­gang im Blick hat. Was außer­halb liegt, exis­tiert für das Modell nicht.
  • Bedeu­tungs­vek­tor (Embed­ding): Tex­te wer­den in Zah­len (Vek­to­ren) umge­wan­delt, so dass ähn­li­che Bedeu­tun­gen auch ähn­li­che Zah­len bekom­men. Die sind dann Grund­la­ge für seman­ti­sche Suche – also eine Suche, die Bedeu­tung ver­steht, nicht nur Stich­wör­ter abgleicht.
  • Block (Chunk): Ein Text­ab­schnitt, in den Doku­men­te für die Inde­xie­rung zer­legt wer­den. Die Block­grö­ße beein­flusst die Qua­li­tät der Such­ergeb­nis­se.
  • Vek­tor­da­ten­bank: Eine spe­zia­li­sier­te Daten­bank, die Embed­dings spei­chert und sehr schnell Ähn­lich­kei­ten berech­nen kann.

KI-Ant­wort­stra­te­gien

KI-Sys­te­me ermög­li­chen unter­schied­li­che Stra­te­gien und Vor­ge­hens­wei­sen ein, um anspruchs­vol­le Auf­ga­ben gut zu lösen. Hier eini­ge Bei­spie­le:

Schluss­fol­ge­rungs­pro­zes­se (Reaso­ning): Reaso­ning ist eine Modell­ei­gen­schaft, aus gege­be­nen Infor­ma­tio­nen durch logi­sche Schluss­fol­ge­run­gen neue Erkennt­nis­se abzu­lei­ten – also nicht nur Mus­ter in Trai­nings­da­ten abzu­ru­fen, son­dern aktiv zu schluss­fol­gern. Dabei kom­men deduk­ti­ves Reaso­ning (von all­ge­mei­nen Regeln auf kon­kre­te Fäl­le schlie­ßen), induk­ti­ves Reaso­ning (aus Bei­spie­len ver­all­ge­mei­nern) und abduk­ti­ves Reaso­ning (die wahr­schein­lichs­te Erklä­rung für eine Beob­ach­tung fin­den) zum Ein­satz.

Wich­tig ist: Reaso­ning ist beim Sprach­mo­dell kein sepa­ra­tes Modul, son­dern emer­gen­tes Ver­hal­ten – es ent­steht aus der Tie­fe und Brei­te des Trai­nings und wird durch bestimm­te Anwei­sungs­stra­te­gien akti­viert oder ver­stärkt.

Expli­zi­te Denk­schritt­fol­gen (Chain-of-Thought – CoT): Expli­zi­te Denk­schritt­fol­gen ist die Tech­nik, bei der der Denk­weg zunächst expli­zit for­mu­liert wird, bevor es zur Ant­wort kommt. Wenn man dem Modell im Prompt zeigt, wie ein Gedan­ken­gang aus­se­hen könn­te (z. B. durch Bei­spie­le mit Zwi­schen­schrit­ten), dann löst es auch neue, unbe­kann­te Auf­ga­ben deut­lich bes­ser. Wer­den kom­ple­xe Auf­ga­ben zunächst in Teil­pro­ble­me zer­legt, die nach­ein­an­der gelöst wer­den, dann flie­ßen Lösun­gen vori­ger Schrit­te oft in den jeweils nächs­ten Schritt ein.

Selbst wenn man dem Prompt ganz schlicht nur ein „Think step by step“ zufügt (Zero-Shot CoT), begin­nen die meis­ten Model­le bereits beginnt von sich aus, einen Gedan­ken­gang zu ent­wi­ckeln, ohne dass man ihm Bei­spie­le zei­gen muss­te. Das klingt tri­vi­al, wirkt aber erstaun­lich zuver­läs­sig.

Expli­zi­te Auf­ga­ben­pla­nung: Noch grund­sätz­li­cher ist das Kon­zept des Auf­ga­ben­pla­nung. Wäh­rend beim Kon­zept der Denk­schritt­fol­ge ein Gedan­ken­gang line­ar auf­ge­baut wird, geht es bei der Auf­ga­ben­pla­nung einen Schritt wei­ter: Das Sys­tem ent­wirft zunächst einen Hand­lungs­plan – eine Sequenz von Aktio­nen oder Teil­zie­len –, bevor es mit der eigent­li­chen Aus­füh­rung beginnt.

Denk-Hand­lungs-Schlei­fen (ReAct-Ansatz): Beim ReAct-Ansatz (Reaso­ning + Acting) wech­selt das Modell dabei zyklisch zwi­schen Den­ken (Reaso­ning-Schritt: Was weiß ich? Was brau­che ich?) und Han­deln (Action-Schritt: Werk­zeug auf­ru­fen, Suche star­ten, Code aus­füh­ren). So ent­steht eine Schlei­fe aus Nach­den­ken und Aus­pro­bie­ren, die an mensch­li­ches Pro­blem­lö­sen erin­nert.

Denk­baum­ver­fah­ren (Tree of Thoughts – ToT): Eine wich­ti­ge Erwei­te­rung von Denk­schritt­fol­gen ist das Denk­baum­ver­fah­ren (Tree of Thoughts). Statt eines ein­zi­gen linea­ren Gedan­ken­gangs erzeugt das Modell hier meh­re­re Gedan­ken­strän­ge par­al­lel, bewer­tet sie und ver­folgt die viel­ver­spre­chends­ten wei­ter – ähn­lich wie ein Schach­spie­ler, der ver­schie­de­ne Zug­fol­gen im Kopf durch­spielt. Das Modell baut also kei­nen Pfad, son­dern einen Baum mög­li­cher Über­le­gun­gen und kann dabei auch auf frü­he­re Ver­zwei­gun­gen zurück­sprin­gen.

Selbst­re­fle­xi­on und Selbst­kor­rek­tur: Ein wei­te­res Kon­zept ist die Selbst­re­fle­xi­on: Das Modell bewer­tet sei­ne eige­ne Ant­wort, iden­ti­fi­ziert Feh­ler oder Lücken und ver­bes­sert sie – ohne exter­nen Ein­griff. Das Modell führt nach einer Hand­lung eine Art Nach­be­spre­chung mit sich selbst durch und nutzt die­se Erkennt­nis­se im nächs­ten Ver­such.

Ver­wandt damit ist das Kon­zept der Meta­ko­gni­ti­on – das Nach­den­ken über das eige­ne Den­ken. Ob die Meta­ko­gni­ti­on von Sprach­mo­del­len mit der von Men­schen ver­gleich­bar ist, ist zwar wis­sen­schaft­lich umstrit­ten, aber funk­tio­nal zei­gen sich ähn­li­che Mus­ter.

Dieser Beitrag steht unter der Lizenz Creative Commons „Namensnennung 4.0“. Sie dürfen diesen Beitrag gerne für Ihre eigenen Zwecke verwenden, auch in einem kommerziellen Kontext, auch im Wettbewerb zu uns, solange Sie die oben genannte verfassende Person sowie die Bezugsquelle "Werkstatt für Kollegiale Führung  (https://kollegiale-fuehrung.de/)" nennen.