KI INTRONIA

An der Universität habe ich die theoretischen Grundlagen kennengelernt, etwa Algorithmen, Petrinetze, lineare Algebra und iterative Funktionensysteme.

Heute setzen wir in unseren Unternehmen dieses Wissen praxisnah ein und entwickeln für unsere Kunden schnell und effizient KI-gestützte Lösungen mit eigenen Tools.

Der Schwerpunkt liegt dabei auf Prozessoptimierung und vor allem auf den typischen Engpässen in der Praxis, nämlich Schnittstellen, Datenflüssen und Systembrüchen.

Viele Menschen beantworten die Frage „Was ist KI?“ inzwischen reflexartig mit Namen konkreter Anwendungen wie „ChatGPT“ oder „Gemini“. In dieser Zuspitzung ist das jedoch nicht korrekt, weil damit einzelne Produkte mit dem dahinterliegenden Konzept verwechselt werden. Betrachtet man KI als Sammelbegriff für datenbasierte intelligente Systeme, lassen sich im Kern folgenden drei grundlegende Systemarten unterscheiden.

Erstens gibt es Expertensysteme. Diese entstanden historisch parallel zu anderen KI-Ansätzen, wurden aber insbesondere in den 1990er Jahren stark vorangetrieben. Sie heißen „Experten“-Systeme, weil sie das Entscheidungsverhalten menschlicher Fachleute nachbilden sollen. Ihr Funktionsprinzip ist wissensgetrieben. Damit sie arbeiten können, müssen umfangreiche Wissensbestände in Form von Fakten, Regeln und strukturierten Zusammenhängen explizit in das System eingegeben werden. Dadurch sind sie in hohem Maße wissens- und datenintensiv.

Zweitens existieren Verfahren, die auf neuronaler Informationsverarbeitung beruhen. Die Grundidee solcher Modelle reicht ebenfalls ins letzte Jahrhundert zurück, die Art der Datenverarbeitung ist jedoch anders organisiert als bei Expertensystemen. Hier müssen Menschen nicht mehr vorrangig Regeln und Fakten systematisch formulieren und einpflegen. Stattdessen werden große, heterogene Datenmengen bereitgestellt, die das System algorithmisch auswertet. Über komplexe mathematische Verfahren werden dabei Muster verarbeitet und als Wahrscheinlichkeiten repräsentiert. In neuronalen Netzen werden einzelne Elemente, häufig als Token bezeichnet, typischerweise durch numerische Vektoren beschrieben, die Merkmals und Wahrscheinlichkeitsrepräsentationen kodieren.

Drittens werden heute Machine-Learning Verfahren als eigener Kernbereich mitgezählt, auch wenn sie historisch nicht immer unter „KI“ gefasst wurden. Machine-Learning zielt darauf, Daten nach Ähnlichkeiten, Strukturen und Regelmäßigkeiten zu durchsuchen. Werden solche Muster („Pattern“) identifiziert, entstehen daraus Ergebnisse, die mitunter auch Zusammenhänge sichtbar machen können, an die Menschen ohne rechnergestützte Analyse nicht gedacht hätten.

KI ist also nicht gleichbedeutend mit einem einzelnen Tool, sondern bezeichnet unterschiedliche Klassen intelligenter Verfahren, die jeweils auf eigenen Prinzipien der Modellierung und Datennutzung beruhen.