Training-on-the-Job für das KI-Softwaremodell
Ausgangspunkt der Entwicklung ist eine klassische KI-Kaufsoftware. Mit einigen Adaptionen passten sie Piprek und sein Team an die Gegebenheiten der technischen Mitteilungen an. „Das Paket lässt sich gut mit dem Gehirn eines Kleinkinds vergleichen: Das Potenzial ist riesig. Aber das Niveau noch niedrig.“
Um es zu heben werden Kinder in der Schule gefördert. KI-Software dagegen will trainiert werden. Im Falle von Pipreks Projekt: Mit Deep-Learning-Verfahren und gefüttert mit unzähligen Texten aus dem MTU-PLM-System. Aus Software-Perspektive ist es eine Art Training-on-the-Job. „Wir wissen sehr genau, welches Wissen im PLM-System vorhanden und wie es strukturiert ist. Dadurch können wir die KI sehr gut trainieren und evaluieren.“ Hintergrund ist, dass die KI zum Durchspielen der Entscheidungsfälle auf verifizierte Trainingsdaten angewiesen ist.
„Vereinfacht gesagt baut sich das KI-Modul zuerst ein statistisches Modell auf“, erklärt Piprek. „Im nächsten Schritt geben wir ihm Regeln für die zielgerichtete Auswertung der Inhalte vor.“ Mit der Kombination aus Statistik und Regeln tastet sich die Software an die Erschließung der Dokumente heran. Wieder und wieder ruft sie bekannte Muster ab und wendet sie auf neue Entscheidungsfälle an. Durch den Abgleich des berechneten Ergebnisses mit dem gewünschten Zielergebnis lernt das KI-Modell. Mit jedem Trainingsdurchlauf wird die Software ein bisschen schlauer, schneller, präziser. Je mehr Daten vorliegen und je höher ihre Qualität ist, desto besser das Training. Es entsteht, so lautet der Fachbegriff, ein neuronales Netzwerk.
Darin soll die Software nach Begriffen suchen, die sie aus ähnlichem Zusammenhang kennt oder die sie als Synonym identifiziert. Irgendwann wird sie selbst wenig strukturierte Dokumente inhaltlich erschließen können – und sich auch von schlecht lesbaren Buchstaben eines Scans aus vergilbtem Papier nicht mehr irritieren lassen.