In einer Machbarkeitsstudie bei einem Industriekunden aus dem Automotive-Bereich konnten wir aufzeigen, dass ML-Methoden – insbesondere Deep Learning – für die Nutzung auf visuellen Qualitätsdaten, die normalerweise nur eine sehr geringe Quote an Produkten schlechter Qualität aufweisen, verwendet werden können. Der Fokus der Studie lag dabei auf der Qualitätssicherung von Schweißpunkten, die mit Hilfe von visuellen Verfahren nach aktuellem Stand der Technik analysiert werden. Das aktuell verwendete System des Kunden hatte hier vermehrt gute Qualität als »fehlerhaft« klassifiziert. Dies hatte zu starkem Zusatzaufwand geführt, da die als fehlerhaft definierten Produkte jeweils individuell nachgeprüft werden mussten.
Um das Problem zu lösen, wurde von den Fraunhofer-Expertinnen und -Experten ein Algorithmus entwickelt, der die Bildaufnahmen aus beim Kunden vorhandenen klassischen Röntgenprüfsystemen kombiniert. Dabei lagen die Datensätze innerhalb eines Systems als 2,5 dimensionale Daten aber auch als Bilder in Graustufen vor. Mit dieser Kombination sollte eine höhere Vorhersagegenauigkeit erzielt werden, weshalb aus den bestehenden Datensätzen ein einziger Datensatz mit 3 dimensionalen Bildern fusioniert wurde. Über klassische Computer Vision Technologien konnten aus den einzelnen Bildern jeweils 24 Qualitätsmerkmale des Produkts extrahiert werden.
Für die Entwicklung des Klassifizierungsmodells spielt die Evaluationsstrategie eine wesentliche Rolle.
Nachdem ein Modell für einen Anwendungsfall trainiert wurde, muss dieses immer noch auf seine Qualität überprüft werden – und zwar durch Evaluation. Hierbei kommen beispielsweise Kreuzvalidierungen zum Einsatz. Dabei wird der Datensatz auf eine bestimmte Anzahl an Teildatensätzen aufgeteilt, an allen Datensätzen bis auf einen trainiert und am letzten Teildatensatz, dem Test-Datensatz, validiert. Da im vorliegenden Anwendungsfall bei insgesamt nur 0,1 Prozent an fehlerhaften Schweißpunkten deren Erkennung stabil funktionieren sollte, wurde für die Evaluierung eine gerichtete Kreuzvalidierung verwendet. Hierfür werden die zufällig verteilten Test-Datensätze punktuell gezielt angepasst, sodass eine sinnvolle Validierung durchgeführt werden kann, die möglichst nah an der realen Anwendungssituation liegt.
Mit KI-Lernverfahren die Prognosegenauigkeit für die Qualitätssicherung erhöhen
Auf diese Weise konnte ein Modell mit klassischen Deep Learning Methoden und der angepassten Evaluationsstrategie trainiert werden, der die Ergebnisse des Kunden hinsichtlich Vorhersagequalität erreicht. Die Qualitätsanforderungen des Modells konnten erfüllt und die erforderliche Prozesszeit sogar unterschritten werden.
Über diese Methodik konnten wir die vom Kunden erforderlichen Leistungskennzahlen hinsichtlich der Unterscheidung der beiden Klassen erreichen. Für den Projektpartner spielte hierbei die Reduktion der Falsch-OK-Rate, das heißt die Reduktion der fälschlicherweise als fehlerhaft klassifizierten Teile, eine große Rolle, denn so konnte unnötige Nacharbeit im Unternehmen vermieden werden. Wobei die Erkennung der wirklichen Falschteile darunter aber nicht leiden sollte.
Auch die Performanz der Berechnungszeit von unter einer Sekunde für die Erkennung und Klassifikation der Qualität auf handelsüblichen Prozessoren, die vom Kunden vorgegeben wurde, konnte über die beschrieben Methodik erreicht werden.
Das entwickelte Modell wurde beim Kunden durch seine KI-Spezialisten in die bestehenden Systeme eingebunden und wird dort nun über längere Zeit erprobt. In der Gruppe Data Efficient and Automated Learning wird zudem an weiteren Herangehensweisen geforscht, wie man in Anwendungen mit stark unbalancierten Datensätzen auch auf Basis anderer Lernverfahren effiziente Modelle für eine hohe Prognosegüte trainieren kann.