Zur mobilen Ansicht wechseln »

Algorithmen Software sorgt für ganzheitliche Prozessoptimierung.

Michael Affenzeller
Michael Affenzeller - Foto: FH Oberösterreich
Am Campus Hagenberg der FH Oberösterreich wird nach Algorithmen gesucht, die dabei helfen sollen, komplexe Produktionsprozesse in der Industrie zu optimieren.

Heutige Fertigungsprozesse in der Industrie sind teilweise hochkomplex, mit sich wechselseitig beeinflussenden Prozessschritten und einer großen Anzahl an Stationen. Durch die richtige Reihenfolge und Kombination der Fertigungsschritte kann die Effizienz deutlich erhöht werden. Das Problem ist, dass die Beschreibung solche Prozesse als Ganzes mathematisch nicht mehr trivial ist. Eine exakte Lösung kann oft nur in Problemdimensionen errechnet werden, die nicht praxisrelevant sind. Stattdessen müssen bei der Optimierung realer Szenarien Näherungsverfahren verwendet werden, um die Prozesse möglichst effizient zu gestalten.

Am Campus Hagenberg der FH Oberösterreich werden solche Verfahren entwickelt. “Im K-Projekt HOPL untersuchen wir stochastische Optimierungstechniken. Evolutionäre Algorithmen sind hier gute Kandidaten. Damit lassen sich in vertretbarer Zeit Näherungen, die eine Verbesserung darstellen, finden. Daneben gibt auch andere Ansätze”, erklärt Projektleiter Michael Affenzeller von der FH Oberösterreich. Neben Produktionsprozessen können solche Verfahren auch in der Logistik zum Einsatz kommen, etwa wenn es darum geht, die effizienteste Routenplanung für einen Spediteur zu ermitteln oder die Lagerverwaltung zu optimieren.

Eigenkreationen

Diese Art von Problemen ist für Computer nur in sehr einfachen Konfigurationen exakt zu lösen. Für komplexere Varianten kommen Algorithmen zum Einsatz, die durch ausgefeiltes Ausprobieren eine Näherung für die Lösung liefern. “Wir suchen nach passenden Algorithmen und entwickeln teilweise auch selbst neue. Unser Anspruch ist, dass die Ergebnisse später auch in der Praxis umgesetzt werden können”, sagt Affenzeller.

Derzeit wird in Hagenberg noch am Aufbau der passenden Infrastruktur gearbeitet, um miteinander in Bezug stehende Prozesse ganzheitlich modellieren und optimieren zu können. Diese Basis stellt dabei das von den Hagenberger Forschern im Laufe der letzten zehn Jahre entwickelte Open-Source Optimierungsframework HeuristicLab dar.

Bislang wurden schon über 50 Algorithmen in konkreten Projekten und studentischen Abschlussarbeiten entwickelt, die auf verschiedenste Aufgabenstellungen anwendbar sind. Das Besondere und Neue am Ansatz des K-Projektes ist es, dass Systeme wie Fertigungsprozesse hier als Ganzes analysiert werden sollen. “Holistische Modellierung und Optimierung ist unser Ziel. Wir betrachten einen Produktionsprozess als Netzwerk interagierender Teilprozesse, samt Rückkopplungen und Abhängigkeiten zwischen den einzelnen Schritten”, so Affenzeller.

Neue Hardware

Die Auffindung einer perfekten Lösung kann so nicht garantiert werden, die Erreichung praxistauglich guter Lösungen hingegen schon. “Oft gibt es auch mehrere suboptimale Lösungen innerhalb des Prozesses, von denen einige aber besser harmonieren. Wir suchen Gesamtlösungen, die auf dem Bestehenden aufbauen. Die erste Messlatte ist, besser als der jeweilige Status quo zu sein”, sagt der FH-Forscher, der auch Leiter des Masterstudiums Software Engineering in Hagenberg ist. Die evolutionären Algorithmen, die durch iterative Kreuzung und Mutation der Parameter nach den optimalen Konfigurationen für ein System suchen, sind dafür gut geeignet. “Oft sind die Prozesse schon recht gut, dann müssen wir sehen, dass wir die Grenze, an der das Optimierungspotenzial der Algorithmen gering wird, so weit wie möglich nach hinten verschieben”, sagt Affenzeller.

Das Potenzial für solche Optimierungen wächst mit immer leistungsfähigerer Hardware, da die Algorithmen sehr rechenintensiv sind. Der Bedarf steigt ebenfalls, da mit der anzunehmenden Menge an Sensorinformationen, die in modernen Produktionsprozessen anfällt, auch das Potenzial größer wird. “Da sind wir sicher Teil des Umstrukturierungsprozesses, den wir Industrie 4.0 nennen, wenn auch nur in den Teilgebieten Modellierung, Optimierung und Datenanalyse”, erklärt Affenzeller.

Sammeltaxis

Mit den Algorithmen, die ebenfalls zur Analyse komplexer Datenbestände eingesetzt werden, ließe sich etwa auf Basis von Prüfstands- und Prozessparametern eine Ausschussprognose erstellen. So könnte in der Qualitätskontrolle Zeit und Energie gespart werden. Die industriellen Partner des K-Projekts stammen aus der Logistik oder der Produktion: Es sind VOEST, Rosenbauer, Gebrüder Weiss, Miba Frictec und CARVATECH. Wissenschaftliche Partner sind die Johannes Kepler Universität Linz, die Universität Wien, PROFACTOR, RISC Software und V-Research. Das Projekt ist auf vier Jahre angelegt, weitere themenverwandte Einsatzmöglichkeiten erscheinen naheliegend.

Wie sehr ein Prozess optimiert werden kann, ist nicht einfach zu prognostizieren. “Aber bei komplexen Systemen gibt es keinen Ersatz zur Heuristik. Wir wollen uns das Vertrauen schrittweise verdienen und beginnen deshalb oft mit einer Potenzialstudie. Am Ende könnten unsere Algorithmen etwa auch die Verteilung von Sammeltaxis, Carsharing-Autos oder Leihfahrrädern in Städten optimieren”, sagt Affenzeller.

Dieser Artikel ist im Rahmen einer Kooperation zwisschen futurezone und FH Oberösterreich entstanden.

(futurezone) Erstellt am 18.12.2014, 06:00

Kommentare ()

Einen neuen Kommentar hinzufügen

( Abmelden )

Ihr Kommentar

Antworten folgen
Melden Sie den Kommentar dem Seitenbetreiber. Sind Sie sicher, dass Sie diesen Kommentar als unangemessen melden möchten?
    Bitte Javascript aktivieren!