Blog

Das Potenzial freisetzen: Operationalisierung des maschinellen Lernens

Nahaufnahme des Gesichts einer Person, die eine Brille trägt, auf deren Gläsern sich bunte Datenvisualisierungen widerspiegeln, die auf die Beschäftigung mit Datenanalyse oder Technologie hinweisen, die für die Nutzung von maschinellen Lernverfahren und MLOps relevant sind.

Da immer mehr Unternehmen das Potenzial des maschinellen Lernens für die Revolutionierung der Entscheidungsfindung, die Optimierung von Abläufen und die Gewinnung wertvoller Erkenntnisse nutzen möchten, wird es für Unternehmen immer wichtiger zu lernen, wie maschinelles Lernen operationalisiert werden kann. Dank benutzerfreundlicher Lösungen wie AutoML ist die Einstiegshürde für die Nutzung des maschinellen Lernens deutlich gesunken. Die vollständige Operationalisierung des maschinellen Lernens ist jedoch ein langer Weg: Von der Bewältigung der Komplexität des Übergangs von experimentellen zu produktionsreifen Modellen bis hin zur Sicherstellung einer robusten Nachverfolgung und Reproduzierbarkeit von Experimenten gibt es viele Hürden zu überwinden. Hier kommt Machine Learning Operations, kurz MLOps“, ins Spiel. MLOps ist eine Reihe von Praktiken, die den ML-Entwicklungsprozess rationalisieren und diese Herausforderungen überwinden sollen, um eine reibungslose Integration von ML in den täglichen Geschäftsbetrieb zu gewährleisten. Im Folgenden finden Sie eine Liste der häufigsten Herausforderungen, mit denen Unternehmen bei der Operationalisierung von ML konfrontiert sind, sowie eine Diskussion darüber, wie MLOps diese Herausforderungen bewältigt.

1) Übergang von experimentellem zu produktionsreifem Code

Viele Datenwissenschaftler lieben die Flexibilität von Jupyter Notebooks für die explorative Datenanalyse. Doch über die anfängliche Datenexploration hinaus wird die Entwicklung von robustem, produktionsfähigem Code in Notebooks schnell zur Herausforderung. Die Umstellung von Notebooks auf eine umfassendere integrierte Entwicklungsumgebung (IDE) erleichtert das Testen, Refactoring und Überprüfen des Codes, um ihn produktionsreif zu machen. Durch den Einsatz von ML-Frameworks kann der Entwicklungsprozess weiter rationalisiert werden, da das Rad mit benutzerdefinierten Konfigurationsparsern und Pipeline-Runnern nicht mehr neu erfunden werden muss. ML-Frameworks helfen auch bei der Schaffung einer gemeinsamen Struktur zwischen Projekten.

2) Vereinfachter Vergleich von Experimenten

Die iterative Natur der ML-Modellentwicklung erfordert umfangreiche Experimente, vom Feature-Engineering bis zur Abstimmung der Hyperparameter. Ziel dieser Experimente ist es, zu entscheiden, ob ein bestimmtes Merkmal, eine bestimmte Transformation oder ein bestimmter Algorithmus verwendet werden soll, oder den besten Wert für einen Hyperparameter nach bestimmten Maßstäben auszuwählen (in der Regel die Modellleistung, manchmal aber auch der Ressourcenverbrauch). Ohne ein geeignetes Verfolgungssystem kann der Vergleich dieser Experimente eine zeitraubende Aufgabe sein. Tools zur Nachverfolgung von Experimenten sind unschätzbare Helfer, die einen strukturierten Ansatz zur Protokollierung mehrerer Metriken und deren Analyse bieten, oft über eine einfache Benutzeroberfläche. So können Datenwissenschaftler während der Modellentwicklung fundierte Entscheidungen treffen.

3) Sicherstellung der Reproduzierbarkeit

Die Reproduzierbarkeit erfolgreicher Experimente ist für den Einsatz von Modellen des maschinellen Lernens in Produktionsumgebungen von entscheidender Bedeutung. Ohne die Reproduzierbarkeit von Experimenten kann das Team nicht darauf vertrauen, dass ähnliche Ergebnisse erzielt werden können, wenn das Modell neu trainiert werden muss. Die Nachverfolgung von Metriken ist nur der erste Schritt; eine sorgfältige Dokumentation von Datensätzen, Code, Bibliotheken und Konfigurationsparametern ist ebenfalls unerlässlich. Während der Code, die Bibliotheksversionen und die Konfigurationsparameter in einem Versionskontrollsystem gespeichert werden können, erfordert die Versionierung von Datensätzen einen anderen Ansatz, der häufig von ML-Frameworks oder -Plattformen angeboten wird.

Ein Kreisdiagramm zur Veranschaulichung des MLOps-Prozesses mit drei Hauptphasen: 'ML' mit einem Gehirnsymbol, 'DEV' mit einem Codesymbol und 'OPS' mit einem Headset-Symbol. Jede Phase umfasst Schritte wie 'Daten', 'Explorative Datenanalyse', 'Planen', 'Paketieren', 'Freigeben', 'Vorhersagen' und 'Überwachen'.

4) Verfolgung der Herkunft Ihres Modells in der Produktion

Selbst mit robusten Verfolgungsmechanismen bleibt der Ursprung eines Modells in der Produktion ohne Metadaten im Dunkeln. Das bedeutet, dass die Überprüfung des Modells, seine Fehlersuche oder die Verbesserung seiner Leistung schwierig oder sogar unmöglich ist. Werkzeuge zur Nachverfolgung von Experimenten, die mit einer Modellregistrierung ausgestattet sind, schließen diese Lücke, indem sie das Modell mit dem Experiment verknüpfen, das es erzeugt hat. Diese Transparenz gewährleistet Klarheit über den Datensatz, den Code und die Bibliotheken, die zum Produktionsmodell geführt haben.

5) Automatisierung von Schulung und Einsatz

Die Modellregistrierung dient zwar der Rückverfolgbarkeit, aber die manuelle Einleitung des Modelltrainings ist mit zusätzlichem Aufwand und potenziellen Fehlern verbunden. Dies kann Ingenieure davon abhalten, das Modell anhand aktuellerer Daten neu zu trainieren, was zu einer suboptimalen Modellleistung in der Produktion führt. In Anlehnung an die DevOps-Praktiken wird die Automatisierung von Builds, Bereitstellungen und Trainingsläufen zum Schlüssel, um das Modell auf dem neuesten Stand zu halten. Diese Automatisierungen können durch Ereignisse wie Codeänderungen oder nach einem Zeitplan ausgelöst werden.

6) Vermeiden von Leistungseinbußen durch Überwachung

Die Bereitstellung endet nicht mit der Automatisierung. Wenn Modelle in der Produktion eingesetzt werden, können sich die Eigenschaften der Eingabedaten ändern, was Aktualisierungen des Trainingscodes oder der Konfigurationen erforderlich macht. Die Erkennung dieser Veränderungen erfordert eine sorgfältige Überwachung der Inferenzdaten. ML-Plattformen, die mit Datenüberwachungs-Tools ausgestattet sind, bieten ein wachsames Auge auf potenzielle Abweichungen und gewährleisten eine nachhaltige Modellleistung.

Die Herausforderungen bei der Operationalisierung von ML spiegeln die Komplexität der klassischen Softwareentwicklung wider und erweitern sie noch. Ein ganzheitlicher Ansatz, der den Prinzipien von DevOps ähnelt, ist unverzichtbar. In einem Folgebeitrag werden wir unsere ION IQ MLOps-Plattform beleuchten, die als Inspiration für die Implementierung von MLOps in Ihrem Unternehmen dienen kann.

Teilen

Artikel von

Tomas Van Pottelbergh

Senior Datenwissenschaftler

Tomas Van Pottelbergh ist Senior Data Scientist bei Ontinue und verfügt über mehr als vier Jahre Erfahrung als Datenwissenschaftler in den Bereichen Energie, Banken, Chemie und Cybersicherheit. Er hat in JMLR und Neural Computation veröffentlicht und zu Open-Source-Datenwissenschaftspaketen wie Darts und kedro-azureml beigetragen. Tomas promovierte in Ingenieurwissenschaften an der University of Cambridge, wo er an der mathematischen Modellierung biologischer Neuronen arbeitete.

Schlüsselwörter