Möchten Sie mit Ihrem Team teilnehmen? Profitieren Sie von unseren Gruppenrabatten! Schreiben Sie an events@dpunkt.de

Entwicklung und Deployment von ML-Modellen mit Python und mlflow

Die Entwicklung von Machine-Learning-Modellen ist ein wichtiger Bestandteil beim Aufbau datengetriebener Prozesse und Anwendungen. Dabei ist die kollaborative Entwicklung und produktive Nutzung von ML-Modellen weiterhin eine große Herausforderung.

Im Workshop lernen Teilnehmerinnen und Teilnehmer Konzepte wie den Aufbau von ML-Pipelines, das Tracking von Parametern und Metriken verschiedener Modelle sowie das Deployment von ML-Modellen für den produktiven Einsatz kennen.

Anhand einfacher, anschaulicher Beispiele lernen sie, mit den Open Source Tools Python und mlflow den kompletten Machine Learning Lifecycle nachzuvollziehen und Schritte wie das Tracking von Experimenten (Trainingsdurchläufe von Modellen) oder das Bereitstellen von ML-Modellen in Form einer REST-API selbst umzusetzen.

Vorkenntnisse

  • Grundlegendes Verständnis von Machine Learning
  • Grundlagenkenntnisse der Programmierung im Data-Science-Umfeld sind hilfreich, aber nicht zwingend erforderlich
  • Vorkenntnisse zu mlflow oder zum Begriff des ML-Lifecycles sind nicht erforderlich

Lernziele

  • Die Entwicklung einfacher Machine-Learning-Modelle in Pyhton (z.B. neuronale Netze mit tensorflow/keras)
  • Das Tracking von Modellparametern und -metriken
  • Den Aufbau einer ML-Pipeline und die Abbildung der Pipeline innerhalb einer Projektstruktur
  • Die nachhaltige Aufbereitung von Modellergebnissen
  • Das Deployment von Modellen in Form einer REST-API

Agenda

09:00 Uhr: Beginn

Einführung
  • Theoretische Einführung in das Konzept des Machine Learning Lifecycles
  • Entwicklung von ML-Modellen in Python auf Basis bereits teilfertiger Python-Skripte/Notebooks
  • mlflow Tracking – Logging von Modelldurchläufen, -metriken und -parametern

ca. 12:30 – 13:30 Uhr: Mittagspause

Vertiefung
  • Bereitstellung von Modellen und Abrufen vorheriger Modellkonfigurationen
  • Aufbau von ML-Pipelines und mlflow Projects
  • Modelle als REST-API mit mlflow Models
ca. 16:30 Uhr: Ende

 

Speaker

 

Florian Schmoll
Florian Schmoll hat Mathematik studiert und arbeitet seit 2017 als Data Scientist bei der eoda GmbH in Kassel. Seine Haupttätigkeit liegt in Projekten der Datenanalyse und der Entwicklung produktiv einsetzbarer Machine-Learning-Modelle. Zudem ist er als Trainer für die von eoda entwickelten Data-Science-Kurse tätig.

enterPy-Newsletter

Sie möchten über die enterPy
auf dem Laufenden gehalten werden?

 

Anmelden