Scikit Learn

Scikit-Learn ist ein großes, mächtiges Python-Paket für maschinelles Lernen. Der Scikit-Learn-Kurs richtet sich an Ingenieure, Wirtschaftswissenschaftler (Versicherungen, Banken), Marketing-Experten, Berater, die Algorithmen des maschinellen Lernens für Software verwenden wollen, die von Daten selbständig lernt und dann im laufenden Betrieb autonom agiert. Der Übungsanteil beträgt 50%-60%. Ein Trainer kommt auf 5 bis 9 Kursteilnehmer und hilft ihnen individuell. Nach dem Kurs werden die Teilnehmer in der Lage sein, sehr mächtige, moderne Vorhersagemodelle mit relativ wenig Code-Zeilen zu erstellen und produktiv einzusetzen. Der Kurs setzt Kenntnisse in Python, linearer Algebra und Differenzial-Rechnung voraus. (Matrizen- und Vektor-Rechnung) Der Kurs behandelt die theoretischen Aspekte der 3 bis 4 besten Algorithmen in Scikit-Learn im Detail. Ansonsten liegt der Fokus auf den Grundprinzipien und Werkzeugen von Scikit-Learn, die für die erfolgreiche Anwendung auf praktische Probleme notwendig sind. Die Themen:

1) Numpy

  • ndarray erstellen.
  • Auf Array-Elemente zugreifen.
  • Array - Slicing.
  • Elementweise Operationen.
  • Attribute von ndarray.
  • Reshape eines ndarray.
  • Fortgeschrittenes Indexieren.
  • Über ein ndarray iterieren.
  • Die numpy.where Funktion.
  • Wichtige ndarray-Methoden.
  • numpy mathematische Funktionen.
  • Mit NaN und infinite Zahlen umgehen.

2) Supervised Learning - Grundlagen

  • Lineare Regression
  • Messen der Qualität eines Vorhersagemodells.
  • Die sklearn.model_selection.train_test_split() Routine.
  • Methoden, um die relevanten Features zu finden.
  • Visualisierung der Interaktion von Variablen mit seaborn.
  • Hauptmethoden von sklearn Predictor Instanzen.
  • Qualitätsmessung mit der cross_val_score() Funktion.
  • Logistische Regression.

3) Wichtige Tools

  • sklearn.preprocessing.LabelEncoder
  • Predictors und Transformers interagieren mit Pandas.
  • Qualitäts-Metriken für Modelle.
  • Visualisierung der learning-curve.

4) Analysetechniken, Anti-Overfitting-Techniken

  • Regularisierung, um Overfitting zu vermeiden.
  • Evaluierung von Klassifikationsmodellen.
  • Visualisierung der Qualität von Klassifikationsmodellen.
  • Feature Engineering.

5) Support-Vektor-Maschinen

  • Support-Vektor-Classifiers.
  • sklearn.svm package’s SVC Predictors.
  • Support-Vektor-Regression.
  • Wie man gute Modell-Parameter findet. GridSearchCV und ähnliche Klassen.

6) Daten transformieren, Vorhersage-Modelle verbessern

  • Principal Components Transformer.
  • Space Density Transformer.
  • Pipelines.
  • Nicht-numerische in numerische Daten transformieren.
  • Scikit-Learn Transformers.
  • Das Modul to_numeric_frame.

7) Entscheidungsbäume, Random Forests, GradientBoost

  • Entscheidungsbäume für Klassifikation.
  • Entscheidungsbäume für Regression.
  • RandomForrest.
  • GradientBoost und andere Ensemble-Methoden.
  • ScikitLearn-Modelle speichern und wieder laden.

8) Unsupervised Learning

  • Clustering.
  • k-means-clustering.
  • Die Elbow-Methode.
  • Mean shift clustering.

Zu jedem der obigen Kapitel gibt es eine oder mehrere Übungseinheiten. Kursdauer: 5 Tage.

Auf Wunsch kann dieser Kurs auch mit anderen Kursen kombiniert oder gekürzt gehalten werden mit Dauer zwischen 2 und 5 Tagen. Wenn Sie Interesse an diesem Kurs haben, schicken Sie uns eine Nachricht, da wir die Kurse dynamisch je nach Nachfrage planen.