Machine Learning mit Python und Scikit-Learn und TensorFlow

Das Praxis-Handbuch für Data Science, Predictive Analytics und Deep Learning

Sebastian Raschka und Vahid Mirjalili

Diese Publikation zitieren

Sebastian Raschka, Vahid Mirjalili, Machine Learning mit Python und Scikit-Learn und TensorFlow (2017), mitp-Verlag, Frechen, ISBN: 9783958457348

5510
Accesses
54
Quotes

Beschreibung / Abstract

Alle, die sich mit Data Science und Machine Learning beschäftigen

Beschreibung

Inhaltsverzeichnis

  • Cover
  • Titel
  • Impressum
  • Inhaltsverzeichnis
  • Über die Autoren
  • Über die Korrektoren
  • Einleitung
  • Kapitel 1: Wie Computer aus Daten lernen können
  • 1.1 Intelligente Maschinen, die Daten in Wissen verwandeln
  • 1.2 Die drei Arten des Machine Learnings
  • 1.3 Grundlegende Terminologie und Notation
  • 1.4 Entwicklung eines Systems für das Machine Learning
  • 1.5 Machine Learning mit Python
  • 1.6 Zusammenfassung
  • Kapitel 2: Lernalgorithmen für die Klassifizierung trainieren
  • 2.1 Künstliche Neuronen: Ein kurzer Blick auf die Anfänge des Machine Learnings
  • 2.2 Implementierung eines Perzeptron-Lernalgorithmus in Python
  • 2.3 Adaptive lineare Neuronen und die Konvergenz des Lernens
  • 2.4 Zusammenfassung
  • Kapitel 3: Machine-Learning-Klassifizierer mit scikit-learn verwenden
  • 3.1 Auswahl eines Klassifizierungsalgorithmus
  • 3.2 Erste Schritte mit scikit-learn: Trainieren eines Perzeptrons
  • 3.3 Klassenwahrscheinlichkeiten durch logistische Regression modellieren
  • 3.4 Maximum-Margin-Klassifizierung mit Support Vector Machines
  • 3.5 Nichtlineare Aufgaben mit einer Kernel-SVM lösen
  • 3.6 Lernen mit Entscheidungsbäumen
  • 3.7 k-Nearest-Neighbor: Ein Lazy-Learning-Algorithmus
  • 3.8 Zusammenfassung
  • Kapitel 4: Gut geeignete Trainingsdatenmengen: Datenvorverarbeitung
  • 4.1 Umgang mit fehlenden Daten
  • 4.2 Handhabung kategorialer Daten
  • 4.3 Aufteilung einer Datensammlung in Trainings- und Testdaten
  • 4.4 Anpassung der Merkmale
  • 4.5 Auswahl aussagekräftiger Merkmale
  • 4.6 Beurteilung der Bedeutung von Merkmalen mit Random Forests
  • 4.7 Zusammenfassung
  • Kapitel 5: Datenkomprimierung durch Dimensionsreduktion
  • 5.1 Unüberwachte Dimensionsreduktion durch Hauptkomponentenanalyse
  • 5.2 Überwachte Datenkomprimierung durch lineare Diskriminanzanalyse
  • 5.3 Kernel-Hauptkomponentenanalyse für nichtlineare Zuordnungen verwenden
  • 5.4 Zusammenfassung
  • Kapitel 6: Best Practices zur Modellbewertung und Hyperparameter- Abstimmung
  • 6.1 Arbeitsabläufe mit Pipelines optimieren
  • 6.2 Beurteilung des Modells durch k-fache Kreuzvalidierung
  • 6.3 Algorithmen mit Lern- und Validierungskurven debuggen
  • 6.4 Feinabstimmung eines Lernmodells durch Rastersuche
  • 6.5 Verschiedene Kriterien zur Leistungsbewertung
  • 6.6 Handhabung unausgewogener Klassenverteilung
  • 6.7 Zusammenfassung
  • Kapitel 7: Kombination verschiedener Modelle für das Ensemble Learning
  • 7.1 Ensemble Learning
  • 7.2 Klassifizierer durch Mehrheitsentscheidung kombinieren
  • 7.3 Bewertung und Abstimmung des Klassifizierer-Ensembles
  • 7.4 Bagging: Klassifizierer-Ensembles anhand von Bootstrap-Stichproben entwickeln
  • 7.5 Schwache Klassifizierer durch adaptives Boosting verbessern
  • 7.6 Zusammenfassung
  • Kapitel 8: Machine Learning zur Analyse von Stimmungslagen nutzen
  • 8.1 Die IMDb-Filmdatenbank
  • 8.2 Das Bag-of-words-Modell
  • 8.3 Ein logistisches Regressionsmodell für die Dokumentklassifizierung trainieren
  • 8.4 Verarbeitung großer Datenmengen: Online-Algorithmen und Out-of-Core Learning
  • 8.5 Topic Modeling mit latenter Dirichlet-Allokation
  • 8.6 Zusammenfassung
  • Kapitel 9: Einbettung eines Machine-Learning- Modells in eine Webanwendung
  • 9.1 Serialisierung angepasster Schätzer mit scikit-learn
  • 9.2 Einrichtung einer SQLite-Datenbank zum Speichern von Daten
  • 9.3 Entwicklung einer Webanwendung mit Flask
  • 9.4 Der Filmbewertungsklassifizierer als Webanwendung
  • 9.5 Einrichtung der Webanwendung auf einem öffentlich zugänglichen Webserver
  • 9.6 Zusammenfassung
  • Kapitel 10: Vorhersage stetiger Zielvariablen durch Regressionsanalyse
  • 10.1 Lineare Regression
  • 10.2 Die Lebensbedingungen-Datensammlung
  • 10.3 Implementierung eines linearen Regressionsmodells mit der Methode der kleinsten Quadrate
  • 10.4 Anpassung eines robusten Regressionsmodells mit dem RANSAC-Algorithmus
  • 10.5 Bewertung der Leistung linearer Regressionsmodelle
  • 10.6 Regularisierungsverfahren für die Regression einsetzen
  • 10.7 Polynomiale Regression: Umwandeln einer linearen Regression in eine Kurve
  • 10.8 Handhabung nichtlinearer Beziehungen mit Random Forests
  • 10.9 Zusammenfassung
  • Kapitel 11: Verwendung nicht gekennzeichneter Daten: Clusteranalyse
  • 11.1 Gruppierung von Objekten nach Ähnlichkeit mit dem k-Means-Algorithmus
  • 11.2 Cluster als hierarchischen Baum organisieren
  • 11.3 Bereiche hoher Dichte mit DBSCAN ermitteln
  • 11.4 Zusammenfassung
  • Kapitel 12: Implementierung eines künstlichen neuronalen Netzes
  • 12.1 Modellierung komplexer Funktionen mit künstlichen neuronalen Netzen
  • 12.2 Klassifizierung handgeschriebener Ziffern
  • 12.3 Trainieren eines künstlichen neuronalen Netzes
  • 12.4 Konvergenz in neuronalen Netzen
  • 12.5 Abschließende Bemerkungen zur Implementierung neuronaler Netze
  • 12.6 Zusammenfassung
  • Kapitel 13: Parallelisierung des Trainings neuronaler Netze mit TensorFlow
  • 13.1 TensorFlow und Trainingsleistung
  • 13.2 Training neuronaler Netze mit TensorFlows High-level-APIs
  • 13.3 Auswahl der Aktivierungsfunktionen mehrschichtiger neuronaler Netze
  • 13.4 Zusammenfassung
  • Kapitel 14: Die Funktionsweise von TensorFlow im Detail
  • 14.1 Grundlegende Merkmale von TensorFlow
  • 14.2 TensorFlow-Tensoren und deren Rang
  • 14.3 TensorFlow-Berechnungsgraphen
  • 14.4 Platzhalter in TensorFlow
  • 14.5 Variablen in TensorFlow
  • 14.6 Erstellen eines Regressionsmodells
  • 14.7 Ausführung von Objekten in einem TensorFlow- Graphen unter Verwendung ihres Namens
  • 14.8 Speichern und wiederherstellen eines Modells in TensorFlow
  • 14.9 Tensoren als mehrdimensionale Datenarrays transformieren
  • 14.10 Mechanismen der Flusskontrolle beim Erstellen von Graphen verwenden
  • 14.11 Graphen mit TensorBoard visualisieren
  • 14.12 Zusammenfassung
  • Kapitel 15: Bildklassifizierung mit tiefen konvolutionalen neuronalen Netzen
  • 15.1 Bausteine konvolutionaler neuronaler Netze
  • 15.2 Implementierung eines CNNs
  • 15.3 Implementierung eines tiefen konvolutionalen neuronalen Netzes mit TensorFlow
  • 15.4 Zusammenfassung
  • Kapitel 16: Modellierung sequenzieller Daten durch rekurrente neuronale Netze
  • 16.1 Sequenzielle Daten
  • 16.2 Sequenzmodellierung mit RNNs
  • 16.3 Implementierung eines mehrschichtigen RNNs zur Sequenzmodellierung mit TensorFlow
  • 16.4 Projekt 1: Analyse der Stimmungslage in der IMDb- Filmbewertungsdatenbank mit mehrschichtigen RNNs
  • 16.5 Projekt 2: Implementierung eines RNNs zur Sprachmodellierung durch Zeichen mit TensorFlow
  • 16.6 Zusammenfassung und Schlusswort
  • Stichwortverzeichnis

Mehr von dieser Serie

    Ähnliche Titel

      Mehr von diesem Autor