Machine Learning mit Python und Scikit-Learn und TensorFlow
Das Praxis-Handbuch für Data Science, Predictive Analytics und Deep Learning
Sebastian Raschka and Vahid Mirjalili
Cite this publication as
Sebastian Raschka, Vahid Mirjalili, Machine Learning mit Python und Scikit-Learn und TensorFlow (2017), mitp-Verlag, Frechen, ISBN: 9783958457348
5510
accesses
accesses
54
quotes
quotes
Description / Abstract
Alle, die sich mit Data Science und Machine Learning beschäftigen
Description
Table of content
- Cover
- Titel
- Impressum
- Inhaltsverzeichnis
- Über die Autoren
- Über die Korrektoren
- Einleitung
- Kapitel 1: Wie Computer aus Daten lernen können
- 1.1 Intelligente Maschinen, die Daten in Wissen verwandeln
- 1.2 Die drei Arten des Machine Learnings
- 1.3 Grundlegende Terminologie und Notation
- 1.4 Entwicklung eines Systems für das Machine Learning
- 1.5 Machine Learning mit Python
- 1.6 Zusammenfassung
- Kapitel 2: Lernalgorithmen für die Klassifizierung trainieren
- 2.1 Künstliche Neuronen: Ein kurzer Blick auf die Anfänge des Machine Learnings
- 2.2 Implementierung eines Perzeptron-Lernalgorithmus in Python
- 2.3 Adaptive lineare Neuronen und die Konvergenz des Lernens
- 2.4 Zusammenfassung
- Kapitel 3: Machine-Learning-Klassifizierer mit scikit-learn verwenden
- 3.1 Auswahl eines Klassifizierungsalgorithmus
- 3.2 Erste Schritte mit scikit-learn: Trainieren eines Perzeptrons
- 3.3 Klassenwahrscheinlichkeiten durch logistische Regression modellieren
- 3.4 Maximum-Margin-Klassifizierung mit Support Vector Machines
- 3.5 Nichtlineare Aufgaben mit einer Kernel-SVM lösen
- 3.6 Lernen mit Entscheidungsbäumen
- 3.7 k-Nearest-Neighbor: Ein Lazy-Learning-Algorithmus
- 3.8 Zusammenfassung
- Kapitel 4: Gut geeignete Trainingsdatenmengen: Datenvorverarbeitung
- 4.1 Umgang mit fehlenden Daten
- 4.2 Handhabung kategorialer Daten
- 4.3 Aufteilung einer Datensammlung in Trainings- und Testdaten
- 4.4 Anpassung der Merkmale
- 4.5 Auswahl aussagekräftiger Merkmale
- 4.6 Beurteilung der Bedeutung von Merkmalen mit Random Forests
- 4.7 Zusammenfassung
- Kapitel 5: Datenkomprimierung durch Dimensionsreduktion
- 5.1 Unüberwachte Dimensionsreduktion durch Hauptkomponentenanalyse
- 5.2 Überwachte Datenkomprimierung durch lineare Diskriminanzanalyse
- 5.3 Kernel-Hauptkomponentenanalyse für nichtlineare Zuordnungen verwenden
- 5.4 Zusammenfassung
- Kapitel 6: Best Practices zur Modellbewertung und Hyperparameter- Abstimmung
- 6.1 Arbeitsabläufe mit Pipelines optimieren
- 6.2 Beurteilung des Modells durch k-fache Kreuzvalidierung
- 6.3 Algorithmen mit Lern- und Validierungskurven debuggen
- 6.4 Feinabstimmung eines Lernmodells durch Rastersuche
- 6.5 Verschiedene Kriterien zur Leistungsbewertung
- 6.6 Handhabung unausgewogener Klassenverteilung
- 6.7 Zusammenfassung
- Kapitel 7: Kombination verschiedener Modelle für das Ensemble Learning
- 7.1 Ensemble Learning
- 7.2 Klassifizierer durch Mehrheitsentscheidung kombinieren
- 7.3 Bewertung und Abstimmung des Klassifizierer-Ensembles
- 7.4 Bagging: Klassifizierer-Ensembles anhand von Bootstrap-Stichproben entwickeln
- 7.5 Schwache Klassifizierer durch adaptives Boosting verbessern
- 7.6 Zusammenfassung
- Kapitel 8: Machine Learning zur Analyse von Stimmungslagen nutzen
- 8.1 Die IMDb-Filmdatenbank
- 8.2 Das Bag-of-words-Modell
- 8.3 Ein logistisches Regressionsmodell für die Dokumentklassifizierung trainieren
- 8.4 Verarbeitung großer Datenmengen: Online-Algorithmen und Out-of-Core Learning
- 8.5 Topic Modeling mit latenter Dirichlet-Allokation
- 8.6 Zusammenfassung
- Kapitel 9: Einbettung eines Machine-Learning- Modells in eine Webanwendung
- 9.1 Serialisierung angepasster Schätzer mit scikit-learn
- 9.2 Einrichtung einer SQLite-Datenbank zum Speichern von Daten
- 9.3 Entwicklung einer Webanwendung mit Flask
- 9.4 Der Filmbewertungsklassifizierer als Webanwendung
- 9.5 Einrichtung der Webanwendung auf einem öffentlich zugänglichen Webserver
- 9.6 Zusammenfassung
- Kapitel 10: Vorhersage stetiger Zielvariablen durch Regressionsanalyse
- 10.1 Lineare Regression
- 10.2 Die Lebensbedingungen-Datensammlung
- 10.3 Implementierung eines linearen Regressionsmodells mit der Methode der kleinsten Quadrate
- 10.4 Anpassung eines robusten Regressionsmodells mit dem RANSAC-Algorithmus
- 10.5 Bewertung der Leistung linearer Regressionsmodelle
- 10.6 Regularisierungsverfahren für die Regression einsetzen
- 10.7 Polynomiale Regression: Umwandeln einer linearen Regression in eine Kurve
- 10.8 Handhabung nichtlinearer Beziehungen mit Random Forests
- 10.9 Zusammenfassung
- Kapitel 11: Verwendung nicht gekennzeichneter Daten: Clusteranalyse
- 11.1 Gruppierung von Objekten nach Ähnlichkeit mit dem k-Means-Algorithmus
- 11.2 Cluster als hierarchischen Baum organisieren
- 11.3 Bereiche hoher Dichte mit DBSCAN ermitteln
- 11.4 Zusammenfassung
- Kapitel 12: Implementierung eines künstlichen neuronalen Netzes
- 12.1 Modellierung komplexer Funktionen mit künstlichen neuronalen Netzen
- 12.2 Klassifizierung handgeschriebener Ziffern
- 12.3 Trainieren eines künstlichen neuronalen Netzes
- 12.4 Konvergenz in neuronalen Netzen
- 12.5 Abschließende Bemerkungen zur Implementierung neuronaler Netze
- 12.6 Zusammenfassung
- Kapitel 13: Parallelisierung des Trainings neuronaler Netze mit TensorFlow
- 13.1 TensorFlow und Trainingsleistung
- 13.2 Training neuronaler Netze mit TensorFlows High-level-APIs
- 13.3 Auswahl der Aktivierungsfunktionen mehrschichtiger neuronaler Netze
- 13.4 Zusammenfassung
- Kapitel 14: Die Funktionsweise von TensorFlow im Detail
- 14.1 Grundlegende Merkmale von TensorFlow
- 14.2 TensorFlow-Tensoren und deren Rang
- 14.3 TensorFlow-Berechnungsgraphen
- 14.4 Platzhalter in TensorFlow
- 14.5 Variablen in TensorFlow
- 14.6 Erstellen eines Regressionsmodells
- 14.7 Ausführung von Objekten in einem TensorFlow- Graphen unter Verwendung ihres Namens
- 14.8 Speichern und wiederherstellen eines Modells in TensorFlow
- 14.9 Tensoren als mehrdimensionale Datenarrays transformieren
- 14.10 Mechanismen der Flusskontrolle beim Erstellen von Graphen verwenden
- 14.11 Graphen mit TensorBoard visualisieren
- 14.12 Zusammenfassung
- Kapitel 15: Bildklassifizierung mit tiefen konvolutionalen neuronalen Netzen
- 15.1 Bausteine konvolutionaler neuronaler Netze
- 15.2 Implementierung eines CNNs
- 15.3 Implementierung eines tiefen konvolutionalen neuronalen Netzes mit TensorFlow
- 15.4 Zusammenfassung
- Kapitel 16: Modellierung sequenzieller Daten durch rekurrente neuronale Netze
- 16.1 Sequenzielle Daten
- 16.2 Sequenzmodellierung mit RNNs
- 16.3 Implementierung eines mehrschichtigen RNNs zur Sequenzmodellierung mit TensorFlow
- 16.4 Projekt 1: Analyse der Stimmungslage in der IMDb- Filmbewertungsdatenbank mit mehrschichtigen RNNs
- 16.5 Projekt 2: Implementierung eines RNNs zur Sprachmodellierung durch Zeichen mit TensorFlow
- 16.6 Zusammenfassung und Schlusswort
- Stichwortverzeichnis