Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn
Das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics
Sebastian Raschka y Vahid Mirjalili
Cite this publication as
Sebastian Raschka, Vahid Mirjalili, Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn (2021), mitp-Verlag, Frechen, ISBN: 9783747502143
16466
accesses
accesses
214
quotes
quotes
Descripción / Abstract
Descripción
Índice
- Cover
- Unbenannt
- Impressum
- Inhaltsverzeichnis
- Über die Autoren
- Über die Korrektoren
- Über den Fachkorrektor der deutschen Ausgabe
- Einleitung
- Kapitel 1: Wie Computer aus Daten lernen können
- 1.1 Intelligente Maschinen, die Daten in Wissen verwandeln
- 1.2 Die drei Arten des Machine Learnings
- 1.3 Grundlegende Terminologie und Notation
- 1.4 Entwicklung eines Systems für das Machine Learning
- 1.5 Machine Learning mit Python
- 1.6 Zusammenfassung
- Kapitel 2: Lernalgorithmen für die Klassifikation trainieren
- 2.1 Künstliche Neuronen: Ein kurzer Blick auf die Anfänge des Machine Learnings
- 2.2 Implementierung eines Perzeptron-Lernalgorithmus in Python
- 2.3 Adaptive lineare Neuronen und die Konvergenz des Lernens
- 2.4 Zusammenfassung
- Kapitel 3: Machine-Learning-Klassifikatoren mit scikit-learn verwenden
- 3.1 Auswahl eines Klassifikationsalgorithmus
- 3.2 Erste Schritte mit scikit-learn: Trainieren eines Perzeptrons
- 3.3 Klassenwahrscheinlichkeiten durch logistische Regression modellieren
- 3.4 Maximum-Margin-Klassifikation mit Support Vector Machines
- 3.5 Nichtlineare Aufgaben mit einer Kernel-SVM lösen
- 3.6 Lernen mit Entscheidungsbäumen
- 3.7 k-Nearest-Neighbors: Ein Lazy-Learning-Algorithmus
- 3.8 Zusammenfassung
- Kapitel 4: Gut geeignete Trainingsdatenmengen: Datenvorverarbeitung
- 4.1 Umgang mit fehlenden Daten
- 4.2 Handhabung kategorialer Daten
- 4.3 Aufteilung einer Datensammlung in Trainings- und Testdaten
- 4.4 Anpassung der Merkmale
- 4.5 Auswahl aussagekräftiger Merkmale
- 4.6 Beurteilung der Bedeutung von Merkmalen mit Random Forests
- 4.7 Zusammenfassung
- Kapitel 5: Datenkomprimierung durch Dimensionsreduktion
- 5.1 Unüberwachte Dimensionsreduktion durch Hauptkomponentenanalyse
- 5.2 Überwachte Datenkomprimierung durch lineare Diskriminanzanalyse
- 5.3 Kernel-Hauptkomponentenanalyse für nichtlineare Zuordnungen verwenden
- 5.4 Zusammenfassung
- Kapitel 6: Bewährte Verfahren zur Modellbewertung und Hyperparameter-Optimierung
- 6.1 Arbeitsabläufe mit Pipelines optimieren
- 6.2 Beurteilung des Modells durch k-fache Kreuzvalidierung
- 6.3 Algorithmen mit Lern- und Validierungskurven debuggen
- 6.4 Feinabstimmung eines Lernmodells durch Grid Search
- 6.5 Verschiedene Kriterien zur Leistungsbewertung
- 6.6 Handhabung unausgewogener Klassenverteilung
- 6.7 Zusammenfassung
- Kapitel 7: Kombination verschiedener Modelle für das Ensemble Learning
- 7.1 Ensemble Learning
- 7.2 Klassifikatoren durch Mehrheitsentscheidung kombinieren
- 7.3 Bewertung und Abstimmung des Klassifikator-Ensembles
- 7.4 Bagging: Klassifikator-Ensembles anhand von Bootstrap-Stichproben entwickeln
- 7.5 Schwache Klassifikatoren durch adaptives Boosting verbessern
- 7.6 Zusammenfassung
- Kapitel 8: Machine Learning zur Analyse von Stimmungslagen nutzen
- 8.1 Die IMDb-Filmdatenbank
- 8.2 Das Bag-of-words-Modell
- 8.3 Ein logistisches Regressionsmodell für die Dokumentklassifikation trainieren
- 8.4 Verarbeitung großer Datenmengen: Online-Algorithmen und Out-of-Core Learning
- 8.5 Topic Modeling mit latenter Dirichlet-Allokation
- 8.6 Zusammenfassung
- Kapitel 9: Einbettung eines Machine-Learning- Modells in eine Webanwendung
- 9.1 Serialisierung angepasster Schätzer mit scikit-learn
- 9.2 Einrichtung einer SQLite-Datenbank zum Speichern von Daten
- 9.3 Entwicklung einer Webanwendung mit Flask
- 9.4 Der Filmbewertungsklassifikator als Webanwendung
- 9.5 Einrichtung der Webanwendung auf einem öffentlich zugänglichen Webserver
- 9.6 Zusammenfassung
- Kapitel 10: Vorhersage stetiger Zielvariablen durch Regressionsanalyse
- 10.1 Lineare Regression
- 10.2 Die Boston-Housing-Datensammlung
- 10.3 Implementierung eines linearen Regressionsmodells mit der Methode der kleinsten Quadrate
- 10.4 Anpassung eines robusten Regressionsmodells mit dem RANSAC-Algorithmus
- 10.5 Bewertung der Leistung linearer Regressionsmodelle
- 10.6 Regularisierungsverfahren für die Regression einsetzen
- 10.7 Polynomiale Regression: Umwandeln einer linearen Regression in eine Kurve
- 10.8 Handhabung nichtlinearer Beziehungen mit Random Forests
- 10.9 Zusammenfassung
- Kapitel 11: Verwendung von Daten ohne Label: Clusteranalyse
- 11.1 Gruppierung von Objekten nach Ähnlichkeit mit dem k-Means-Algorithmus
- 11.2 Cluster als hierarchischen Baum organisieren
- 11.3 Bereiche hoher Dichte mit DBSCAN ermitteln
- 11.4 Zusammenfassung
- Kapitel 12: Implementierung eines künstlichen neuronalen Netzes
- 12.1 Modellierung komplexer Funktionen mit künstlichen neuronalen Netzen
- 12.2 Klassifikation handgeschriebener Ziffern
- 12.3 Trainieren eines künstlichen neuronalen Netzes
- 12.4 Konvergenz in neuronalen Netzen
- 12.5 Abschließende Bemerkungen zur Implementierung neuronaler Netze
- 12.6 Zusammenfassung
- Kapitel 13: Parallelisierung des Trainings neuronaler Netze mit TensorFlow
- 13.1 TensorFlow und Trainingsleistung
- 13.2 Erste Schritte mit TensorFlow
- 13.3 Eingabe-Pipelines mit tf.data erstellen – die Dataset-API von TensorFlow
- 13.4 Entwicklung eines NN-Modells mit TensorFlow
- 13.5 Auswahl der Aktivierungsfunktionen mehrschichtiger neuronaler Netze
- 13.6 Zusammenfassung
- Kapitel 14: Die Funktionsweise von TensorFlow im Detail
- 14.1 Grundlegende Merkmale von TensorFlow
- 14.2 TensorFlows Berechnungsgraphen: Migration nach TensorFlow v2
- 14.3 TensorFlows Variablenobjekte zum Speichern und Aktualisieren von Modellparametern
- 14.4 Gradientenberechnung durch automatisches Differenzieren und GradientTape
- 14.5 Vereinfachung der Implementierung gebräuchlicher Architekturen mit der Keras-API
- 14.6 TensorFlows Schätzer
- 14.7 Zusammenfassung
- Kapitel 15: Bildklassifikation mit Deep Convolutional Neural Networks
- 15.1 Bausteine von Convolutional Neural Networks
- 15.2 Implementierung eines CNNs
- 15.3 Implementierung eines tiefen CNNs mit TensorFlow
- 15.4 Klassifikation des Geschlechts anhand von Porträtfotos mit einem CNN
- 15.5 Zusammenfassung
- Kapitel 16: Modellierung sequenzieller Daten durch rekurrente neuronale Netze
- 16.1 Sequenzielle Daten
- 16.2 Sequenzmodellierung mit RNNs
- 16.3 Implementierung von RNNs zur Sequenzmodellierung mit TensorFlow
- 16.4 Sprache mit dem Transformer-Modell verstehen
- 16.5 Zusammenfassung
- Kapitel 17: Synthetisieren neuer Daten mit Generative Adversarial Networks
- 17.1 Einführung in GANs
- 17.2 Ein GAN von Grund auf implementieren
- 17.3 Verbesserung der Qualität synthetisierter Bilder durch Convolutional GAN und Wasserstein-GAN
- 17.4 Weitere GAN-Anwendungen
- 17.5 Zusammenfassung
- Kapitel 18: Entscheidungsfindung in komplexen Umgebungen per Reinforcement Learning
- 18.1 Einführung: Aus Erfahrung lernen
- 18.2 Theoretische Grundlagen des RLs
- 18.3 Reinforcement-Learning-Algorithmen
- 18.4 Implementierung eines RL-Algorithmus
- 18.5 Zusammenfassung und Schlusswort
- Stichwortverzeichnis