Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn

Das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics

Sebastian Raschka y Vahid Mirjalili

Cite this publication as

Sebastian Raschka, Vahid Mirjalili, Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn (2021), mitp-Verlag, Frechen, ISBN: 9783747502143

16466
accesses
214
quotes

Descripción / Abstract

Descripción

Índice

  • Cover
  • Unbenannt
  • Impressum
  • Inhaltsverzeichnis
  • Über die Autoren
  • Über die Korrektoren
  • Über den Fachkorrektor der deutschen Ausgabe
  • Einleitung
  • Kapitel 1: Wie Computer aus Daten lernen können
  • 1.1 Intelligente Maschinen, die Daten in Wissen verwandeln
  • 1.2 Die drei Arten des Machine Learnings
  • 1.3 Grundlegende Terminologie und Notation
  • 1.4 Entwicklung eines Systems für das Machine Learning
  • 1.5 Machine Learning mit Python
  • 1.6 Zusammenfassung
  • Kapitel 2: Lernalgorithmen für die Klassifikation trainieren
  • 2.1 Künstliche Neuronen: Ein kurzer Blick auf die Anfänge des Machine Learnings
  • 2.2 Implementierung eines Perzeptron-Lernalgorithmus in Python
  • 2.3 Adaptive lineare Neuronen und die Konvergenz des Lernens
  • 2.4 Zusammenfassung
  • Kapitel 3: Machine-Learning-Klassifikatoren mit scikit-learn verwenden
  • 3.1 Auswahl eines Klassifikationsalgorithmus
  • 3.2 Erste Schritte mit scikit-learn: Trainieren eines Perzeptrons
  • 3.3 Klassenwahrscheinlichkeiten durch logistische Regression modellieren
  • 3.4 Maximum-Margin-Klassifikation mit Support Vector Machines
  • 3.5 Nichtlineare Aufgaben mit einer Kernel-SVM lösen
  • 3.6 Lernen mit Entscheidungsbäumen
  • 3.7 k-Nearest-Neighbors: Ein Lazy-Learning-Algorithmus
  • 3.8 Zusammenfassung
  • Kapitel 4: Gut geeignete Trainingsdatenmengen: Datenvorverarbeitung
  • 4.1 Umgang mit fehlenden Daten
  • 4.2 Handhabung kategorialer Daten
  • 4.3 Aufteilung einer Datensammlung in Trainings- und Testdaten
  • 4.4 Anpassung der Merkmale
  • 4.5 Auswahl aussagekräftiger Merkmale
  • 4.6 Beurteilung der Bedeutung von Merkmalen mit Random Forests
  • 4.7 Zusammenfassung
  • Kapitel 5: Datenkomprimierung durch Dimensionsreduktion
  • 5.1 Unüberwachte Dimensionsreduktion durch Hauptkomponentenanalyse
  • 5.2 Überwachte Datenkomprimierung durch lineare Diskriminanzanalyse
  • 5.3 Kernel-Hauptkomponentenanalyse für nichtlineare Zuordnungen verwenden
  • 5.4 Zusammenfassung
  • Kapitel 6: Bewährte Verfahren zur Modellbewertung und Hyperparameter-Optimierung
  • 6.1 Arbeitsabläufe mit Pipelines optimieren
  • 6.2 Beurteilung des Modells durch k-fache Kreuzvalidierung
  • 6.3 Algorithmen mit Lern- und Validierungskurven debuggen
  • 6.4 Feinabstimmung eines Lernmodells durch Grid Search
  • 6.5 Verschiedene Kriterien zur Leistungsbewertung
  • 6.6 Handhabung unausgewogener Klassenverteilung
  • 6.7 Zusammenfassung
  • Kapitel 7: Kombination verschiedener Modelle für das Ensemble Learning
  • 7.1 Ensemble Learning
  • 7.2 Klassifikatoren durch Mehrheitsentscheidung kombinieren
  • 7.3 Bewertung und Abstimmung des Klassifikator-Ensembles
  • 7.4 Bagging: Klassifikator-Ensembles anhand von Bootstrap-Stichproben entwickeln
  • 7.5 Schwache Klassifikatoren durch adaptives Boosting verbessern
  • 7.6 Zusammenfassung
  • Kapitel 8: Machine Learning zur Analyse von Stimmungslagen nutzen
  • 8.1 Die IMDb-Filmdatenbank
  • 8.2 Das Bag-of-words-Modell
  • 8.3 Ein logistisches Regressionsmodell für die Dokumentklassifikation trainieren
  • 8.4 Verarbeitung großer Datenmengen: Online-Algorithmen und Out-of-Core Learning
  • 8.5 Topic Modeling mit latenter Dirichlet-Allokation
  • 8.6 Zusammenfassung
  • Kapitel 9: Einbettung eines Machine-Learning- Modells in eine Webanwendung
  • 9.1 Serialisierung angepasster Schätzer mit scikit-learn
  • 9.2 Einrichtung einer SQLite-Datenbank zum Speichern von Daten
  • 9.3 Entwicklung einer Webanwendung mit Flask
  • 9.4 Der Filmbewertungsklassifikator als Webanwendung
  • 9.5 Einrichtung der Webanwendung auf einem öffentlich zugänglichen Webserver
  • 9.6 Zusammenfassung
  • Kapitel 10: Vorhersage stetiger Zielvariablen durch Regressionsanalyse
  • 10.1 Lineare Regression
  • 10.2 Die Boston-Housing-Datensammlung
  • 10.3 Implementierung eines linearen Regressionsmodells mit der Methode der kleinsten Quadrate
  • 10.4 Anpassung eines robusten Regressionsmodells mit dem RANSAC-Algorithmus
  • 10.5 Bewertung der Leistung linearer Regressionsmodelle
  • 10.6 Regularisierungsverfahren für die Regression einsetzen
  • 10.7 Polynomiale Regression: Umwandeln einer linearen Regression in eine Kurve
  • 10.8 Handhabung nichtlinearer Beziehungen mit Random Forests
  • 10.9 Zusammenfassung
  • Kapitel 11: Verwendung von Daten ohne Label: Clusteranalyse
  • 11.1 Gruppierung von Objekten nach Ähnlichkeit mit dem k-Means-Algorithmus
  • 11.2 Cluster als hierarchischen Baum organisieren
  • 11.3 Bereiche hoher Dichte mit DBSCAN ermitteln
  • 11.4 Zusammenfassung
  • Kapitel 12: Implementierung eines künstlichen neuronalen Netzes
  • 12.1 Modellierung komplexer Funktionen mit künstlichen neuronalen Netzen
  • 12.2 Klassifikation handgeschriebener Ziffern
  • 12.3 Trainieren eines künstlichen neuronalen Netzes
  • 12.4 Konvergenz in neuronalen Netzen
  • 12.5 Abschließende Bemerkungen zur Implementierung neuronaler Netze
  • 12.6 Zusammenfassung
  • Kapitel 13: Parallelisierung des Trainings neuronaler Netze mit TensorFlow
  • 13.1 TensorFlow und Trainingsleistung
  • 13.2 Erste Schritte mit TensorFlow
  • 13.3 Eingabe-Pipelines mit tf.data erstellen – die Dataset-API von TensorFlow
  • 13.4 Entwicklung eines NN-Modells mit TensorFlow
  • 13.5 Auswahl der Aktivierungsfunktionen mehrschichtiger neuronaler Netze
  • 13.6 Zusammenfassung
  • Kapitel 14: Die Funktionsweise von TensorFlow im Detail
  • 14.1 Grundlegende Merkmale von TensorFlow
  • 14.2 TensorFlows Berechnungsgraphen: Migration nach TensorFlow v2
  • 14.3 TensorFlows Variablenobjekte zum Speichern und Aktualisieren von Modellparametern
  • 14.4 Gradientenberechnung durch automatisches Differenzieren und GradientTape
  • 14.5 Vereinfachung der Implementierung gebräuchlicher Architekturen mit der Keras-API
  • 14.6 TensorFlows Schätzer
  • 14.7 Zusammenfassung
  • Kapitel 15: Bildklassifikation mit Deep Convolutional Neural Networks
  • 15.1 Bausteine von Convolutional Neural Networks
  • 15.2 Implementierung eines CNNs
  • 15.3 Implementierung eines tiefen CNNs mit TensorFlow
  • 15.4 Klassifikation des Geschlechts anhand von Porträtfotos mit einem CNN
  • 15.5 Zusammenfassung
  • Kapitel 16: Modellierung sequenzieller Daten durch rekurrente neuronale Netze
  • 16.1 Sequenzielle Daten
  • 16.2 Sequenzmodellierung mit RNNs
  • 16.3 Implementierung von RNNs zur Sequenzmodellierung mit TensorFlow
  • 16.4 Sprache mit dem Transformer-Modell verstehen
  • 16.5 Zusammenfassung
  • Kapitel 17: Synthetisieren neuer Daten mit Generative Adversarial Networks
  • 17.1 Einführung in GANs
  • 17.2 Ein GAN von Grund auf implementieren
  • 17.3 Verbesserung der Qualität synthetisierter Bilder durch Convolutional GAN und Wasserstein-GAN
  • 17.4 Weitere GAN-Anwendungen
  • 17.5 Zusammenfassung
  • Kapitel 18: Entscheidungsfindung in komplexen Umgebungen per Reinforcement Learning
  • 18.1 Einführung: Aus Erfahrung lernen
  • 18.2 Theoretische Grundlagen des RLs
  • 18.3 Reinforcement-Learning-Algorithmen
  • 18.4 Implementierung eines RL-Algorithmus
  • 18.5 Zusammenfassung und Schlusswort
  • Stichwortverzeichnis

Otros documentos de esta serie

    Títulos relacionados

      Otros títulos del mismo autor