Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow

Konzepte, Tools und Techniken für intelligente Systeme

Aurélien Géron

Diese Publikation zitieren

Aurélien Géron, Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow (2023), O'Reilly Verlag, Heidelberg, ISBN: 9783960107606

8731
Accesses
86
Quotes

Beschreibung / Abstract


Aktualisierte und erweiterte 3. Auflage des Bestsellers zu TensorFlow und Deep Learning



  • Behandelt jetzt viele neue Features von Scikit-Learn sowie die Keras-Tuner-Bibliothek und die NLP-Bibliothek Transformers von Hugging Face

  • Führt Sie methodisch geschickt in die Basics des Machine Learning mit Scikit-Learn ein und vermittelt darauf aufbauend Deep-Learning-Techniken mit Keras und TensorFlow

  • Mit zahlreiche Übungen und Lösungen


Durchbrüche beim Deep Learning haben das maschinelle Lernen in den letzten Jahren eindrucksvoll vorangebracht. Inzwischen können sogar Programmiererinnen und Programmierer, die kaum etwas über diese Technologie wissen, mit einfachen, effizienten Werkzeugen Machine-Learning-Programme implementieren. Dieses praxisorientierte Buch, jetzt aktualisiert und nochmals erweitert, zeigt Ihnen wie.

Mit konkreten Beispielen, einem Minimum an Theorie und unmittelbar anwendbaren Python-Frameworks – Scikit-Learn, Keras und TensorFlow – verhilft Ihnen Aurélien Géron zu einem intuitiven Verständnis der Konzepte und Tools für das Entwickeln intelligenter Systeme. Sie lernen eine Vielzahl von Techniken kennen, beginnend mit einfacher linearer Regression bis hin zu Deep Neural Networks. Die in jedem Kapitel enthaltenen Übungen helfen Ihnen, das Gelernte in die Praxis umzusetzen. Um direkt zu starten, benötigen Sie lediglich etwas Programmiererfahrung.


Beschreibung

Aurélien Géron arbeitet als Consultant für Machine Learning. Als ehemaliger Mitarbeiter von Google hat er von 2013 bis 2016 das YouTube-Team zur Klassifikation von Videos geleitet. Er war Gründer und CTO von verschiedenen Unternehmen: von Wifirst, einem führenden Wireless ISP in Frankreich; von Polyconseil, einer Beratungsfirma mit Schwerpunkt auf Telekommunikation, Medien und Strategien; und von Kiwisoft, einem Consultingunternehmen mit Schwerpunkt auf Machine Learning und Datenschutz. Davor war er als Ingenieur in verschiedenen Bereichen tätig: Finanzen (JP Morgan und Société Générale), Verteidigung (das Department of Defense in Kanada) und Gesundheit (Bluttransfusionen). Er hat einige technische Bücher veröffentlicht (zu C++, WiFi und Internetarchitekturen) und war Dozent für Informatik in einer französischen Ingenieursschule. Sonstige wissenswerte Dinge: Er hat seinen drei Kindern beigebracht, mit den Fingern binär zu zählen (bis 1023), hat Mikrobiologie und Evolutionsgenetik studiert, bevor er sich der Softwareentwicklung zugewandt hat, und sein Fallschirm ging bei seinem zweiten Absprung nicht auf.

Inhaltsverzeichnis

  • BEGINN
  • Impressum
  • Inhalt
  • Vorwort
  • Kapitel 1: Die Machine-Learning-Umgebung
  • Was ist Machine Learning?
  • Warum wird Machine Learning verwendet?
  • Anwendungsbeispiel
  • Unterschiedliche Machine-Learning-Systeme
  • Die wichtigsten Herausforderungen beim Machine Learning
  • Testen und Validieren
  • Übungen
  • Kapitel 2: Ein Machine-Learning-Projekt von A bis Z
  • Der Umgang mit realen Daten
  • Betrachte das Gesamtbild
  • Beschaffe die Daten
  • Erkunde und visualisiere die Daten, um Erkenntnisse zu gewinnen
  • Bereite die Daten für Machine-Learning- Algorithmen vor
  • Wähle ein Modell aus und trainiere es
  • Optimiere das Modell
  • Nimm das System in Betrieb, überwache und warte es
  • Probieren Sie es aus!
  • Übungen
  • Kapitel 3: Klassifikation
  • MNIST
  • Trainieren eines binären Klassifikators
  • Qualitätsmaße
  • Klassifikatoren mit mehreren Kategorien
  • Fehleranalyse
  • Klassifikation mit mehreren Labels
  • Klassifikation mit mehreren Ausgaben
  • Übungen
  • Kapitel 4: Trainieren von Modellen
  • Lineare Regression
  • Das Gradientenverfahren
  • Polynomielle Regression
  • Lernkurven
  • Regularisierte lineare Modelle
  • Logistische Regression
  • Übungen
  • Kapitel 5: Support Vector Machines
  • Lineare Klassifikation mit SVMs
  • Nichtlineare SVM-Klassifikation
  • SVM-Regression
  • Hinter den Kulissen linearer SVM-Klassifikatoren
  • Übungen
  • Kapitel 6: Entscheidungsbäume
  • Trainieren und Visualisieren eines Entscheidungsbaums
  • Vorhersagen treffen
  • Schätzen von Wahrscheinlichkeiten für Kategorien
  • Der CART-Trainingsalgorithmus
  • Komplexität der Berechnung
  • Gini-Unreinheit oder Entropie?
  • Hyperparameter zur Regularisierung
  • Regression
  • Empfindlichkeit für die Ausrichtung der Achsen
  • Entscheidungsbäume haben eine größere Varianz
  • Übungen
  • Kapitel 7: Ensemble Learning und Random Forests
  • Abstimmverfahren unter Klassifikatoren
  • Bagging und Pasting
  • Zufällige Patches und Subräume
  • Random Forests
  • Boosting
  • Stacking
  • Übungen
  • Kapitel 8: Dimensionsreduktion
  • Der Fluch der Dimensionalität
  • Die wichtigsten Ansätze zur Dimensionsreduktion
  • Hauptkomponentenzerlegung (PCA)
  • Zufallsprojektion
  • LLE
  • Weitere Techniken zur Dimensionsreduktion
  • Übungen
  • Kapitel 9: Techniken des unüberwachten Lernens
  • Clustering-Algorithmen: k-Means und DBSCAN
  • Gaußsche Mischverteilung
  • Übungen
  • Kapitel 10: Einführung in künstliche neuronale Netze mit Keras
  • Von biologischen zu künstlichen Neuronen
  • MLPs mit Keras implementieren
  • Feinabstimmung der Hyperparameter eines neuronalen Netzes
  • Übungen
  • Kapitel 11: Trainieren von Deep-Learning-Netzen
  • Das Problem schwindender/explodierender Gradienten
  • Wiederverwenden vortrainierter Schichten
  • Schnellere Optimierer
  • Vermeiden von Overfitting durch Regularisierung
  • Zusammenfassung und praktische Tipps
  • Übungen
  • Kapitel 12: Eigene Modelle und Training mit TensorFlow
  • Ein kurzer Überblick über TensorFlow
  • TensorFlow wie NumPy einsetzen
  • Modelle und Trainingsalgorithmen anpassen
  • Funktionen und Graphen in TensorFlow
  • Übungen
  • Kapitel 13: Daten mit TensorFlow laden und vorverarbeiten
  • Die tf.data-API
  • Das TFRecord-Format
  • Vorverarbeitungsschichten von Keras
  • Das TensorFlow-Datasets-Projekt
  • Übungen
  • Kapitel 14: Deep Computer Vision mit Convolutional Neural Networks
  • Der Aufbau des visuellen Cortex
  • Convolutional Layers
  • Pooling Layers
  • Architekturen von CNNs
  • Ein ResNet-34-CNN mit Keras implementieren
  • Vortrainierte Modelle aus Keras einsetzen
  • Vortrainierte Modelle für das Transfer Learning
  • Klassifikation und Lokalisierung
  • Objekterkennung
  • Objektverfolgung
  • Semantische Segmentierung
  • Übungen
  • Kapitel 15: Verarbeiten von Sequenzen mit RNNs und CNNs
  • Rekurrente Neuronen und Schichten
  • RNNs trainieren
  • Eine Zeitserie vorhersagen
  • Arbeit mit langen Sequenzen
  • Übungen
  • Kapitel 16: Verarbeitung natürlicher Sprache mit RNNs und Attention
  • Shakespearesche Texte mit einem Character-RNN erzeugen
  • Sentimentanalyse
  • Ein Encoder-Decoder-Netzwerk für die neuronale maschinelle Übersetzung
  • Attention-Mechanismen
  • Eine Lawine an Transformer-Modellen
  • Vision Transformers
  • Die Transformers-Bibliothek von Hugging Face
  • Übungen
  • Kapitel 17: Autoencoder, GANs und Diffusionsmodelle
  • Effiziente Repräsentation von Daten
  • Hauptkomponentenzerlegung mit einem untervollständigen linearen Autoencoder
  • Stacked Autoencoder
  • Convolutional Autoencoder
  • Denoising Autoencoders
  • Sparse Autoencoders
  • Variational Autoencoders
  • Generative Adversarial Networks
  • Übungen
  • Kapitel 18: Reinforcement Learning
  • Lernen zum Optimieren von Belohnungen
  • Suche nach Policies
  • Einführung in OpenAI Gym
  • Neuronale Netze als Policies
  • Auswerten von Aktionen: das Credit-Assignment- Problem
  • Policy-Gradienten
  • Markov-Entscheidungsprozesse
  • Temporal Difference Learning
  • Q-Learning
  • Deep-Q-Learning implementieren
  • Deep-Q-Learning-Varianten
  • Überblick über beliebte RL-Algorithmen
  • Übungen
  • Kapitel 19: TensorFlow-Modelle skalierbar trainieren und deployen
  • Ein TensorFlow-Modell ausführen
  • Ein Modell auf ein Mobile oder Embedded Device deployen
  • Ein Modell auf einer Webseite laufen lassen
  • Mit GPUs die Berechnungen beschleunigen
  • Modelle auf mehreren Devices trainieren
  • Übungen
  • Vielen Dank!
  • Anhang A: Checkliste für Machine- Learning-Projekte
  • Anhang B: Autodiff
  • Anhang C: Spezielle Datenstrukturen
  • Anhang D: TensorFlow-Graphen
  • Index

Ähnliche Titel

    Mehr von diesem Autor