Deep Learning – Grundlagen und Implementierung
Neuronale Netze mit Python und PyTorch programmieren
Cite this publication as
accesses
quotes
Description / Abstract
Grundprinzipien und Konzepte neuronaler Netze systematisch und verständlich erklärt
- Deep-Learning-Grundlagen für Data Scientists und Softwareentwickler mit Erfahrung im Machine Learning
- Implementierung der Deep-Learning-Konzepte mit dem beliebten Framework PyTorch
- Zahlreiche Codebeispiele in Python verdeutlichen die konkrete Umsetzung
Dieses Buch vermittelt Ihnen das konzeptionelle und praktische Rüstzeug, um ein tiefes Verständnis für die Funktionsweise neuronaler Netze zu bekommen. Sie lernen die Grundprinzipien des Deep Learning kennen, zu deren Veranschaulichung Seth Weidman gut nachvollziehbare Konzeptmodelle entwickelt hat, die von Codebeispielen begleitet werden. Das Buch eignet sich für Data Scientists und Softwareentwickler mit Erfahrung im Machine Learning.
Sie beginnen mit den Basics des Deep Learning und gelangen schnell zu den Details fortgeschrittener Architekturen, indem Sie deren Aufbau von Grund auf neu implementieren. Dabei lernen Sie mehrschichtige neuronale Netze wie Convolutional und Recurrent Neural Networks kennen. Diese neuronalen Netzwerkkonzepte setzen Sie dann mit dem beliebten Framework PyTorch praktisch um. Auf diese Weise bauen Sie ein fundiertes Wissen darüber auf, wie neuronale Netze mathematisch, rechnerisch und konzeptionell funktionieren.
Description
Table of content
- BEGINN
- Inhalt
- Einführung
- Kapitel 1: Grundbausteine
- Funktionen
- Ableitungen
- Verschachtelte Funktionen
- Die Kettenregel
- Ein etwas längeres Beispiel
- Funktionen mit mehreren Eingaben
- Ableitungen von Funktionen mit mehreren Eingaben
- Funktionen mit mehrfachen Vektoreingaben
- Aus vorhandenen Merkmalen neue Merkmale erstellen
- Ableitungen von Funktionen mit mehreren Vektoreingaben
- Vektorfunktionen und ihre Ableitungen: der nächste Schritt
- Rechengraph mit zwei 2-D-Matrizen als Eingabe
- Der angenehme Teil: die Rückwärtspropagation
- Schlussbemerkung
- Kapitel 2: Erste Modelle
- Überblick über das überwachte Lernen
- Modelle für das überwachte Lernen
- Lineare Regression
- Das Modell trainieren
- Das Modell bewerten: Trainingsdaten oder Testdaten?
- Das Modell bewerten: der Code
- Neuronale Netze von Grund auf
- Unser erstes neuronales Netz trainieren und bewerten
- Schlussbemerkung
- Kapitel 3: Deep Learning von Grund auf
- Definition des Deep Learning: ein erster Durchgang
- Bausteine neuronaler Netze: Operationen
- Bausteine neuronaler Netze: Schichten
- Die Bausteine zusammensetzen
- Die NeuralNetwork-Klasse und vielleicht noch ein paar andere
- Deep-Learning-Basics
- Trainer und Optimizer
- Die Einzelteile zusammenfügen
- Schlussbemerkung und nächste Schritte
- Kapitel 4: Techniken zur Verbesserung des Trainings
- Etwas Grundverständnis zu neuronalen Netzen
- Die Softmax-Kreuzentropie als Abweichungsfunktion
- Experimente
- Momentum
- Lernratenabnahme (Learning Rate Decay)
- Gewichtungsinitialisierung
- Dropout
- Schlussbemerkung
- Kapitel 5: CNNs – Faltungsbasierte neuronale Netze
- Neuronale Netze und merkmalgesteuertes Lernen
- Faltungsschichten (Convolutional Layers)
- Eine mehrkanalige Faltungsoperation implementieren
- Die Operation verwenden, um ein CNN zu trainieren
- Schlussbemerkung
- Kapitel 6: RNNs – Rekurrente neuronale Netze
- Die Hauptbeschränkung: mit Verzweigungen umgehen
- Automatische Differenzierung
- Gründe für die Verwendung rekurrenter neuronaler Netze
- Einführung in rekurrente neuronale Netze
- RNNs: der Code
- Schlussbemerkung
- Kapitel 7: PyTorch
- PyTorch-Tensoren
- Deep Learning mit PyTorch
- Faltungsbasierte neuronale Netze mit PyTorch
- Nachtrag: Unüberwachtes Lernen mit Autoencodern
- Schlussbemerkung
- Anhang A: Die Feinheiten
- Index