Deep Learning – Grundlagen und Implementierung

Neuronale Netze mit Python und PyTorch programmieren

Seth Weidman

Cite this publication as

Seth Weidman, Deep Learning – Grundlagen und Implementierung (2020), O'Reilly Verlag, Heidelberg, ISBN: 9783960103783

11323
accesses
29
quotes

Description / Abstract


Grundprinzipien und Konzepte neuronaler Netze systematisch und verständlich erklärt



  • Deep-Learning-Grundlagen für Data Scientists und Softwareentwickler mit Erfahrung im Machine Learning

  • Implementierung der Deep-Learning-Konzepte mit dem beliebten Framework PyTorch

  • Zahlreiche Codebeispiele in Python verdeutlichen die konkrete Umsetzung



Dieses Buch vermittelt Ihnen das konzeptionelle und praktische Rüstzeug, um ein tiefes Verständnis für die Funktionsweise neuronaler Netze zu bekommen. Sie lernen die Grundprinzipien des Deep Learning kennen, zu deren Veranschaulichung Seth Weidman gut nachvollziehbare Konzeptmodelle entwickelt hat, die von Codebeispielen begleitet werden. Das Buch eignet sich für Data Scientists und Softwareentwickler mit Erfahrung im Machine Learning.
Sie beginnen mit den Basics des Deep Learning und gelangen schnell zu den Details fortgeschrittener Architekturen, indem Sie deren Aufbau von Grund auf neu implementieren. Dabei lernen Sie mehrschichtige neuronale Netze wie Convolutional und Recurrent Neural Networks kennen. Diese neuronalen Netzwerkkonzepte setzen Sie dann mit dem beliebten Framework PyTorch praktisch um. Auf diese Weise bauen Sie ein fundiertes Wissen darüber auf, wie neuronale Netze mathematisch, rechnerisch und konzeptionell funktionieren.

Description

Seth Weidman ist Data Scientist. Er teilt seine Zeit auf zwischen der Lösung von Machine-Learning-Problemen bei Facebook und seinem Engagement für PyTorch. Zuvor war er im Bereich Machine Learning bei Trunk Club tätig und hat später Machine Learning und Deep Learning im Corporate Training Team von Metis unterrichtet. Seine Passion ist es, komplexe Konzepte einfach zu erklären.

Table of content

  • BEGINN
  • Inhalt
  • Einführung
  • Kapitel 1: Grundbausteine
  • Funktionen
  • Ableitungen
  • Verschachtelte Funktionen
  • Die Kettenregel
  • Ein etwas längeres Beispiel
  • Funktionen mit mehreren Eingaben
  • Ableitungen von Funktionen mit mehreren Eingaben
  • Funktionen mit mehrfachen Vektoreingaben
  • Aus vorhandenen Merkmalen neue Merkmale erstellen
  • Ableitungen von Funktionen mit mehreren Vektoreingaben
  • Vektorfunktionen und ihre Ableitungen: der nächste Schritt
  • Rechengraph mit zwei 2-D-Matrizen als Eingabe
  • Der angenehme Teil: die Rückwärtspropagation
  • Schlussbemerkung
  • Kapitel 2: Erste Modelle
  • Überblick über das überwachte Lernen
  • Modelle für das überwachte Lernen
  • Lineare Regression
  • Das Modell trainieren
  • Das Modell bewerten: Trainingsdaten oder Testdaten?
  • Das Modell bewerten: der Code
  • Neuronale Netze von Grund auf
  • Unser erstes neuronales Netz trainieren und bewerten
  • Schlussbemerkung
  • Kapitel 3: Deep Learning von Grund auf
  • Definition des Deep Learning: ein erster Durchgang
  • Bausteine neuronaler Netze: Operationen
  • Bausteine neuronaler Netze: Schichten
  • Die Bausteine zusammensetzen
  • Die NeuralNetwork-Klasse und vielleicht noch ein paar andere
  • Deep-Learning-Basics
  • Trainer und Optimizer
  • Die Einzelteile zusammenfügen
  • Schlussbemerkung und nächste Schritte
  • Kapitel 4: Techniken zur Verbesserung des Trainings
  • Etwas Grundverständnis zu neuronalen Netzen
  • Die Softmax-Kreuzentropie als Abweichungsfunktion
  • Experimente
  • Momentum
  • Lernratenabnahme (Learning Rate Decay)
  • Gewichtungsinitialisierung
  • Dropout
  • Schlussbemerkung
  • Kapitel 5: CNNs – Faltungsbasierte neuronale Netze
  • Neuronale Netze und merkmalgesteuertes Lernen
  • Faltungsschichten (Convolutional Layers)
  • Eine mehrkanalige Faltungsoperation implementieren
  • Die Operation verwenden, um ein CNN zu trainieren
  • Schlussbemerkung
  • Kapitel 6: RNNs – Rekurrente neuronale Netze
  • Die Hauptbeschränkung: mit Verzweigungen umgehen
  • Automatische Differenzierung
  • Gründe für die Verwendung rekurrenter neuronaler Netze
  • Einführung in rekurrente neuronale Netze
  • RNNs: der Code
  • Schlussbemerkung
  • Kapitel 7: PyTorch
  • PyTorch-Tensoren
  • Deep Learning mit PyTorch
  • Faltungsbasierte neuronale Netze mit PyTorch
  • Nachtrag: Unüberwachtes Lernen mit Autoencodern
  • Schlussbemerkung
  • Anhang A: Die Feinheiten
  • Index

Related titles

    More of this author(s)